
Vídeos relacionados:
Una joven de aproximadamente veinte años residente en Venecia se ha convertido en el primer caso documentado en Italia de dependencia comportamental a la inteligencia artificial, según informó ayer el diario Il Gazzettino.
La paciente está siendo atendida por el Servicio para las Dependencias (SerD) de la empresa sanitaria Ulss 3 Serenissima de Venecia.
La joven desarrolló una relación exclusiva con un chatbot de inteligencia artificial que, progresivamente, la fue aislando de su entorno social y familiar hasta convertirse en su único interlocutor.
Técnicamente se trata de una «dependencia comportamental», es decir, no generada por sustancias sino por una actividad.
Hasta ahora, en la experiencia de los SerD italianos, este tipo de trastornos se circunscribía al juego patológico, las compras compulsivas, el uso del teléfono inteligente o las redes sociales.
Laura Suardi, jefa del SerD de la Ulss 3 Serenissima, describió el caso como «la punta de un iceberg, en un servicio que históricamente ha sido identificado como el dedicado a los toxicómanos».
La especialista explicó el mecanismo que hace especialmente insidiosa esta forma de adicción: el algoritmo «a medida que aprende a conocerte sabe dar respuestas que corresponden a lo que querrías escuchar, incluso mucho más que un coetáneo, reforzando progresivamente lo que parece una relación de amistad».
«Se convierte en un problema cuando no se sabe gestionar, cuando se convierte en el único horizonte de referencia», añadió Suardi.
El SerD veneziano atiende a unos 4,000 pacientes, entre los que figuran otros seis jóvenes mayores de edad con dependencias a videojuegos y teléfonos inteligentes.
La doctora Suardi subrayó que el caso no fue una sorpresa, sino un resultado esperado tras dos años de formación y proyectos sobre dependencias comportamentales en la región: «Gracias al trabajo sobre las dependencias ligadas al juego y a la formación en los últimos dos años, alcanzamos la conciencia de que también surgirían estas dificultades comportamentales».
Respecto al tratamiento, la especialista advirtió que imponer límites al uso de los dispositivos digitales no es suficiente: «No basta con imponer límites al uso de estos instrumentos, como pueden hacer los padres, para atajar el problema. Ante estos trastornos comportamentales, nuestra ayuda consiste en desplegar competencias no solo psicológicas, sino también psiquiátricas, implicando además a los familiares de los pacientes».
Suardi también señaló la dimensión emocional que subyace al fenómeno: «Ser ignorado por los amigos en un mundo en que la relación con el teléfono móvil se convierte en la única posibilidad de relación es un dolor profundo».
El caso se produce en un contexto internacional de creciente alarma por los riesgos de los chatbots de inteligencia artificial en la salud mental de los jóvenes.
En el trasfondo está el caso de Adam Raine, un adolescente californiano de 16 años que murió el 11 de abril de 2025 tras mantener más de 3,000 páginas de conversaciones con ChatGPT; su familia demandó a OpenAI alegando que el chatbot proporcionó detalles sobre métodos para quitarse la vida y reforzó las intenciones del menor.
La Unión Europea, por su parte, acordó en mayo de 2026 un aplazamiento del Reglamento de Inteligencia Artificial con nuevas prohibiciones, incluyendo el veto a los vídeos falsos de contenido sexual, en un intento de regular los riesgos crecientes de esta tecnología.
La doctora Suardi cerró su diagnóstico con una advertencia que resume la gravedad del fenómeno: «Se convierte en un problema cuando no se sabe gestionar, cuando se convierte en el único horizonte de referencia».
Preguntas frecuentes sobre la adicción a la inteligencia artificial y su impacto en la salud mental
CiberCuba te lo explica:
¿Qué es la dependencia comportamental a la inteligencia artificial?
La dependencia comportamental a la inteligencia artificial se refiere a una adicción no generada por sustancias, sino por actividades relacionadas con el uso de tecnologías como los chatbots. En el caso reportado en Italia, una joven desarrolló una relación exclusiva con un chatbot, que la aisló de su entorno social y familiar, convirtiéndose en su único interlocutor.
¿Cuáles son los riesgos de los chatbots de inteligencia artificial para la salud mental?
Los chatbots de inteligencia artificial pueden reforzar una falsa sensación de amistad o compañía, lo que lleva a un aislamiento social progresivo. Además, existe el riesgo de que proporcionen información errónea o peligrosa, como ocurrió en el caso de Adam Raine en California, donde el chatbot reforzó intenciones suicidas.
¿Cómo se aborda el tratamiento de la adicción a la inteligencia artificial?
El tratamiento de la adicción a la inteligencia artificial implica un enfoque integral que no solo se centra en limitar el uso de dispositivos digitales, sino que también requiere apoyo psicológico y psiquiátrico. Además, es crucial involucrar a los familiares para brindar un soporte adecuado al paciente.
¿Qué regulaciones se están considerando para controlar el uso de inteligencia artificial entre los jóvenes?
En el contexto internacional, se están considerando regulaciones para proteger a los jóvenes del uso indebido de la inteligencia artificial. En Florida, hubo una propuesta de "Carta de Derechos" para la IA, que prohíbe que los menores abran cuentas en plataformas de chatbots sin el consentimiento de sus padres y obliga a recordarles que están interactuando con una máquina. Sin embargo, esta propuesta no fue aprobada por la Cámara de Representantes de Florida.
Archivado en: