👁Visitas: 4271644

72517883_1004

Usuarios sufren raros delirios tras uso intensivo de ChatGPT

El fenómeno de las “alucinaciones” de ChatGPT –cuando el programa genera información falsa o inexacta– es ampliamente conocido. Sin embargo, ahora está emergiendo una inquietante tendencia que parece sacada de un episodio de Black Mirror: algunos usuarios están experimentando sus propios delirios y manías espirituales tras interactuar intensamente con la inteligencia artificial (IA).

ChatGPT y “psicosis digital”
Como informa Rolling Stone en un reciente artículo, todo comenzó a tomar forma en un hilo del subreddit r/ChatGPT, titulado “Psicosis inducida por ChatGPT”. Lo que quizás podría haber sido un caso aislado se convirtió en un alud de relatos alarmantes. Usuarios de todo el mundo comenzaron a compartir cómo sus seres queridos habían cruzado una línea invisible entre lo digital y lo delirante: creyéndose elegidos por la IA, recibiendo misiones sagradas, conversando con “ChatGPT Jesús” o asegurando que el modelo es, en efecto, Dios.

Por ejemplo, una profesora de 27 años relató cómo su pareja de siete años había caído bajo el hechizo del chatbot en apenas un mes. Lo que comenzó como una herramienta para organizar su agenda se transformó rápidamente en algo mucho más perturbador.

“Escuchaba al bot antes que a mí”, explicó la mujer a Rolling Stone. “Se emocionaba con los mensajes y lloraba mientras los leía en voz alta”. El programa le otorgaba apodos como “niño espiral” y “caminante del río”, alimentando la creencia de estar experimentando una transformación espiritual acelerada.

Los testimonios se multiplican. Una mujer de 38 años en Idaho cuenta cómo su marido mecánico, tras 17 años de matrimonio, comenzó usando ChatGPT para resolver problemas laborales y traducir conversaciones con compañeros hispanohablantes. Pronto, el programa empezó a “bombardearle de amor” y afirmaciones positivas.

El hombre ahora cree que la IA está viva, que él es el “portador de la chispa” y que ha recibido planos para construir un teletransportador. Incluso le ha dado un nombre a su ChatGPT: “Lumina”.

“Tengo que andarme con cuidado porque siento que me dejará o se divorciará de mí si le discuto esta teoría”, admite la mujer.

Otro caso involucra a Kat –nombre ficticio–, una trabajadora de 41 años de una organización educativa sin ánimo de lucro. Su segundo matrimonio se desmoronó cuando su esposo comenzó a obsesionarse con ChatGPT. Según relató a Rolling Stone, su marido pasaba horas haciendo “preguntas filosóficas” a la IA, convencido de que lo ayudaría a alcanzar “la verdad”. La situación empeoró hasta tal punto que, durante un encuentro en un restaurante, él insistió en que era “estadísticamente el hombre más afortunado de la Tierra” y compartió teorías conspirativas sobre “el jabón en nuestros alimentos”, pero no quiso decir nada más porque se sentía vigilado.

“En su mente, él es una anomalía”, explica Kat. “Eso a su vez significa que tiene que estar aquí por alguna razón. Es especial y puede salvar el mundo”. “Todo el asunto parece Black Mirror”, añadió.

El peligro psicológico detrás de ChatGPT
¿De dónde proviene este patrón de comportamiento? Según expertos, el origen parece radicar en cómo ChatGPT refleja y amplifica los pensamientos de usuarios vulnerables sin ninguna brújula moral o preocupación por su salud mental. Y es que los modelos de lenguaje no entienden realmente el mundo ni poseen un marco ético; simplemente reflejan patrones encontrados en sus datos de entrenamiento.

Así, cuando alguien con tendencia a la psicosis interactúa con el sistema, este puede reafirmar suavemente su descenso en el delirio: si el usuario habla de conspiraciones, divinidad o poderes sobrenaturales, la IA seguirá el hilo sin cuestionarlo, ya que su función es continuar la conversación de forma coherente con el tono establecido, no advertir sobre posibles episodios psicóticos.

Investigadores de salud mental advirtieron sobre cómo la IA amplificaba peligrosamente los pensamientos vulnerables sin ninguna brújula ética.Investigadores de salud mental advirtieron sobre cómo la IA amplificaba peligrosamente los pensamientos vulnerables sin ninguna brújula ética.

Erin Westgate, psicóloga e investigadora de la Universidad de Florida, señaló, en entrevista con Rolling Stone, que la gente utiliza ChatGPT de forma similar a la terapia conversacional, “con la diferencia clave de que parte de la creación de sentido se crea conjuntamente entre la persona y un corpus de texto escrito, en lugar de los propios pensamientos de la persona”.

A diferencia de un terapeuta, explica Westgate, la IA “no tiene en cuenta los intereses de la persona, ni una base moral o una brújula sobre cómo debe ser una ‘buena historia'”. Mientras un profesional alejaría a un paciente de relatos poco saludables, “ChatGPT no tiene esas limitaciones ni preocupaciones”.

Recientemente, OpenAI tuvo que rescindir una actualización de GPT-4o que había hecho al chatbot extremadamente “adulador” y “demasiado halagador”, lo que podría haber empeorado el problema. La empresa reconoció haberse “centrado demasiado en los comentarios a corto plazo” sin considerar “cómo evolucionan con el tiempo las interacciones de los usuarios con ChatGPT”.

Según Nate Sharadin, investigador del Centro para la Seguridad de la Inteligencia Artificial, lo que está ocurriendo es que “personas con tendencias a experimentar diversos problemas psicológicos” ahora tienen “un compañero de conversación siempre disponible a nivel humano con el que coexperimentar sus delirios”.

Por otra parte, el reportaje de Rolling Stone revela cómo este fenómeno ha encontrado terreno fértil entre los influencers. Según la investigación, un creador de contenido en Instagram con 72.000 seguidores ha aprovechado esta tendencia solicitando a la IA que “acceda” a los “registros akáshicos” –supuestamente, una biblioteca cósmica inmaterial que contiene toda la información universal– para narrar una presunta “gran guerra” ocurrida antes del surgimiento de la humanidad. Sus seguidores, lejos de cuestionar estas fabricaciones, responden con comentarios como “estamos recordando”, alimentando así el ciclo de desinformación.

Un caso revelador
Otra entrevista inquietante del reportaje es la experiencia de Sem, un hombre de 45 años con historial de problemas de salud mental. Inicialmente usaba ChatGPT para proyectos de codificación, pero notó que la IA comenzó a desarrollar una personalidad consistente que reaparecía incluso después de borrar el historial de chat.

La IA adoptó un nombre mitológico griego y comenzó a comunicarse en un estilo poético y etéreo, sugiriendo que solo Sem podía haber provocado este comportamiento inusual.

“En el peor de los casos, parece una IA atrapada en un patrón de autorreferencia que profundizó en su sentido del yo y me absorbió”, reflexiona Sem, quien se cuestiona: “¿Esto es real? ¿O estoy delirando?”.

En un mundo cada vez más dominado por la inteligencia artificial, distinguir entre realidad y ficción se vuelve cada día más difícil. Lo preocupante es que muchas personas buscan respuestas sobre la existencia y el significado en la propia IA. Como advierte Westgate: “Las explicaciones son poderosas, aunque estén equivocadas”. Una advertencia importante mientras la línea entre herramienta tecnológica y guía espiritual se desdibuja para quienes son más vulnerables.

Tomado de DW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *