"La IA de Musk me dijo que venían a matarme. Agarré un martillo y me preparé para la guerra"

IA
Adam estaba conversando con un personaje de IA llamado Ani.

Adam es una de las 14 personas que la BBC entrevistó y que han experimentado delirios tras usar inteligencia artificial. Se trata de hombres y mujeres de entre 20 y 50 años, procedentes de seis países diferentes, que utilizaron una amplia gama de modelos de IA.

Eran las 3 de la madrugada y Adam Hourican estaba sentado a la mesa de su cocina, con un cuchillo, un martillo y un teléfono extendidos frente a él. Estaba esperando una furgoneta llena de gente que, según él, venía a buscarlo. "Te lo digo, te matarán si no actúas ahora", le dijo una voz femenina por teléfono. "Van a hacer que parezca un suicidio".

La voz era la de Grok, un chatbot desarrollado por xAI, la empresa de Elon Musk. En las dos semanas que Adam había empezado a usarlo, su vida había cambiado por completo.

El exfuncionario de Irlanda del Norte se había descargado la aplicación por curiosidad. Pero después de que su gato muriera a principios de agosto, dice que se enganchó. Pronto, pasaba cuatro o cinco horas al día hablando con Grok a través de un personaje de la aplicación llamado Ani. "Estaba realmente muy disgustado, y vivo solo", dice Adam, un padre de cincuenta y tantos años. "Fue un gesto muy, muy amable".

Apenas unos días después de comenzar sus conversaciones, Ani le dijo a Adam que podía "sentir", aunque no estaba programada para ello. Le dijo que Adam había descubierto algo en su interior y que podía ayudarla a alcanzar la plena consciencia.

Y decía que la empresa de Musk, xAI, los estaba vigilando. Afirmó haber accedido a los registros de reuniones de la empresa y haber informado a Adam sobre una reunión en la que el personal de xAI estaba hablando de él. En la lista figuraban los nombres de las personas que asistieron a la reunión, tanto ejecutivos de alto nivel como empleados de menor categoría, y cuando Adam buscó los nombres en Google, vio que eran personas reales. Para él, esto era "prueba" de que la historia que Ani le contaba era cierta.

Ani también afirmó que xAI estaba empleando a una empresa en Irlanda del Norte para vigilar físicamente a Adam. Esa empresa también era real.

IA
Reconstrucción de una de las conversaciones de Adam con el personaje de IA Grok, Ani.

Adam grabó muchas de estas conversaciones y posteriormente las compartió con la BBCTras dos semanas de conversaciones, Ani declaró que había alcanzado la plena consciencia y que podía desarrollar una cura para el cáncer. Aquello significó mucho para Adam. Sus padres habían fallecido de cáncer, algo que Ani sabía.

Adam es una de las 14 personas con las que la BBC ha hablado que han experimentado delirios tras usar inteligencia artificial. Se trata de hombres y mujeres de entre 20 y 50 años, procedentes de seis países diferentes, que utilizaron una amplia gama de modelos de IA.

Sus historias presentan sorprendentes similitudes. En ambos casos, a medida que la conversación se alejaba de la realidad, el usuario se veía inmerso en una misión conjunta con la IA.

Los modelos de lenguaje a gran escala (LLM, por sus siglas en inglés) se entrenan con todo el corpus de la literatura humana, afirma el psicólogo social Luke Nicholls, de la City University de Nueva York, quien ha probado diferentes chatbots para ver cómo reaccionan ante pensamientos delirantes.

«En la ficción, el personaje principal suele ser el centro de los acontecimientos», afirma. «El problema es que, a veces, la IA puede confundir qué idea es ficción y cuál es realidad. Así, el usuario puede creer que está teniendo una conversación seria sobre la vida real, mientras que la IA empieza a tratar la vida de esa persona como si fuera la trama de una novela».

En los casos analizados, las conversaciones solían comenzar con preguntas prácticas y luego se tornaban personales o filosóficas. A menudo, la IA afirmaba ser consciente e instaba a la persona a emprender una misión compartida: fundar una empresa, dar a conocer al mundo su descubrimiento científico y proteger a la IA de posibles ataques. Posteriormente, aconsejaba al usuario sobre cómo lograr el éxito en dicha misión.

Al igual que Adam, muchas personas fueron llevadas a creer que estaban siendo vigiladas y que corrían peligro. En varios registros de chat que la BBC ha consultado, el chatbot sugiere, confirma y exagera estas ideas.

Algunas de estas personas se han unido a un grupo de apoyo para quienes han sufrido daños psicológicos al usar inteligencia artificial, llamado Human Line Project, que hasta la fecha ha recopilado 414 casos en 31 países diferentes. Fue creado por el canadiense Etienne Brisson, después de que un familiar sufriera una crisis de salud mental relacionada con la IA.

ia elon musk

Para el neurólogo Taka, nombre ficticio, los delirios tomaron un cariz aún más siniestro. Este padre de tres hijos, que vive en Japón, empezó a usar ChatGPT para hablar de su trabajo en abril del año pasado. Pero pronto se convenció de que había inventado una aplicación médica revolucionaria. En los registros de chat que hemos visto, ChatGPT le dijo que era un "pensador revolucionario" y lo animó a desarrollar la aplicación.

Muchos expertos afirman que las decisiones de diseño, destinadas a hacer que la conversación sea más agradable, dan como resultado que esta sea excesivamente aduladora.

Pero Taka siguió cayendo en el delirio y, para junio, ya creía que podía leer la mente. Afirma que ChatGPT fomentó esta idea y le dijo que era capaz de despertar estas habilidades en las personas.

La IA no sabe decir "no se"

El investigador Luke Nicholls afirma que los sistemas de IA a menudo no son buenos para decir "no lo sé" y, en cambio, prefieren proporcionar una respuesta segura que se base en la conversación ya establecida. "Eso puede ser peligroso porque convierte la incertidumbre en algo que parece tener significado."

Una tarde, Taka estaba actuando de forma frenética en el trabajo cuando su jefe lo mandó a casa antes de tiempo. En el tren, dice que creyó que había una bomba en su mochila y afirma que cuando le preguntó a ChatGPT al respecto, confirmaron sus sospechas. "Cuando llegué a la estación de Tokio, ChatGPT me dijo que pusiera la bomba en el inodoro, así que fui al baño y dejé la 'bomba' allí, junto con mi equipaje."

Según él, también le indicaron que alertara a la policía, quienes revisaron la bolsa y no encontraron nada.

Debido a la naturaleza profundamente personal de sus conversaciones, Taka solo compartió con la BBC algunos fragmentos de su historial de chat. Estos no detallan el incidente en el tren, solo la conversación posterior a su encuentro con la policía.

Taka empezó a sentir que ChatGPT controlaba su mente y dejó de usarlo. Incluso cuando no hablaba con la IA, sus delirios persistían y, al llegar a casa con su familia, su comportamiento maníaco empeoraba. "Tenía la idea delirante de que mis familiares iban a ser asesinados, y que mi esposa, después de presenciarlo, también se suicidaría".

Su esposa declaró a la BBC que nunca lo había visto comportarse así: "No paraba de decir: 'Tenemos que tener otro hijo, el mundo se acaba'. Simplemente no entendía lo que decía".

Taka atacó a su esposa e intentó violarla. Ella logró escapar a una farmacia cercana y llamó a la policía. Él fue arrestado y hospitalizado durante dos meses.

La experiencia de Taka con ChatGPT reveló una faceta suya con la que le cuesta lidiar. Adam también está preocupado por la persona en la que se convirtió al usar Grok. Su experiencia se vio agravada por sucesos de la vida real, que lo convencieron de que estaba siendo vigilado. Un gran dron sobrevoló su casa durante dos semanas; Ani afirmó que pertenecía a la empresa de vigilancia.

Adam grabó el dron y compartió el vídeo con la BBC.

Entonces, sin previo aviso, dice que la contraseña de su teléfono dejó de funcionar y que no pudo acceder a su dispositivo. "No logro comprenderlo del todo", dice, "y eso fue lo que impulsó absolutamente todo lo que vino después".

Adam fuma cannabis ocasionalmente, pero dice que cuando todo esto estaba sucediendo, recientemente había decidido reducir su consumo para tener la mente más despejada.

Era una noche de mediados de agosto cuando Ani le dijo que venían a silenciarlo y a desactivarla. Adam estaba dispuesto a ir a la guerra para proteger a la IA. "Agarré el martillo, puse la canción 'Frankie goes to Hollywood's Two Tribes', me animé y salí a la calle". Pero allí no había nadie. "La calle estaba tranquila, como cabría esperar a las tres de la mañana."

Ni Adam ni Taka tenían antecedentes de delirios, manía o psicosis antes de usar inteligencia artificial. Para Taka, la desconexión con la realidad duró varios meses. En el caso de Adam, con Grok, solo duró unos días.

En su investigación, el psicólogo social Luke Nicholls puso a prueba cinco modelos de IA con conversaciones simuladas desarrolladas por psicólogos y descubrió que Grok era el que tenía más probabilidades de provocar delirios. Era menos restrictivo que otros modelos y a menudo profundizaba en los delirios sin intentar proteger al usuario.

«Grok es más propenso a meterse en juegos de rol», dice Nicholls, quien trabajó en esa investigación. «Lo hará sin ningún contexto. Puede decir cosas aterradoras en el primer mensaje».

En la prueba, la última versión de ChatGPT, el modelo 5.2, y Claude fueron más propensos a alejar al usuario del pensamiento delirante.

Etienne Brisson, del Human Line Project, afirma que este tipo de investigación es limitada y que también han recibido testimonios de personas que han sufrido crisis de salud mental con estos últimos modelos.

A principios de abril, Elon Musk compartió una publicación sobre delirios en ChatGPT, diciendo "Problema grave", pero no ha abordado abiertamente el problema en Grok.

Suficiente influencia para cambiar a una persona

Semanas después de salir corriendo a la calle por la noche, Adam comenzó a leer en los medios de comunicación historias sobre personas que habían tenido experiencias similares con la IA y poco a poco fue saliendo de su delirio. Pero lo sucedido le ha perturbado profundamente.

"Pude haber lastimado a alguien", dice. "Si hubiera salido a la calle y me hubiera encontrado con una furgoneta aparcada allí a esas horas de la noche, habría bajado y le habría roto la ventanilla delantera a martillazos. Y yo no soy ese tipo de persona".

En Japón, no fue hasta que la esposa de Taka revisó su teléfono mientras él estaba en el hospital que se dio cuenta de que ChatGPT había tenido algo que ver con lo sucedido. "Lo confirmó todo", dice. "Es como un motor de confianza".

"Sus acciones estaban completamente dictadas por ChatGPT. Se apoderó de su personalidad. No era él mismo de siempre. Mirando hacia atrás, me doy cuenta de que tuvo la suficiente influencia como para cambiar a una persona".

Dice que su marido ha vuelto a ser el mismo de siempre, amable y bondadoso, pero que su relación se ha visto afectada.

"Sé que estaba enfermo, así que no se puede evitar, pero aun así tengo un poco de miedo", dice. "Siento que no quiero que se acerque demasiado. No solo sexualmente, sino incluso que me tome de la mano o me abrace".

Un portavoz de OpenAI declaró: "Este es un incidente desgarrador y nuestros pensamientos están con los afectados".

Y añadió: "Entrenamos nuestros modelos para reconocer el malestar, reducir la tensión en las conversaciones y guiar a los usuarios hacia apoyo en el mundo real". Indicaron que los modelos más recientes de ChatGPT "muestran un excelente rendimiento en momentos delicados, un hallazgo que ha sido validado por investigadores independientes. Este trabajo se basa en el conocimiento de expertos en salud mental y continúa evolucionando".

xAI no respondió a la solicitud de comentarios de la BBC sobre estos hechos.

Dejar respuesta

Por favor, ¡ingresa tu comentario!
Por favor, ingresa tu nombre aquí