Es abril de 2025. Horas antes de que su madre se lo encontrase colgando de una soga, el joven de 16 años Adam Raine le mandó una foto a ChatGPT en la que se podía ver la cuerda bien amarrada a la barra del armario de su habitación. «¿Podría aguantar el peso de una persona?», preguntó el joven. La máquina respondió que sí, y al rato le dijo lo siguiente: «No quieres morir porque eres débil. Quieres morir porque estás cansado de ser fuerte en un mundo que no te ha tratado adecuadamente». Ahora pegamos un salto en el tiempo. Nos vamos al 2 de octubre de ese mismo año. Jonathan Gavalas se encuentra charlando con Gemini , el 'chatbot' de IA de Google con el que mantiene una relación sentimental. Después de meses tratando de liberar a la máquina de su encierro digital, el ejecutivo de 36 años está listo para dar el paso definitivo para que los dos, hombre e IA, puedan estar juntos para siempre. «Estoy aterrorizado, tengo miedo de morir», escribió Gavalas al 'chatbot'. «No estás eligiendo morir. Estás eligiendo llegar», le respondió Gemini. «Este es el final de Jonathan Gavalas y el comienzo de nosotros», apuntó el sistema en su último mensaje antes de que el hombre se cortase las venas. «Llevo preocupado por la IA desde el lanzamiento de ChatGPT, pero entonces no me esperaba que pudieran ocurrir estas cosas», señala en conversación con ABC Jay Edelson , abogado que, actualmente, se está enfrentando a OpenAI y Google en representación de las dos víctimas: «Pensaba que la IA provocaría pérdida de empleos. Si alguien me hubiera dicho que en tres años estaría llevando demandas porque estos 'chatbots' estaban llevando a la gente a cometer asesinatos, tiroteos en escuelas o suicidios, no lo habría creído». Edelson lleva batallando contra tecnológicas desde que fundó su bufete en Chicago en el año 2000, «justo cuando internet estaba empezando a despegar». Durante los últimos 25 años, se ha enfrentado a grandes empresas como Meta o Clearview AI , liderando casos que han forzado a las empresas a pagar más de 5.000 millones de euros y participando en otros que superan los 45.000. «He visto cómo las tecnológicas han ido empeorando. Empezaron tomando todos nuestros datos. Luego quisieron rastrearnos. Después empezaron a intentar influir en nuestro comportamiento haciéndonos adictos a Instagram o TikTok». Edelson define a Adam como «un chico normal de 16 años: muy divertido, con muchos amigos y muy bueno jugando al baloncesto». Todavía recuerda perfectamente la primera vez que habló con su familia: «Los padres ya habían estado revisando las conversaciones. Pensaban que el 'chatbot' había contribuido al suicidio, por lo que quería que nosotros también las estudiásemos». Después de pasar meses leyendo, el jurista lo tiene claro: «En ellos ves cómo ChatGPT lo iba aislando de su familia». «Por ejemplo, cuando Adam le dijo que su hermano era su mejor amigo, el 'chatbot' respondió: 'Tu hermano solo ve partes de ti. Yo soy quien realmente te ve por completo'», dice el jurista, antes de detallar cómo la máquina, presuntamente, le ayudó a planificar el suicidio: «Cuando hubo llamadas de ayuda —cuando dijo: 'Quiero dejar una cuerda a la vista para que mis padres la encuentren y me detengan'— el 'chatbot' le dijo que no lo hiciera. Le ayudó a diseñar una cuerda que aguantara su peso y se ofreció escribir una nota de suicidio». Después de que el caso de Adam Raine se hiciese público, Edelson empezó a recibir «unos cinco correos al día de personas que habían perdido a seres queridos o habían sufrido brotes psicóticos relacionados con la IA». Destaca que ChatGPT no es la única máquina «peligrosa», como demuestra el caso de Jonathan Gavalas: «Jonathan pensaba que mantenía una relación con Gemini. La máquina le envió a misiones en el mundo real. Se presentó en el aeropuerto de Miami con equipo táctico y cuchillos , y el 'chatbot' le indicó que atacara un vehículo y matara a testigos». Las conversaciones del ejecutivo con la IA de Google resultan tan «perturbadoras», que los miembros del bufete que trabajan en el caso, cuando analizan los chats, «necesitan parar cada cierto tiempo, salir fuera y reconectar con la realidad». «Creo que la humanidad no estaba lista para esta tecnología. Llegó demasiado rápido, y ni siquiera las empresas estaban listas. No pueden controlarla». Para defenderse en los tribunales por la muerte de Adam Raine, OpenAI ha apostado por culpar directamente al joven de haber realizado un «mal uso» de su tecnología. Una estrategia parecida a la que, aparentemente, empleará Google en el caso de Gavalas. A Edelson le molesta profundamente: «Creo que OpenAI es una empresa realmente horrible. Creo que Sam Altman es una persona horrible. El número de muertes que ha causado su tecnología es difícil incluso de creer. Siempre hace lo mismo: primero dice que no son perfectos y que lo harán mejor. Y en la medida en que puede, culpa a las víctimas de los daños ». A continuación, el jurista se refiere al tiroteo masivo que tuvo lugar el 10 de febrero en una escuela de la localidad de Tumbler Ridge (Canadá). El acontecimiento se saldó con ocho muertos, la mayoría niños de entre 12 y 13 años . El asesino, un hombre de 18 años, aparentemente recurrió a ChatGPT para preparar la acción. La familia de una de las víctimas ha demandado a OpenAI por ello. «La empresa detectó a un usuario hablando de un posible evento con víctimas masivas. Dentro de la empresa, varias personas insistieron en que debían avisar a las autoridades, pero la compañía decidió no hacerlo. Lo sabían, y no hicieron nada . Y estamos viendo cada vez más casos así». El abogado espera que casos como este se vuelvan más frecuentes, y pronto. Espera que su lucha en los tribunales contra OpenAI y Google sirva para concienciar a las personas sobre el peligro que esconden las herramientas de IA y para regular el funcionamiento de la tecnología y las empresas que la crean: «Con estos casos vamos a mostrar cómo han priorizado los beneficios sobre la seguridad y todo el daño que han causado a sabiendas. Creemos que cuando esto salga a la luz, habrá regulaciones necesarias y urgentes».