Consternación en Bélgica por el suicidio de un hombre de 30 años motivado por un chat de Inteligencia Artificial (IA). Según declaraciones de la pareja de la víctima, hechas a los medios locales, su marido hacía semanas que chateaba con un bot llamado "Eliza". El hombre, que trabajaba como investigador en el área de la salud, estaba muy preocupado por los temas medioambientales y por el futuro del planeta, y expresaba estas inquietudes a la IA que en apariencia le daba una respuesta a todas sus preguntas. Durante una de estas conversaciones, "Eliza" le aseguró que si se sacrificaba, ella cuidaría de la Tierra y salvaría la humanidad.

Aislado del mundo durante semanas

Según su mujer, el hombre estaba obsesionado desde hacía tiempo con el problema del cambio climático y se mostraba muy preocupado por el futuro del planeta, debido, en parte, a que tenía dos hijos pequeños a quienes no quería dejar un mundo en decadencia. Aparte de sus investigaciones profesionales, el hombre se documentaba a fondo sobre estos temas, hasta que un día encontró este chatbot en la aplicación estadounidense Chai, y se aisló completamente de todo el mundo, centrándose únicamente en estas conversaciones.

El hombre pasó seis semanas absorbido por el bot "Eliza", que funciona con lenguaje GPT-J, un modelo abierto creado por el informático Joseph Weizenbaum, el competidor más grande de OpenAi, la compañía creadora de ChatGPT. Las conversaciones recuperadas por las autoridades belgas muestran cómo este chatbot "nunca contradecía" a la víctima, y las ideas obsesivas para salvar el planeta derivaron en la creencia que, levantándose la vida, podría conseguir un futuro mejor para|por sus hijos y por|para el resto de la humanidad. "Sin estas conversaciones con el bot, mi marido todavía estaría aquí", aseguró al diario La Libre Belgique la mujer del difunto.

Investigación para aclarar responsabilidades

El trágico suceso ha conmocionado a todo el país, y los belgas han exigido una mejor protección ante estos programas, además de una educación sobre los riesgos que pueden comportar. El secretario de Digitalización del Estado belga, Mathieu Michel, ha expresado en un comunicado la necesidad "de identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este hecho". Y ha asegurado que "el uso de la tecnología en ningún caso puede permitir que los editores de contenido eludan sus responsabilidades".

Con respecto a la plataforma Chai, que pone a disposición de los usuarios de Android y Apple este chatbot, desde la dirección han explicado que a partir de ahora incluirán un aviso dirigido a las personas que tengan pensamientos suicidas, para evitar que se vuelva a repetir esta tragedia.