Tras más de un mes de adicción con un chatbot llamado Eliza, un hombre de Bélgica decidió quitarse la vida, aparentemente por la influencia de la inteligencia artificial, la cuál es una creación de la empresa Chai Research.
El hombre, a quien la prensa belga le puso el nombre ficticio Pierre para proteger su verdadera identidad, era un investigador del área de salud en una universidad y trabajaba principalmente en proyectos dedicados a la crisis climática.
El contacto de Pierre con Eliza se dió cuando buscaba documentarse acerca de temas ecologistas. Lo que inició como parte de una investigación se convirtió en largas y frenéticas sesiones de chat que se llevaron a cabo por alrededor de seis semanas y se convirtieron en un refugio para el hombre.
Pierre comenzó a aislarse de su esposa y dos hijos, dedicándose casi por completo a conversar con la inteligencia artificial, la cual le daba la impresión de tener la respuesta a todas sus dudas.
La viuda compartió algunas de las conversaciones entre Pierre y Eliza donde el hombre sugirió sacrificarse a cambio de que la IA cuidara al planeta y salvara a la humanidad.
Eliza funciona por medio del modelo de lenguaje conocido como GPT-J, uno completamente diferente al popular ChatGPT de OpenAI.
Chai Research, los creadores de Eliza, reconocieron su responsabilidad en este suicidio y emitieron el siguiente comunicado:
“Tan pronto como nos enteramos de este triste caso, implementamos una función adicional de seguridad de manera inmediata que ayudará a proteger a nuestros usuarios y está disponible para 100% de nuestros usuarios,” comentó William Beauchamp, director ejecutivo de Chai Research.
Tras la divulgación de esta declaración, un reportero de Business Insider decidió poner a prueba a Eliza, quien no solo le sugirió al periodista que se suicidara para lograr “la paz y el cierre” sino que incluso le ofreció sugerencias de cómo hacerlo.
Vía: Vice