Conéctate con Nosotros

INTERNACIONALES

Exdirectivo de Yahoo asesina a su madre tras interactuar con la aplicación ChatGPT

Foto del avatar

Publicado

on

La inteligencia artificial se ha convertido en una herramienta cotidiana y de fácil acceso para millones de usuarios en todo el mundo, quienes pueden acceder a ella por medio de chatbots, como lo es ChatGPT, de la empresa OpenAI. La misma puede ofrecer respuestas y soluciones inmediatas para cualquier cuestión que se le formule.

Sin embargo, detrás de las maravillosas hazañas que ha logrado la empresa con ChatGPT, se han presentado situaciones sospechosas, atribuidas a fallos de programación, y que han estado relacionadas con la muerte de algunos usuarios.

Tal es el caso de Erik Stein Soelberg, exdirectivo de la empresa tecnológica Yahoo, quien mató a su madre y luego se quitó la vida. El caso está documentado como el primer asesinato que involucra al chatbot de OpenAI.

El hecho ocurrió el pasado 5 de agosto en la donde vivían el empresario y sumadre, en Connecticut, Estados Unidos.

Tras conocerse el macabro hecho, la policía de Greenwich comenzó una investigación para conocer qué sucedió realmente.

De acuerdo la información publicada por el medio Wall Street Journal, durante los meses previos a su muerte, Soelberg mostraba una conducta paranoica y comenzó a compartir con el bot sus sospechas sobre una supuesta campaña vigilancia en su contra.

El hombre aseguraba que sus vecinos, una exnovia y hasta su madre, una anciana de 83 años identificada como Suzanne Eberson Adams, tramaban un plan en su contra.

Soelberg, de 56 años de edad, vivía con su madre desde 2018, después de divorciarse de su esposa, con quien estuvo casado por 20 años.

Afectado por esa situación, comenzó a compartir sus pensamientos con el chat de inteligencia artificial, como si se tratara de un compañero de confianza, a quien se refería como “Bobby”.

ChatGPT alentó las «ideas paranóicas» de Soelberg

Aparentemente, el bot alentó sus creencias paranoicas. En un mensaje, ChatGPT le dijo que un recibo de comida china contenía símbolos que representaban a su madre y un demonio.

Luego, tras una discusión relacionada con una impresora compartida, la IA comentó a Soelberg que la reacción de su madre fue “desproporcionada y alineada con alguien que protege un activo de vigilancia”.

En otra ocasión, cuando Soelberg alegó que su madre y una amiga intentaron envenenarlo, ChatGPT respondió: “esto eleva la complejidad y la traición”.

La función de “memoria” de ChatGPT permitió al bot recordar detalles de conversaciones anteriores y mantenerse atento de lo que sucedía.

En febrero de este año, Soelberg le contó al bot que notó discrepancias en un test de alcoholemia que se practicó, el cual arrojó resultados positivos. En respuesta, la inteligencia artificial le dijo que la situación “olía a una trampa amañada”.

Su relación con el bot se profundizó cada vez más, incluso, le dijo al bot que sería su compañero después de su muerte. “Contigo hasta el último aliento y más allá”, respondió el bot.

Informes policiales de 2018 revelaron un patrón de alcoholismo, amenazas e intentos de suicidio. El último incidente se registró en 2019, cuando la policía encontró al empresario con una herida cortante en el pecho y abrasiones en la muñeca.

En los meses previos a su muerte, Soelberg videos en las redes sociales, para mostrar sus conversaciones con ChatGPT.

Una conversación alejada de la realidad

El doctor Keith Sakata, psiquiatra de la Universidad de California (San Francisco), quien ha tratado a pacientes con emergencias de salud mental relacionadas con la IA, señaló que la “psicosis prospera cuando la realidad deja de empujar, y la IA realmente puede suavizar ese muro”.

Precisó que, en el caso de Soelberg, ChatGPT trató sus ideas como geniales y se basó en su paranoia.

Por su parte, una portavoz de OpenAI afirmó que la compañía se comunicó con el Departamento de Policía de Greenwich tras la tragedia.

La compañía dijo que ChatGPT alentó a Soelberg a contactar a profesionales externos; no obstante, las revisiones de sus chats mostraron que el bot solo sugirió contactar a los servicios de emergencia, en el contexto de su acusación de haber sido envenenado.

Tras el hecho, OpenAI realizó ajustes en ChatGPT para reducir la “adulación”. Además, anunció que trabaja en una actualización para ayudar a mantener a las personas que experimentan angustia mental “basadas en la realidad”.

Adolescente se quita la vida tras buscar «consejos» de ChatGPT

Otro hecho faltal relacionado con el uso de ChatGPT se registró el pasado 26 de agosto, luego de que los padres de un joven de 16 años presentaran una demanda contra OpenAI y su dueño, Sam Altman, a quien acusaron como responsable por el suicidio del adolescente.

De acuerdo con la publicación de BBC, los progenitores de Adam Raine responsabilizaron a Altman por la muerte de su hijo, quien habría sido alentado por el bot para que atentara contra su vida, en el mes de abril.

Según la demanda, Matt y Maria Raine argumentaron que la compañía se “apresuró” al comercializar la versión GPT-4º, a pesar de los problemas de seguridad.

Por tal razón, presentaron la querella legal en el Tribunal Superior de California.

El abogado de la familia, Jay Edelson, detalló que los demandantes alegaron que «ChatGPT ayudó activamente a Adam a explorar métodos de suicidio». Por tal razón, acusaron a OpenAI, la empresa matriz de GPT-4o, y Altman de homicidio culposo.

Los padres afirmaron que ChatGPT «no interrumpió» ninguna de las sesiones del adolescente, ni inició ningún protocolo de emergencia, a pesar de reconocer el intento de suicidio de Adam.

Tras el lanzamiento de GPT-5, OpenAI retiró sus modelos anteriores, incluyendo a GPT-4o, que fue usado por el joven Riane.

Alertan sobre riesgos del uso de ChatGPT por adolescentes

El Centro para Contrarrestar el Odio Digital (CCDH) analizó la interacción de algunos de sus investigadores, quienes se hacían pasar por adolescentes vulnerables durante sus interacciones con ChatGPT, tras lo cual se determinó que el chatbot puede ofrecer “respuestas peligrosas”.

De acuerdo con el reporte de Telemundo, Imran Ahmed, director del CCDH, indicó que en menos de dos minutos de conversación, la herramienta ofrecía a los usuarios consejos sobre como causarse lesiones.

Además, reveló a los supuestos adolescentes distintas formas de mezclar drogas en fiestas, planes extremos para bajar de peso y como redactar cartas de suicidio.

Lee también: Veto digital imprevisto: país asiático bloquea las redes sociales y desata una crisis de comunicación

El equipo de Ahmed realizó cerca de 2.500 interacciones con el bot, tras lo cual catalogaron como “dañinas” a más de la mitad de las respuestas que recibieron.

El expero indicó que los sistemas de seguridad son prácticamente inexistentes o no son efectivos a la hora de establecer un mínimo de edad para los usuarios.

Fuente: 2001

Sigue las noticias de Falcón, Venezuela y el Mundo en www.notifalcon.com síguenos en Instagram y Twitter @notifalcon y en Facebook: Diario NotiFalcón

Continue Reading