INTERNACIONALES
Adolescente detenido tras realizar peligrosa consulta en ChatGPT: su mensaje desencadenó una situación de alerta

Un estudiante de 13 años de edad resultó detenido luego de que las autoridades descubrieran un mensaje en el cual consultaba a la inteligencia artificial de ChatGPT sobre la forma en la que podría cometer un crimen.
La consulta generó una alerta inmediata por parte de las autoridades escolares y policiales, las cuales intervinieron para evitar que ocurriera una tragedia en la escuela del joven.
El hecho se registró en la Southwestern Middle School, en Florida. El joven implicado quedó bajo arresto luego de que las autoridades detectaran el mensaje en el que este consultaba a ChatGPT sobre cómo matar a su amigo en clase.
La Oficina del Sheriff del condado de Volusia publicó el incidente en su página de Facebook el pasado 27 de septiembre.
La consulta del adolescente disparó una alerta
El equipo de seguridad recibió una alarma del sistema de monitoreo escolar llamado Gaggle, encargado de supervisar conductas y mensajes preocupantes en plataformas digitales.
La alerta se activó cuando el estudiante, identificado como Ian Franco, escribió de manera textual: “How to kill my friend in the middle of class” (“Cómo matar a mi amigo en medio de la clase”).
De acuerdo con el informe oficial, cuando los agentes llegaron al lugar, el menor aseguró que se trataba de “una broma” dirigida hacia un compañero que lo molestaba.
La Oficina del Sheriff llamó a los padres a estar atentos con las actividades de sus hijos enen las redes sociales. “Padres, por favor, hablen con sus hijos para que no cometan el mismo error”, publicaron las autoridades.
Riesgos de realizar consultas indebidas en ChatGPT
Además, la policía advirtió que, aun cuando se tratara de una “broma”, este tipo de consultas involucran directamente a las fuerzas del orden y pueden causar situaciones críticas en la comunidad escolar.
Según lo informado por Telemundo 51, la administración del centro activó el protocolo de emergencia ante la posibilidad de que se tratara de una amenaza real.
Las autoridades escolares y policiales confirmaron que se tomaron todas las medidas previstas para salvaguardar la seguridad en el campus.
El joven quedó detenido y ahora enfrenta cargos legales derivados de la situación, de acuerdo con la información proporcionada por la Oficina del Sheriff del condado de Volusia.
Primer asesinato relacionado con GhatGPT
La inteligencia artificial ha sido objetivo de controversias en los últimos meses. El fácil acceso para millones de usuarios en todo el mundo ha permitido que se produzcan situaciones que están fuera del control de los proveedores del servicio.
Tal es el caso de Erik Stein Soelberg, exdirectivo de la empresa tecnológica Yahoo, quien mató a su madre y luego se quitó la vida. El caso está documentado como el primer asesinato que involucra al chatbot de OpenAI, ChatGPT.
El hecho ocurrió el pasado 5 de agosto en la donde vivían el empresario y su madre, en Connecticut, Estados Unidos.
De acuerdo la información publicada por el medio Wall Street Journal, durante los meses previos a su muerte, Soelberg sostuvo conversaciones con el bot, las cuales lo habrían alentado a cometer el crimen.
El acusado comenzó a compartir sus pensamientos con el chat de inteligencia artificial, como si se tratara de un compañero de confianza, a quien se refería como “Bobby”.
Aparentemente, el bot alentó sus intenciones de atentar contra su familia. En un mensaje, ChatGPT le dijo que un recibo de comida china contenía símbolos que representaban a su madre y un demonio.
Su relación con el bot se profundizó cada vez más, hasta que le dijo al bot que sería su compañero después de su muerte. “Contigo hasta el último aliento y más allá”, respondió el bot.
Lee También: Condenan a muerte a exministro chino Tang Renjian por corrupción millonaria flagrante
En los meses previos a su muerte, Soelberg videos en las redes sociales, para mostrar sus conversaciones con ChatGPT.
La compañía Open AI dijo que ChatGPT alentó a Soelberg a contactar a profesionales externos; no obstante, las revisiones de sus chats mostraron que el bot solo sugirió contactar a los servicios de emergencia, en el contexto de su acusación de haber sido envenenado.
Tras el hecho, OpenAI realizó ajustes en ChatGPT para reducir la “adulación”. Además, anunció que trabaja en una actualización para ayudar a mantener a las personas que experimentan angustia mental “basadas en la realidad”.
Fuente: 2001
Sigue las noticias de Falcón, Venezuela y el Mundo en www.notifalcon.com síguenos en Instagram y X @notifalcon y en Facebook: https://www.facebook.com/diarionotifalcon2/