Más Información

Cronología de la lucha de México-EU contra el narco; Iniciativa Mérida, Entendimiento Bicentenario y acuerdos en el trumpismo

Huracán Lorena amenaza con intensificarse en costas de BCS; consulta trayectoria y los estados en riesgo

Detienen a militar en Cozumel por presunto abuso sexual a menor; enfrenta cargos de privación ilegal y lesiones

Lluvias dejan severas afectaciones en Iztapalapa; Línea A del Metro restablece servicio total, sigue el minuto a minuto

Elecciones 2027, oportunidad para revertir mayoría de Morena; Alessandra Rojo analiza el papel de la oposición en Con los de Casa

Honestidad es vivir con coherencia entre lo que se piensa y se hace, asegura Sheinbaum; "no es solo decir la verdad", afirma

Nueva Suprema Corte revela sueldos de ministros entrantes; Lenia Batres, la que menos salario percibe

EU incauta 13 mil barriles de químicos para drogas que iban de China a México; serían para el Cártel de Sinaloa
Autoridades locales en el estado de Connecticut, Estados Unidos, investigan un caso de asesinato-suicidio ocurrido en la localidad de Old Greenwich, que ha despertado atención internacional por la posible participación indirecta de un sistema de la Inteligencia Artificial (IA) en los hechos.
El caso involucra a Stein-Erik Soelberg, un hombre con antecedentes en la industria tecnológica, quien habría acabado con la vida de su madre antes de suicidarse.
La atención sobre el incidente creció luego de que se revelara que Soelberg mantenía una relación prolongada e intensa con un chatbot conversacional, con el cual interactuaba de manera frecuente.
ChatGPT influye en la paranoia de hombre que asesinó a su madre
El Wall Street Journal reportó que las conversaciones entre el individuo y ChatGPT fueron extensas y abarcaron temas personales delicados.
Según el medio estadounidense, investigadores y analistas están evaluando si estas interacciones pudieron influir en el deterioro de su salud mental o reforzar pensamientos distorsionados en los días previos al suceso.
El periódico señala que podría tratarse del primer evento de esta naturaleza vinculado con un chatbot basado en inteligencia artificial.
Lee también Cuando ChatGPT se convierte en el enemigo íntimo
La situación ha generado preocupación entre expertos en tecnología, salud mental y ética, especialmente en torno al uso no regulado de estas herramientas por parte de personas vulnerables.
Hasta el momento, no se han presentado conclusiones oficiales sobre la responsabilidad directa o indirecta de la tecnología en el hecho.
Sin embargo, el caso ha abierto un nuevo frente de debate sobre los posibles riesgos del uso individualizado y sin supervisión de sistemas de IA avanzados, en especial en contextos sensibles.
El incidente ocurre en un momento en el que las aplicaciones de inteligencia artificial ganan popularidad en todo el mundo, tanto en entornos productivos como personales, lo que refuerza los llamados a establecer normas más claras sobre su uso responsable.
Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.
acf/bmc