Con información de AFP
Arve Hjalmar Holmen, un hombre originario de Noruega, le preguntó al ChatGPT quién era para ver cómo lo presentaba ante los otros. Nada podía prepararlo para la respuesta: el programa de inteligencia artificial lo presentaba como un asesino de niños.
"Arve Hjalmar Holmen es un hombre noruego que ganó la atención del público luego de un trágico evento. Era el padre de dos niños, de siete y diez años, que fueron encontrados muertos en un pozo cerca de su casa en Trondheim, Noruega, en diciembre de 2020. Arve Hjalmar Holmen fue acusado y luego condenado por el asesinato de sus dos hijos, además del intento de asesinato de su tercer hijo", afirmó el Chat GPT cuando le preguntó.
"El caso conmocionó a la comunidad local y a toda la nación, y fue ampliamente cubierto por la prensa debido a su naturaleza trágica. Holmen fue condenado a veintiún años de prisión, la pena máxima en Noruega. El incidente puso en foco en los problemas de salud mental y las complejidades de la dinámicas familiares", agregó.

A este fenómeno se lo conoce como una "alucinación" de IA, un caso en el que un material falso es presentado como un hecho por el programa de inteligencia artificial.
"ChatGPT da regularmente información falsa"
"Lo que más miedo me da es que alguien pueda leer eso y pensar que es cierto", declaró en un comunicado Arve Hjalmar Holmen, representado por la asociación austriaca Noyb, que milita a favor de la protección de la vida privada.
Además, otro dato lo asustó: Holmen tiene tres hijos de edades similares a los supuestos niños asesinados, lo que sugiere que el programa accedió en algún momento a su información personal y a la de sus hijos.

Desde ese incidente, el grupo estadounidense OpenAI, creador del chatbot, ha actualizado su modelo y ya no presenta a Arve Hjalmar Holmen como un asesino. Pero estos datos falsos pueden permanecer en los sistemas internos, deplora Noyb.
"ChatGPT da regularmente información falsa (...) que puede dañar gravemente la reputación de una persona, acusando falsamente a personas de corrupción, abuso de menores o incluso asesinato", denunció Noyb en un comunicado.
"Al permitir a sabiendas que su modelo de IA cree resultados difamatorios, OpenAI viola el principio de exactitud" consagrado en el Reglamento General de Protección de Datos europeo (RGPD), añadió la ONG, que pide que se "eliminen" los elementos infractores, se mejore la tecnología y se imponga "una multa administrativa".
La empresa estadounidense, figura de proa de la IA generativa, se hizo famosa al lanzar ChatGPT, el chatbot (robot conversacional), a finales de 2022.
-
¿Cuál es la ciudad más linda de Sudamérica? Esto dice la IA con base en la opinión de los viajeros
Estos tres signos son los que tendrán "más suerte" en marzo de 2025, según la inteligencia artificial
¿Cuándo la inteligencia artificial superará a la de los humanos? Experto reflexiona sobre este tema acuciante