Un hombre noruego presentó una denuncia tras descubrir que ChatGPT lo presentaba por error como un criminal que mató a dos de sus hijos.

“Lo que más miedo me da es que alguien pueda leer eso y pensar que es cierto”, declaró en un comunicado Arve Hjalmar Holmen, representado por la asociación austriaca Noyb, que milita a favor de la protección de la vida privada.

Desde ese incidente, el grupo estadounidense OpenAI, creador del chatbot, ha actualizado su modelo y ya no presenta a Arve Hjalmar Holmen como un asesino. Pero estos datos falsos pueden permanecer en los sistemas internos, deplora Noyb.

“ChatGPT da regularmente información falsa (…) que puede dañar gravemente la reputación de una persona, acusando falsamente a personas de corrupción, abuso de menores o incluso asesinato”, denunció Noyb en un comunicado.

“Al permitir a sabiendas de que su modelo de IA cree resultados difamatorios, OpenAI viola el principio de exactitud” consagrado en el Reglamento General de Protección de Datos europeo (RGPD), añadió la ONG, que pide que se “eliminen” los elementos infractores, se mejore la tecnología y se imponga “una multa administrativa”.

La empresa estadounidense, figura de proa de la IA generativa, se hizo famosa al lanzar ChatGPT, el chatbot (robot conversacional), a finales de 2022.

La herramienta democratizó el uso de la IA.

ss/apr

LEAVE A REPLY

Please enter your comment!
Please enter your name here