ChatGPT acusó falsamente a un hombre de ser un criminal y ahora OpenAI enfrenta demanda

Un ciudadano noruego de nombre Arve Hjalmar Holmen, presentó una denuncia contra OpenAI, la empresa detrás de ChatGPT.

¿Por qué? El hombre tomó esta decisión después de descubrir que el ChatGPT lo identificaba erróneamente como un criminal que había asesinado a dos de sus hijos.

“Lo que más miedo me da es que alguien pueda leer eso y pensar que es cierto“.

Así lo expresó Arve Hjalmar Holmen en un comunicado difundido por la asociación austriaca Noyb (None of Your Business), que lucha a favor de la protección de la privacidad.

ChatGPT ya corrigió su error, pero expertos advierten que el peligro para la reputación del denunciante está latente

Tras hacerse pública la denuncia, OpenAI actualizó su modelo de inteligencia artificial para corregir el error.

Ahora, al consultar información sobre Arve Hjalmar Holmen, ChatGPT ya no lo señala como un asesino.

Sin embargo, Noyb ha advertido que la información falsa podría seguir almacenada en los sistemas internos de la compañía.

Esto representa un riesgo continuo para la reputación de Arve Hjalmar Holmen, agregó la organización en un comunicado.

“ChatGPT da regularmente información falsa que puede dañar gravemente la reputación de una persona, acusando falsamente a individuos de corrupción, abuso de menores o incluso asesinato“, advirtió Noyb.

Asimismo, sostuvo que, al permitir que su modelo de IA genere resultados difamatorios, OpenAI está violando el principio de exactitud de los datos que es un pilar fundamental del Reglamento General de Protección de Datos (RGPD) de la Unión Europea.

ONG exige a OpenAI, empresa detrás de ChatGPT, tomar medidas para eliminar información errónea de su plataforma

Con base en ello, Noyb exigió que OpenAI tome 3 principales medidas:

Eliminar la información erróneaMejorar la tecnología para evitar futuros errores Enfrentar una multa administrativa por incumplir la normativa europea.

Este no es el primer caso en el que un modelo de inteligencia artificial es acusado de difundir información incorrecta.

Sin embargo, la denuncia de Arve Hjalmar Holmen podría marcar un precedente importante en la regulación del uso responsable de estas tecnologías en Europa.

Por ahora, OpenAI no ha emitido declaraciones adicionales sobre el caso, pero la presión de organizaciones como Noyb subraya la creciente preocupación por el equilibrio entre innovación y responsabilidad legal en la era de la inteligencia artificial.

Leave a Reply

Your email address will not be published. Required fields are marked *