Italia multa a OpenAI por violaciones de ChatGPT en recolección de datos personales

ROMA (AP) — El organismo de protección de datos de Italia anunció el viernes que impuso una multa de 15 millones de euros (15,6 millones de dólares) a OpenAI tras concluir una investigación sobre la recopilación de datos personales por parte de ChatGPT, el popular chatbot de esa compañía estadounidense de inteligencia artificial.

El organismo de privacidad del país, conocido como Garante, indicó que su investigación demostró que OpenAI procesó los datos personales de los usuarios para entrenar a ChatGPT “sin contar con una base legal adecuada y violó el principio de transparencia y las obligaciones de información relacionadas hacia los usuarios”.

OpenAI calificó la decisión de “desproporcionada” y dijo que apelará.

Publicidad

“Cuando Garante nos ordenó dejar de ofrecer ChatGPT en Italia en 2023, trabajamos con ellos para restablecerlo un mes después”, dijo un portavoz de OpenAI el viernes en un comunicado enviado por correo electrónico. “Desde entonces, han reconocido nuestro enfoque líder en la industria para proteger la privacidad en la IA, sin embargo, esta multa es casi 20 veces los ingresos que obtuvimos en Italia durante el período relevante”.

Sin embargo, OpenAI agregó que "seguimos comprometidos con trabajar con las autoridades de privacidad de todo el mundo para ofrecer una IA beneficiosa que respete los derechos de privacidad”.

La investigación, iniciada el año pasado, también encontró que OpenAI no proporcionó un “sistema de verificación de edad adecuado” para evitar que los usuarios menores de 13 años estuvieran expuestos a contenido inapropiado, dijo el organismo.

La autoridad italiana también ordenó a OpenAI lanzar una campaña de seis meses en diferentes medios italianos para aumentar la conciencia pública sobre ChatGPT, específicamente en lo que respecta a la recopilación de datos.

La creciente popularidad de los sistemas de inteligencia artificial generativa como ChatGPT ha atraído el escrutinio de los reguladores en ambos lados del Atlántico.

Los reguladores en Estados Unidos y Europa han estado examinando a OpenAI y otras compañías que han jugado un papel clave en el auge de la IA, mientras que los gobiernos de todo el mundo han estado elaborando normas para proteger contra los riesgos que plantean los sistemas de IA, liderados por el Acta de IA de la Unión Europea, un manual de reglas para la inteligencia artificial.

___

El corresponsal Kelvin Chan en Londres contribuyó con esta nota.

___

Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.

Publicidad

Contenido Patrocinado

Lo Último