ESTADOS UNIDOS

Investigan si ChatGPT compromete la seguridad de los datos personales

La Comisión federal de Comercio investiga si el Chat GPT violó las leyes de protección al consumidor

La Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) abrió una investigación sobre Open AI, la empresa creadora del popular chatbot de Inteligencia Artificial (IA), el ChatGPT, tras haber recibido denuncias por violar las leyes de protección al consumidor y poner en peligro los datos privados de los usuarios.

La Comisión envió una demanda de investigación civil a Sam Altman, el CEO de Open AI, quien hace unos meses instó al Congreso estadounidense para que regulen la aplicación del chatbot. En el documento de 20 páginas, la comisión además le pide a la compañía que brinde detalles sobre cómo otorga licencias de sus modelos de Inteligencia Artificial con relación al manejo de los datos personales.

Si la FTC determina que una empresa viola las leyes de protección al consumidor, puede imponer multas o someter a una empresa a un decreto de consentimiento, que puede determinar cómo la empresa maneja los datos.

 

Denuncias contra el ChatGPT

La FTC está investigando si la empresa participó en prácticas “desleales” o “engañosas” que hayan resultado en un “daño a la reputación” de los consumidores, según expresa el documento. Las quejas se centraron en que el servicio del chatbot hacía declaraciones “falsas, engañosas, despectivas o dañinas” sobre las personas. 

Lina Khan, presidenta de la Comisión, en una audiencia ante el Comité Judicial de la Cámara de Representantes este jueves aclaró que la calumnia y la difamación no son un foco de aplicación de la FCT, pero que el uso indebido de la información privada de las personas podría ser una forma de fraude según la Ley de la FTC. “Nos enfocamos en, ¿hay lesiones sustanciales en las personas? Las lesiones pueden parecerse a todo tipo de cosas”, expresó Khan.

El sitio de OpenAI recibe más de 300 millones de visitas cada mes

Un ejemplo de cómo la información incorrecta del ChatGPT daña la reputación de las personas es el de Mark Walters, presentador de un programa de entrevistas de radio en Georgia. Según The Washington Post, él demandó por difamación a Open AI, alegando que el chatbot inventó que habían demandas en su contra. Según denunció el presentador, el ChatGPT afirmó falsamente que Walters fue acusado de defraudar y malversar fondos de la Fundación de la Segunda Enmienda.

Otro caso fue el de un profesor que fue víctima de las falsas acusaciones del chatbot. El ChatGPT había afirmado que él había hecho comentarios sexualmente sugerentes y que había acosado a una estudiante en un viaje escolar a Alaska, citando un artículo que había aparecido supuestamente en The Washington Post. Según el medio citado, el artículo no existió y el viaje de estudios jamás había sucedido.

Estados Unidos no es el primer Gobierno que puso el foco sobre Open AI
La regulación de la IA

Este suceso se da en el marco de una serie de advertencias que la FCT emitió en respecto de las leyes de protección al consumidor aplicadas a la IA, y a la lucha por elaborar una nueva legislación por parte del Congreso de Estados Unidos. 

Charles E. Schumer, líder de la mayoría del Senado, organizó una sesión informativa este martes para todos los senadores junto a funcionarios del Pentágono y la comunidad de inteligencia, para discutir los riesgos de seguridad nacional por la IA. Tras la sesión, Schumer le dijo a la prensa que será “muy difícil” regular la IA, ya que buscan que las regulaciones se equilibren a la necesidad de innovación. 

Sam Altman, CEO de Open AI, creador del ChatGPT

Este miércoles, además, la vicepresidenta estadounidense Kamala Harris recibió a un grupo de defensores de la protección del consumidor en la Casa Blanca para debatir los riesgos de seguridad y protección de la IA. “Es una elección falsa sugerir que podemos promover la innovación o proteger a los consumidores”, expresó el vicepresidente, y aseguró que “podemos hacer ambas cosas”.

Los países de la Unión Europea también comenzaron a tomar medidas para regular los chatbots de IA de las empresas estadounidenses. Italia, por ejemplo, bloqueó temporalmente el funcionamiento del ChatGPT debido a problemas de privacidad de datos. Por otra parte, Google tuvo que posponer el lanzamiento de su propio chatbot, Bard, después de recibir solicitudes de evaluación de privacidad por parte de la Comisión de Protección de Datos de Irlanda.

Se espera que la Unión Europea apruebe la legislación sobre la IA para finales de este año.

Esta nota habla de: