La Comisión Federal de Comercio (FTC, en inglés) ha abierto una amplia investigación sobre OpenAI, para determinar si su chatbot con inteligencia artificial (IA) ChatGPT ha infringido las leyes de protección al consumidor al poner en riesgo la reputación y los datos personales de los usuarios, según informó The Washington Post.
La comisión envió esta semana una demanda de investigación civil de 20 páginas a la startup liderada por Sam Altman donde plantea a OpenAI varias preguntas, como sus prácticas para entrenar modelos de IA y su manejo de la información personal de los usuarios.
Entre los diversos ejemplos que detalla la larga carta, a la que tuvo acceso The Washington Post, estaba un incidente de 2020 en el que la empresa reveló un error que permitía a los usuarios ver información sobre otros chats e información relacionada con el pago de otros usuarios.
ChatGPT obtuvo gran popularidad tras su lanzamiento público y gratuito el noviembre pasado y consiguió un récord de 100 millones de descargas en dos meses.
Lee también: OpenAI y su popular herramienta ChatGPT son investigadas en EU, ¿por qué?
La Comisión Federal de Comercio pidió a OpenAI que proporcionara descripciones detalladas de las quejas que había recibido de sus productos que hacían declaraciones “falsas, engañosas, despectivas o dañinas”.
Además, según la misiva, se indaga si la empresa participó en prácticas desleales o engañosas que resultaron en “daño a la reputación” de consumidores.
En una de sus respuestas, ChatGPT dijo que un abogado (que realmente existía) había hecho comentarios sexualmente sugerentes e intentó tocar a un estudiante en un viaje escolar, citando un artículo que, según dijo el chatbot, había aparecido en The Washington Post.
Pero tal artículo no existía, el viaje nunca ocurrió y el abogado afirmó que nunca fue acusado de acosar a un estudiante.
La agencia también exigió una descripción detallada de los datos que OpenAI usa para entrenar sus productos y cómo está trabajando para evitar lo que se conoce en la industria de la tecnología como “alucinaciones”, problema que se da cuando las respuestas del chatbot están bien estructuradas pero son completamente incorrectas.
Si la FTC determina que una empresa viola las leyes de protección al consumidor, puede imponer multas o someter a la empresa a un decreto de consentimiento, que puede dictar cómo la empresa maneja los datos.