Meta (empresa matriz de Facebook, Instagram y WhatsApp) lanzó CM3leon una herramienta de inteligencia artificial (IA) generativa capaz de generar imagen a partir de un texto y viceversa.
En un comunicado, la empresa pone varios ejemplos: si uno teclea “un pequeño cactus con un sombrero de paja y gafas de sol de neón en el desierto del Sahara”, se genera una imagen con esa descripción.
Otra función consiste en editar una imagen a partir de una indicación con un texto, como “modificar el color del cielo” de una foto o “ponerle bigote” al cuadro de Johannes Vermeer de “La joven de la perla”; además, permite preguntar a la IA que describa una foto con palabras.
Meta se suma a la apuesta por la IA
Desde de que la IA adquiriese popularidad a finales del año pasado, varias empresas han lanzado este tipo de herramientas y Meta anota que CM3leon es mejor que algunas de ellas.
“Al comparar el rendimiento en el punto de referencia de generación de imágenes más utilizado (Zero-shot MS-COCO), CM3Leon logra una puntuación FID (Distancia de inicio de Fréchet) de 4,88, estableciendo un nuevo estado del arte en la generación de texto a imagen y superando al modelo de Google de texto a imagen´(Parti)”, anota la compañía en el comunicado.
No obstante, Meta no menciona ni a Midjourney ni a Dall-e de OpenAI, las herramientas más populares para este tipo de tareas hasta el momento.
Abren en EE.UU. una amplia investigación sobre OpenAI y su popular herramienta ChatGPT
La Comisión Federal de Comercio (FTC, en inglés) ha abierto una amplia investigación sobre OpenAI, para determinar si su chatbot con inteligencia artificial (IA) ChatGPT ha infringido las leyes de protección al consumidor al poner en riesgo la reputación y los datos personales de los usuarios, según informó este jueves The Washington Post.
La comisión envió esta semana una demanda de investigación civil de 20 páginas a la startup liderada por Sam Altman donde plantea a OpenAI varias preguntas, como sus prácticas para entrenar modelos de IA y su manejo de la información personal de los usuarios.
Piden cuentas a ChatGPT
Entre los diversos ejemplos que detalla la larga carta, a la que tuvo acceso The Washington Post, estaba un incidente de 2020 en el que la empresa reveló un error que permitía a los usuarios ver información sobre otros chats e información relacionada con el pago de otros usuarios.
ChatGPT obtuvo gran popularidad tras su lanzamiento público y gratuito el noviembre pasado y consiguió un récord de 100 millones de descargas en 2 meses.
La FTC pidió a OpenAI que proporcionara descripciones detalladas de todas las quejas que había recibido de sus productos que hacían declaraciones “falsas, engañosas, despectivas o dañinas”.
Además, según la misiva, la comisión está investigando si la empresa participó en prácticas desleales o engañosas que resultaron en un “daño a la reputación” de los consumidores.
Lupa sobre los datos del chatbot
En una de sus respuestas, ChatGPT dijo que un abogado (que realmente existía) había hecho comentarios sexualmente sugerentes e intentó tocar a un estudiante en un viaje escolar, citando un artículo que, según dijo el chatbot, había aparecido en The Washington Post.
Pero tal artículo no existía, el viaje nunca ocurrió y el abogado afirmó que nunca fue acusado de acosar a un estudiante.
La agencia también exigió una descripción detallada de los datos que OpenAI usa para entrenar sus productos y cómo está trabajando para evitar lo que se conoce en la industria de la tecnología como “alucinaciones”, problema que se da cuando las respuestas del chatbot están bien estructuradas pero son completamente incorrectas.
Si la FTC determina que una empresa viola las leyes de protección al consumidor, puede imponer multas o someter a la empresa a un decreto de consentimiento, que puede dictar cómo la empresa maneja los datos.