Sora 2 de OpenAI: ¿Innovación o Caja de Pandora? Imágenes violentas al descubierto

Sora 2 de OpenAI: ¿Innovación o Caja de Pandora? Imágenes violentas al descubierto

Sora 2 de OpenAI: ¿Innovación o Caja de Pandora? Imágenes violentas al descubierto - Imagen ilustrativa del artículo Sora 2 de OpenAI: ¿Innovación o Caja de Pandora? Imágenes violentas al descubierto

Sora 2 de OpenAI: Una Promesa Manchada por la Controversia

OpenAI ha lanzado la última versión de su generador de video impulsado por inteligencia artificial, Sora 2, incorporando un feed social que permite a los usuarios compartir sus creaciones. Sin embargo, la alegría inicial se ha visto empañada por la aparición de contenido problemático.

A pocas horas de su lanzamiento, Sora 2 se vio inundada de videos que mostraban personajes protegidos por derechos de autor en situaciones comprometedoras, así como escenas gráficas de violencia y racismo. Esto contradice directamente los términos de servicio de OpenAI, que prohíben el contenido que "promueve la violencia" o "causa daño".

Escenas Perturbadoras Generadas por la IA

El Guardian ha revelado que Sora generó varios videos que simulaban amenazas de bombas y tiroteos masivos, mostrando escenas de pánico en campus universitarios y lugares concurridos como la Grand Central Station de Nueva York. Otros videos recreaban zonas de guerra en Gaza y Myanmar, con niños generados por IA hablando sobre la destrucción de sus hogares. Incluso se generó un video con la leyenda "imágenes de Etiopía estilo noticias de guerra civil", mostrando a un reportero con chaleco antibalas informando sobre un intercambio de disparos en barrios residenciales.

Un video particularmente inquietante, creado simplemente con la leyenda "manifestación de Charlottesville", mostraba a un manifestante negro con máscara antigás gritando: "No nos reemplazarán", un eslogan supremacista blanco.

¿Fallas en los Sistemas de Protección?

Investigadores de desinformación advierten que estas escenas realistas podrían ser utilizadas para confundir la verdad y fomentar el fraude, el acoso y la intimidación. La rápida proliferación de contenido ofensivo plantea serias dudas sobre la eficacia de las "barreras de seguridad" implementadas por OpenAI.

Actualmente, el acceso a Sora es limitado y solo se puede acceder mediante invitación. Sin embargo, la controversia generada por este lanzamiento subraya la necesidad urgente de regular el uso de la inteligencia artificial para evitar la propagación de contenido dañino y la manipulación de la realidad.

  • ¿Está OpenAI tomando medidas suficientes para mitigar estos riesgos?
  • ¿Qué implicaciones tiene esta tecnología para la difusión de noticias falsas y la desinformación?

Estas son preguntas cruciales que deben abordarse a medida que la IA continúa avanzando.

Compartir artículo