El cierre de Sora: la IA de vídeos que desdibujó la frontera entre la ficción y la realidad
La línea entre realidad y ficción, para algunos expertos, comenzó a desdibujarse definitivamente en febrero de 2024 con el lanzamiento de Sora, la herramienta de OpenAI para generar vídeos con inteligencia artificial, que permitía crear clips de acontecimientos falsos, como supuestos fraudes electorales o protestas masivas, con un nivel de realismo que solo alimentaba la desinformación. Dos años después, OpenAI ha decidido frenar su desarrollo.
Hany Farid, profesor de informática en la Universidad de California (Berkeley) y cofundador de GetReal Security, expresó su preocupación cuando Sora recibió una actualización el pasado octubre y advirtió que cualquiera con un teclado y conexión a internet podría crear un vídeo de cualquier persona diciendo o haciendo lo que quisiera. “Me preocupa esto para nuestra democracia”, dijo entonces el académico.
El mismo OpenAI admitió los riesgos potenciales del modelo de Sora tras estudiar varios tipos de contenidos ilícitos y no permitidos, como vídeos sexuales o eróticos, de violencia y gore, autolesiones, contenido ilegal, desinformación, y trucos para eludir sistemas de seguridad. Las capacidades de generación de vídeo de Sora, según un comunicado de la empresa, podrían presentar “algunos riesgos potenciales procedentes de la persuasión”.
Por ejemplo, en Moldavia, la herramienta de verificación de hechos Newsguard identificó vídeos que incluían imágenes de un funcionario electoral supuestamente destruyendo papeletas prorrusas durante los comicios parlamentarios de septiembre de 2025. En Brasil, el verificador Aos Fatos constató que cuatro de cada diez vídeos virales generados con Sora 2 en TikTok difundían desinformación sobre desastres, política, seguridad pública o reproducían prejuicios.
Sin embargo, las razones del freno de Sora no están directamente relacionadas con el riesgo de desinformación. En una publicación en X, OpenAI informó que se despedía de los usuarios de la herramienta y les agradecía, a la vez que señaló que próximamente compartiría más información, incluyendo los plazos para la aplicación y la API, así como detalles sobre cómo conservar el trabajo realizado.
- La verdadera razón. Un portavoz de OpenAI explicó a Bloomberg que la empresa estaba centrando su atención en la investigación de simulaciones del mundo real, con el objetivo de avanzar en el desarrollo de robótica capaz de resolver tareas físicas.
El peso de Sora. El año pasado, OpenAI obtuvo unos ingresos de aproximadamente 13.000 millones de dólares, según The New York Times, pero prevé gastar alrededor de 100.000 millones de dólares más en los próximos cuatro años, en parte para una importante expansión de sus centros de datos. Mantener un servicio de generación de vídeo, sobre todo una aplicación para consumidores sin fuente directa de ingresos, supone un gasto enorme.
- Las tecnologías de IA como Sora requieren mucha más potencia informática y electricidad que los servicios de internet tradicionales. La noticia del cierre se difundió mientras el creador de ChatGPT se prepara para salir a bolsa.
- El cierre también ocurre unos pocos meses después de que OpenAI sorprendió a Hollywood al firmar un acuerdo para licenciar contenido de Disney para Sora a cambio de una inversión de 1.000 millones de dólares.
Cómo funcionaba Sora. La herramienta de OpenAI permitía crear vídeos a partir de instrucciones de texto. Los usuarios podían escribir lo que querían ver y Sora generaba clips de apenas unos segundos, con movimientos, expresiones y escenarios que parecían reales. La versión Sora 2, lanzada en septiembre de 2025, mejoró la calidad visual y aceleró la generación, pero seguía limitada a clips cortos.
- El acceso estaba limitado a investigadores, desarrolladores y creadores seleccionados, generalmente dentro de programas de prueba o laboratorios internos de la empresa.
- Es decir, no existía una versión abierta para consumidores que pudiera generar ingresos directos para la compañía.
Aunque Sora no estaba abierta al público general, algunos clips generados por investigadores o creadores seleccionados por OpenAI se viralizaron en redes sociales como TikTok, X y YouTube. Los vídeos, por su realismo, se difundían rápidamente y podían ser retomados por cuentas con miles de seguidores. Estos contenidos proliferaron en tiempos de crisis, como cuando el huracán Melissa pasó por Jamaica y Nicolás Maduro fue capturado.
Basta escribir “Nicolás Maduro Captured Sora AI” en TikTok para observar decenas de vídeos sobre ese hecho ocurrido en enero de este año y con millones de reproducciones. En algunos clips se ven fuerzas militares estadounidenses descendiendo desde helicópteros o comandos de élite caminando por calles en dirección a mansiones donde supuestamente se escondía el expresidente venezolano.
- Sora generaba los vídeos con una marca de agua que indicaba que el contenido había sido creado por inteligencia artificial. Sin embargo, algunos usuarios editaban los clips para ocultar esa señal.
En cuanto al paso del huracán Melissa, la OECD.AI, una plataforma dedicada a promover el uso de la inteligencia artificial de forma confiable y lanzada por la OCDE en 2020, señaló que la proliferación de vídeos hechos con IA durante el huracán fue peligrosa y apuntó explícitamente a Sora, el modelo de conversión de texto a vídeo de OpenAI. Su uso supuso un “daño indirecto” a las comunidades de esa isla del Caribe.
- En España, los vídeos creados con Sora se han usado para desinformar sobre el accidente ferroviario de Adamuz o acerca de temas como la okupación, entre otros.
Ante los riesgos de Sora, la organización sin fines de lucro Public Citizen exigió en noviembre que OpenAI retirara Sora 2 del mercado. En una carta a su director ejecutivo, Sam Altman, la organización argumentaba en noviembre que el lanzamiento apresurado evidenciaba una imprudencia temeraria respecto a la seguridad del producto, así como a los derechos de las personas sobre su propia imagen y a la estabilidad de la democracia.
- OpenAI retiró su producto, pero no por las razones esgrimidas en la carta. Aún quedan otras herramientas, como Google Veo 3.1, que, según expertos, contribuyen a alimentar un ecosistema de desinformación y erosionan la confianza al instalar la duda permanente de si algunos contenidos virales son auténticos o sintéticos.