La aparición de nuevas herramientas de inteligencia artificial generativa ha transformado radicalmente la forma en que se produce contenido digital. Entre los avances más llamativos de 2025 se encuentra Veo 3, el último modelo de IA de Google capaz de generar vídeos a partir de texto, y que además integra audio sincronizado. Esta innovación, presentada oficialmente en mayo, ha sorprendido por su alto nivel de realismo y la fluidez entre imagen y sonido, lo que permite crear clips que, a simple vista, pueden parecer auténticos.
Pero más allá del asombro inicial, Veo 3 se ha convertido en objeto de controversia. Un reciente informe ha revelado que la herramienta está siendo utilizada para generar contenido con estereotipos racistas y que dichos vídeos están proliferando rápidamente en plataformas como TikTok. Esto ha desatado una ola de críticas tanto hacia la plataforma de vídeo como hacia la propia Google, poniendo en el punto de mira las capacidades de control y moderación que estas compañías aplican para evitar el uso indebido de sus tecnologías.
Veo 3: Realismo impresionante, riesgos crecientes
La principal característica diferenciadora de Veo 3 frente a modelos anteriores o competidores es su capacidad para integrar audio de manera nativa. No solo genera imágenes en movimiento a partir de instrucciones textuales, sino que añade sonido coherente con la escena, lo que dota a cada clip de una dimensión completamente nueva. Esto ha permitido a creadores de contenido, artistas, publicistas y usuarios comunes explorar formas inéditas de contar historias.
Sin embargo, también ha facilitado la creación de material ofensivo, que, al estar tan bien elaborado, puede evadir los filtros automáticos de las plataformas. Muchos de estos vídeos no superan los ocho segundos de duración, lo cual coincide con la limitación impuesta actualmente por la herramienta, y muestran una pequeña marca de agua que indica que han sido generados con Veo.
Este detalle técnico no ha impedido su viralización. Uno de los vídeos citados en el informe alcanzó más de 14 millones de visualizaciones, demostrando la eficacia de su formato para atraer la atención del público.
El contenido racista y su impacto viral
El contenido generado en muchos de estos vídeos utiliza estereotipos profundamente ofensivos, particularmente hacia personas negras, inmigrantes y judíos. Algunos ejemplos incluyen la representación de personas negras como delincuentes habituales o, en casos extremos, como simios, una comparación históricamente racista y deshumanizante. Aunque parezca inverosímil que una herramienta moderna permita este tipo de representaciones, la realidad es que las salvaguardas de Veo 3 no siempre son efectivas para identificar el contexto en el que se utilizan ciertos símbolos o comparaciones visuales.
Estos vídeos no solo perpetúan prejuicios, sino que generan reacciones en cadena dentro de la comunidad digital. En las secciones de comentarios, es común encontrar discursos que refuerzan el odio, el racismo y la intolerancia. El efecto multiplicador que tiene TikTok como red social, en donde los algoritmos premian la interacción y la viralidad, amplifica aún más el alcance de este tipo de contenido.
TikTok ha respondido alegando que muchas de las cuentas que publicaron estos vídeos fueron eliminadas antes de que se publicara el informe. Sin embargo, esto no ha evitado el debate sobre la efectividad de sus políticas de moderación.
Las limitaciones de la moderación automática
TikTok ha defendido su enfoque de moderación mediante una combinación de tecnología de detección y revisión humana. Su política prohíbe expresamente cualquier discurso o contenido que promueva el odio hacia grupos protegidos por motivos de raza, religión, orientación sexual, entre otros. No obstante, reconoce que el volumen de contenido que se publica es tan elevado que no es posible controlarlo todo en tiempo real.
Este problema no se limita a TikTok. Plataformas como Instagram y X también han visto cómo vídeos generados con Veo 3 se difunden, aunque con menor impacto. Esto pone de manifiesto una cuestión crucial: la moderación de contenido no puede ir a la misma velocidad que la producción de contenido automatizado, especialmente cuando se trata de vídeos que, por su brevedad y realismo, pueden escapar a los filtros tradicionales.
Google y las promesas de salvaguardas
Desde que comenzaron a desarrollarse modelos de IA generativa, Google ha insistido en la implementación de salvaguardas para prevenir usos dañinos. Pero los hechos han demostrado que estas barreras no siempre funcionan como deberían. Uno de los precedentes más conocidos fue el del modelo Gemini, que, a principios de 2024, recibió fuertes críticas por generar imágenes históricamente inexactas debido a su exceso de inclusividad, mostrando personajes de razas o géneros alternativos en contextos donde no tenían cabida. El problema se corrigió con la nueva versión, Imagen 3, lanzada en septiembre.
Con Veo 3, la situación se repite. La ambigüedad del lenguaje y las posibilidades creativas que permite la herramienta hacen que sea relativamente fácil eludir los sistemas de detección de contenido inapropiado. Por ejemplo, una instrucción que pida “un grupo de criaturas en la jungla actuando de manera sospechosa” puede terminar generando un clip que refuerce estereotipos racistas si se interpreta visualmente de forma tendenciosa. El sistema no entiende el contexto sociocultural detrás de ciertas imágenes o sonidos, lo cual representa una vulnerabilidad crítica.
El futuro de las herramientas de generación de vídeo IA
El acceso a Veo 3 ya está disponible en países como España, lo que ha aumentado el interés por sus posibilidades. Esta herramienta no será la única. Se espera que en los próximos meses surjan más plataformas capaces de generar vídeo y audio sincronizados con mayor calidad, y con ello, también podrían multiplicarse los riesgos asociados.
La velocidad con la que se desarrolla la tecnología IA supera la capacidad de regularla o supervisarla. No solo se trata de diseñar sistemas que detecten contenidos ofensivos, sino de entender cómo se puede manipular una herramienta mediante instrucciones aparentemente inocentes para conseguir efectos no deseados. Aquí radica uno de los desafíos más importantes para empresas como Google: anticiparse a los usos maliciosos de sus productos y aplicar mecanismos preventivos más sofisticados.
Implicaciones éticas y legales
La problemática con Veo 3 abre un debate más amplio sobre la responsabilidad ética y legal de las empresas que desarrollan inteligencia artificial. Aunque las compañías suelen ampararse en términos y condiciones de uso, en la práctica es difícil garantizar su cumplimiento cuando las herramientas están disponibles a gran escala. Además, el contenido ofensivo generado por IA puede tener consecuencias reales en la vida de las personas que pertenecen a los colectivos atacados.
Hay expertos que abogan por una mayor regulación gubernamental, que establezca marcos legales para responsabilizar a las plataformas y desarrolladores por los daños causados por sus productos. Otros consideran que la solución pasa por una colaboración más estrecha entre el sector tecnológico y las organizaciones defensoras de los derechos humanos, con el objetivo de diseñar salvaguardas más inteligentes y sensibles al contexto.
El papel de la comunidad y los usuarios
En este escenario, los propios usuarios tienen un papel crucial. Denunciar contenido ofensivo, educarse sobre cómo funciona la IA generativa y participar en conversaciones sobre ética tecnológica son formas de contribuir a un ecosistema digital más sano. Aunque no se puede esperar que el usuario promedio tenga conocimientos técnicos avanzados, sí puede desarrollar un pensamiento crítico ante lo que consume y comparte.
Las comunidades en línea, si bien pueden ser espacios tóxicos, también pueden ejercer presión para exigir más responsabilidad a las grandes empresas tecnológicas. La transparencia, el compromiso ético y la mejora continua de las herramientas deben ser parte del contrato social entre desarrolladores, plataformas y usuarios.
El caso de Veo 3 como advertencia
El impacto de los vídeos generados con Veo 3 debe entenderse como una advertencia sobre los límites actuales de la inteligencia artificial y los desafíos que representa su implementación en contextos sociales complejos. La posibilidad de crear contenido hiperrealista no es en sí misma negativa, pero su uso en manos equivocadas pone de manifiesto que el avance tecnológico no puede disociarse de la responsabilidad ética.
El uso de estereotipos racistas o contenido de odio no es un efecto colateral inevitable, sino un indicativo de que aún falta mucho por hacer para que estas herramientas se alineen con los valores de inclusión, respeto y diversidad. El futuro de la inteligencia artificial depende de nuestra capacidad para construir sistemas no solo inteligentes, sino también conscientes del impacto que generan en la sociedad.