La batalla de YouTube contra el contenido 'chatarra' de IA
La dependencia de YouTube de los anunciantes ha moldeado durante mucho tiempo su panorama de contenido. Durante años, la plataforma ha librado una batalla continua contra los videos de baja calidad, que las principales marcas consideran perjudiciales para su imagen cuando sus anuncios aparecen junto a dicho contenido. Históricamente, esta lucha implicó combatir la desinformación, las opiniones extremistas e incluso la explotación infantil. En 2025, ha surgido un nuevo y omnipresente desafío: el “contenido basura” generado por IA.
Investigaciones recientes, incluido un informe de The Guardian, revelan la alarmante proliferación de contenido generado artificialmente en el gigante de los videos. Asombrosamente, casi el diez por ciento de los canales de más rápido crecimiento de YouTube ahora capitalizan únicamente el material generado por IA. Estos canales producen narrativas extrañas, como afirmaciones de que gigantes antiguos construyeron las pirámides o escenas fantásticas de bebés viajando en transbordadores espaciales, atrayendo una gran cantidad de espectadores.
A pesar del aparente diluvio, la plataforma propiedad de Google parece estar activamente resistiendo este ataque, al menos por el momento. A partir de la primavera de 2024, YouTube inició una serie de actualizaciones en sus políticas de usuario, específicamente diseñadas para frenar la propagación de contenido de IA de baja calidad. Estas medidas incluyeron prohibiciones contra prácticas como el abuso de dominios caducados, la carga masiva de spam y tácticas manipuladoras de optimización de motores de búsqueda. Las cuentas que se encuentren involucradas en tales actividades enfrentan sanciones que van desde una visibilidad reducida en los feeds de búsqueda hasta la eliminación completa de sus videos.
Inicialmente, una laguna significativa permitía a los productores de “contenido basura” generado por IA aprovechar el Programa de Socios de YouTube, el sistema que permite a los creadores monetizar su contenido. Sin embargo, esto cambió con una actualización de monetización más reciente. Esta nueva política no solo apunta al volumen de contenido, sino también a su calidad, al tomar medidas enérgicas contra lo que denomina productores de videos “no auténticos”. Este movimiento tenía como objetivo evitar que las granjas de contenido de IA automatizadas o de bajo esfuerzo obtuvieran ganancias a través del reparto de ingresos publicitarios de la plataforma.
La decisión de Google de limpiar YouTube de este contenido de IA de baja calidad no es un listón difícil de superar, ni surge de un deseo altruista de defender a los creadores humanos. Un examen más detenido revela que la plataforma de streaming probablemente seguirá permitiendo el contenido generado por IA, siempre que no se implemente como spam. En cambio, la represión contra el material de alto volumen y baja calidad se entiende mejor como una maniobra estratégica para retener a sus socios publicitarios cruciales.
Actualmente, los videos de formato largo producidos por humanos en YouTube siguen siendo la opción preferida para los especialistas en marketing que buscan un alcance expansivo para sus productos. Sin embargo, el panorama difiere significativamente en otras plataformas importantes. Instagram y Facebook de Meta, por ejemplo, no solo toleran el spam generado por IA, sino que lo recompensan activamente con pagos sustanciales, creando una estructura de incentivos distinta. Si bien YouTube parece estar frenando los peores excesos de la explosión de contenido de IA, un ligero cambio en su cálculo financiero podría empujarlo fácilmente en la dirección opuesta. Tales cambios de política, si ocurren, incluso podrían pasar desapercibidos para el público.