YouTube presenta medidas para mejorar la transparencia e identificar el contenido generado por IA

YouTube anunció cambios para combatir el aumento del contenido generado por IA, exigiendo a los creadores que revelen material generado por inteligencia artificial

YouTube quiere marcar el contenido creado con IA.

"Los problemas de salud mental de los jóvenes han avanzado al mismo ritmo que el crecimiento de las redes sociales y, en particular, de YouTube”. Crédito: LIONEL BONAVENTURE/AFP | Getty Images

En un intento por abordar la creciente prevalencia de contenido generado por inteligencia artificial (IA), YouTube, la popular plataforma de vídeos en línea, está implementando cambios sustanciales.

A partir de hoy, 14 de noviembre, los creadores de contenido tendrán la obligación de marcar sus videos si contienen material creado por programas de inteligencia artificial, como se describe en el anuncio oficial en el blog de YouTube.

El objetivo principal de esta nueva medida es fomentar la transparencia y combatir la desinformación, especialmente en temas delicados como las elecciones y las crisis sanitarias, que pueden degenerar las opiniones de las audiencias.

YouTube tiene como objetivo abordar el contenido que “representa de manera realista un evento que nunca sucedió” o presenta deepfakes que retratan a personas “diciendo o haciendo algo que en realidad no hicieron”.

Qué deben hacer los creadores de contenido en YouTube

Para los creadores de contenido, el cumplimiento de la nueva política de YouTube significa proporcionar información y etiquetas en la descripción del video. Esto garantiza que los espectadores puedan identificar fácilmente segmentos del contenido generado por la IA.

La intención es capacitar a los usuarios para que distingan entre videos auténticos y aquellos que aprovechan herramientas de inteligencia artificial.

La nueva política de YouTube podría ser un paso proactivo para proteger contra la desinformación y defender la integridad de la plataforma, por lo que la plataforma “se reserva el derecho de eliminar el contenido generado por IA, incluso si está etiquetado”, si la advertencia se considera insuficiente para mitigar el riesgo de daño.

El director ejecutivo de OpenAI, Sam Altman, habla durante el evento OpenAI DevDay el 6 de noviembre de 2023 en San Francisco, California. (Foto de Justin Sullivan/Getty Images)
El director ejecutivo de OpenAI, Sam Altman, habla durante el evento OpenAI DevDay el 6 de noviembre de 2023 en San Francisco, California. El creador de la IA ha pedido en varias ocasiones que se regulen estas herramientas. (Foto de Justin Sullivan/Getty Images)

Por ejemplo, los vídeos que presenten representaciones realistas de violencia destinadas únicamente a molestar a la audiencia podrían ser eliminados; además, si los espectadores encuentran contenido que perciben como engañoso o dañino, las nuevas pautas comunitarias de YouTube les permiten denunciarlo.

Estos cambios en YouTube están orientados a “crear un entorno más transparente y confiable para los usuarios”. La identificación clara del contenido generado por IA permite la toma de decisiones informadas mientras se ven videos, promoviendo la honestidad y autenticidad en la plataforma.

El peligro del deepfake creado con IA

La tecnología “deepfake”, impulsada por las capacidades de la inteligencia artificial (IA), está evolucionando y transformando rápidamente varias industrias.

Esta “deepfake AI” permite la creación de imágenes y vídeos hiperrealistas, superando los límites de lo que antes era inimaginable en campos como el entretenimiento y la publicidad, como por ejemplo, podemos ver imágenes realistas de una post-apocalíptica Nueva York.

Sin embargo, como ocurre con cualquier tecnología innovadora, emerge un lado más oscuro, y recientemente se ha utilizado esta generación de contenido para crear noticias falsas, incluso con imágenes y videos.

Actualmente, existen cientos de herramientas que ayudan a generar contenido de manera “fácil”, y aunque algunas puede aportar mucho, otras más podrían “degenerar” las imágenes o videos, y convertirse fácilmente en contenido falso o aquel que manipula la realidad, o en este caso “alguna noticia”.

Es por eso que los líderes tecnológicos quieren regular las tecnologías de Inteligencia Artificial, con el fin de salvaguardar la “realidad” y evitar que estas se conviertan en un problema incontrolable; por ejemplo, el director ejecutivo de OpenAI, Sam Altman, ha pedido en varias ocasiones, que se regule esta tecnología.

Sigue leyendo:
· Tecnología deepfake: los riesgos del robo de identidad con ayuda de la Inteligencia Artificial
· Así luciría Nueva York en un mundo post-apocalíptico, según la Inteligencia Artificial
· Estado de Nueva York aprueba la prohibición de la “pornografía de venganza” generada por Inteligencia Artificial

En esta nota

Inteligencia artificial YouTube
Contenido Patrocinado
Enlaces patrocinados por Outbrain