Meta instada a intensificar la supervisión de videos falsos de IA

Meta instó a aumentar la supervisión de videos falsos generados por IA

Hace 1 día

CompartirGuardar

Kali Hays Reportera de Tecnología

CompartirGuardar

Reuters

Los asesores de Meta han señalado que la compañía debería hacer más para abordar la “proliferación” de contenido falso creado con herramientas de inteligencia artificial (IA) en sus plataformas.

El Consejo de Supervisión, compuesto por 21 miembros, expresó su preocupación al reprender a la empresa por mantener en línea un video generado por IA que afirmaba mostrar daños extensos en Haifa, Israel, causados por fuerzas iraníes, sin una etiqueta que lo indicara.

Pidió a la compañía que revise por completo sus reglas sobre IA, advirtiendo que un aumento en videos falsos relacionados con conflictos militares globales había “desafiado la capacidad del público para distinguir la ficción de la realidad… poniendo en riesgo una desconfianza generalizada en toda la información.”

Meta afirmó que etiquetaría el video en cuestión en un plazo de siete días.

Meta lanzó el Consejo de Supervisión en 2020 como un grupo semiindependiente que supervisa las decisiones de moderación de contenido en sus plataformas, que incluyen Facebook, Instagram y WhatsApp.

Frecuentemente discrepa de las decisiones de Meta, pero la compañía ha seguido flexibilizando su enfoque para regular el contenido, lo que genera dudas sobre cuánto poder realmente tiene el consejo.

El consejo señaló que la gestión de Meta respecto al video de Haifa planteó problemas que ya había señalado anteriormente sobre “las ineficiencias en el enfoque actual de Meta durante conflictos armados”.

Actualmente, Meta depende en gran medida de que los usuarios “autoinformen” cuando el contenido que publican es producido por una herramienta de IA. De lo contrario, espera a que alguien presente una queja a su equipo de moderación, que luego puede decidir poner una etiqueta.

El consejo afirmó que la empresa debería etiquetar de manera proactiva el contenido falso generado por IA “con mucha más frecuencia”.

Dijo que los métodos actuales de la empresa eran “ni robustos ni lo suficientemente completos para hacer frente a la escala y velocidad del contenido generado por IA, especialmente durante una crisis o conflicto donde hay una mayor participación en la plataforma”.

La revisión del consejo sobre el tema fue motivada por un video publicado en junio pasado por una cuenta de Facebook con sede en Filipinas que se describía como fuente de noticias.

Fue uno de una serie de videos falsos generados por IA publicados en redes sociales tras el inicio del conflicto, con contenido a favor de Israel y de Irán, que rápidamente acumuló al menos 100 millones de vistas, según un análisis de la BBC en ese momento.

A pesar de que el video de Facebook fue generado por IA y mostraba contenido no real, y Meta recibió varias quejas de usuarios al respecto, la compañía no etiquetó el video como generado por IA ni lo eliminó.

No fue hasta que un usuario de Facebook apeló directamente al Consejo de Supervisión y este abordó el asunto, que Meta respondió a las preocupaciones, según el consejo.

Luego, la compañía afirmó que el video, que obtuvo casi 1 millón de vistas, no requería ninguna etiqueta y no necesitaba ser eliminado porque no “contribuía directamente al riesgo de daño físico inminente”.

El consejo señaló el martes que ese estándar es demasiado alto para etiquetar contenido generado por IA, especialmente cuando el tema es un conflicto armado, y dictaminó que el video debería haber recibido una “etiqueta de alto riesgo de IA”.

“Meta debe hacer más para abordar la proliferación de contenido engañoso generado por IA en sus plataformas… para que los usuarios puedan distinguir entre lo real y lo falso”, afirmó.

En su declaración, Meta dijo que acataría las sugerencias del consejo la próxima vez que encuentre contenido “idéntico” que también esté “en el mismo contexto” que el video revisado por el consejo.

Contactos regulatorios con Meta por trabajadores que ven videos íntimos de gafas de IA

Se descubren ‘granjas de contenido’ en el extranjero que crean deepfakes políticos

Zuckerberg defiende a Meta en un juicio histórico sobre adicción a las redes sociales

Redes sociales

Israel

Inteligencia artificial

Propaganda

Meta

Mark Zuckerberg

Facebook

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado