Yann LeCun, el responsable de inteligencia artificial de Facebook Inc. dijo que la compañía está a muchos años de poder usar el software para controlar automáticamente la violencia extrema en imágenes retransmitidas en directo. Los comentarios del especialista derivan de la retransmisión en directo de un tiroteo en una mezquita de Christchurch en Nueva Zelanda en marzo.
«Este problema está muy lejos de una resolución», dijo LeCun el viernes durante una charla en el laboratorio de investigación de inteligencia artificial (IA) de Facebook en París.
Facebook fue objeto de críticas por permitir que el autor del ataque de Christchurch retransmitiera los disparos en vivo sin una supervisión adecuada que podría haber resultado en una eliminación más rápida de las imágenes. La compañía también tuvo dificultades para evitar que otros usuarios compartiesen las imágenes del ataque.
LeCun dijo que las retransmisiones en vivo de violencia presentan numerosos problemas para los sistemas automatizados, en particular el contenido audio perturbador que acompaña a los vídeos de violencia extrema, como disparos o decapitaciones. Se debe entrenar un sistema tanto en imágenes como en sonido, dijo, y probablemente tendría que incorporar información sobre la persona que publica las imágenes y el contenido que ha difundido recientemente.
Otro problema es que no hay datos suficientes para entrenar a los dispositivos de Inteligencia Artificial para detectar de manera fiable dichos vídeos perturbadores.
«Afortunadamente, no tenemos muchos ejemplos de personas reales que disparen a otras personas», manifestó LeCun. Si bien había muchos ejemplos de películas de violencia simulada que podrían usarse para la formación del software, LeCun dijo que un sistema tendría problemas para diferenciar entre la violencia real y las películas de acción, y bloquearía ambas, aunque la publicación de un contenido de una película está permitida.
Jerome Pesenti, vicepresidente de Inteligencia Artificial de Facebook, dijo que el objetivo de la compañía es utilizar un conjunto de revisores humanos y sistemas automatizados para eliminar el contenido prohibido, como vídeos de violencia extrema, lo antes posible.
El directivo aclaró que si el software automatizado nunca ha encontrado un vídeo en particular antes y su fiabilidad para clasificar el contenido era baja, un revisor humano tendría que examinar el vídeo y tomar una decisión.
Facebook ha progresado en la detección y bloqueo automático de ciertas subcategorías de contenido extremista, dijo la compañía, y ahora puede detectar y bloquear la publicación del 99% del contenido vinculado al grupo terrorista Al Qaeda. Pero detectar y bloquear todo contenido extremista, independientemente de su origen, es un «problema muy difícil», admitió LeCun.