Facebook quiere combatir terrorismo con uso de inteligencia artificial
especiales
Facebook reveló el jueves nuevos detalles de sus esfuerzos para retirar contenido sobre terrorismo, en respuesta a las presiones políticas en Europa sobre los grupos extremistas que usan la red social para difundir propaganda y reclutar nuevos integrantes.
La compañía ha reforzado herramientas de inteligencia artificial como el contraste de imágenes y la compresión del lenguaje para identificar y retirar contenido rápidamente, dijeron la directora de políticas globales de Facebook, Monika Bickert, y el responsable de política antiterrorista, Brian Fishman, en una publicación sobre este asunto en el blog de la red social.
Facebook utiliza inteligencia artificial para ver si fotografías o videos que hayan sido publicados coinciden con material de grupos que ya ha definido como terroristas, como Estado Islámico, al Qaeda o filiales, indicó la compañía.
YouTube, Google, Facebook, Twitter y Microsoft crearon el año pasado una base de datos de huellas digitales automáticamente asignadas a videos o fotografías de contenido extremista para colaborar en la identificación de asuntos similares en sus plataformas.
De manera parecida, Facebook ahora analiza textos que ya hayan sido eliminados por ensalzar o apoyar organizaciones extremistas con el fin de elaborar patrones que identifiquen esta propaganda.
"Más de la mitad de las cuentas que retiramos por terrorismo las hemos encontrado nosotros mismos, es algo que queremos que nuestros usuarios conozcan, para que sepan que estamos de verdad comprometidos con hacer de Facebook un lugar hostil para los terroristas", dijo Bickert en una entrevista telefónica.
Países como Alemania, Francia y Reino Unido -que en los últimos años han sufrido varios ataques que han dejado víctimas civiles por parte de militantes islamistas- han presionado a Facebook y otros servicios como Google y Twitter para que hagan más esfuerzos en la retirada de contenidos militantes y discursos de odio.
Añadir nuevo comentario