Perspective: Un detector de odio online
especiales
No sólo las noticias falsas alteran la navegación sino que también los insultos, los "trolls" (usuarios falsos, muchas veces pagados para algún objetivo o causa)y los provocadores "profesionales" de disturbios envenenan a diario con comentarios tóxicos las conversaciones en los formatos digitales. Para combatir este panorama extendido está pensado Perspective como fruto de Jigsaw, incubador tecnológico de Alphabet, paraguas corporativo que comprende a Google.
Al aprovechar el "machine learning" o aprendizaje automático, esta tecnología reconoce los insultos explícitos pero también las ofensas más sutiles.
El sistema, explica Jared Cohen, presidente de Jigsaw, analiza los comentarios y les asigna un puntaje de "toxicidad" de uno a cien.
Se trata de un instrumento que Google deja en manos de los editores, ellos serán los que decidan cómo utilizarlo.
El New York Times, involucrado en la fase de desarrollo junto a Wikipedia, decidió utilizar estos algoritmos para hacer una primera proyección de los comentarios que los redactores deben moderar, cerca de once mil al día para un equipo de 14 personas y solo para el 10% de los artículos online.
Pero se puede decidir usar Perspective también de otros modos, por ejemplo, mostrando al usuario el "puntaje" de su comentario para ponerlo en guardia de un posible lenguaje ofensivo. Perspective no opera como una "lista negra", no juzga los comentarios sobre la base de un elenco predefinido de términos, sino que confronta las frases a través de una enorme base de datos inicial, comenzada con al menos cinco millones de comentarios etiquetados manualmente por revisores humanos.
La base de datos se "afina" cada vez que encuentra nuevos ejemplos de comentarios potencialmente ofensivos, cuya valoración es evaluada por las personas.
Por el momento Perspective está desarrollado solamente para el inglés, pero el futuro funcionamiento en otros idiomas dependerá de una fase de adiestramiento del algoritmo junto a organizaciones editoriales que trabajen en el proyecto en cada nueva lengua. Por ahora, en la fase de pruebas anglosajona, hay anotados otros dos grandes socios: The Guardian y The Economist.
La tecnología será de código abierto (open source), disponible de manera gratuita para todos, según los planes.
Los datos permanecerán disponibles para los editores que pueden elegir si le permiten a Google salvarlos.
Prácticamente nadie en el mundo puede considerarse inmune a los llamados "leones del teclado", verdaderas legiones de internautas capaces de ofender o insultar a cualquiera, muchas veces desde la presunta seguridad de la distancia física y el anonimato.
En Estados Unidos, al menos el 72% de los usuarios de Internet tuvo testimonios de episodios de este tipo y al menos la mitad los sufrió de modo personal.
Además un tercio suele autocensurarse por miedo a las reacciones que puedan generar sus comentarios y observaciones.
Muchos son los sitios de información que decidieron cerrar sus noticias a los comentarios, para no transformar sus plataformas en "conversaciones de bar" ordinarias y agresivas.
Los esfuezos para contener el lenguaje violento en la red son múltiples también por parte de otras grandes compañías tecnológicas.
Twitter desde hace poco reforzó su lucha contra los "trolls" y los abusos, mientras que Instagram introdujo filtros "anti-acoso".
Facebook tiene una política de condena de la incitación al odio y sobre esta red social tales contenidos pueden ser denunciados y se advierte a los emisores para que los cancelen, incluyendo suspensiones de los perfiles que no cumplen las normas.
En Italia se aprobó recientemente el manifiesto "Parole Ostili" ("Palabras hostiles"), un decálogo disponible para un uso responsable de la red.
Añadir nuevo comentario