Yahoo desarrolló algoritmo capaz de detectar mensajes abusivos 19/08/2016 - Informe24

Ultima Hora

Informe24

TU CANAL PREFERIDO! DESDE MATURIN

Post Top Ad

DISPONIBLE PARA PUBLICIDAD

20 de agosto de 2016

Yahoo desarrolló algoritmo capaz de detectar mensajes abusivos 19/08/2016


Al analizar el software de Yahoo, este detecta mensajes abusivos con un 90% de precisión, sin embargo para twitter al parecer le es complicado dada la complejidad del lenguaje.

Lo primero que debemos conocer, es que los trolls continuamente acechan a través de Internet y se deleitan con sus fechorías.

En tal sentido como primera medida debemos mantener nuestras bandejas de entrada relativamente limpias de spam, ahora…¿por qué no pueden las máquinas purgar automáticamente los tuits con mensajes abusivos o los comentarios hirientes publicados en línea?

La semana pasada, Twitter bloqueó a un periodista al que acusó de orquestar una campaña contra una de las estrellas del reparto de la nueva versión femenina de los Cazafantasmas. Twitter dijo que introduciría nuevas directrices y herramientas para informar de abusos mediante su servicio.

Es por ello que un equipo de Yahoo desarrolló recientemente un algoritmo capaz de detectar mensajes abusivos mejor que cualquier otro sistema automatizado hasta la fecha.

Los investigadores generaron un conjunto de datos sobre comentarios de ese tipo mediante la recopilación de mensajes en artículos de Yahoo, que fueron etiquetados como ofensivos por los propios editores de comentarios de la empresa.

El equipo de Yahoo empleó varias técnicas convencionales: incluidas las búsquedas de palabras clave abusivas, de la puntuación que a menudo parecía acompañar esos mensajes y de pistas sintácticas sobre el significado de una frase.

Pero los investigadores emplearon una forma de representar el significado de las palabras como vectores de múltiples dimensiones.

Es decir un enfoque denominado “incrustación de palabras”, el cual permite que la semántica sea procesada de manera sofisticada.

Los investigadores de inteligencia artificial (IA) están logrando importantes progresos en el entrenamiento de máquinas para analizar el lenguaje natural, la IA no ha conseguido que los ordenadores tengan el poder mental necesario para desentrañar el significado.

Muchas empresas tecnológicas, incluidas Twitter, disponen de investigadores de IA dedicados a avanzar en áreas como el reconocimiento de imágenes y el análisis de textos.

Pero hasta ahora, los esfuerzos para detectar abusos o acosos de manera sistemática han sido escasos.

Twitter rehusó confirmar si su equipo de IA está trabajando activamente en el problema (aunque parece posible). Pero es improbable que la empresa lance una bala de plata que filtre todos los mensajes maliciosos.

“Identificar automáticamente los abusos resulta sorprendentemente difícil”, afirma el investigador especializado en abusos online en el Centro para el Análisis de Redes Sociales de Reino Unido Alex Krasodomski-Jones. El experto explica: “El lenguaje de los abusos es amorfo, cambia frecuentemente y a menudo es utilizado de maneras que no guardan ninguna connotación con los abusos, como cuando términos raciales o sexualmente cargados son agenciados por los grupos que antaño denigraban”.

Dados 10 tuis, un grupo de humanos raramente se pondrá de acuerdo en cuáles deben de calificarse de abusivos, así que podrás hacerte de una idea de lo difícil que resultaría para un ordenador“.

Post Top Ad

DISPONIBLE PARA PUBLICIDAD