lunes, octubre 7, 2024
Tecnologia

Algoritmo está desenmascarando a los misóginos en Twitter

La violencia desatada y las descalificaciones verbales en Twitter han hecho que la red social tome una serie de medidas para limpiar las interacciones de sus usuarios, pero los esfuerzos no han sido tan grandes para evitar por ejemplo, el machismo.

Para arreglar ese problema, investigadores de la Universidad de Queensland en Australia crearon un algoritmo que es capaz de detectar actitudes misóginas.

El equipo desarrolló la herramienta basado en Inteligencia Artificial y un profundo estudio de más de 1 millón de tuits extraídos.

Luego refinaron el conjunto de datos buscando en las publicaciones tres palabras claves abusivas: puta, puta y violación.

Luego, categorizaron los 5,000 mensajes restantes como misóginos o no, según su contexto e intención. Estos tuits etiquetados se enviaron luego a un clasificador de aprendizaje automático, que utilizó las muestras para crear su propio modelo de clasificación.

Cómo proteger tu cuenta de Twitter

“Tomemos la frase ‘volver a la cocina’ como ejemplo: sin un contexto de desigualdad estructural, la interpretación literal de una máquina podría perder el significado misógino”, dijo el  profesor Richi Naya, coautor del estudio. “Pero visto con la comprensión de lo que constituye un lenguaje abusivo o misógino, puede identificarse como un tweet misógino”.

Los investigadores han comentado que hasta ahora el algoritmo ha podido identificar hasta 75% de tuits con contenido machista.

“Nos alegramos mucho cuando nuestro algoritmo identificó “volver a la cocina” como misógino: demostró que el aprendizaje del contexto funciona”, señalaron.

“Por el momento, el usuario tiene la responsabilidad de denunciar el abuso que recibe”, dijo  el profesor Naya. “Esperamos que nuestra solución de aprendizaje automático pueda ser adoptada por las plataformas de redes sociales para identificar e informar automáticamente sobre este contenido para proteger a las mujeres y otros grupos de usuarios en línea”.

Recomendaciones del editor