Twitter revelará “daños no deseados” de sus algoritmos
La red social de micromensajería Twitter anunció el lanzamiento de la iniciativa ML Responsable, que investigará los “daños no deseados” provocados por los algoritmos de la plataforma.
Según la compañía, los hallazgos se podrían traducir en cambios en la experiencia de uso de la plataforma mediante la eliminación de algoritmos o la inclusión de nuevos estándares.
“Esto puede resultar en un cambio de nuestro producto, como la eliminación de un algoritmo y dar a las personas más control sobre las imágenes que tuitean, o en nuevos estándares sobre cómo diseñamos y creamos políticas”, explicó Twitter en una publicación de blog.
El equipo de ML Responsable analizará el funcionamiento del algoritmo de recorte de imágenes para determinar si tiene sesgos de género o raza. Este instrumento ya había sido cuestionado por priorizar a personas blancas en desmedro de las de raza negra.
Otro ámbito en el que centrará su trabajo será en la evaluación imparcial de las recomendaciones de la cronología de Twitter en subgrupos raciales. Además, estudiará las recomendaciones de contenido para diferentes ideologías políticas en siete países.
La compañía admitió que “es posible que los resultados de este trabajo no siempre se traduzcan en cambios visibles en el producto, pero generarán una mayor conciencia y debates importantes sobre la forma en que construimos y aplicamos el aprendizaje automático”.
En ese sentido, adelantó que “esto puede venir en forma de investigación revisada por pares, conocimientos de datos, descripciones de alto nivel de nuestros hallazgos o enfoques e incluso algunos de nuestros intentos fallidos de abordar estos desafíos emergentes”.
El proyecto de Twitter es encabezado por Rumman Chowdhury, un experto en ética de la inteligencia artificial (IA) de renombre mundial nombrado director de ML Ethics, Transparency & Accountability (META) en Twitter, en febrero de 2021.
Recomendaciones del editor