miércoles, mayo 1, 2024
Tecnologia

El próximo paso de ChatGPT: moderar contenido ilegal y polémico en Facebook

GPT-4, el modelo de lenguaje grande (LLM) que impulsa ChatGPT Plus, pronto puede asumir un nuevo papel como moderador en línea, vigilando foros y redes sociales en busca de contenido nefasto que no debería ver la luz del día. Eso es según una nueva publicación de blog del desarrollador de ChatGPT OpenAI, que dice que esto podría ofrecer «una visión más positiva del futuro de las plataformas digitales».

Al reclutar inteligencia artificial (IA) en lugar de moderadores humanos, OpenAI dice que GPT-4 puede promulgar «iteraciones mucho más rápidas en los cambios de política, reduciendo el ciclo de meses a horas». Además de eso, «GPT-4 también es capaz de interpretar reglas y matices en la documentación de políticas de contenido largo y adaptarse instantáneamente a las actualizaciones de políticas, lo que resulta en un etiquetado más consistente», afirma OpenAI.

Una pantalla de computadora portátil muestra la página de inicio de ChatGPT, el chatbot de inteligencia artificial de OpenAI.
Rolf van Root / Unsplash

Por ejemplo, la publicación del blog explica que los equipos de moderación podrían asignar etiquetas al contenido para explicar si cae dentro o fuera de las reglas de una plataforma determinada. GPT-4 podría entonces tomar el mismo conjunto de datos y asignar sus propias etiquetas, sin saber las respuestas de antemano.

Los moderadores podrían comparar los dos conjuntos de etiquetas y usar cualquier discrepancia para reducir la confusión y agregar aclaraciones a sus reglas. En otras palabras, GPT-4 podría actuar como un usuario cotidiano y evaluar si las reglas tienen sentido.

El costo humano

El modelo de lenguaje grande GPT-4 de OpenAI intenta moderar una pieza de contenido. El resultado se compara con el análisis humano del contenido.

En este momento, la moderación de contenido en varios sitios web es realizada por humanos, lo que los expone a contenido potencialmente ilegal, violento o dañino de forma regular. Hemos visto repetidamente el terrible costo que la moderación de contenido puede tener en las personas, con Facebook pagando $ 52 millones a los moderadores que sufrieron de trastorno de estrés postraumático debido a los traumas de su trabajo.

Reducir la carga de los moderadores humanos podría ayudar a mejorar sus condiciones de trabajo, y dado que las IA como GPT-4 son inmunes al tipo de estrés mental que los humanos sienten cuando manejan contenido problemático, podrían implementarse sin preocuparse por el agotamiento y el trastorno de estrés postraumático.

Sin embargo, plantea la cuestión de si el uso de la IA de esta manera resultaría en pérdidas de empleos. La moderación de contenido no siempre es un trabajo divertido, pero es un trabajo de todos modos, y si GPT-4 toma el relevo de los humanos en esta área, es probable que exista la preocupación de que los antiguos moderadores de contenido simplemente sean redundantes en lugar de reasignados a otros roles.

OpenAI no menciona esta posibilidad en su publicación de blog, y eso realmente es algo que las plataformas de contenido deben decidir. Pero podría no hacer mucho para disipar los temores de que la IA sea implementada por grandes empresas simplemente como una medida de ahorro de costos, con poca preocupación por las consecuencias.

Aún así, si la IA puede reducir o eliminar la devastación mental que enfrentan los equipos sobrecargados de trabajo y subestimados que moderan el contenido en los sitios web utilizados por miles de millones de personas todos los días, podría haber algo bueno en todo esto. Queda por ver si eso se verá atenuado por despidos igualmente devastadores.

Recomendaciones del editor