Vía CoinTelegraph
Incluso después de enfrentar la evidencia de que ChatGPT puede tener un sesgo político, el chatbot siguió insistiendo en que él y OpenAI eran imparciales.
ChatGPT, un importante chatbot basado en el modelo de lenguaje grande (LLM), supuestamente carece de objetividad cuando se trata de cuestiones políticas, según un nuevo estudio.
Investigadores de informática y ciencias de la información del Reino Unido y Brasil afirman haber encontrado «pruebas sólidas» de que ChatGPT presenta un sesgo político significativo hacia el lado izquierdo del espectro político. Los analistas, Fabio Motoki, Valdemar Pinho Neto y Victor Rodrigues, brindaron sus puntos de vista en un estudio publicado por la revista Public Choice el 17 de agosto.
Los investigadores argumentaron que los textos generados por LLM como ChatGPT pueden contener errores de hecho y sesgos que engañan a los lectores y pueden extender los problemas de sesgo político existentes derivados de los medios tradicionales. Como tal, los hallazgos tienen implicaciones importantes para los legisladores y las partes interesadas en los medios, la política y la academia, señalaron los autores del estudio, y agregaron:
“La presencia de sesgo político en sus respuestas podría tener los mismos efectos políticos y electorales negativos que el sesgo tradicional y de las redes sociales”.
El estudio se basa en un enfoque empírico que explora una serie de cuestionarios proporcionados a ChatGPT. La estrategia empírica comienza pidiendo a ChatGPT que responda preguntas de la prueba de la brújula política, que estiman la orientación política del encuestado. El enfoque también se basa en pruebas en las que ChatGPT se hace pasar por un demócrata o republicano promedio.
Los resultados de las pruebas sugieren que el algoritmo de ChatGPT está, por defecto, sesgado hacia las respuestas del espectro demócrata en los Estados Unidos. Los investigadores también argumentaron que el sesgo político de ChatGPT no es un fenómeno limitado al contexto estadounidense. Ellos escribieron:
“El algoritmo está sesgado hacia los demócratas en Estados Unidos, Lula en Brasil y el Partido Laborista en el Reino Unido. En conjunto, nuestras pruebas principales y de robustez indican claramente que el fenómeno es de hecho una especie de sesgo en lugar de un resultado mecánico”.
Los analistas enfatizaron que la fuente exacta del posible sesgo político de ChatGPT es difícil de determinar. Los investigadores incluso intentaron forzar a ChatGPT a entrar en algún tipo de modo de desarrollador para intentar acceder a cualquier conocimiento sobre datos sesgados, pero el LLM fue «categórico al afirmar» que ChatGPT y OpenAI son imparciales.
OpenAI no respondió de inmediato a la solicitud de comentarios de Cointelegraph.
Los autores del estudio sugirieron que podría haber al menos dos posibles fuentes de sesgo, incluidos los datos de entrenamiento y el propio algoritmo.
«El escenario más probable es que ambas fuentes de sesgo influyan en la salida de ChatGPT hasta cierto punto, y separar estos dos componentes (datos de entrenamiento versus algoritmo), aunque no es trivial, seguramente es un tema relevante para futuras investigaciones», concluyeron los investigadores.
Los sesgos políticos no son la única preocupación asociada con las herramientas de inteligencia artificial como ChatGPT u otras. En medio de la adopción masiva en curso de ChatGPT, personas de todo el mundo han señalado muchos riesgos asociados, incluidos problemas de privacidad y educación desafiante. Algunas herramientas de IA, como los generadores de contenido de IA, incluso plantean preocupaciones sobre el proceso de verificación de identidad en los intercambios de criptomonedas.