La compañía tecnológica OpenAI ha publicado el primer informe sobre como se utilizan sus herramientas de inteligencia artificial (IA). La empresa es la creadora de ChatGPT, el cual afirman que ha sido utilizado por campañas por Rusia, China, eIrán para influir en el discurso político y ejecutar propaganda encubierta.
“En los últimos tres meses, hemos desmantelado cinco IO (influencias encubiertas) que utilizaban nuestros modelos para dar apoyo a actividades engañosas en Internet”, ha explicado el investigador principal del equipo de OpenAI, Ben Nimmo. La compañía destaca que ninguna de las campañas y los mensajes que se generaron con su tecnología llegaron a grandes audiencias.
El informe sobre campañas de influencia encubiertas de OpenAI ha mostrado como grupos de varios países utilizan ChatGPT para desinformar y con hasta propagandísticos. El análisis de la compañía se ha plasmado en 39 páginas donde se analizan lo que denominan cinco operaciones de influencia encubierta. Es decir, tanto actores estatales como privados de países que han recorrido al ChatGPT para la propaganda. El informe solo abarca los últimos tres meses.
¿Qué casos se ha encontrado OpenAI?
La compañía tecnológica ha señalado casos concretos. Por ejemplo, dos operaciones rusas, una que publicaba contenido sobre Ucrania en internet y otra que operaba “principalmente en Telegram y tenía como objetivo Ucrania, Moldavia, los Estados bálticos y los Estados Unidos”. En menor medida, la organización sindical Histadrut en Israel y las elecciones indias, dice el informe.
La empresa norteamericana también identificó a un actor chino persistente que publicaba contenido en internet “para elogiar China y criticar a sus detractores”; y a otro iraní, que lanzaba contenido en contra de Israel y de los Estados Unidos.
El contenido publicado por estas operaciones se centró en temas como la guerra en Ucrania y el conflicto en Gaza, aunque también abordaron asuntos como las elecciones generales de la India, la política en Europa y los EE. UU., además de críticas en el Gobierno de la China por parte de disidentes y gobiernos extranjeros. Los atacantes intentaban influir en la opinión pública a través de la generación de contenido con errores de idioma, la mezcla de contenido nuevo con antiguo y la generación de respuestas a publicaciones propias para fingir participación y generar más productividad.