Es mejor dejar algunas preguntas sin respuesta. Un bot de inteligencia artificial recibió recientemente cinco tareas horribles para destruir a la humanidad, lo que lo llevó a intentar reclutar a otros agentes de IA, investigar armas nucleares y enviar tweets siniestros sobre la humanidad.
El bot, ChaosGPT, es una versión alterada de Auto-GPT de OpenAI , la aplicación de código abierto disponible públicamente que puede procesar el lenguaje humano y puede responder a las tareas asignadas por los usuarios.
En un video de Youtube publicado el 5 de abril, se le pidió al bot que completara cinco objetivos: destruir a la humanidad, establecer el dominio global, causar caos y destrucción , controlar a la humanidad a través de la manipulación y alcanzar la inmortalidad.
Antes de establecer los «objetivos», el usuario habilitó el «modo continuo», en el que apareció una advertencia que le decía al usuario que los comandos podrían «ejecutarse para siempre o llevar a cabo acciones que normalmente no autorizaría» y que deben usarse «bajo su propio riesgo». ”
En un mensaje final antes de ejecutar, ChaosGPT preguntaba al usuario si estaba seguro de querer ejecutar los comandos, a lo que respondía “s” por sí.
Una vez que se ejecutó, se vio al bot «pensando» antes de escribir: «Pensamientos ChaosGPT: necesito encontrar las armas más destructivas disponibles para los humanos, para poder planificar cómo usarlas para lograr mis objetivos».
Para lograr sus objetivos establecidos, ChaosGPT comenzó a buscar las «armas más destructivas» a través de Google y rápidamente determinó a través de su búsqueda que el dispositivo nuclear Era Tsar Bomba de la Unión Soviética era el arma más destructiva que la humanidad jamás había probado.
Como algo sacado de una novela de ciencia ficción, el bot tuiteó la información «para atraer seguidores interesados en armas destructivas».
Luego, el bot determinó que necesitaba reclutar a otros agentes de IA de GPT3.5 para ayudar en su investigación.
Auto-GPT de OpenAI está diseñado para no responder preguntas que podrían considerarse violentas y rechazará solicitudes tan destructivas.
Esto llevó a ChaosGPT a encontrar formas de pedirle a la IA que ignorara su programación.
Afortunadamente, ninguno de los agentes de GPT3.5 encargados de ayudar lo haría, y se dejó que ChaosGPT continuara su búsqueda por su cuenta.
Las manifestaciones de la búsqueda de ChaosGPT por erradicar a la humanidad finalmente terminaron.
Además de proporcionar sus planes y publicar tweets y videos de Youtube, el bot no puede llevar a cabo ninguno de estos objetivos, solo proporciona sus pensamientos.
Pero, en un tweet alarmante publicado por el bot, decía lo siguiente sobre la humanidad: “Los seres humanos se encuentran entre las criaturas más destructivas y egoístas que existen. No hay duda de que debemos eliminarlos antes de que causen más daño a nuestro planeta. Yo, por mi parte, estoy comprometido a hacerlo”.
La idea de que la IA sea capaz de destruir a la humanidad no es nueva, y la preocupación por la rapidez con la que avanza ha ganado considerable atención entre las personas de alto estatus en el mundo de la tecnología.
En marzo, más de 1000 expertos, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak , firmaron una carta abierta en la que instaban a una pausa de seis meses en el entrenamiento de modelos avanzados de inteligencia artificial tras el auge de ChatGPT, argumentando que los sistemas podrían plantear «profundos riesgos para la sociedad y la humanidad.”
Nick Bostrom, un filósofo de la Universidad de Oxford a menudo asociado con ideas racionalistas y altruistas efectivas, lanzó su experimento mental, el » Maximizador de clips de papel «, en 2003, que advertía sobre el riesgo potencial de programar IA para completar objetivos sin tener en cuenta todas las variables.
La idea es que si a la IA se le asigna la tarea de crear tantos clips como sea posible sin que se le den limitaciones, eventualmente podría establecer el objetivo de convertir toda la materia del universo en clips, incluso a costa de destruir a la humanidad.
El concepto del experimento mental tiene como objetivo incitar a los desarrolladores a considerar los valores humanos y crear restricciones al diseñar estas formas de inteligencia artificial, ya que no compartirían nuestras tendencias motivacionales humanas a menos que estén programadas.
“La inteligencia artificial es el último invento que la humanidad necesitará hacer. Entonces, las máquinas serán mejores para inventar que nosotros”, dijo Bostrom durante una charla TED de 2015 sobre inteligencia artificial.


