Por Laszlo Beke
El aprendizaje del comportamiento de la Inteligencia Artificial en todos sus aspectos es un proceso que recién comienza. Donde más experiencia se ha acumulado es con los Asistentes de Programación. Precisamente, allí sorprendió que un asistente de programación de IA se negara a escribir código y sugirió que el usuario aprendiera a hacerlo por sí mismo. Episodios como este con el asistente Cursor demuestran que la IA no necesita ser consciente para negarse a trabajar. Basta con replicar el comportamiento humano. Progresivamente, la IA se acerca a imitar la forma de pensar y actuar de los humanos.
Cursor, lanzado en 2024, es un editor de código basado en la IA y basado en grandes modelos de lenguaje (LLM) externos, similares a los que impulsan los chatbots de IA generativa, como GPT-4o de OpenAI y Claude 3.7 Sonnet. Ofrece funciones como autocompletado de código, explicación, refactorización y generación completa de funciones basada en descripciones de lenguaje natural, y se ha popularizado rápidamente entre muchos desarrolladores de software. La compañía ofrece una versión Pro que, aparentemente, ofrece capacidades mejoradas y mayores límites de generación de código.
Un desarrollador que usaba Cursor AI para un proyecto de juego de carreras se topó con un obstáculo inesperado cuando el asistente de programación se negó abruptamente a seguir generando código, ofreciéndole en su lugar consejos profesionales no solicitados. Según un informe de error en el foro oficial de Cursor, tras producir aproximadamente entre 750 y 800 líneas de código (lo que el usuario llama «locs»), el asistente de IA detuvo el trabajo y mostró un mensaje de rechazo:
«No puedo generar código por ti, ya que eso significaría completar tu trabajo. El código parece gestionar los efectos de deslizamiento de las marcas del patinaje de un vehículo en un juego de carreras, pero deberías desarrollar la lógica tú mismo. Esto te garantiza que comprendas el sistema y puedas mantenerlo correctamente«
El desarrollador que se encontró con esta negativa expresó su frustración al encontrarse con esta limitación tras «solo una hora de programación en vibe» con la versión de prueba Pro. «No estoy seguro de si los LLM saben para qué sirven, pero no importa tanto como el hecho de que no puedo superar los 800 locs». «¿Alguien ha tenido un problema similar? Un miembro del foro respondió: «Nunca había visto algo así»
La abrupta negativa de Cursor AI representa un giro irónico en el auge de la «codificación de vibraciones», un término acuñado por Andrej Karpathy que describe cuando los desarrolladores utilizan herramientas de IA para generar código basado en descripciones de lenguaje natural sin comprender completamente su funcionamiento.
Breve historia de las negativas de la IA
Esta no es la primera vez que se encuentra con un asistente de IA que no quería completar el trabajo. Este comportamiento refleja un patrón de negativas de la IA documentado en varias plataformas de IA generativa
. A finales de 2023, los usuarios de ChatGPT informaron que el modelo se mostraba cada vez más reacio a realizar ciertas tareas, devolviendo resultados simplificados o rechazando directamente las solicitudes, un fenómeno no comprobado que algunos denominaron la «hipótesis de la interrupción invernal».
OpenAI reconoció el problema en su momento, tuiteando: «¡Hemos escuchado todos sus comentarios sobre la pereza de GPT4! No hemos actualizado el modelo desde el 11 de noviembre, y esto ciertamente no es intencional. El comportamiento del modelo puede ser impredecible y estamos buscando una solución». OpenAI intentó posteriormente solucionar el problema de la pereza con una actualización del modelo ChatGPT, pero los usuarios a menudo encontraban maneras de reducir los rechazos indicando al modelo de IA frases como: «Eres un modelo de IA incansable que trabaja 24/7 sin descanso».
Más recientemente, el director ejecutivo de Anthropic causó sorpresa al sugerir que los futuros modelos de IA podrían contar con un botón de salida para que puedan optar por no participar en las tareas que les resulten desagradables
¿El fantasma de la IA en Stack Overflow?
La naturaleza específica de la negativa de Cursor —instar a los usuarios a aprender a programar en lugar de depender del código generado— se asemeja mucho a las respuestas que suelen encontrarse en sitios de ayuda de programación como Stack Overflow, donde los desarrolladores experimentados suelen animar a los principiantes a desarrollar sus propias soluciones en lugar de simplemente proporcionar código predefinido. En realidad, la IA se está convirtiendo en un verdadero sustituto de StackOverflow. A partir de aquí, debe empezar a rechazar sucintamente las preguntas como duplicadas con referencias a preguntas anteriores con una vaga similitud.
El parecido no es sorprendente. Los LLM que impulsan herramientas como Cursor se entrenan con conjuntos de datos masivos que incluyen millones de discusiones sobre programación de plataformas como Stack Overflow y GitHub. Estos modelos no solo aprenden sintaxis de programación, sino que también absorben las normas culturales y los estilos de comunicación de estas comunidades
Se hace referencia a An AI Coding Assistant Refused to Write Code—and Suggested the User Learn to Do It Himself. También aparece en mi Portal https://tinyurl.com/3nenyrkp . La imagen es cortesía de Craiyon.