El lunes, un desarrollador que usa el widespread Ai editor de código Cursor Noté algo extraño: el cambio entre máquinas las registró instantáneamente, rompiendo un flujo de trabajo común para los programadores que usan múltiples dispositivos. Cuando el usuario contactó al soporte de cursor, un agente llamado “Sam” les dijo que se esperaba comportamiento bajo una nueva política. Pero no existía tal política, y Sam period un bot. El modelo de IA creó la política, provocando una ola de quejas y amenazas de cancelación documentadas sobre Noticias de hacker y Reddit.
Esto marca la última instancia de AI confabulaciones (también llamado “alucinaciones”) causando daños comerciales potenciales. Las confabulaciones son un tipo de respuesta de “relleno de brecha creativo” donde los modelos de IA inventan información de sonido believable pero falsa. En lugar de admitir la incertidumbre, los modelos de IA a menudo priorizan la creación de respuestas plausibles y seguras, incluso cuando eso significa información de fabricación desde cero.
Para las empresas que implementan estos sistemas en roles orientados al cliente sin supervisión humana, las consecuencias pueden ser inmediatas y costosas: clientes frustrados, confianza dañada y, en el caso de Cursor, suscripciones potencialmente canceladas.
Cómo se desarrolló
El incidente comenzó cuando un usuario de Reddit llamado Brokentoastroven observó Eso, al intercambiar un escritorio, una computadora portátil y un cuadro de desarrollo remoto, las sesiones de cursor se terminaron inesperadamente.
“Iniciar sesión en el cursor en una máquina invalida inmediatamente la sesión en cualquier otra máquina”, escribió Brokentoastroven en un mensaje que period luego eliminado por R/Moderadores de cursor. “Esta es una regresión significativa de UX”.
Confundido y frustrado, el usuario escribió un correo electrónico para el soporte del cursor y rápidamente recibió una respuesta de SAM: “El cursor está diseñado para funcionar con un dispositivo por suscripción como una función de seguridad central”, lea la respuesta del correo electrónico. La respuesta sonaba definitiva y oficial, y el usuario no sospechaba que Sam no period humano.
Después de la publicación inicial de Reddit, los usuarios tomaron la publicación como confirmación oficial de un cambio de política actual, uno que rompió hábitos esenciales para las rutinas diarias de muchos programadores. “Los flujos de trabajo de múltiples dispositivos son apuestas de mesa para los desarrolladores”, escribió un usuario.
Poco después, varios usuarios anunciaron públicamente sus cancelaciones de suscripción en Reddit, citando la política inexistente como su razón. “Literalmente cancelé mi submarino”, escribió el póster authentic de Reddit, y agregó que su lugar de trabajo ahora estaba “purgando por completo”. Otros se unieron: “Sí, también estoy cancelando, esto es Asinine”. Poco después, los moderadores bloquearon el hilo de Reddit y eliminaron el poste authentic.
“¡Oye! No tenemos esa política”, escribió Un representante del cursor en una respuesta Reddit tres horas después. “Por supuesto, es libre de usar el cursor en múltiples máquinas. Desafortunadamente, esta es una respuesta incorrecta de un bot de soporte de IA de primera línea”.
Las confabulaciones de IA como riesgo comercial
La debacle del cursor recuerda un episodio related A partir de febrero de 2024, cuando se ordenó a Air Canada para honrar una política de reembolso inventada por su propio chatbot. En ese incidente, Jake Moffatt contactó al apoyo de Air Canada después de que su abuela murió, y el agente de IA de la aerolínea le dijo incorrectamente que podía reservar un vuelo a precios regulares y solicitar tasas de duelo de forma retroactiva. Cuando Air Canada luego negó su solicitud de reembolso, la compañía argumentó que “el chatbot es una entidad authorized separada responsable de sus propias acciones”. Un tribunal canadiense rechazó esta defensa, dictaminando que las empresas son responsables de la información proporcionada por sus herramientas de IA.
En lugar de disputar la responsabilidad como lo había hecho Air Canada, Cursor reconoció el error y tomó medidas para hacer las paces. El cofundador del cursor Michael Truell más tarde se disculpó en Hacker Information Para la confusión sobre la política inexistente, explicando que el usuario había sido reembolsado y que el problema resultó de un cambio de backend destinado a mejorar la seguridad de la sesión que creó involuntariamente problemas de invalidación de la sesión para algunos usuarios.
“Cualquier respuesta de IA utilizada para el soporte por correo electrónico ahora está claramente etiquetado como tales”, agregó. “Utilizamos respuestas asistidas por AI como el primer filtro para el soporte por correo electrónico”.
Aún así, el incidente planteó preguntas persistentes sobre la divulgación entre los usuarios, ya que muchas personas que interactuaron con Sam aparentemente creían que period humano. “LLMS fingiendo ser personas (¡lo llamaste Sam!) Y no etiquetado como tal es claramente destinado a ser engañoso”, un usuario Escribió en Hacker Information.
Si bien Cursor solucionó el error técnico, el episodio muestra los riesgos de implementar modelos de IA en roles orientados al cliente sin las salvaguardas y la transparencia adecuadas. Para una empresa que vende herramientas de productividad de inteligencia synthetic a los desarrolladores, tener su propio sistema de soporte de IA inventa una política que enajenó a sus usuarios principales representa una herida autoinfligida particularmente incómoda.
“Hay una cierta cantidad de ironía que las personas se esfuerzan mucho por decir que las alucinaciones ya no son un gran problema”, un usuario Escribió en Hacker Information“Y luego, una empresa que se beneficiaría de esa narración se lastima directamente”.
Esta historia apareció originalmente en ARS Technica.