Un automóvil que se acelera en lugar de frenar de vez en cuando no está listo para el camino. Un grifo que ocasionalmente escupe agua hirviendo en lugar de frío no pertenece a su hogar. Funcionando correctamente mayoría del tiempo simplemente no es lo suficientemente bueno para las tecnologías con las que las personas dependen en gran medida. Y dos años y medio después del lanzamiento de ChatGPT, Generative AI se está convirtiendo en una tecnología.
Incluso sin buscar activamente un chatbot, miles de millones de personas ahora están presionadas para interactuar con la IA al buscar en la internet, verificar su correo electrónico, usar las redes sociales y las compras en línea. Noventa y dos por ciento de Fortuna 500 empresas utilizan productos Operai, las universidades están proporcionando acceso gratuito de chatbot a millones de estudiantes, y las agencias de inteligencia nacional de los Estados Unidos son despliegue Programas de IA en sus flujos de trabajo.
Cuando Chatgpt cayó durante varias horas la semana pasada, todos los días usuarios, estudiantes con exámenes y oficina trabajadores Publicado en desesperación: “Si no vuelve pronto, mi jefe comenzará a preguntar por qué no he hecho nada todo el día”, una persona comentado En Downdetector, un sitio internet que rastrea las interrupciones de Web. “Mañana tengo una entrevista para un puesto en el que no sé prácticamente nada, ¿quién me entrenará?” escribió otro. Ese mismo día, 10 de junio, 2025, un Google Descripción normal de la IA Me dije que la fecha period el 18 de junio de 2024.
A pesar de toda su promesa, estas herramientas siguen siendo … Janky. Al comienzo del auge de la IA, había muchos naufragios de tren: el chatbot de la bobina le dijo a un columnista de tecnología que se fuera su esposaChatgpt defensa racismo manifiesto—Pero estos se pasaron plausiblemente como errores en etapa temprana. Hoy, aunque la calidad normal de los productos generativos-AI ha mejorado dramáticamente, persisten los errores sutiles: la fecha incorrecta, las matemáticas incorrectas, los libros falsos y las citas. La búsqueda de Google ahora bombardea a los usuarios con descripciones de IA por encima de los resultados de búsqueda reales o un fragmento de Wikipedia confiable; Estos ocasionalmente incluyen tales errores, un problema sobre el que Google advierte en un descargo de responsabilidad debajo de cada descripción normal. Fb, Instagram y X están inundados de bots y Slop generado por IA. Amazon es relleno con AI generado estafa productos. A principios de este año, las alertas de noticias generadas por IA desactivadas de Apple después de que la función resumió de manera inexacta múltiples titulares. Mientras tanto, las interrupciones como ChatGPT Brownout de la semana pasada no son infrecuentes.
Los servicios y productos digitales, por supuesto, nunca fueron perfectos. Google Search ya tiene muchos anuncios inútiles, mientras que los algoritmos de redes sociales han amplificado la desinformación de radicalización. Pero como servicios básicos para encontrar información o conectarse con amigos, hasta hace poco, trabajaban. Mientras tanto, los chatbots se desplegaron como soluciones a las fallas de la antigua internet: la apresuración de Google para revisar Buscar con AI, el absurdo de Mark Zuckerberg declaración que la IA puede reemplazar a los amigos humanos, Elon Musk’s sugerencia que su chatbot de Grok puede combatir la información errónea en X, solo está exacerbando esos problemas al tiempo que introduce tipos completamente nuevos de mal funcionamiento y desastres. Más importante, el alcance de las nuevas ambiciones de la industria de la IA: para volver a cablear no solo la internet, sino también la economía, la educación e incluso el Trabajo del gobierno Con una sola tecnología, magnifica cualquier defecto a la misma escala.
Las razones de los problemas generativos de IA no son misterios. Modelos de idiomas grandes como los que subyacen a chatgpt funcionan prediciendo personajes en una secuenciamapeo de relaciones estadísticas entre bits de texto y las concepts que representan. Sin embargo, la predicción, por definición, no tiene certeza. Los chatbots son muy buenos para producir escribiendo Eso suena convincente, pero no toman decisiones de acuerdo con lo que es de hecho correcto. En cambio, organizan patrones de palabras de acuerdo con lo que son “sonidos”. Mientras tanto, los algoritmos internos de estos productos son tan grandes y complejos que los investigadores no pueden esperar comprender completamente sus habilidades y limitaciones. Por todo el protección adicional Las compañías tecnológicas han agregado para hacer que la IA sea más precisa, estos bots nunca pueden garantizar la precisión. Las fallas vergonzosas son una característica de los productos de IA y, por lo tanto, se están convirtiendo en características de Web más amplio.
Si esta es la Edad de AI, entonces estamos viviendo en tiempos rotos. Sin embargo, Sam Altman ha llamado Chatgpt un “sistema oracular que puede hacer cualquier cosa dentro de lo razonable” y la semana pasada proclamado que OpenAi ha “construido sistemas que son más inteligentes que las personas de muchas maneras”. (Discutible.) Mark Zuckerberg tiene repetidamente dicho Ese Meta construirá agentes de codificación de IA equivalentes a ingenieros humanos “de nivel medio” este año. Solo esta semana, Amazon lanzó un interno memorándum Decir que espera reducir su fuerza laboral whole, ya que implementa más herramientas de IA.
Las anomalías a veces son extrañas y muy preocupantes. Las actualizaciones recientes han causado que ChatGPT se vuelva agresivamente servil y el grok chatbot, en x, para fijar en un teoría de la conspiración sobre “Genocidio blanco”. (X luego atribuyó el problema a un cambio no autorizado al bot, que la compañía corrigió). Un reciente New York Occasions investigación informaron varias instancias de chatbots de IA induciendo desgloses mentales y episodios psicóticos. Estos modelos son weak a Todo tipo de ataques cibernéticos simples. He visto repetidamente modelos avanzados de IA atascados en bucles de fatalidad, repitiendo la misma secuencia hasta que se apagan manualmente. Silicon Valley está apostando al futuro de la internet sobre tecnología que inesperadamente puede salir de los rieles, derretirse en las tareas más simples y ser mal utilizados con alarmantemente poca fricción. Web está volviendo al modo beta.
Mi punto no es que la IA generativa sea una estafa o que sea inútil. Estas herramientas pueden ser legítimamente útiles para muchos gente Cuando se usa de manera medida, con verificación humana; He informado sobre el trabajo científico que ha avanzado como resultado de la tecnología, incluidas las revoluciones en neurociencia y descubrimiento de drogas. Pero estas historias de éxito tienen poca semejanza con la forma en que muchas personas y empresas entienden y usan la tecnología; El advertising ha superado con creces la innovación. En lugar de usos específicos y cautelosamente ejecutados, muchos arrojan IA generativa en cualquier tarea conceivable, con el aliento de Huge Tech. “Todos están usando IA para todo”, un Veces titular Proclamado esta semana. Ahí reside el problema: la IA generativa es una tecnología que funciona lo suficientemente bien como para que los usuarios se vuelvan dependientes, pero no lo suficientemente consistente como para ser verdaderamente confiable.
Reorientar Web y la sociedad en torno a productos imperfectos y relativamente no probados no es el resultado inevitable del progreso científico y tecnológico: es una elección activa que Silicon Valley está haciendo todos los días. Esa internet futura es aquella en la que la mayoría de las personas y organizaciones dependen de la IA para la mayoría de las tareas. Esto significaría un Web en el que cada búsqueda, conjunto de direcciones, recomendación de la cena, sinopsis de eventos, resumen de correo de voz y correo electrónico es un poco sospechoso; en el que los servicios digitales que esencialmente funcionaron en la década de 2010 son solo un un poco faltón. Y si bien los inconvenientes menores para los usuarios individuales pueden estar bien, incluso divertidos, un bot de IA que toma notas incorrectas durante una visita al médico o generando un plan de tratamiento incorrecto, no lo es.
Los productos de IA podrían establecerse en una zona liminal. Es posible que no se equivocen con la frecuencia suficiente para ser destrozados, pero tampoco pueden estar equivocados raramente lo suficientemente confiables como para ser plenamente confiables. Por ahora, los defectos de la tecnología se detectan y corregen fácilmente. Pero a medida que las personas se acostumbran cada vez más a la IA en su vida, en la escuela, en el trabajo, en el hogar, pueden dejar de notarlo. Ya, un creciente cuerpo de investigación correlaciona el uso persistente de AI con una caída en el pensamiento crítico; Los humanos dependen de la IA y no están dispuestos, quizás incapaces, a verificar su trabajo. A medida que los chatbots se arrastran en cada grieta digital, pueden continuar degradando la internet gradualmente, incluso suavemente. La jankness de hoy puede, para mañana, simplemente ser regular.