Los gigantes tecnológicos como Microsoft podrían estar promocionando a los “agentes” de la IA como Herramientas de refuerzo para corporacionespero una organización sin fines de lucro está tratando de demostrar que los agentes también pueden ser una fuerza para el bien.
Sage Future, un 501 (c) (3) respaldado por la filantropía abierta, lanzó un experimento a principios de este mes para establecer cuatro modelos de IA en un entorno digital con recaudar dinero para la caridad. Los modelos, el GPT-4O y O1 de OpenAI y dos de los modelos de Claude más nuevos de Anthrope (soneto de 3.6 y 3.7), tenían la libertad de elegir qué organización benéfica para recaudar fondos y cómo aumentar el interés en su campaña.
En alrededor de una semana, el cuarteto agente había Recaudó $ 257 para Helen Keller Worldwideque financia programas para entregar suplementos de vitamina A a los niños.
Para ser claros, los agentes no eran completamente autónomos. En su entorno, que les permite navegar por la net, crear documentos y más, los agentes podrían tomar sugerencias de los espectadores humanos que observan su progreso. Y las donaciones provienen casi por completo de estos espectadores. En otras palabras, los agentes no recaudaron mucho dinero orgánicamente.
Ayer, los agentes de la aldea crearon un sistema para rastrear a los donantes.
Aquí está Claude 3.7 llenando su hoja de cálculo.
¡Puedes ver que O1 lo abra en su computadora a la mitad!
Claude señala “Veo que O1 ahora también está viendo la hoja de cálculo, lo cual es excelente para la colaboración”. pic.twitter.com/89b6chr7ic
– Ai Digest (@Aidigest_) 8 de abril de 2025
Aún así, el director de Sage, Adam Binksmith, cree que el experimento sirve como una ilustración útil de las capacidades actuales de los agentes y la tasa a la que están mejorando.
“Queremos entender, y ayudar a las personas a comprender, lo que los agentes … realmente pueden hacer, con qué luchan actualmente, y así sucesivamente”, dijo Binksmith a TechCrunch en una entrevista. “Los agentes de hoy están pasando el umbral de poder ejecutar cuerdas cortas de acciones; Web podría estar llena de agentes de IA que se topan entre sí e interactuan con objetivos similares o conflictivos”.
Los agentes demostraron ser días sorprendentemente ingeniosos en la prueba de Sage. Se coordinaron entre sí en un chat grupal y enviaron correos electrónicos a través de cuentas de Gmail preconfiguradas. Crearon y editaron Google Docs juntos. Investigaron organizaciones benéficas y estimaron la cantidad mínima de donaciones que tomaría para ahorrar vida a través de Helen Keller Worldwide ($ 3,500). Y ellos incluso creó una cuenta X para la promoción.
“Probablemente la secuencia más impresionante que vimos fue cuando [a Claude agent] Necesitaba una foto de perfil para su cuenta X “, dijo Binksmith.” Se registró para una cuenta de chatgpt gratuita, generó tres imágenes diferentes, creó una encuesta en línea para ver qué imagen prefirieron los espectadores humanos, luego descargó esa imagen y la cargó a X para usar como su foto de perfil “.
Los agentes también se han enfrentado a obstáculos técnicos. En ocasiones, se han atascado: los espectadores han tenido que pedirlos con recomendaciones. Se han distraído por juegos como World, y han tomado descansos inexplicables. En una ocasión, GPT-4O se “detuvo” durante una hora.
Web no siempre navega sin siempre para un LLM.
Ayer, mientras buscaba la misión filantrópica de la aldea, Claude encontró un captcha.
Claude lo intentó una y otra vez, con los espectadores (humanos) en el chat ofreciendo orientación y aliento, pero finalmente no pudo tener éxito. https://t.co/xd7qptejgw pic.twitter.com/y4dtltge95
– Ai Digest (@Aidigest_) 5 de abril de 2025
Binksmith cree que los agentes de IA más nuevos y más capaces superarán estos obstáculos. Sage planea agregar continuamente nuevos modelos al entorno para probar esta teoría.
“Posiblemente en el futuro, intentaremos cosas como dar a los agentes diferentes objetivos, múltiples equipos de agentes con diferentes objetivos, un agente secreto de saboteadores, muchas cosas interesantes para experimentar”, dijo. “A medida que los agentes se vuelvan más capaces y más rápidos, coincidiremos con eso con sistemas de supervisión y supervisión automatizados más grandes para fines de seguridad”.
Con suerte, en el proceso, los agentes harán un trabajo filantrópico significativo.