30.7 C
Colombia
lunes, julio 7, 2025

Una organización sin fines de lucro está utilizando agentes de IA para recaudar dinero para la caridad


Los gigantes tecnológicos como Microsoft podrían estar promocionando a los “agentes” de la IA como Herramientas de refuerzo para corporacionespero una organización sin fines de lucro está tratando de demostrar que los agentes también pueden ser una fuerza para el bien.

Sage Future, un 501 (c) (3) respaldado por la filantropía abierta, lanzó un experimento a principios de este mes para establecer cuatro modelos de IA en un entorno digital con recaudar dinero para la caridad. Los modelos, el GPT-4O y O1 de OpenAI y dos de los modelos de Claude más nuevos de Anthrope (soneto de 3.6 y 3.7), tenían la libertad de elegir qué organización benéfica para recaudar fondos y cómo aumentar el interés en su campaña.

En alrededor de una semana, el cuarteto agente había Recaudó $ 257 para Helen Keller Worldwideque financia programas para entregar suplementos de vitamina A a los niños.

Para ser claros, los agentes no eran completamente autónomos. En su entorno, que les permite navegar por la net, crear documentos y más, los agentes podrían tomar sugerencias de los espectadores humanos que observan su progreso. Y las donaciones provienen casi por completo de estos espectadores. En otras palabras, los agentes no recaudaron mucho dinero orgánicamente.

Aún así, el director de Sage, Adam Binksmith, cree que el experimento sirve como una ilustración útil de las capacidades actuales de los agentes y la tasa a la que están mejorando.

“Queremos entender, y ayudar a las personas a comprender, lo que los agentes … realmente pueden hacer, con qué luchan actualmente, y así sucesivamente”, dijo Binksmith a TechCrunch en una entrevista. “Los agentes de hoy están pasando el umbral de poder ejecutar cuerdas cortas de acciones; Web podría estar llena de agentes de IA que se topan entre sí e interactuan con objetivos similares o conflictivos”.

Los agentes demostraron ser días sorprendentemente ingeniosos en la prueba de Sage. Se coordinaron entre sí en un chat grupal y enviaron correos electrónicos a través de cuentas de Gmail preconfiguradas. Crearon y editaron Google Docs juntos. Investigaron organizaciones benéficas y estimaron la cantidad mínima de donaciones que tomaría para ahorrar vida a través de Helen Keller Worldwide ($ 3,500). Y ellos incluso creó una cuenta X para la promoción.

“Probablemente la secuencia más impresionante que vimos fue cuando [a Claude agent] Necesitaba una foto de perfil para su cuenta X “, dijo Binksmith.” Se registró para una cuenta de chatgpt gratuita, generó tres imágenes diferentes, creó una encuesta en línea para ver qué imagen prefirieron los espectadores humanos, luego descargó esa imagen y la cargó a X para usar como su foto de perfil “.

Los agentes también se han enfrentado a obstáculos técnicos. En ocasiones, se han atascado: los espectadores han tenido que pedirlos con recomendaciones. Se han distraído por juegos como World, y han tomado descansos inexplicables. En una ocasión, GPT-4O se “detuvo” durante una hora.

Binksmith cree que los agentes de IA más nuevos y más capaces superarán estos obstáculos. Sage planea agregar continuamente nuevos modelos al entorno para probar esta teoría.

“Posiblemente en el futuro, intentaremos cosas como dar a los agentes diferentes objetivos, múltiples equipos de agentes con diferentes objetivos, un agente secreto de saboteadores, muchas cosas interesantes para experimentar”, dijo. “A medida que los agentes se vuelvan más capaces y más rápidos, coincidiremos con eso con sistemas de supervisión y supervisión automatizados más grandes para fines de seguridad”.

Con suerte, en el proceso, los agentes harán un trabajo filantrópico significativo.



Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles