32.3 C
Colombia
lunes, julio 7, 2025

GPT-4o de OpenAI crea clones de IA de personas reales con sorprendente facilidad


La IA se ha vuelto asombrosamente buena a la hora de imitar las capacidades de conversación humanas. Una nueva investigación sugiere que sus poderes de imitación van mucho más allá, permitiendo replicar las personalidades de personas específicas.

Los humanos somos complicados. Nuestras creencias, rasgos de carácter y la forma en que abordamos las decisiones son productos tanto de la naturaleza como de la crianza, construidos a lo largo de décadas y moldeados por nuestras experiencias de vida distintivas.

Pero parece que quizá no seamos tan únicos como pensamos. un estudio dirigido por investigadores de la Universidad de Stanford ha descubierto que todo lo que se necesita es una entrevista de dos horas para que un modelo de IA prediga las respuestas de las personas a una batería de cuestionarios, pruebas de personalidad y experimentos mentales con una precisión del 85 por ciento.

Si bien la thought de clonar la personalidad de las personas puede parecer espeluznante, los investigadores dicen que el enfoque podría convertirse en una poderosa herramienta para científicos sociales y políticos buscando simular respuestas a diferentes opciones políticas.

“Lo que tenemos la oportunidad de hacer ahora es crear modelos de individuos que sean realmente de alta fidelidad”, dijo Joon Sung Park de Stanford, quien dirigió la investigación, dijo Nuevo científico.Podemos crear un agente de una persona que seize muchas de sus complejidades y naturaleza idiosincrásica”.

La IA no se utilizó sólo para crear réplicas virtuales de los participantes del estudio, sino que también ayudó a recopilar los datos de entrenamiento necesarios. Los investigadores obtuvieron una versión habilitada por voz del GPT-4o de OpenAI para entrevistar a personas utilizando un guión del American Voices Challenge, una iniciativa de ciencias sociales destinada a recopilar respuestas de familias estadounidenses sobre una amplia gama de temas.

Además de hacer preguntas preestablecidas, los investigadores también solicitaron al modelo que hiciera preguntas de seguimiento basadas en cómo respondían las personas. El modelo entrevistó a 1.052 personas en todo Estados Unidos durante dos horas y produjo transcripciones para cada individuo.

Utilizando estos datos, los investigadores crearon agentes de IA con tecnología GPT-4o para responder preguntas de la misma manera que lo haría el participante humano. Cada vez que un agente respondía una pregunta, se incluía la transcripción completa de la entrevista junto con la consulta y se le pedía al modelo que imitara al participante.

Para evaluar el enfoque, los investigadores hicieron que los agentes y los participantes humanos se enfrentaran cara a cara en una variedad de pruebas. Entre ellos figuraban la Encuesta Social Basic, que mide las actitudes sociales ante diversas cuestiones; una prueba diseñada para juzgar cómo califican las personas en el Rasgos de personalidad de los cinco grandes; varios juegos que ponen a prueba la toma de decisiones económicas; y un puñado de experimentos de ciencias sociales.

Los humanos a menudo responden de manera bastante diferente a este tipo de pruebas en diferentes momentos, lo que desbarataría las comparaciones con los modelos de IA. Para controlar esto, los investigadores pidieron a los humanos que completaran la prueba dos veces, con dos semanas de diferencia, para poder juzgar qué tan consistentes eran los participantes.

Cuando el equipo comparó las respuestas de los modelos de IA con la primera ronda de respuestas humanas, los agentes tuvieron aproximadamente un 69 por ciento de precisión. Pero teniendo en cuenta cómo variaban las respuestas de los humanos entre sesiones, los investigadores encontraron que los modelos alcanzaron una precisión del 85 por ciento.

Hassaan Raza, director ejecutivo de Tavus, una empresa que crea “gemelos digitales” de clientes, dijo Revisión de tecnología del MIT que la mayor sorpresa del estudio fue la poca información que se necesitó para crear copias fieles de personas reales. Tavus normalmente necesita una gran cantidad de correos electrónicos y otra información para crear sus clones de IA.

“Lo realmente interesante aquí es que muestran que es posible que no necesites tanta información”, dijo. “¿Qué tal si hablas con un entrevistador de IA durante 30 minutos hoy y 30 minutos mañana? Y luego lo usamos para construir este gemelo digital tuyo”.

La creación de réplicas realistas de inteligencia synthetic de humanos podría resultar una herramienta poderosa para la formulación de políticas, dijo Richard Whittle de la Universidad de Salford, Reino Unido. Nuevo científicoya que los grupos focales de IA podrían ser mucho más baratos y rápidos que los formados por humanos.

Pero no es difícil ver cómo la misma tecnología podría tener usos nefastos. Ya se ha utilizado un vídeo deepfake para hacerse pasar por un alto ejecutivo en una elaborada estafa multimillonaria. La capacidad de imitar toda la personalidad de un objetivo probablemente impulsaría tales esfuerzos.

De cualquier manera, la investigación sugiere que las máquinas que puedan imitar de manera realista a los humanos en una amplia gama de entornos son inminentes.

Crédito de la imagen: Richmond Fajardo en desempaquetar

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles