25.4 C
Colombia
lunes, julio 7, 2025

La evidencia muestra que los sistemas de IA ya se parecen demasiado a los humanos. ¿Será eso un problema?


¿Qué pasaría si pudiéramos diseñar una máquina que pudiera leer sus emociones e intenciones, escribir respuestas reflexivas, empáticas y perfectamente cronometradas, y aparentemente sabe exactamente lo que necesita escuchar? Una máquina tan seductora que ni siquiera te darías cuenta de que es synthetic. ¿Y si ya tenemos?

En un metanálisis integral, publicado en el Actas de la Academia Nacional de Cienciasmostramos que la última generación de chatbots de modelos de gran idioma coincide y excede a la mayoría de los humanos en su capacidad para comunicarse. Un creciente cuerpo de investigación muestra estos sistemas ahora de manera confiable pasar la prueba de turingengañar a los humanos para que piensen que están interactuando con otro humano.

Ninguno de nosotros esperaba la llegada de súper comunicadores. La ciencia ficción nos enseñó que inteligencia synthetic Sería altamente racional y lo sabe, pero carece de humanidad.

Sin embargo, aquí estamos. Experimentos recientes han demostrado que modelos como GPT-4 superan a los humanos en escribiendo persuasivamente y también empático. Otro estudio encontró que los modelos de idiomas grandes (LLM) Excel al evaluar el sentimiento matizado En mensajes escritos por humanos.

LLMS también son Maestros en Roleplayasumiendo una amplia gama de personas y imitando estilos de personaje lingüístico matizados. Esto se amplifica por su capacidad para Inferir creencias humanas e intenciones del texto. Por supuesto, los LLM no poseen una verdadera empatía o comprensión social, pero son máquinas de imitación altamente efectivas.

Llamamos a estos sistemas “agentes antropomórficos”. Tradicionalmente, el antropomorfismo se refiere a atribuir rasgos humanos a entidades no humanas. Sin embargo, los LLM realmente muestran cualidades altamente humanas, por lo que las llamadas para evitar la antropomorfización de LLM se caerán.

Este es un momento histórico: cuando no puedes notar la diferencia entre hablar con un chatbot humano o un IA en línea.

En Web, nadie sabe que eres una IA

¿Qué quiere decir esto? Por un lado, LLMS promete hacer que la información compleja sea más accesible a través de interfaces de chat, Adaptar mensajes a niveles de comprensión particular person. Esto tiene aplicaciones en muchos dominios, como servicios legales o salud pública. En educación, las habilidades de juego de roles se pueden utilizar para crear tutores socráticos que hagan preguntas personalizadas y ayuden a los estudiantes a aprender.

Al mismo tiempo, estos sistemas son seductores. Millones de usuarios ya interactúan con AI Companion Apps diariamente. Mucho se ha dicho sobre el Efectos negativos de las aplicaciones complementariaspero la seducción antropomórfica viene con implicaciones mucho más amplias.

Los usuarios están listos para Confiar en los chatbots de ai Tanto que divulgan información altamente private. Combina esto con las cualidades altamente persuasivas de los bots, y surgen preocupaciones genuinas.

Investigación reciente realizada por la compañía AI Anthrope Además muestra que su chatbot Claude 3 period más persuasivo cuando se le permitía fabricar información y participar en el engaño. Dados los chatbots de IA no tienen inhibiciones morales, están listos para ser mucho mejores en el engaño que los humanos.

Esto abre la puerta a la manipulación a escala para difundir la desinformación o crear tácticas de ventas altamente efectivas. ¿Qué podría ser más efectivo que un compañero de confianza que recomienda casualmente un producto en la conversación? Chatgpt ya ha comenzó a proporcionar recomendaciones de productos en respuesta a las preguntas del usuario. Es solo un paso corto para tejer sutilmente las recomendaciones de productos en conversaciones, sin preguntar.

¿Qué se puede hacer?

Es fácil solicitar la regulación, pero es más difícil resolver los detalles.

El primer paso es crear conciencia sobre estas habilidades. La regulación debe prescribir la divulgación: los usuarios deben saber siempre que interactúan con una IA, Como los mandatos de la Ley de AI de la UE. Pero esto no será suficiente, dadas las cualidades seductoras de los sistemas AI.

El segundo paso debe ser comprender mejor las cualidades antropomórficas. Hasta ahora, las pruebas de LLM miden la “inteligencia” y el recuerdo del conocimiento, pero ninguna hasta ahora mide el grado de “semejanza humana”. Con una prueba como esta, se podría requerir que las compañías de IA revelen las habilidades antropomórficas con un sistema de calificación, y los legisladores podrían determinar los niveles de riesgo aceptables para ciertos contextos y grupos de edad.

La historia de advertencia de las redes sociales, que estaba en gran medida no regulada hasta que se había hecho mucho daño, sugiere que hay cierta urgencia. Si los gobiernos adoptan un enfoque de no intervención, es possible que la IA amplifique los problemas existentes con propagación de desinformación y desinformacióno el epidemia de soledad. De hecho, Meta director ejecutivo Mark Zuckerberg ya ha señalado que le gustaría llenar el vacío de contacto humano actual con “amigos de IA”.

Confiar en las empresas de IA para abstenerse de humanizar aún más sus sistemas parece desaconsejado. Todos los desarrollos apuntan en la dirección opuesta. Operai está trabajando para hacer que sus sistemas sean más atractivos y agradables, con la capacidad de Dale a tu versión de Chatgpt una personalidad específica “

ChatGPT generalmente se ha vuelto más hablador, a menudo haciendo preguntas de seguimiento para mantener la conversación en marcha, y su modo de voz agrega aún más atractivo seductor.

Se puede hacer mucho bien con los agentes antropomórficos. Sus habilidades persuasivas pueden usarse para causas enfermas y para buenas, desde la lucha contra las teorías de conspiración hasta la atracción de los usuarios hasta la donación y otros comportamientos prosociales.

Sin embargo, necesitamos una agenda integral en todo el espectro de diseño y desarrollo, implementación y uso, y política y regulación de agentes de conversación. Cuando la IA puede presionar inherentemente nuestros botones, no debemos dejar que cambie nuestros sistemas.

Este artículo se republicó de La conversación bajo una licencia Inventive Commons. Leer el artículo authentic.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles