30.4 C
Colombia
miércoles, enero 22, 2025

Antropomorfizando la IA: ya han surgido consecuencias nefastas de confundir lo humano con lo humano


Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


En nuestra prisa por comprender y relacionarse con la IAhemos caído en una trampa seductora: atribuir características humanas a estos sistemas robustos pero fundamentalmente no humanos. Esta antropomorfización de la IA no es sólo una peculiaridad inofensiva de la naturaleza humana: se está convirtiendo en una tendencia cada vez más peligrosa que podría nublar nuestro juicio de manera crítica. Los líderes empresariales están comparando el aprendizaje de la IA con educación humana para justificar las prácticas de capacitación ante los legisladores que elaboran políticas basadas en analogías defectuosas entre humanos y IA. Esta tendencia a humanizar la IA podría moldear de manera inapropiada decisiones cruciales en todas las industrias y marcos regulatorios.

Ver la IA a través de una lente humana en los negocios ha llevado a las empresas a sobreestimar las capacidades de la IA o subestimar la necesidad de supervisión humana, a veces con consecuencias costosas. Hay mucho en juego en la legislación sobre derechos de autor, donde el pensamiento antropomórfico ha llevado a comparaciones problemáticas entre el aprendizaje humano y el entrenamiento en IA.

La trampa del lenguaje

Escuche cómo hablamos de la IA: decimos que “aprende”, “piensa”, “comprende” e incluso “crea”. Estos términos humanos parecen naturales, pero son engañosos. Cuando decimos que un modelo de IA “aprende”, no se trata de adquirir comprensión como un estudiante humano. En cambio, realiza análisis estadísticos complejos sobre grandes cantidades de datos, ajustando pesos y parámetros en sus redes neuronales basándose en principios matemáticos. No hay comprensión, momento eureka, chispa de creatividad o comprensión actual: sólo una coincidencia de patrones cada vez más sofisticada.

Este juego de manos lingüístico es más que meramente semántico. Como se señala en el documento, El caso ilusorio de la IA generativa a favor del uso legítimo: “El uso de lenguaje antropomórfico para describir el desarrollo y funcionamiento de los modelos de IA es distorsionante porque sugiere que una vez entrenado, el modelo opera independientemente del contenido de las obras en las que se ha entrenado”. Esta confusión tiene consecuencias reales, principalmente cuando influye en las decisiones jurídicas y políticas.

La desconexión cognitiva

Quizás el aspecto más peligroso de antropomorfizar la IA es cómo enmascara las diferencias fundamentales entre la inteligencia humana y la de las máquinas. Si bien algunos sistemas de IA destacan en tipos específicos de tareas analíticas y de razonamiento, los grandes modelos de lenguaje (LLM) que dominan el discurso precise sobre la IA, y en los que nos centramos aquí, operan mediante un sofisticado reconocimiento de patrones.

Estos sistemas procesan grandes cantidades de datos, identificando y aprendiendo relaciones estadísticas entre palabras, frases, imágenes y otras entradas para predecir lo que debería suceder a continuación en una secuencia. Cuando decimos que “aprenden”, describimos un proceso de optimización matemática que les ayuda a hacer predicciones cada vez más precisas basadas en sus datos de entrenamiento.

Consideremos este sorprendente ejemplo de una investigación realizada por Berglund y sus colegas: Un modelo entrenado con materiales que afirman que “A es igual a B” a menudo no puede razonar, como lo haría un humano, para concluir que “B es igual a A”. Si una IA se entera de que Valentina Tereshkova fue la primera mujer en el espacio, podría responder correctamente “¿Quién fue Valentina Tereshkova?” pero lucha con “¿Quién fue la primera mujer en el espacio?” Esta limitación revela la diferencia elementary entre el reconocimiento de patrones y el razonamiento verdadero: entre predecir secuencias probables de palabras y comprender su significado.

Este sesgo antropomórfico tiene implicaciones particularmente preocupantes en el debate precise sobre la IA y los derechos de autor. Satya Nadella, director ejecutivo de Microsoft Entrenamiento de IA comparado recientemente al aprendizaje humano, lo que sugiere que la IA debería poder hacer lo mismo si los humanos pudieran aprender de los libros sin implicaciones de derechos de autor. Esta comparación ilustra perfectamente el peligro del pensamiento antropomórfico en los debates sobre la IA ética y responsable.

Algunos sostienen que es necesario revisar esta analogía para comprender el aprendizaje humano y el entrenamiento de la IA. Cuando los humanos leemos libros, no hacemos copias de ellos: entendemos e interiorizamos conceptos. Los sistemas de inteligencia synthetic, por otro lado, deben hacer copias reales de las obras (a menudo obtenidas sin permiso ni pago), codificarlas en su arquitectura y mantener estas versiones codificadas para que funcionen. Las obras no desaparecen después del “aprendizaje”, como suelen afirmar las empresas de IA; permanecen incrustados en el redes neuronales del sistema.

El punto ciego empresarial

La antropomorfización de la IA crea peligrosos puntos ciegos en la toma de decisiones empresariales más allá de simples ineficiencias operativas. Cuando los ejecutivos y tomadores de decisiones piensan que la IA es “creativa” o “inteligente” en términos humanos, puede conducir a una cascada de suposiciones riesgosas y posibles responsabilidades legales.

Sobreestimar las capacidades de la IA

Un área crítica donde la antropomorfización genera riesgos es la generación de contenido y el cumplimiento de los derechos de autor. Cuando las empresas consideran que la IA es capaz de “aprender” como los humanos, podrían asumir incorrectamente que el contenido generado por IA está automáticamente libre de problemas de derechos de autor. Este malentendido puede llevar a las empresas a:

  • Implementar sistemas de inteligencia synthetic que reproduzcan sin darse cuenta materials protegido por derechos de autor, exponiendo a la empresa a demandas por infracción.
  • No implementar mecanismos adecuados de filtrado y supervisión de contenidos.
  • Suponer incorrectamente que la IA puede distinguir de forma fiable entre materials de dominio público y materials protegido por derechos de autor.
  • Subestimar la necesidad de revisión humana en los procesos de generación de contenidos

El punto ciego del cumplimiento transfronterizo

El sesgo antropomórfico en la IA crea peligros cuando consideramos el cumplimiento transfronterizo. Como lo explican Daniel Gervais, Haralambos Marmanis, Noam Shemtov y Catherine Zaller Rowland en “El meollo del asunto: derechos de autor, formación en IA y LLM,“La ley de derechos de autor opera sobre principios territoriales estrictos, y cada jurisdicción mantiene sus propias reglas sobre lo que constituye una infracción y qué excepciones se aplican.

Esta naturaleza territorial de la ley de derechos de autor crea una purple compleja de responsabilidad potencial. Las empresas podrían asumir erróneamente que sus sistemas de inteligencia synthetic pueden “aprender” libremente de materiales protegidos por derechos de autor en todas las jurisdicciones, sin reconocer que las actividades de capacitación que son legales en un país pueden constituir una infracción en otro. La UE ha reconocido este riesgo en su Ley de IA, en specific a través de Considerando 106que requiere que cualquier modelo de IA de propósito basic ofrecido en la UE cumpla con la ley de derechos de autor de la UE con respecto a los datos de entrenamiento, independientemente de dónde se produjo ese entrenamiento.

Esto es importante porque antropomorfizar las capacidades de la IA puede llevar a las empresas a subestimar o malinterpretar sus obligaciones legales transfronterizas. La cómoda ficción de que la IA “aprende” como los humanos oscurece la realidad de que el entrenamiento de la IA implica operaciones complejas de copia y almacenamiento que desencadenan diferentes obligaciones legales en otras jurisdicciones. Este malentendido elementary sobre el funcionamiento actual de la IA, combinado con la naturaleza territorial de la ley de derechos de autor, crea riesgos significativos para las empresas que operan a nivel mundial.

El costo humano

Uno de los costos más preocupantes es el costo emocional de antropomorfizar la IA. Vemos cada vez más casos de personas que forman vínculos emocionales con los chatbots de IA, tratándolos como amigos o confidentes. Esto puede ser particularmente peligroso para personas vulnerables que podrían compartir información private o depender de la IA para obtener apoyo emocional que no puede brindar. Las respuestas de la IA, aunque aparentemente empáticas, son una sofisticada coincidencia de patrones basada en datos de entrenamiento: no existe una comprensión genuina ni una conexión emocional.

Esta vulnerabilidad emocional también podría manifestarse en entornos profesionales. A medida que las herramientas de IA se integran más en el trabajo diario, los empleados pueden desarrollar niveles inadecuados de confianza en estos sistemas, tratándolos como colegas reales en lugar de herramientas. Es posible que compartan información laboral confidencial con demasiada libertad o duden en informar errores por un sentido de lealtad fuera de lugar. Si bien estos escenarios permanecen aislados en este momento, resaltan cómo la antropomorfización de la IA en el lugar de trabajo podría nublar el juicio y crear dependencias poco saludables en sistemas que, a pesar de sus respuestas sofisticadas, son incapaces de una comprensión o atención genuina.

Liberarse de la trampa antropomórfica

Entonces, ¿cómo avanzamos? Primero, debemos ser más precisos en nuestro lenguaje sobre la IA. En lugar de decir que una IA “aprende” o “comprende”, podríamos decir que “procesa datos” o “genera resultados basados ​​en patrones en sus datos de entrenamiento”. Esto no es sólo pedante: ayuda a aclarar lo que hacen estos sistemas.

En segundo lugar, debemos evaluar los sistemas de IA en función de lo que son y no de lo que imaginamos que son. Esto significa reconocer tanto sus impresionantes capacidades como sus limitaciones fundamentales. La IA puede procesar grandes cantidades de datos e identificar patrones que los humanos podrían pasar por alto, pero no puede comprender, razonar o crear como lo hacen los humanos.

Finalmente, debemos desarrollar marcos y políticas que aborden las características reales de la IA en lugar de cualidades imaginadas similares a las humanas. Esto es particularmente essential en el derecho de autor, donde el pensamiento antropomórfico puede conducir a analogías erróneas y conclusiones jurídicas inapropiadas.

El camino a seguir

A medida que los sistemas de IA se vuelvan más sofisticados a la hora de imitar los resultados humanos, la tentación de antropomorfizarlos se hará más fuerte. Este sesgo antropomórfico afecta todo, desde cómo evaluamos las capacidades de la IA hasta cómo evaluamos sus riesgos. Como hemos visto, se extiende a importantes desafíos prácticos en torno a la ley de derechos de autor y el cumplimiento empresarial. Cuando atribuimos capacidades de aprendizaje humano a los sistemas de IA, debemos comprender su naturaleza elementary y la realidad técnica de cómo procesan y almacenan información.

Comprender la IA tal como es realmente (sistemas sofisticados de procesamiento de información, no aprendices parecidos a los humanos) es essential para todos los aspectos de la gobernanza y el despliegue de la IA. Al superar el pensamiento antropomórfico, podemos abordar mejor los desafíos de los sistemas de IA, desde consideraciones éticas y riesgos de seguridad hasta el cumplimiento transfronterizo de derechos de autor y la gobernanza de datos de capacitación. Esta comprensión más precisa ayudará a las empresas a tomar decisiones más informadas y, al mismo tiempo, respaldará un mejor desarrollo de políticas y un mejor discurso público en torno a la IA.

Cuanto antes aceptemos la verdadera naturaleza de la IA, mejor equipados estaremos para afrontar sus profundas implicaciones sociales y desafíos prácticos en nuestra economía world.

Roanie Levy es asesora authorized y de licencias en CCC.

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos.

Si desea leer sobre concepts de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

Incluso podrías considerar contribuyendo con un artículo propio!

Leer más de DataDecisionMakers


Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles