22.8 C
Colombia
sábado, julio 5, 2025

Anthrope está lanzando un nuevo programa para estudiar la IA ‘Bienestar del modelo’


¿Podría el futuro ser “consciente” y experimentar el mundo de manera comparable a la forma en que lo hacen los humanos? No hay evidencia fuerte de que lo hagan, pero Anthrope no descarta la posibilidad.

El jueves, el laboratorio de IA anunciado que ha comenzado un programa de investigación para investigar, y prepararse para navegar, lo que llama “bienestar modelo”. Como parte del esfuerzo, Anthrope cube que explorará cosas como cómo determinar si el “bienestar” de un modelo de IA merece una consideración ethical, la importancia potencial de los “signos de angustia” del modelo y las posibles intervenciones de “bajo costo”.

Hay un desacuerdo importante dentro de la comunidad de IA sobre qué modelos de características humanas “exhiben”, si corresponde, y cómo debemos “tratarlos”.

Muchos académicos creen que la IA hoy no puede aproximar la conciencia o la experiencia humana, y no necesariamente no podrá hacerlo en el futuro. AI, como lo sabemos, es un motor de predicción estadística. Realmente no “piensa” o “siente”, ya que esos conceptos se han entendido tradicionalmente. Entrenado en innumerables ejemplos de texto, imágenes, and many others., la IA aprende patrones y, en algún momento, formas útiles de extrapolar para resolver tareas.

Como Mike Prepare dinner, investigador en King’s Faculty London especializado en IA, Recientemente le dijo a TechCrunch en una entrevistaun modelo no puede “oponerse” a un cambio en sus “valores” porque los modelos no tener valores. Sugerir lo contrario estamos proyectando en el sistema.

“Cualquiera que antropomorfice los sistemas de IA en este grado está jugando para la atención o malinterpretando seriamente su relación con la IA”, dijo Prepare dinner. “¿Es un sistema de IA optimizando para sus objetivos, o es ‘adquirir sus propios valores’? Es una cuestión de cómo lo describe y de cuán florido es el lenguaje que desea usar con respecto a él”.

Otro investigador, Stephen Casper, un estudiante de doctorado en el MIT, le dijo a TechCrunch que cree que la IA equivale a un “imitador” que “[does] Todo tipo de confabulación[s]”Y cube” todo tipo de cosas frívolas “.

Sin embargo, otros científicos insisten en que AI hace tener valores y otros componentes similares a la toma de decisiones morales. A estudiar Fuera del Centro de Seguridad de AI, una organización de investigación de IA, implica que la IA tiene sistemas de valores que lo llevan a priorizar su propio bienestar sobre los humanos en ciertos escenarios.

Anthrope ha estado sentando las bases para su iniciativa de bienestar modelo durante algún tiempo. El año pasado, la compañía contratado Su primer investigador dedicado de “bienestar de IA”, Kyle Fish, para desarrollar directrices sobre cómo Anthrope y otras compañías deberían abordar el problema. (Fish, que lidera el nuevo programa de investigación de bienestar modelo, le dijo al New York Instances que él piensa que hay un 15% de probabilidad de que Claude u otra IA sea consciente hoy).

En una publicación de weblog el jueves, Anthrope reconoció que no hay un consenso científico sobre si los sistemas de IA actuales o futuros podrían ser conscientes o tener experiencias que justifiquen una consideración ética.

“A la luz de esto, nos estamos acercando al tema con humildad y con la menor cantidad de supuestos posible”, dijo la compañía. “Reconocemos que necesitaremos revisar regularmente nuestras concepts a medida que se desarrolla el campo.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles