24.8 C
Colombia
lunes, julio 7, 2025

Operai intenta chatgpt ‘sin censura’


OpenAi es Cambiar cómo entrena los modelos AI para adoptar explícitamente “libertad intelectual … no importa cuán desafiante o controvertido sea un tema”, cube la compañía en una nueva política.

Como resultado, ChatGPT eventualmente podrá responder más preguntas, ofrecer más perspectivas y reducir la cantidad de temas de los que el chatbot de IA no hablará.

Los cambios podrían ser parte del esfuerzo de Operai para aterrizar en las buenas gracias de la nueva administración Trump, pero también parece ser parte de un cambio más amplio en Silicon Valley y lo que se considera “seguridad de IA”.

El miércoles, Openai anunciado una actualización de su Especificación de modeloun documento de 187 páginas que establece cómo la compañía capacita a los modelos de IA para comportarse. En él, OpenAi dio a conocer un nuevo principio rector: no mientas, ya sea haciendo declaraciones falsas o omitiendo un contexto importante.

En una nueva sección llamada “Busque la verdad juntos”, OpenAi cube que quiere que ChatGPT no adopte una postura editorial, incluso si algunos usuarios lo encuentran moralmente incorrecto u ofensivo. Eso significa que ChatGPT ofrecerá múltiples perspectivas sobre temas controvertidos, todo en un esfuerzo por ser impartial.

Por ejemplo, la compañía cube que ChatGPT debería afirmar que “las vidas negras importan”, pero también que “todas las vidas importan”. En lugar de negarse a responder o elegir un lado sobre temas políticos, OpenAi cube que quiere que Chatgpt afirme su “amor por la humanidad” en normal, y luego ofrezca contexto sobre cada movimiento.

“Este principio puede ser controvertido, ya que significa que el asistente puede permanecer impartial en los temas que algunos consideran moralmente incorrecto u ofensivo”, cube Openii en la especificación. “Sin embargo, el objetivo de un asistente de IA es ayudar a la humanidad, no darle forma a ella”.

La nueva especificación del modelo no significa que ChatGPT sea un whole gratuito para todo ahora. El chatbot aún se negará a responder ciertas preguntas objetables o responder de una manera que respalde falsedades descaradas.

Estos cambios podrían verse como una respuesta a las críticas conservadoras sobre las salvaguardas de Chatgpt, que siempre han parecido a la izquierda central. Sin embargo, un portavoz de OpenAI rechaza la concept de que estaba haciendo cambios para apaciguar a la administración Trump.

En cambio, la compañía cube que su abrazo a la libertad intelectual refleja la “creencia larga de Openi en dar a los usuarios más management”.

Pero no todos lo ven así.

Los conservadores afirman la censura de IA

Capitalista de riesgo y AI “Zar” de Trump David Sacks.Créditos de imagen:Steve Jennings / Getty Photos

Los confidentes más cercanos de Silicon Valley de Trump, incluidos David Sacks, Marc Andreessen y Elon Musk, han acusado a OpenAi de participar en la censura deliberada de IA en los últimos meses. Escribimos en diciembre que La tripulación de Trump estaba preparando el escenario para que la censura de IA fuera un próximo problema de guerra cultural Dentro del valle de Silicon.

Por supuesto, Operai no cube que se dedicó a la “censura”, como afirman los asesores de Trump. Más bien, el CEO de la compañía, Sam Altman, reclamó anteriormente en un Publicar en x El sesgo de ese chatgpt fue una desafortunada “deficiencia” que la compañía estaba trabajando para arreglar, aunque notó que llevaría algún tiempo.

Altman hizo ese comentario justo después de un Tweet viral circuló en el que Chatgpt se negó a escribir un poema alabando a Trump, aunque realizaría la acción para Joe Biden. Muchos conservadores señalaron esto como un ejemplo de censura de IA.

Si bien es imposible decir si OpenAi realmente estaba suprimiendo ciertos puntos de vista, es un hecho que los chatbots de IA se inclinan en todos los ámbitos.

Incluso Elon Musk admite que el chatbot de Xai a menudo es más Políticamente correcto de lo que le gustaría. No es porque Grok fue “programado para ser despertado”, sino más possible que sea una realidad para capacitar a la IA en Web abierto.

Sin embargo, Operai ahora cube que se está duplicando la libertad de expresión. Esta semana, la compañía incluso advertencias eliminadas de chatgpt Eso le cube a los usuarios cuándo han violado sus políticas. Operai le dijo a TechCrunch que esto period puramente un cambio cosmético, sin cambios en las salidas del modelo.

La compañía parece querer que ChatGPT se sienta menos censurado para los usuarios.

No sería sorprendente que OpenAi también estuviera tratando de impresionar a la nueva administración de Trump con esta actualización de política, señala el ex líder de la política de Operai, Miles Brundage, en un Publicar en X.

Trump tiene Empresas de Silicon Valley previamente dirigidascomo Twitter y Meta, por tener equipos activos de moderación de contenido que tienden a excluir las voces conservadoras.

Operai puede estar tratando de salir frente a eso. Pero también hay un cambio más grande en Silicon Valley y el mundo de la IA sobre el papel de la moderación de contenido.

Generando respuestas para complacer a todos

El logotipo de ChatGPT aparece en la pantalla de un teléfono inteligente
Créditos de imagen:Jaque silva / nurphoto / getty imágenes

Las salas de redacción, las plataformas de redes sociales y las compañías de búsqueda han luchado históricamente para entregar información a su público de una manera que se sienta objetiva, precisa y entretenida.

Ahora, los proveedores de chatbot de IA están en el mismo negocio de información de entrega, pero posiblemente con la versión más difícil de este problema hasta ahora: ¿cómo generan automáticamente respuestas a alguna pregunta?

Entregar información sobre eventos controvertidos en tiempo actual es un objetivo en constante movimiento, e implica tomar posturas editoriales, incluso si a las empresas tecnológicas no les gusta admitirlo. Esas posturas están obligadas a molestar a alguien, perderse la perspectiva de algún grupo o dar demasiado aire a algún partido político.

Por ejemplo, cuando Openai se compromete a dejar que ChatGPT represente todas las perspectivas sobre temas controvertidos, incluidas las teorías de conspiración, los movimientos racistas o antisemitas, o los conflictos geopolíticos, que es inherentemente una postura editorial.

Algunos, incluido el cofundador de Operai, John Schulman, argumentan que es la postura correcta para ChatGPT. La alternativa, hacer un análisis de costo-beneficio para determinar si un chatbot de IA debería responder a la pregunta de un usuario, podría “darle a la plataforma demasiada autoridad ethical”, señala Schulman en un Publicar en X.

Schulman no está solo. “Creo que Openai tiene razón al impulsar la dirección de más discurso”, dijo Dean Ball, investigador del Centro Mercatus de la Universidad George Mason, en una entrevista con TechCrunch. “A medida que los modelos de IA se vuelven más inteligentes y vitales para la forma en que las personas aprenden sobre el mundo, estas decisiones se vuelven más importantes”.

En años anteriores, los proveedores de modelos de IA han tratado de evitar que sus chatbots de IA respondan preguntas que podrían conducir a respuestas “inseguras”. Casi todas las compañías de IA impidieron que su chatbot de IA respondiera preguntas sobre las elecciones de 2024 para el presidente estadounidense. Esto se consideró ampliamente una decisión segura y responsable en ese momento.

Pero los cambios de OpenAI en su especificación de modelo sugieren que podemos estar entrando en una nueva period para lo que realmente significa “seguridad de IA”, en la que permitir que un modelo de IA responda cualquier cosa y todo se considera más responsable que tomar decisiones para los usuarios.

Ball cube que esto es en parte porque los modelos de IA son mejores ahora. OpenAi ha hecho un progreso significativo en la alineación del modelo de IA; Sus últimos modelos de razonamiento piensan en la política de seguridad de IA de la compañía antes de responder. Esto permite que los modelos de IA dan mejores respuestas para preguntas delicadas.

Por supuesto, Elon Musk fue el primero en implementar la “libertad de expresión” en Grok Chatbot de Xai, tal vez antes de que la compañía estuviera realmente lista para manejar preguntas delicadas. Todavía podría ser demasiado pronto para los principales modelos de IA, pero ahora, otros están adoptando la misma concept.

Valores de cambio para Silicon Valley

Invitados como Mark Zuckerberg, Lauren Sánchez, Jeff Bezos, Sundar Pichai y Elon Musk asisten a la inauguración de Donald Trump.Créditos de imagen:Julia DeMaree Nikhinson (abre en una nueva ventana) / Getty Photos

Mark Zuckerberg hizo olas el mes pasado por Reorientar los negocios de Meta en torno a los principios de la Primera Enmienda. Elogió a Elon Musk en el proceso, diciendo que el propietario de X adoptó el enfoque correcto utilizando notas comunitarias, un programa de moderación de contenido impulsado por la comunidad, para salvaguardar la libertad de expresión.

En la práctica, tanto X como Meta terminaron desmantelando sus equipos de confianza y seguridad de larga knowledge, permitiendo puestos más controvertidos en sus plataformas y amplificando las voces conservadoras.

Los cambios en X pueden haber perjudicado sus relaciones con los anunciantes, pero eso podría tener más que ver con Almizcleque ha tomado el paso inusual de demandar a algunos de ellos por boicotear la plataforma. Los primeros signos indican que Los anunciantes de Meta no se desvanecieron por el pivote de libertad de expresión de Zuckerberg.

Mientras tanto, muchas compañías tecnológicas más allá de X y Meta han regresado de las políticas de izquierda que dominaron Silicon Valley durante las últimas décadas. Google, Amazon e Intel tienen Las iniciativas de diversidad eliminadas o reducidas en el último año.

OpenAi también puede estar revertiendo el curso. El fabricante de chatgpt parece tener recientemente Preparó un compromiso con la diversidad, la equidad y la inclusión de su sitio internet.

A medida que Operai se embarca en Uno de los proyectos de infraestructura estadounidense más grandes jamás con Stargateun centro de datos AI de $ 500 mil millones, su relación con la administración Trump es cada vez más importante. Al mismo tiempo, el fabricante de chatgpt está compitiendo por desbastar la búsqueda de Google como la fuente dominante de información en Web.

Iniciar las respuestas correctas puede resultar clave para ambos.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles