25.3 C
Colombia
lunes, julio 7, 2025

X usuarios que tratan a Grok como una preocupación por checker de verificación sobre la información errónea


Algunos usuarios en la X de Elon Musk están recurriendo al AI Bot Grok de Musk para verificar, planteando preocupaciones entre los verificadores de hechos humanos de que esto podría alimentar la información errónea.

A principios de este mes, x activado Los usuarios llamarán a Xai’s Grok y hacen preguntas sobre diferentes cosas. El movimiento fue Comparable a la perplejidadque ha estado ejecutando una cuenta automatizada en X para ofrecer una experiencia comparable.

Poco después de que Xai creó la cuenta automatizada de Grok en X, los usuarios comenzaron a experimentar con preguntas. Algunas personas en los mercados, incluida la India, comenzaron a pedirle a Grok que verifique los comentarios y preguntas que se dirigen a creencias políticas específicas.

Los verificadores de hechos están preocupados por usar Grok, o cualquier otro asistente de IA de este tipo, de esta manera porque los bots pueden enmarcar sus respuestas a sonar convincentes, incluso si no son correctos. Instancias de Difundir noticias falsas y desinformación fueron vistos con Grok en el pasado.

En agosto del año pasado, cinco secretarias estatales impuesto Musk implementará cambios críticos para GROK después de la información engañosa generada por el asistente apareció en las redes sociales antes de las elecciones estadounidenses.

También se vio que otros chatbots, incluidos los chatgpt de OpenAi y los gétrines de Google, son generar información inexacta en las elecciones del año pasado. Por separado, los investigadores de desinformación encontraron en 2023 que los chatbots de IA, incluido el chatgpt, podrían usarse fácilmente para producir Texto convincente con narraciones engañosas.

“Los asistentes de IA, como Grok, son realmente buenos para usar un lenguaje pure y dar una respuesta que suena como un ser humano que lo cube. Y de esa manera, los productos de IA tienen esta afirmación sobre naturalidad y respuestas de sonido auténtico, incluso cuando están potencialmente muy mal. Ese sería el peligro aquí”, dijo Angie Holan, director de la pink internacional de verificación de informes (si) en Poynter, dijo TechCrunch.

Un usuario le pidió a Grok en X para verificar los reclamos hechos por otro usuario

A diferencia de los asistentes de IA, los verificadores de hechos humanos utilizan múltiples fuentes creíbles para verificar la información. También toman la responsabilidad complete de sus hallazgos, con sus nombres y organizaciones adjuntas para garantizar la credibilidad.

Pratik Sinha, cofundador del sitio net de verificación de hechos sin fines de lucro de la India, Alt Information, dijo que aunque Grok actualmente parece tener respuestas convincentes, es tan bueno como los datos que se suministra.

“Quién va a decidir qué datos se suministran, y ahí es donde la interferencia del gobierno, and so on., entrará en escena”, señaló.

“No hay transparencia. Cualquier cosa que carece de transparencia causará daño porque cualquier cosa que carece de transparencia puede moldearse de cualquier manera”.

“Podría usarse mal, difundir la información errónea”

En una de las respuestas publicadas a principios de esta semana, la cuenta de Grok en X admitido que “podría ser mal utilizado, difundir la desinformación y violar la privacidad”.

Sin embargo, la cuenta automatizada no muestra ninguna renuncia a los usuarios cuando obtienen sus respuestas, lo que lleva a estar mal informado si, por ejemplo, ha alucinado la respuesta, que es la posible desventaja de la IA.

La respuesta de Grok sobre si puede difundir la información errónea (traducida de Hinglish)

“Puede compensar información para proporcionar una respuesta”, dijo a TechCrunch Anushka Jain, asociada de investigación en el Laboratorio de Futuros Digitales de Investigación Multidisciplinaria con sede en Goa.

También hay alguna pregunta sobre cuánto Grok usa publicaciones en X como datos de entrenamiento y qué medidas de management de calidad usa para verificar tales publicaciones. El verano pasado, presionó un cambio que parecía permitir que Grok consumiera datos X del usuario de forma predeterminada.

El otro área preocupante de asistentes de IA como Grok es accesible a través de las plataformas de redes sociales es su entrega de información en público, a diferencia de ChatGPT u otros chatbots que se utilizan en privado.

Incluso si un usuario es consciente de que la información que recibe del asistente podría ser engañosa o no completamente correcta, otros en la plataforma aún podrían creerlo.

Esto podría causar graves daños sociales. Instancias de eso se vieron anteriormente en India cuando La información errónea distribuida sobre WhatsApp condujo a linchamientos de la mafia. Sin embargo, esos incidentes severos ocurrieron antes de la llegada de Genai, lo que ha hecho que la generación de contenido sintético sea aún más fácil y parezca más realista.

“Si ves muchas de estas respuestas de Grok, vas a decir, oye, bueno, la mayoría de ellas tienen razón, y eso puede ser así, pero habrá algunos que están equivocados. Y cuántas? No es una fracción pequeña. Algunos de los estudios de investigación han demostrado que los modelos de IA están sujetos a tasas de error del 20% … y cuando sale mal, puede ir realmente mal con las consecuencias mundiales reales”, dijo Ifcn, el Holan de Holan.

Ai vs. verificadores de hechos reales

Si bien las compañías de IA, incluida XAI, están refinando sus modelos de IA para que se comuniquen más como los humanos, todavía no son, y no pueden, reemplazar a los humanos.

Durante los últimos meses, las compañías tecnológicas están explorando formas de reducir la dependencia de los verificadores de hechos humanos. Las plataformas que incluyen X y Meta comenzaron a adoptar el nuevo concepto de verificación de hechos de crowdsourcing a través de las llamadas notas comunitarias.

Naturalmente, tales cambios también causan preocupación para los controladores de hechos.

Sinha de Alt Information cree optimistas que las personas aprenderán a diferenciar entre máquinas y verificadores de hechos humanos y valorarán más la precisión de los humanos.

“Vamos a ver que el péndulo se retrocede eventualmente hacia más verificación de hechos”, dijo Holan de IFCN.

Sin embargo, señaló que mientras tanto, los verificadores de hechos probablemente tendrán más trabajo que ver con la información generada por la IA que se extiende rápidamente.

“Mucho de este problema depende, ¿realmente te importa lo que realmente es verdad o no? ¿Estás buscando la chapa de algo que suena y se siente cierto sin ser verdad?

X y Xai no respondieron a nuestra solicitud de comentarios.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles