32.3 C
Colombia
lunes, julio 7, 2025

Tres razones por las que Meta tendrá dificultades con la verificación de los hechos de la comunidad


La alistación de voluntarios es cómo comenzó la moderación en Web, mucho antes de que los gigantes de las redes sociales se dieran cuenta de que los esfuerzos centralizados eran necesarios. Y la moderación de voluntarios puede tener éxito, lo que permite el desarrollo de regulaciones a medida alineadas con las necesidades de comunidades particulares. Pero sin un compromiso significativo y la supervisión de Meta, dicho sistema no puede lidiar con cuánto contenido se comparte en las plataformas de la compañía y qué tan rápido. De hecho, el jurado aún no está disponible sobre qué tan bien funciona en X, que es utilizado por el 21% de los estadounidenses (los meta son significativamente más populares: el 70% de los estadounidenses usa el Fb, según el 70% de los estadounidenses. Banco de iglesia).

Notas comunitarias, que comenzaron en 2021 como Birdwatch, es un sistema de moderación impulsado por la comunidad en X que permite a los usuarios que Regístrese en el programa Para agregar contexto a las publicaciones. Hacer que los usuarios regulares proporcionen una verificación pública de hechos es relativamente nuevo, y hasta ahora los resultados son mixtos. Por ejemplo, los investigadores han encontrado que los participantes son es más possible que desafíen el contenido que no están de acuerdo con políticamente y ese contenido marcado como falso no scale back el compromisopero también han descubierto que las notas son típicamente preciso y puede ayudar a reducir la propagación de publicaciones engañosas.

Soy un moderador comunitario que investiga la moderación de la comunidad. Esto es lo que he aprendido sobre las limitaciones de confiar en los voluntarios para la moderación, y lo que Meta debe hacer para tener éxito:

1. El sistema perderá falsedades y podría amplificar contenido odioso

Existe un riesgo actual bajo este estilo de moderación que solo publica sobre cosas que muchas personas conocen serán marcadas de manera oportuna, o en absoluto. Considere cómo una publicación con una imagen de un hongo de la tapa de la muerte y la leyenda “sabrosa” podría manejarse bajo moderación de estilo notas comunitarias. Si un experto en micología no ve la publicación, o lo ve solo después de que se haya compartido ampliamente, puede no ser marcado como “venenoso, no coma”, al menos no hasta que sea demasiado tarde. Las áreas temáticas que sean más esotéricas se submoderarán. Esto podría tener graves impactos en las personas (que pueden comer un hongo venenoso) y la sociedad (si una falsedad se propaga ampliamente).

De manera essential, las notas comunitarias de X no son visibles para los lectores cuando se agregan por primera vez. Una nota se vuelve seen para la base de usuarios más amplia solo cuando suficientes contribuyentes están de acuerdo en que es preciso al votar por ella. Y no todos los votos cuentan. Si una nota es calificada solo por personas que tienden a estar de acuerdo entre sí, no aparecerá. X no hace una nota seen hasta que haya un acuerdo de personas que no estén en desacuerdo sobre las calificaciones anteriores. Este es un intento de reducir el sesgo, pero no es infalible. Todavía se basa en las opiniones de las personas sobre una nota y no en hechos reales. A menudo, lo que se necesita es experiencia.

Moderé una comunidad en Reddit llamada R/Askhistorians. Es un sitio de historia pública con más de 2 millones de miembros y está muy estrictamente moderado. Vemos que las personas se equivocan todo el tiempo. A veces estos son errores directos. Pero a veces hay contenido odioso que requiere expertos para reconocer. Una vez, una pregunta que contiene una revisión escapada de un perro de la denegación del holocausto durante horas y terminó acumulando cientos de votos a favor antes de que fuera atrapado por un experto en nuestro equipo. Cientos de personas, probablemente con patrones de votación muy diferentes y opiniones muy diferentes sobre muchos temas, no solo perdieron la naturaleza problemática del contenido, sino que eligió promoverlo a través de votos Esto también sucede con respuestas a preguntas. Las personas que no son expertos en la historia van a votar por respuestas anticuadas y de verdad que no son realmente correctas. Por el contrario, vocen buenas respuestas si reflejan puntos de vista que son difíciles de tragar.

R/Askhistorians trabaja porque la mayoría de sus moderadores son historiadores expertos. Si Meta quiere que funcione su programa de estilo comunitario, debe asegurarse de que las personas con el conocimiento para que las evaluaciones consideren las publicaciones y que la experiencia se explique en la votación, especialmente cuando existe una desalineación entre la comprensión común y el conocimiento experto.

2. No funcionará sin voluntarios bien soportados

Los moderadores de contenido pagados de Meta revisan lo peor de lo peor—Conuminiendo gore, abuso y explotación sexual y violencia. Como resultado, muchos han sufrido un trauma severo, lo que ha llevado a demandas y esfuerzos de sindicalización. Cuando Meta corta los recursos de sus esfuerzos de moderación centralizada, dependerá cada vez más de voluntarios no remunerados para mantener la plataforma segura.

Los moderadores de la comunidad no tienen un trabajo fácil. Además de la exposición al contenido horrible, como miembros identificables de sus comunidades, a menudo también están sujetos a acoso y abuso, algo que experimentamos diariamente en R/Askhistorians. Sin embargo, los moderadores de la comunidad moderan solo lo que pueden manejar. Por ejemplo, si bien manejo rutinariamente el discurso de odio y el lenguaje violento, como moderador de una comunidad basada en texto, rara vez estoy expuesto a imágenes violentas. Los moderadores de la comunidad también trabajan en equipo. Si me expongo a algo que encuentro molesto o si alguien está siendo abusivo, mis colegas se hacen cargo y brindan apoyo emocional. También me importa profundamente la comunidad que moderé. Cuidado de la comunidad, colegas de apoyo y autoselección ayudan a mantener la ethical de los moderadores voluntarios altos (ISH).

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles