Se insta a Facebook a dar a los usuarios un mayor control sobre lo que ven

Se insta a Facebook a dar a los usuarios un mayor control sobre lo que ven

Académicos en las universidades de Oxford y Stanford piensan en Facebook. Debería dar a los usuarios una mayor transparencia y control sobre el contenido que ven en su plataforma.

También creen que el gigante de las redes sociales debería reformar radicalmente sus estructuras y procesos de gobierno para arrojar más luz sobre las decisiones de contenido, incluso recurriendo a más expertos externos para dirigir la política.

Tales cambios son necesarios para abordar las preocupaciones generalizadas sobre el impacto de Facebook en la democracia y en la libertad de expresión, argumentan en un informe publicado hoy, que incluye una serie de recomendaciones para reformar Facebook (titulado: Glasnost! Nueve maneras en que Facebook puede convertirse en un foro mejor para la libertad de expresión y la democracia.)

"Hay una gran cantidad de cosas que una plataforma como Facebook puede hacer en este momento para abordar las inquietudes del público en general y hacer más para cumplir con sus responsabilidades de interés público, así como con las normas internacionales de derechos humanos", escribe el autor principal. Timoteo Garton Ceniza.

“Las decisiones ejecutivas tomadas por Facebook tienen importantes consecuencias políticas, sociales y culturales en todo el mundo. "Un pequeño cambio en el algoritmo de News Feed, o en la política de contenido, puede tener un impacto más rápido y más amplio que el de cualquier legislación individual (o incluso de toda la UE)".

Aquí está un resumen de las nueve recomendaciones del informe:

  1. Apretar la redacción de los estándares comunitarios sobre el discurso de odio – los académicos argumentan que la redacción actual de Facebook en áreas clave es “demasiado amplia, lo que lleva a desaprobaciones erráticas, inconsistentes y, a menudo, insensibles al contexto”; y también genera “una alta proporción de casos impugnados”. Una redacción más clara y precisa podría facilitar la implementación consistente, ellos creen.
  2. Contratar más y contextualmente expertos revisores de contenido – "el problema es la calidad y la cantidad", señala el informe, al presionar a Facebook para que contrate a más revisores de contenido humano más una capa de revisores con "experiencia cultural y política relevante", y también a que se involucre más con fuentes externas de confianza como como ONGs. "Queda claro que AI no resolverá los problemas con los juicios profundamente dependientes del contexto que deben realizarse para determinar cuándo, por ejemplo, el discurso del odio se convierte en un discurso peligroso", escriben.
  3. Aumentar la “transparencia decisional” – Facebook aún no ofrece una transparencia adecuada en cuanto a las políticas y prácticas de moderación de contenido, sugieren, argumentando que necesita publicar más detalles sobre sus procedimientos, incluido el llamado específico a la compañía a "publicar y difundir ampliamente estudios de casos" para brindar a los usuarios más orientación. y para proporcionar motivos potenciales para las apelaciones.
  4. Expandir y mejorar el proceso de apelaciones. – también en las apelaciones, el informe recomienda que Facebook ofrezca a los revisores mucho más contexto sobre las partes de contenido en disputa, y también proporcione datos estadísticos de apelaciones a los analistas y usuarios. "Bajo el régimen actual, el revisor interno inicial tiene información muy limitada sobre la persona que publicó una parte del contenido, a pesar de la importancia del contexto para la adjudicación de apelaciones", escriben. "Una imagen del Holocausto tiene un significado muy diferente cuando es publicada por un sobreviviente del Holocausto o por un Neo-Nazi". También sugieren que Facebook debería trabajar en el desarrollo del proceso debido de apelaciones "más funcional y utilizable para el usuario promedio", en diálogo con los usuarios. – como con la ayuda de un grupo asesor de políticas de contenido.
  5. Proporcionar controles de alimentación de noticias significativos para los usuarios – el informe sugiere que los usuarios de Facebook deberían tener controles más significativos sobre lo que ven en la fuente de noticias, con los autores que consideran que los controles actuales son "totalmente inadecuados" y abogan por mucho más. Como la capacidad de desconectar la alimentación algorítmica por completo (sin que la vista cronológica se vuelva a establecer de manera predeterminada en el algoritmo cuando el usuario vuelve a cargar, como es el caso ahora para cualquiera que cambie la vista controlada por AI). El informe también sugiere agregar una función de análisis de fuentes de noticias, para brindar a los usuarios un desglose de las fuentes que están viendo y cómo se compara con los grupos de control de otros usuarios. Facebook también podría ofrecer un botón para que los usuarios adopten una perspectiva diferente exponiéndolos a contenido que normalmente no ven, sugieren.
  6. Ampliar el contexto y las facilidades de verificación de hechos. – el informe presiona para que se utilicen recursos "significativos" para identificar "las mejores, más autorizadas y fuentes confiables" de información contextual para cada país, región y cultura – para ayudar a alimentar el Facebook existente (pero aún inadecuado y no universal) los esfuerzos de comprobación de hechos.
  7. Establecer mecanismos regulares de auditoría. – ha habido algunas auditorías de derechos civiles de los procesos de Facebook (como esta, que sugería que Facebook formaliza una estrategia de derechos humanos), pero el informe insta a la compañía a abrirse a más de estos, sugiriendo que el modelo de auditorías significativas debe ser replicado y extendido a otras áreas de interés público, incluyendo privacidad, imparcialidad y sesgo algorítmicos, diversidad y más.
  8. Crear un grupo asesor de políticas de contenido externo. – Facebook debe alistar a las partes interesadas de contenido clave de la sociedad civil, el mundo académico y el periodismo para que un grupo asesor de políticas de expertos proporcione comentarios continuos sobre sus estándares de contenido y su implementación. así como también revisar su expediente de recursos. "Crear un cuerpo que tenga credibilidad con el rango geográfico, cultural y político extraordinariamente amplio de los usuarios de Facebook sería un gran desafío, pero un grupo asesor experto, cuidadosamente seleccionado y formalizado sería un primer paso", escriben, señalando que Facebook ha comenzado a avanzar en esta dirección, pero agrega: "Estos esfuerzos deben formalizarse y expandirse de manera transparente".
  9. Establecer un órgano de apelación externo. – el informe también insta al control final "independiente y externo" de la política de contenido de Facebook, a través de un organismo de apelaciones que se encuentra fuera de la nave nodriza e incluye representación de la sociedad civil y grupos de defensa de los derechos digitales. Los autores señalan que Facebook ya está coqueteando con esta idea, citando los comentarios realizados por Mark Zuckerberg en noviembre pasado, pero también advierte que esto debe hacerse correctamente si se quiere que el poder sea "significativo". "Facebook debe esforzarse por hacer que este cuerpo de apelaciones sea lo más transparente posible … y permitir que influya en amplias áreas de la política de contenido … no solo se pronuncie sobre la eliminación de contenido específico", advierten.

En conclusión, el informe señala que los problemas de contenido en los que se enfoca no solo están vinculados al negocio de Facebook, sino que también se aplican ampliamente en varias plataformas de Internet; por lo tanto, hay un creciente interés en algún tipo de "organismo de autorregulación de toda la industria". Aunque sugiere que ese tipo de regulación general será "una tarea larga y compleja".

Mientras tanto, los académicos siguen convencidos de que hay "una gran cantidad de cosas que una plataforma como Facebook puede hacer en este momento para abordar las preocupaciones públicas generalizadas y hacer más para cumplir con sus responsabilidades de interés público, así como con las normas internacionales de derechos humanos". La parte frontal y central de la empresa dada su tamaño masivo (más de 2.200 millones de usuarios activos).

“Reconocemos que los empleados de Facebook están haciendo juicios contextuales difíciles, complejos todos los días, equilibrando intereses en conflicto, y no todas esas decisiones se beneficiarán de una transparencia total. Pero todo sería mejor para un intercambio más regular y activo con el mundo de la investigación académica, el periodismo de investigación y la defensa de la sociedad civil ", agregan.

Hemos contactado con Facebook para comentar sus recomendaciones.

El informe fue preparado por el proyecto de Debate de Libertad de Expresión del Programa Dahrendorf para el Estudio de la Libertad, St. Antony's College, Oxford, en asociación con el Instituto Reuters para el Estudio del Periodismo, la Universidad de Oxford, el Proyecto sobre Democracia e Internet. , Universidad Stanford y la Institución Hoover, Universidad de Stanford.

El año pasado, ofrecimos algunas de nuestras propias ideas para corregir Facebook, lo que incluye sugerir a la empresa que contrate órdenes de magnitud con más expertos revisores de contenido, además de brindar mayor transparencia en las decisiones y procesos clave.


Source link