Pew encuentra que la mayoría de los usuarios de Facebook aún desconocen sus prácticas publicitarias espeluznantes.

Pew encuentra que la mayoría de los usuarios de Facebook aún desconocen sus prácticas publicitarias espeluznantes.

Un estudio realizado por el Pew Research Center. sugiere la mayoría de Facebook los usuarios aún no saben cómo la compañía los rastrea y los perfila para fines de segmentación de anuncios.

Pew encontró que tres cuartas partes (74%) de los usuarios de Facebook no sabían que el gigante de las redes sociales mantiene una lista de sus intereses y rasgos para orientarlos con anuncios, solo descubriendo esto cuando los investigadores los dirigieron a ver su página de preferencias de anuncios de Facebook.

La mayoría (51%) de los usuarios de Facebook también le dijeron a Pew que se sentían incómodos con la compilación de la información por parte de Facebook.

Mientras que más de un cuarto (27%) dijo que la lista de preferencias de anuncios que Facebook había generado no los representó de manera muy precisa.

Los investigadores también encontraron que el 88% de los usuarios encuestados tenían algún material generado para ellos en la página de preferencias de anuncios. Los hallazgos de Pew provienen de una encuesta de una muestra representativa a nivel nacional de 963 usuarios de Facebook de Estados Unidos de 18 años y mayores que se realizó entre el 4 de septiembre y el 1 de octubre de 2018, utilizando el Panel de Conocimientos de GfK.

En una audiencia en el Senado el año pasado, el fundador de Facebook, Mark Zuckerberg, afirmó que los usuarios tienen "control total" sobre la información que eligen para subir a Facebook y sobre la información que recopila la empresa para orientar los anuncios.

Pero la pregunta clave sigue siendo cómo los usuarios de Facebook pueden tener un control total cuando la mayoría de ellos no saben qué está haciendo la empresa. Esto es algo que los responsables políticos de los Estados Unidos deberían tener en mente al trabajar en la redacción de una ley federal de privacidad integral.

Los hallazgos de Pew sugieren que la mayor "defensa" de Facebook contra los usuarios que ejercen el escaso control que les brinda sobre la información que sus algoritmos vinculan a su identidad es la falta de conocimiento sobre cómo funciona el negocio de Facebook adtech.

Después de todo, la compañía comercializa la plataforma como un servicio de comunicaciones sociales para mantenerse en contacto con personas que usted conoce, no como una máquina de entrega de anuncios de vigilancia masiva de perfiles de personas. Entonces, a menos que esté metido en la maleza de la industria de la tecnología de la tecnología, hay pocas posibilidades de que el usuario promedio de Facebook entienda lo que Mark Zuckerberg ha descrito como "todos los matices de cómo funcionan estos servicios".

Tener una sensación espeluznante de que los anuncios que te acechan en Internet apenas cuenta.

Al mismo tiempo, los usuarios que desconocen los dossieres de información que Facebook tiene sobre ellos no son un error, sino una característica del negocio de la empresa, que se beneficia directamente al poder minimizar la proporción de personas que optan por no tener sus intereses. categorizado para la orientación de anuncios porque no tienen idea de que está sucediendo. (Y los anuncios relevantes probablemente sean más accesibles y, por lo tanto, más lucrativos para Facebook).

Por lo tanto, la súplica de Zuckerberg a los responsables de la formulación de políticas en abril pasado por "un conjunto simple y práctico de formas de explicar lo que está haciendo con los datos … eso no es demasiado restrictivo en cuanto a la prestación de servicios".

(O, para decirlo de otra manera: si debe regular la privacidad, simplifiquemos las explicaciones utilizando la abstracción de dibujos animados que permite la ofuscación continua de cómo exactamente fluyen los datos, dónde y por qué).

Desde el punto de vista del usuario, incluso si sabe que Facebook ofrece configuraciones de administración de anuncios, todavía no es fácil localizarlos y entenderlos, lo que requiere navegar a través de varios menús que no están ubicados prominentemente en la plataforma, y ​​que también son complejos, con múltiples interacciones posibles. (Como tener que eliminar cada interés inferido individualmente.)

Es poco probable que el usuario promedio de Facebook mire más allá de las últimas publicaciones de su suministro de noticias, y mucho menos vaya de forma proactiva a la búsqueda de una configuración de "administración de anuncios" que suene aburrida y dedique tiempo a descubrir qué hace cada clic y conmutador (en algunos casos, los usuarios deben desplazarse) sobre un interés para ver una cruz que indica que de hecho pueden eliminarlo, por lo que aquí también hay un montón de diseños de patrones oscuros en el trabajo).

Y, al mismo tiempo, Facebook está vendiendo mucho, en las "explicaciones" de anuncios de autoservicio que ofrece, girar la línea de que la segmentación de anuncios es útil para los usuarios. Lo que no se explica es el enorme intercambio de privacidad que conlleva, también conocida como la vigilancia generalizada de usuarios y no usuarios en Facebook.

Tampoco ofrece una completa opción de no ser rastreado y perfilado; más bien, su configuración parcial de anuncios permite a los usuarios "influir en los anuncios que ve".

Pero yoLa influencia no es lo mismo que controlar, lo que Zuckerberg reclamó en el Congreso. Entonces, uns está de pie, tEsta no es una forma sencilla para que los usuarios de Facebook entiendan sus opciones de anuncios porque la empresa solo les permite girar unos cuantos mandos en lugar de apagar todo el sistema de vigilancia.

El perfil algorítmico de las personas de la compañía también se extiende a etiquetar a los usuarios como que tienen opiniones políticas particulares y / o que tienen afinidades raciales y étnicas / multiculturales.

Los investigadores de Pew también preguntaron sobre estas dos clasificaciones específicas, y encontraron que Facebook había asignado una afinidad política a aproximadamente la mitad (51%) de los usuarios encuestados; y alrededor de una quinta parte (21%) fueron calificados por tener una "afinidad multicultural".

De los usuarios que Facebook puso en un grupo político en particular, la mayoría (73%) dijo que la categorización de la política por parte de la plataforma era muy o algo precisa; pero más de una cuarta parte (27%) dijo que no era una descripción muy precisa de ellos, o no lo era en absoluto.

"En otras palabras, al 37% de los usuarios de Facebook se les asigna una afinidad política y dicen que la afinidad los describe bien, mientras que al 14% se les asigna una categoría y dicen que no los representa con precisión", escribe.

El uso de los datos personales de las personas con fines políticos ha provocado algunos escándalos importantes para los negocios de Facebook en los últimos años. Como la Cambridge Analytica Escándalo de uso indebido de datos: cuando se demostró que los datos de los usuarios se extrajeron de la plataforma en masa y sin el consentimiento adecuado, para fines de campaña.

En otros casos, los anuncios de Facebook también se han utilizado para eludir las reglas de gasto de campaña en las elecciones. Por ejemplo, durante la votación en el referéndum de 2016 en la UE del Reino Unido, cuando una gran cantidad de anuncios se dirigieron de forma no transparente con la ayuda de las plataformas de medios sociales.

Y, de hecho, dirigirse a las masas de desinformación política para llevar a cabo la interferencia electoral. Como la campaña de propaganda respaldada por el Kremlin durante las elecciones presidenciales de 2016 en Estados Unidos.

El año pasado, el organismo de control de datos del Reino Unido solicitó una pausa ética en el uso de los datos de las redes sociales para las campañas políticas, tal es la escala de su preocupación por las prácticas de datos descubiertas durante una larga investigación.

Sin embargo, el hecho de que la propia plataforma de Facebook identifique de manera nativa las afinidades políticas de los usuarios a menudo se pasa por alto en la discusión sobre este tema.

A pesar de la indignación generada por las revelaciones de que Cambridge Analytica había intentado usar los datos de Facebook para aplicar etiquetas políticas en las personas a los anuncios orientados, tales etiquetas siguen siendo una característica fundamental de la plataforma de Facebook, permitiendo a cualquier anunciante, grande o pequeño, pagar a Facebook por objetivos. personas basadas en donde sus algoritmos han determinado que se sientan en el espectro político, y lo hacen sin obtener su consentimiento explícito. (Sin embargo, según la ley europea de protección de datos, las creencias políticas se consideran información confidencial, y Facebook se enfrenta a un mayor escrutinio en la región sobre cómo procesa este tipo de datos).

De los usuarios que Pew descubrió que Facebook había calificado de "afinidad multicultural", otra categoría de datos confidenciales inferidos algorítmicamente, el 60% dijo que, de hecho, tienen una afinidad muy fuerte por el grupo al que están asignados; mientras que más de un tercio (37%) dijo que su afinidad por ese grupo no es particularmente fuerte.

"Alrededor del 57% de los que están asignados a esta categoría dicen que, de hecho, se consideran miembros del grupo racial o étnico al que Facebook les asignó", agrega Pew.

Encontró que el algoritmo de Facebook dice que el 43% de los que reciben una designación de afinidad tienen interés en la cultura afroamericana; Con la misma acción (43%) se le asigna una afinidad con
Cultura hispana. Mientras que a uno de cada diez se le asigna una afinidad con la cultura asiática americana.

(La herramienta de orientación de Facebook para anuncios no ofrece clasificaciones de afinidad para ninguna otra cultura en los EE. UU., Incluida la cultura blanca o caucásica, Pew también señala, subrayando así un sesgo inherente de su sistema).

En los últimos años, la etiqueta de afinidad étnica que el algoritmo de Facebook se adhiere a los usuarios ha generado una controversia específica después de que se reveló que estaba permitiendo la publicación de anuncios discriminatorios.

Como resultado, a fines de 2016, Facebook dijo que deshabilitaría la orientación de anuncios usando la etiqueta de afinidad étnica para categorías protegidas de vivienda, empleo y anuncios relacionados con el crédito. Pero un año después, se descubrió que sus sistemas de revisión de anuncios no bloqueaban los anuncios potencialmente discriminatorios.

El hecho de que Facebook pegue las etiquetas a las personas claramente crea un gran riesgo, ya sea por interferencia en las elecciones o anuncios discriminatorios (o, de hecho, ambos).

Riesgo de que la mayoría de los usuarios no se sientan cómodos con una vez que se dan cuenta de que está sucediendo.

Y, por lo tanto, también el riesgo futuro para el negocio de Facebook a medida que más reguladores dirigen su atención al diseño de leyes de privacidad que pueden proteger eficazmente a los consumidores de que sus datos personales sean explotados de una manera que no les gusta. (Y que podría perjudicarlos o generar daños sociales más amplios).

Comentando sobre las prácticas de datos de Facebook, Michael Veale, un investigador en derechos de datos y aprendizaje automático en el University College London, nos dijo: “Muchas de las prácticas de procesamiento de datos de Facebook parecen violar las expectativas de los usuarios, y la forma en que interpretan la ley en Europa es un indicio de su preocupación en torno a esto. Si Facebook estuviera de acuerdo con los reguladores en que las opiniones políticas inferidas o las "afinidades étnicas" eran lo mismo que recopilar esa información explícitamente, tendrían que pedir un consentimiento separado y explícito para hacerlo, y los usuarios tendrían que poder decir no a eso.

"Del mismo modo, Facebook sostiene que es 'manifiestamente excesivo' que los usuarios soliciten ver los datos extensos de seguimiento de aplicaciones y web que recopilan y mantienen junto a su ID para generar estos perfiles, algo que desencadenó una investigación legal con el Comisionado de Protección de Datos de Irlanda. . "No puedes evitarlo, pero sospechas que es porque temen lo espeluznantes que los usuarios encontrarían al ver la amplitud real de su recopilación de datos invasivos y no usuarios".

En una segunda encuesta, realizada entre el 29 de mayo y el 11 de junio de 2018 utilizando el American Trends Panel de Pew y de una muestra representativa de todos los adultos de EE. UU. Que usan medios sociales (incluido Facebook y otras plataformas como Twitter e Instagram), los investigadores de Pew encontraron usuarios de medios sociales en general, creen que sería relativamente fácil para las plataformas de redes sociales que utilizan determinar sus rasgos clave en función de los datos que han acumulado sobre sus comportamientos.

"La mayoría de los usuarios de las redes sociales dicen que sería muy o algo fácil para estas plataformas determinar su raza u origen étnico (84%), sus pasatiempos e intereses (79%), su afiliación política (71%) o sus creencias religiosas (65). %), "Escribe Pew.

Si bien menos de un tercio (28%) cree que sería difícil para las plataformas descubrir sus puntos de vista políticos, agrega.

Entonces, aunque la mayoría de las personas no entienden exactamente qué están haciendo las plataformas de redes sociales con la información recopilada e inferida sobre ellas, una vez que se les pide que reflexionen sobre el problema, la mayoría cree que sería fácil para las empresas de tecnología unir puntos de datos en torno a su actividad social. y hacer inferencias sensibles sobre ellos.

Comentando en general sobre la investigación, el director de investigación de Internet y tecnología de Pew, Lee Rainie, dijo que su objetivo era tratar de llevar algunos datos a los debates sobre la privacidad del consumidor, el papel de la micro-focalización de los anuncios en el comercio y la actividad política, y cómo los algoritmos Están dando forma a los sistemas de noticias e información.

Actualizar: En respuesta a la investigación de Pew, Facebook nos envió la siguiente declaración:

Queremos que las personas entiendan cómo funcionan nuestros ajustes y controles de anuncios. Eso significa mejores anuncios para las personas. Si bien nosotros y el resto de la industria publicitaria en línea tenemos que hacer más para educar a las personas sobre cómo funciona la publicidad basada en intereses y cómo protegemos la información de las personas, damos la bienvenida a las conversaciones sobre transparencia y control.


Source link