Las acciones de Twitter se deslizan fuera de horario en medio de la lucha para contener hacks de cuentas de alto perfil

Twitter relanza una prueba que pide a los usuarios que revisen las respuestas dañinas

Twitter está ejecutando una nueva prueba que pedirá a los usuarios que hagan una pausa y piensen antes de tuitear. Según la empresa anuncio, cuando Twitter detecta lo que parece ser una respuesta potencialmente dañina u ofensiva al tuit de otra persona, te pedirá que consideres revisar tu texto en lugar de tuitear.

Los usuarios cuyos tweets están marcados de esta manera verán aparecer un mensaje emergente en su pantalla, que pregunta: “¿Quieres revisar esto antes de tuitear?” Hay tres botones para elegir: uno para twittear la respuesta de todos modos, un botón Editar (esto es lo más cercano que obtendremos, aparentemente) y un botón de eliminar para descartar el tweet por completo. También hay un pequeño enlace para informar si el sistema se equivocó.

Esta no es la primera vez que Twitter realiza una prueba como esta.

En mayo de 2020 y nuevamente en Agosto de 2020, Twitter ejecutó variaciones de este mismo experimento. En esos casos, el texto de la pantalla emergente era prácticamente el mismo, pero el diseño de los tres botones se veía diferente y menos colorido.

Las pruebas anteriores se ejecutaron en Android, iOS y la web, pero esta iteración actual solo está disponible en iOS en inglés, por el momento.

En el momento de la prueba inicial, Twitter explicó que sus sistemas podían detectar lenguaje dañino en función del tipo de lenguaje que se había utilizado en otros tuits que se habían informado en el pasado.

¿Di algo en el momento del que te arrepientas? 😬 Hemos relanzado este experimento en iOS que le pide que revise una respuesta que es potencialmente dañina u ofensiva.

¿Crees que has recibido un mensaje por error? Comparta sus comentarios con nosotros para que podamos mejorar. pic.twitter.com/t68az8vlYN

– Soporte de Twitter (@TwitterSupport) 22 de febrero de 2021

Se ha demostrado que este tipo de pequeños empujones incorporados pueden tener un impacto.

Por ejemplo, cuando Twitter comenzó a pedir a los usuarios que leyeran el artículo vinculado en un tweet antes de retuitearlo, la compañía descubrió que los usuarios abrirían los artículos un 40% más a menudo que sin el empujón. Twitter también ha creado experimentos similares para tratar de ralentizar el ritmo de la conversación en línea en su plataforma, haciendo cosas como desalentar los retweets sin comentarios o ralentizar los “Me gusta” en los tweets que contienen información errónea.

Otras redes sociales también utilizan pequeños empujones como este para influir en el comportamiento de sus usuarios. Instagram en 2019 lanzó una función que marcaría los comentarios potencialmente ofensivos antes de que se publicaran, y luego la expandió a los subtítulos. TikTok lanzó más recientemente un banner que preguntaba a los usuarios si estaban seguros de que querían compartir un video que contiene “contenido no verificado”.

No está claro por qué Twitter no ha implementado simplemente la ventana emergente para combatir el abuso en línea, que sigue siendo un problema grave en su plataforma, y ​​luego ha repetido el diseño y el estilo del cuadro de mensaje, según sea necesario.

En comparación con los esfuerzos de ingeniería y diseño mucho más grandes que la compañía ha tenido en marcha, incluida su función de Historias más nueva conocida como Fleets y un rival de Clubhouse llamado Spaces, un cuadro que pide a los usuarios que hagan una pausa y piensen parece algo que podría haberse graduado a un producto completo por ahora.

Twitter, sin embargo, dice que eligió pausar el experimento anterior porque necesitaba hacer mejoras.

“Detuvimos el experimento una vez que nos dimos cuenta de que el mensaje no era coherente y que teníamos que ser más conscientes de cómo generamos Tweets potencialmente dañinos. Esto llevó a que se hiciera más trabajo en torno a nuestro modelo de salud y, al mismo tiempo, facilitó que las personas compartieran sus comentarios si nos equivocamos ”, explicó un portavoz de Twitter.

“También hicimos algunos cambios en este mensaje de respuesta para mejorar la forma en que evaluamos el lenguaje potencialmente ofensivo, como insultos, lenguaje fuerte o comentarios de odio, y ofrecemos más contexto de por qué alguien puede haber recibido mensajes. Mientras estábamos probando el verano pasado, también comenzamos a observar las relaciones entre los autores de Tweets y las personas que responden para evitar generar respuestas que fueran bromas o bromas entre amigos ”, agregaron.




Source link