Zoom quiere rastrear tus emociones, esto es lo que debes saber

Zoom quiere rastrear tus emociones, esto es lo que debes saber

Según los informes, Zoom está trabajando en un producto que rastrea las emociones del usuario en una videollamada, pero los expertos han expresado su preocupación por sus implicaciones para la privacidad.

Un colectivo de 28 organizaciones de derechos humanos ha instado Zoom para detener su trabajo en un sistema de seguimiento de emociones que tiene como objetivo analizar el compromiso y los sentimientos de los usuarios. Por supuesto, la idea suena invasiva desde el principio, pero no es el primer proyecto de este tipo en lo que respecta al objetivo final. Ya hay una tonelada de productos de software dirigidos a trabajadores remotos que rastrean todo, desde los clics del mouse hasta la actividad web en nombre de los empleadores.

Estos productos ya tienen opiniones divididas, pero el monitoreo de la actividad del usuario ocurre en todas las formas y, a veces, desde fuentes extremadamente desprevenidas. Una investigación reciente descubrió que un buen número de aplicaciones de meditación y salud mental se dedicaban a la extracción de datos y se los entregaban a terceros para publicidad. Pero el alcance de monitorear la actividad de los usuarios se amplió en la era de la pandemia bajo el disfraz de soluciones corporativas para evaluar la disponibilidad y atención de los trabajadores. Parece que Zoom, una de las mayores historias de éxito en esta era de cambio de trabajo dramático, también estaba involucrado en un proyecto propio preocupante.

VÍDEO DEL DÍA

Fight for the Future, junto con otras 27 organizaciones de derechos humanos, ha escrito una carta abierta a Zoom, pidiéndole que detenga el software de seguimiento de emociones impulsado por IA que estudia la expresión facial de los participantes de videollamadas. La organización clasificó el software como “discriminatorio, manipulador, potencialmente peligroso”, señalando además que se basa en la suposición errónea de que los marcadores como el patrón de voz, las expresiones faciales y el lenguaje corporal son uniformes para todas las personas. Hay una preocupación válida detrás de las críticas, ya que los algoritmos de reconocimiento facial y otros productos basados ​​en IA han demostrado ser propensos a errores cuando se trata de procesar imágenes que representan personas de color y formas corporales variadas. Según un informe de Protocoloel gigante de las videoconferencias está trabajando en un producto llamado Zoom IQ que ofrecerá algo llamado informe de análisis de sentimientos al anfitrión de una reunión una vez que finalice la llamada.

Una nueva era de seguimiento impulsado por IA

Hay empresas como Uniphore y Sybill que, según se informa, están desarrollando productos que tienen como objetivo aprovechar la IA para monitorear el comportamiento humano durante las videollamadas en tiempo real. Zoom, por otro lado, se dice que está investigando formas que le permitirán incorporar dicho sistema en su cartera de productos. “Estas son señales informativas que pueden ser útiles; no son necesariamente decisivos”, dijo Josh Dulberger, Jefe de Producto (Datos e IA) en Zoom. A pesar de la perspectiva cautelosa del ejecutivo de Zoom, la idea de que la IA analice las expresiones faciales y califique los sentimientos de los participantes en una videollamada es bastante desconcertante, por decirlo suavemente. Las preocupaciones son legítimas, y luego de años de defensa por parte de expertos y activistas, el gobierno de EE. UU. también se ha entusiasmado con la idea de regular la inteligencia artificial.

Si bien la premisa de la intrusión en la privacidad con el producto de Zoom ciertamente está haciendo sonar las alarmas, lo que realmente preocupa es la suposición de “talla única”, y si dicha tecnología es confiable en absoluto. En la otra carta a Zoom, los expertos advirtieron que dicho sistema se basa en la pseudociencia, ya que el aprendizaje automático no ha demostrado ser capaz de comprender las emociones humanas en función de las expresiones faciales. Los expertos advirtieron además que, a pesar de todas sus buenas intenciones, dicho producto podría ser distorsionado para imponer acciones punitivas en más dominios que solo el mundo corporativo, y también allanará el camino para una nueva industria donde el análisis de emociones conducirá a una manipulación digital más potente. y abra las compuertas para recolectar datos de usuarios extremadamente personales. Si se aplica, Zoom de El producto agregaría una dimensión completamente nueva a las normas discriminatorias de IA.

Fuente: Fight For The Future, Protocolo




Source link