Sesgo en la IA: un problema reconocido pero aún sin resolver

Sesgo en la IA: un problema reconocido pero aún sin resolver

Más publicaciones de este colaborador Sesgo en la IA: un problema reconocido pero aún sin resolver Cómo avanzan los vehículos autónomos y el hiperloop

Hay quienes elogian la tecnología como la solución a algunos de los problemas más graves de la humanidad y quienes demonizan a la IA como la mayor amenaza existencial del mundo. Por supuesto, estos son dos extremos del espectro, y la IA, sin duda, presenta oportunidades interesantes para el futuro, así como problemas desafiantes que superar.

Uno de los temas que ha llamado mucho la atención de los medios en los últimos años ha sido la posibilidad de sesgo en la IA. Es un tema sobre el que escribí en TechCrunch (Tyrant in the Code) hace más de dos años. El debate está en marcha.

En ese momento, Google había sido criticado cuando investigar mostró que cuando un usuario buscaba en línea “manos”, los resultados de la imagen eran casi todos blancos; pero al buscar “manos negras”, las imágenes eran representaciones mucho más despectivas, incluida una mano blanca que se extendía para ofrecer ayuda a una negra, o manos negras trabajando en la tierra. Fue un descubrimiento impactante que condujo a afirmaciones de que, en lugar de curar las divisiones en la sociedad, la tecnología de IA las perpetuaría.

Como afirmé hace dos años, no es de extrañar que tales casos puedan ocurrir. En 2017, al menos, la gran mayoría de las personas que diseñaban algoritmos de IA en los EE. UU. eran hombres blancos. Y si bien no hay implicación de que esas personas tengan prejuicios contra las minorías, tendría sentido que transmitan su sesgo natural e inconsciente en la IA que crean.

Y no son solo los algoritmos de Google los que corren el riesgo de una IA sesgada. A medida que la tecnología se vuelve cada vez más omnipresente en todas las industrias, será cada vez más importante eliminar cualquier sesgo en la tecnología.

Entendiendo el problema

De hecho, la IA era importante e integral en muchas industrias y aplicaciones hace dos años, pero su importancia, como era de esperar, ha aumentado desde entonces. Los sistemas de IA ahora se utilizan para ayudar a los reclutadores identificar candidatos viables, suscriptores de préstamos a la hora de decidir si prestar dinero a los clientes e incluso jueces al deliberar si un criminal convicto volverá a delinquir.

Por supuesto, los datos ciertamente pueden ayudar a los humanos a tomar decisiones más informadas utilizando IA y datos, pero si esa tecnología de IA está sesgada, el resultado también lo estará. Si continuamos confiando el futuro de la tecnología de IA a un grupo no diverso, entonces los miembros más vulnerables de la sociedad podrían estar en desventaja para encontrar trabajo, obtener préstamos y ser juzgados de manera justa por el sistema de justicia, y mucho más.

La IA es una revolución que continuará, se quiera o no.

Afortunadamente, el problema del sesgo en la IA ha pasado a primer plano en los últimos años, y cada vez más figuras, organizaciones y organismos políticos influyentes están analizando seriamente cómo abordar el problema.

Él Instituto AI Now es una de esas organizaciones que investiga las implicaciones sociales de la tecnología de IA. Lanzado en 2017 por los científicos investigadores Kate Crawford y Meredith Whittaker, AI Now se centra en el efecto que tendrá la IA en los derechos humanos y el trabajo, así como en cómo integrar la IA de manera segura y cómo evitar sesgos en la tecnología.

En mayo del año pasado, la Unión Europea implementó el Reglamento General de Protección de Datos (GDPR), un conjunto de reglas que brinda a los ciudadanos de la UE más control sobre cómo se usan sus datos en línea. Y aunque no hará nada para desafiar directamente el sesgo en la tecnología de IA, obligará a las organizaciones europeas (o cualquier organización con clientes europeos) a ser más transparentes en el uso de los algoritmos. Esto ejercerá una presión adicional sobre las empresas para asegurarse de que confían en los orígenes de la IA que están utilizando.

Y aunque EE. UU. aún no tiene un conjunto similar de regulaciones sobre el uso de datos y la IA, en diciembre de 2017, El ayuntamiento y el alcalde de Nueva York aprobaron un proyecto de ley pidiendo más transparencia en la IA, impulsada por los informes de que la tecnología estaba causando prejuicios raciales en las sentencias penales.

A pesar de que los grupos de investigación y los organismos gubernamentales se interesan en el papel potencialmente dañino que la IA sesgada podría desempeñar en la sociedad, la responsabilidad recae en gran medida en las empresas que crean la tecnología y en si están preparadas para abordar el problema de raíz. Afortunadamente, algunas de las compañías tecnológicas más grandes, incluidas aquellas que han sido acusadas de pasar por alto el problema del sesgo de la IA en el pasado, están tomando medidas para abordar el problema.

microsoftpor ejemplo, ahora está contratando artistas, filósofos y escritores creativos para capacitar a los bots de IA en lo que se debe y no se debe hacer con el lenguaje matizado, como no usar jerga inapropiada o hacer comentarios racistas o sexistas sin darse cuenta. IBM está intentando mitigar el sesgo en sus máquinas de IA mediante la aplicación de calificaciones de sesgo independientes para determinar la equidad de sus sistemas de IA. Y en junio del año pasado, El CEO de Google, Sundar Pichai, publicó un conjunto de principios de IA que tiene como objetivo garantizar que el trabajo o la investigación de la empresa no cree o refuerce el sesgo en sus algoritmos.

Datos demográficos que trabajan en IA

De hecho, abordar el sesgo en la IA requiere que las personas, las organizaciones y los organismos gubernamentales analicen seriamente las raíces del problema. Pero esas raíces son a menudo las personas que crean los servicios de IA en primer lugar. Como planteé en “Tyrant in the Code” hace dos años, cualquier persona zurda que haya tenido problemas con tijeras, libros de contabilidad y abrelatas para diestros sabrá que los inventos a menudo favorecen a sus creadores. Lo mismo ocurre con los sistemas de IA.

Nuevos datos de la Oficina de estadísticas laborales muestra que los profesionales que escriben programas de IA siguen siendo en su mayoría hombres blancos. Y un estudio realizado en agosto pasado por Alámbrico y Element AI descubrió que solo el 12% de los principales investigadores de aprendizaje automático son mujeres.

Este no es un problema completamente pasado por alto por las empresas de tecnología que crean sistemas de IA. Intel, por ejemplo, está tomando medidas activas para mejorar la diversidad de género en los roles técnicos de la empresa. Datos recientes indican que las mujeres conforman 24% de los roles técnicos en Intel, mucho más alto que el promedio de la industria. Y Google está financiando AI4ALLun campamento de verano de IA dirigido a la próxima generación de líderes de IA, para expandir su alcance a mujeres jóvenes y minorías subrepresentadas en el sector tecnológico.

Sin embargo, las estadísticas muestran que todavía queda un largo camino por recorrer si la IA va a alcanzar los niveles de diversidad necesarios para acabar con el sesgo en la tecnología. A pesar de los esfuerzos de algunas empresas e individuos, las empresas de tecnología siguen siendo mayoritariamente blancas y masculinas.

Resolviendo el problema del sesgo en la IA

Por supuesto, mejorar la diversidad dentro de las principales empresas de IA contribuiría en gran medida a resolver el problema del sesgo en la tecnología. Los líderes empresariales responsables de distribuir los sistemas de IA que impactan en la sociedad deberán ofrecer transparencia pública para que se pueda monitorear el sesgo, incorporar estándares éticos en la tecnología y tener una mejor comprensión de a quién se supone que se dirige el algoritmo.

Tanto los gobiernos como los líderes empresariales tienen algunas preguntas serias para reflexionar.

Pero sin las regulaciones de los organismos gubernamentales, este tipo de soluciones podrían surgir con demasiada lentitud, en todo caso. Y aunque la Unión Europea ha implementado el RGPD que, en muchos sentidos, atenúa el sesgo en la IA, no hay señales claras de que EE. UU. haga lo mismo en el corto plazo.

El gobierno, con la ayuda de investigadores privados y grupos de expertos, se está moviendo rápidamente en la dirección y tratando de lidiar con cómo regular los algoritmos. Además, algunas empresas como Facebook también afirman que la regulación podría ser beneficiosa. Sin embargo, los altos requisitos regulatorios para las plataformas de contenido generado por el usuario podrían ayudar a empresas como Facebook al hacer que sea casi imposible competir por las nuevas empresas que ingresan al mercado.

La pregunta es, ¿cuál es el nivel ideal de intervención del gobierno que no obstaculice la innovación?

Los empresarios a menudo afirman que la regulación es el enemigo de la innovación, y con una tecnología relativamente incipiente que puede cambiar el juego, cualquier obstáculo debe evitarse a toda costa. Sin embargo, la IA es una revolución que continuará, se quiera o no. Continuará cambiando la vida de miles de millones de personas, por lo que claramente debe dirigirse en una dirección ética e imparcial.

Tanto los gobiernos como los líderes empresariales tienen algunas preguntas serias que considerar y no tienen mucho tiempo para hacerlo. La IA es una tecnología que se está desarrollando rápidamente y no esperará a la indecisión. Si se permite que la innovación continúe sin control, con pocas pautas éticas y un grupo no diverso de creadores, los resultados pueden conducir a una profundización de las divisiones en los EE. UU. y en todo el mundo.


Source link