¿Por qué Facebook está haciendo investigación robótica?

¿Por qué Facebook está haciendo investigación robótica?

Es un poco Es extraño escuchar que la red social líder en el mundo está realizando una investigación en robótica en lugar de, por ejemplo, hacer que la búsqueda sea útil, pero Facebook es una gran organización con muchas prioridades en competencia. Y mientras estos robots no afectarán directamente tu Facebook experiencia, lo que la compañía aprende de ellos podría ser impactante de maneras sorprendentes.

Aunque la robótica es una nueva área de investigación para Facebook, su confianza en el trabajo de vanguardia en IA es bien conocida. Los mecanismos que podrían llamarse IA (la definición es bastante confusa) gobiernan todo tipo de cosas, desde efectos de cámara hasta moderación automatizada de contenido restringido.

La inteligencia artificial y la robótica son magisterios que se superponen de forma natural, es por eso que tenemos un evento que cubre ambos, y los avances en uno a menudo hacen lo mismo, o abren nuevas áreas de investigación en el otro. Así que realmente no es de extrañar que Facebook, con su gran interés en utilizar la inteligencia artificial para una variedad de tareas en el mundo real y de los medios sociales, pueda querer incursionar en la robótica para obtener información.

¿Cuáles podrían ser las posibles aplicaciones más amplias de los proyectos de robótica que anunció hoy? Vamos a ver.

Aprendiendo a caminar desde cero

"Daisy", el robot hexápodo.

Caminar es una acción sorprendentemente compleja, o una serie de acciones, especialmente cuando tienes seis patas, como el robot utilizado en este experimento. Puedes programar cómo debe mover sus piernas para avanzar, dar la vuelta y así sucesivamente, pero ¿no te parece un poco como hacer trampa? Después de todo, tuvimos que aprender por nuestra cuenta, sin ningún manual de instrucciones ni configuraciones para importar. Así que el equipo buscó que el robot se enseñara a caminar.

Este no es un nuevo tipo de investigación, muchos roboticistas e investigadores de IA están interesados. Los algoritmos evolutivos (diferentes pero relacionados) se remontan a un largo camino, y ya hemos visto artículos interesantes como este:

Al darle a su robot algunas prioridades básicas, como ser "recompensado" por seguir adelante, pero sin una idea real de cómo trabajar sus piernas, el equipo lo dejó experimentar y probar diferentes cosas, aprendiendo y refinando lentamente el modelo mediante el cual se mueve. El objetivo es reducir la cantidad de tiempo que tarda el robot en pasar de cero a la locomoción confiable de semanas a horas.

¿Para qué podría usarse esto? Facebook es un vasto desierto de datos, complejo y dudoso estructurado. Por supuesto, aprender a navegar por una red de datos es muy diferente de aprender a navegar por una oficina, pero la idea de un sistema que se enseña a sí misma lo básico en una escala de tiempo corta dadas algunas reglas y objetivos simples es compartida.

Aprender cómo los sistemas de inteligencia artificial se enseñan a sí mismos y cómo eliminar obstáculos como prioridades equivocadas, hacer trampa de las reglas, extraños hábitos de almacenamiento de datos y otras cosas es importante para los agentes destinados a liberarse tanto en el mundo real como en el virtual. Tal vez la próxima vez que haya una crisis humanitaria que Facebook necesite monitorear en su plataforma, el modelo de inteligencia artificial que ayuda a hacerlo será informado por las eficiencias auto-didácticas que aparecen aquí.

Aprovechando la “curiosidad”

El investigador Akshara Rai ajusta un brazo robótico en el laboratorio de robótica AI en Menlo Park (Facebook)

Este trabajo es un poco menos visual, pero más relatable. Después de todo, todos sentimos curiosidad hasta cierto punto, y aunque entendemos que a veces mata al gato, la mayoría de las veces es un impulso que nos lleva a aprender de manera más efectiva. Facebook aplicó el concepto de curiosidad a un brazo robótico al que se le pedía que realizara varias tareas ordinarias.

Ahora, puede parecer extraño que puedan imbuir a un brazo robótico con "curiosidad", pero lo que se entiende por ese término en este contexto es simplemente que la IA a cargo del brazo, ya sea ver o decidir cómo agarrarse o qué tan rápido moverse – se le da motivación para reducir la incertidumbre sobre esa acción.

Eso podría significar muchas cosas, tal vez torcer la cámara un poco mientras se identifica un objeto le da un poco de una mejor vista, lo que mejora su confianza en identificarlo. Tal vez primero observe el área objetivo para verificar la distancia y asegurarse de que no haya obstáculos. Cualquiera que sea el caso, otorgarle a la AI la libertad para encontrar acciones que aumenten la confianza podría, eventualmente, permitirle completar las tareas más rápido, a pesar de que al principio puede verse frenado por los actos "curiosos".

¿Para qué podría usarse esto? Facebook tiene una gran visión de la computadora, como hemos visto tanto en su trabajo de cámara e imagen como en dispositivos como Portal, que (algunos dirían de forma escalofriante) te sigue por la sala con su "cara". Aprender sobre el medio ambiente es fundamental para estas aplicaciones y para cualquier otra que requiera un contexto sobre lo que están viendo o sintiendo para poder funcionar.

Cualquier cámara que funcione en una aplicación o dispositivo como los de Facebook está analizando constantemente las imágenes que ve para obtener información útil. Cuando una cara ingresa al marco, esa es la clave para que una docena de nuevos algoritmos se activen y comiencen a trabajar. Si alguien sostiene un objeto, ¿tiene texto? ¿Necesita ser traducido? ¿Hay un código QR? ¿Qué pasa con el fondo, a qué distancia está? Si el usuario está aplicando filtros o efectos AR, ¿dónde se detiene la cara o el cabello y comienzan los árboles detrás?

Si la cámara, el gadget o el robot dejaron que estas tareas se realizaran "justo a tiempo", producirán picos de uso de la CPU, una latencia visible en la imagen y todo tipo de cosas que el usuario o el ingeniero de sistemas no desean. Pero si lo hace todo el tiempo, es igual de malo. Si, por el contrario, el agente de inteligencia artificial está ejerciendo curiosidad para comprobar estas cosas cuando detecta demasiada incertidumbre acerca de la escena, es un medio feliz. Esta es solo una de las formas en que podría usarse, pero dadas las prioridades de Facebook, parece ser una importante.

Viendo tocando

Aunque la visión es importante, no es la única forma en que nosotros, o los robots, percibimos el mundo. Muchos robots están equipados con sensores para movimiento, sonido y otras modalidades, pero reales toque es relativamente raro Atribúyalo a la falta de buenas interfaces táctiles (aunque estamos llegando a eso). Sin embargo, los investigadores de Facebook querían estudiar la posibilidad de utilizar datos táctiles como un sustituto de los datos visuales.

Si lo piensas bien, eso es perfectamente normal: las personas con discapacidades visuales utilizan el tacto para navegar por sus alrededores o adquirir detalles finos sobre los objetos. No es exactamente que estén "viendo" a través del tacto, pero hay una superposición significativa entre los conceptos. Así que los investigadores de Facebook implementaron un modelo de IA que decide qué acciones tomar en función del video, pero en lugar de los datos de video reales, se alimentan con datos táctiles de alta resolución.

Resulta que al algoritmo realmente no le importa si está mirando una imagen del mundo como la veríamos o no, siempre que los datos se presenten visualmente, por ejemplo, como un mapa de presión en un sensor táctil, puede Se analizarán los patrones al igual que una imagen fotográfica.

¿Para qué podría usarse esto? Es dudoso que Facebook esté muy interesado en llegar y tocar a sus usuarios. Pero esto no se trata solo de contacto, se trata de aplicar el aprendizaje en todas las modalidades.

Piense en cómo, si se le presentaran dos objetos distintos por primera vez, sería trivial distinguirlos con los ojos cerrados, solo con el toque. ¿Por qué puedes hacer eso? Porque cuando ves algo, no solo entiendes cómo se ve, desarrollas un modelo interno que lo representa y abarca varios sentidos y perspectivas.

De manera similar, un agente de AI puede necesitar transferir su aprendizaje de un dominio a otro: datos auditivos que le dicen al sensor de agarre lo difícil que es sostener un objeto, o datos visuales que le dicen al micrófono cómo separar las voces. El mundo real es un lugar complicado y los datos son más ruidosos aquí, pero más voluminosos. Poder aprovechar esos datos independientemente de su tipo es importante para poder comprender e interactuar con la realidad de manera confiable.

Entonces, si bien esta investigación es interesante por sí misma y, de hecho, se puede explicar con esa premisa más simple, también es importante reconocer el contexto en el que se lleva a cabo. Como concluye la publicación del blog que describe la investigación:

Estamos enfocados en utilizar el trabajo de robótica que no solo conducirá a robots más capaces, sino que también empujará los límites de la IA en los años y décadas por venir. Si queremos acercarnos más a las máquinas que pueden pensar, planear y razonar de la manera en que lo hacen las personas, entonces debemos construir sistemas de inteligencia artificial que puedan aprender por sí mismos en una multitud de escenarios, más allá del mundo digital.

A medida que Facebook trabaja continuamente para expandir su influencia de su jardín amurallado de aplicaciones y servicios al rico pero desestructurado mundo de su sala de estar, cocina y oficina, sus agentes de inteligencia artificial requieren cada vez más sofisticación. Claro, no verás un "robot de Facebook" en ningún momento pronto … a menos que cuentes el que ya venden, o el que tienes en tu bolsillo ahora mismo.


Source link