Qué esperar de la IA en 2023

Qué esperar de la IA en 2023

Como escribió una vez un autor bastante exitoso comercialmente, “la noche es oscura y está llena de terrores, el día es brillante, hermoso y lleno de esperanza”. Son imágenes adecuadas para la IA, que como toda tecnología tiene sus ventajas y desventajas.

Los modelos generadores de arte como Stable Diffusion, por ejemplo, han dado lugar a increíbles efusiones de creatividad, impulsando aplicaciones e incluso modelos comerciales completamente nuevos. Por otro lado, su naturaleza de código abierto permite que los malos actores lo usen para crear falsificaciones profundas a escala, todo mientras los artistas protestan porque se está beneficiando de su trabajo.

¿Qué hay preparado para la IA en 2023? ¿La regulación frenará lo peor de lo que trae la IA, o están abiertas las compuertas? ¿Emergerán nuevas formas poderosas y transformadoras de IA, a la ChatGPT, que interrumpirán las industrias que antes se creían seguras de la automatización?

Espere más aplicaciones de IA generadoras de arte (problemáticas)

Con el éxito de Lensa, la aplicación para selfies impulsada por inteligencia artificial de Prisma Labs que se volvió viral, puede esperar muchas aplicaciones de “yo también” en este sentido. Y espere que también sean capaces de ser engañados para crear imágenes NSFW, y para sexualizar y alterar desproporcionadamente la apariencia de las mujeres.

Maximilian Gahntz, investigador sénior de políticas de la Fundación Mozilla, dijo que esperaba que la integración de la IA generativa en la tecnología de consumo amplificara los efectos de tales sistemas, tanto para bien como para mal.

Stable Diffusion, por ejemplo, recibió miles de millones de imágenes de Internet hasta que “aprendió” a asociar ciertas palabras y conceptos con ciertas imágenes. Los modelos generadores de texto han sido fácilmente engañados de manera rutinaria para que adopten puntos de vista ofensivos o produzcan contenido engañoso.

Mike Cook, miembro del grupo de investigación abierto Knives and Paintbrushes, está de acuerdo con Gahntz en que la IA generativa seguirá demostrando ser una fuerza de cambio importante y problemática. Pero cree que 2023 tiene que ser el año en que la IA generativa “finalmente ponga su dinero donde está su boca”.

Indicador de TechCrunch, modelo de Stability AI, generado en la herramienta gratuita Dream Studio.

“No basta con motivar a una comunidad de especialistas [to create new tech] — para que la tecnología se convierta en una parte a largo plazo de nuestras vidas, tiene que hacer que alguien gane mucho dinero o tener un impacto significativo en la vida cotidiana del público en general”, dijo Cook. “Así que predigo que veremos un impulso serio para hacer que la IA generativa realmente logre una de estas dos cosas, con un éxito mixto”.

Los artistas lideran el esfuerzo por excluirse de los conjuntos de datos

DeviantArt lanzó un generador de arte de IA basado en Stable Diffusion y ajustado en obras de arte de la comunidad de DeviantArt. El generador de arte recibió una fuerte desaprobación de los antiguos habitantes de DeviantArt, quienes criticaron la falta de transparencia de la plataforma en el uso de su arte cargado para entrenar el sistema.

Los creadores de los sistemas más populares, OpenAI y Stability AI, dicen que han tomado medidas para limitar la cantidad de contenido dañino que producen sus sistemas. Pero a juzgar por muchas de las generaciones en las redes sociales, está claro que hay trabajo por hacer.

“Los conjuntos de datos requieren una curación activa para abordar estos problemas y deben estar sujetos a un escrutinio significativo, incluso por parte de las comunidades que tienden a quedarse con el extremo corto del palo”, dijo Gahntz, comparando el proceso con las controversias en curso sobre la moderación de contenido en las redes sociales.

Stability AI, que financia en gran medida el desarrollo de Stable Diffusion, recientemente cedió a la presión pública, lo que indica que permitiría a los artistas optar por no participar en el conjunto de datos utilizado para entrenar el modelo Stable Diffusion de próxima generación. A través del sitio web HaveIBeenTrained.com, los titulares de derechos podrán solicitar la exclusión voluntaria antes de que comience la capacitación dentro de unas semanas.

OpenAI no ofrece dicho mecanismo de exclusión, sino que prefiere asociarse con organizaciones como Shutterstock para obtener licencias de partes de sus galerías de imágenes. Pero dados los vientos en contra legales y publicitarios que enfrenta junto con Stability AI, es probable que solo sea cuestión de tiempo antes de que haga lo mismo.

Los tribunales pueden finalmente forzar su mano. En los EE. UU., Microsoft, GitHub y OpenAI están siendo demandado en una demanda colectiva que los acusa de violar la ley de derechos de autor al permitir que Copilot, el servicio de GitHub que sugiere inteligentemente líneas de código, reproduzca secciones de código con licencia sin proporcionar crédito.

Quizás anticipándose al desafío legal, GitHub agregó recientemente configuraciones para evitar que el código público aparezca en las sugerencias de Copilot y planea introducir una función que hará referencia a la fuente de las sugerencias de código. Pero son medidas imperfectas. En al menos un caso, la configuración del filtro provocó que Copilot emitiera grandes fragmentos de código con derechos de autor, incluidos todos los textos de atribución y licencia.

Espere ver un aumento de las críticas el próximo año, particularmente a medida que el Reino Unido reflexiona sobre las reglas que eliminarían el requisito de que los sistemas entrenados a través de datos públicos se usen estrictamente de forma no comercial.

Los esfuerzos de código abierto y descentralizados seguirán creciendo

En 2022, un puñado de empresas de IA dominaron el escenario, principalmente OpenAI y Stability AI. Pero el péndulo puede volver al código abierto en 2023, ya que la capacidad de construir nuevos sistemas va más allá de los “laboratorios de IA poderosos y ricos en recursos”, como lo expresó Gahntz.

Un enfoque comunitario puede conducir a un mayor escrutinio de los sistemas a medida que se construyen y se implementan, dijo: “Si los modelos están abiertos y los conjuntos de datos están abiertos, eso permitirá mucho más de la investigación crítica que ha señalado una gran cantidad de los defectos y daños relacionados con la IA generativa y eso a menudo ha sido demasiado difícil de llevar a cabo”.

Créditos de imagen: Resultados de OpenFold, un sistema de IA de código abierto que predice las formas de las proteínas, en comparación con AlphaFold2 de DeepMind.

Ejemplos de tales esfuerzos centrados en la comunidad incluyen grandes modelos de lenguaje de EleutherAI y BigScience, un esfuerzo respaldado por la empresa de IA Hugging Face. Stability AI está financiando varias comunidades, como Harmonai y OpenBioML, una colección suelta de experimentos biotecnológicos, centrada en la generación musical.

Todavía se requiere dinero y experiencia para entrenar y ejecutar modelos sofisticados de IA, pero la computación descentralizada puede desafiar a los centros de datos tradicionales a medida que maduran los esfuerzos de código abierto.

BigScience dio un paso hacia la habilitación del desarrollo descentralizado con el reciente lanzamiento del proyecto de código abierto Petals. Petals permite que las personas contribuyan con su poder de cómputo, similar a Folding@home, para ejecutar grandes modelos de lenguaje de IA que normalmente requerirían una GPU o un servidor de alta gama.

“Los modelos generativos modernos son computacionalmente costosos de entrenar y ejecutar. Algunas estimaciones generales sitúan el gasto diario de ChatGPT en alrededor de $ 3 millones ”, dijo Chandra Bhagavatula, científica investigadora principal del Instituto Allen para IA, por correo electrónico. “Para que esto sea comercialmente viable y accesible de manera más amplia, será importante abordar esto”.

Chandra señala, sin embargo, que los grandes laboratorios seguirán teniendo ventajas competitivas mientras los métodos y los datos sigan siendo propietarios. En un ejemplo reciente, OpenAI lanzó Point-E, un modelo que puede generar objetos 3D con un mensaje de texto. Pero aunque OpenAI abrió el código del modelo, no reveló las fuentes de los datos de entrenamiento de Point-E ni publicó esos datos.

Point-E genera nubes de puntos.

“Creo que los esfuerzos de código abierto y de descentralización valen absolutamente la pena y benefician a un mayor número de investigadores, profesionales y usuarios”, dijo Chandra. “Sin embargo, a pesar de ser de código abierto, los mejores modelos siguen siendo inaccesibles para una gran cantidad de investigadores y profesionales debido a las limitaciones de recursos”.

Las empresas de inteligencia artificial se preparan para las regulaciones entrantes

La regulación como la Ley de IA de la UE puede cambiar la forma en que las empresas desarrollan e implementan sistemas de IA en el futuro. Lo mismo podrían hacer más esfuerzos locales, como el estatuto de contratación de IA de la ciudad de Nueva York, que requiere que la IA y la tecnología basada en algoritmos para el reclutamiento, la contratación o la promoción sean auditados para detectar sesgos antes de ser utilizados.

Chandra considera que estas regulaciones son necesarias, especialmente a la luz de las fallas técnicas cada vez más evidentes de la IA generativa, como su tendencia a arrojar información objetivamente incorrecta.

“Esto hace que la IA generativa sea difícil de aplicar en muchas áreas donde los errores pueden tener costos muy altos, por ejemplo, atención médica. Además, la facilidad de generar información incorrecta crea desafíos en torno a la información errónea y la desinformación”, dijo. “[And yet] Los sistemas de IA ya están tomando decisiones cargadas de implicaciones morales y éticas”.

Sin embargo, el próximo año solo traerá la amenaza de la regulación: espere muchas más objeciones sobre las reglas y los casos judiciales antes de que alguien sea multado o acusado. Pero las empresas aún pueden competir por posiciones en las categorías más ventajosas de las próximas leyes, como las categorías de riesgo de la Ley AI.

La regla, tal como está escrita actualmente, divide los sistemas de IA en una de cuatro categorías de riesgo, cada una con diferentes requisitos y niveles de escrutinio. Los sistemas de la categoría de mayor riesgo, la IA de “alto riesgo” (p. ej., algoritmos de calificación crediticia, aplicaciones de cirugía robótica), deben cumplir ciertos estándares legales, éticos y técnicos antes de que se les permita ingresar al mercado europeo. La categoría de riesgo más bajo, IA de “riesgo mínimo o nulo” (por ejemplo, filtros de spam, videojuegos habilitados para IA), impone solo obligaciones de transparencia, como hacer que los usuarios sepan que están interactuando con un sistema de IA.

Os Keyes, un Ph.D. Candidato de la Universidad de Washington, expresó su preocupación de que las empresas apunten al nivel de riesgo más bajo para minimizar sus propias responsabilidades y visibilidad ante los reguladores.

“Dejando de lado esa preocupación, [the AI Act] realmente lo más positivo que veo sobre la mesa”, dijeron. “No he visto mucho de nada fuera del Congreso”.

Pero las inversiones no son una cosa segura

Gahntz argumenta que, incluso si un sistema de IA funciona lo suficientemente bien para la mayoría de las personas pero es profundamente dañino para algunos, “todavía queda mucho trabajo por hacer” antes de que una empresa lo haga ampliamente disponible. “También hay un caso comercial para todo esto. Si su modelo genera muchas cosas desordenadas, a los consumidores no les va a gustar”, agregó. “Pero obviamente esto también se trata de justicia”.

No está claro si las empresas serán persuadidas por ese argumento el próximo año, particularmente porque los inversores parecen ansiosos por poner su dinero más allá de cualquier IA generativa prometedora.

En medio de las controversias de Stable Diffusion, Stability AI recaudó $ 101 millones en una valoración de más de $ 1 mil millones de patrocinadores destacados, incluidos Coatue y Lightspeed Venture Partners. OpenAI es dijo ser valorado en $ 20 mil millones a medida que ingresa charlas avanzadas para recaudar más fondos de Microsoft. (Microsoft anteriormente invertido $ 1 mil millones en OpenAI en 2019).

Por supuesto, esas podrían ser excepciones a la regla.

Créditos de imagen: Jaspe

Fuera de las empresas de vehículos autónomos Cruise, Wayve y WeRide y la empresa de robótica MegaRobo, las empresas de IA con mejor desempeño en términos de dinero recaudado este año se basaron en software, según Crunchbase. Contentsquare, que vende un servicio que ofrece recomendaciones basadas en inteligencia artificial para contenido web, cerró una ronda de 600 millones de dólares en julio. Uniphore, que vende software para “análisis conversacionales” (piense en métricas de centros de llamadas) y asistentes conversacionales, aterrizado $400 millones en febrero. Mientras tanto, Highspot, cuya plataforma impulsada por IA brinda a los representantes de ventas y especialistas en marketing recomendaciones en tiempo real y basadas en datos, atrapado $248 millones en enero.

Los inversores bien pueden perseguir apuestas más seguras como la automatización del análisis de las quejas de los clientes o la generación de oportunidades de venta, incluso si no son tan “sexy” como la IA generativa. Eso no quiere decir que no habrá grandes inversiones llamativas, pero estarán reservadas para jugadores con influencia.


Source link