Con un equipo que ayudó a construir el cerebro detrás de Alexa, HomeX recauda $ 90 millones

Neural Magic obtiene una semilla de $ 15 millones para ejecutar modelos de aprendizaje automático en CPU de productos básicos

Magia neural, una empresa emergente fundada por un par de profesores del MIT, que descubrieron una manera de ejecutar modelos de aprendizaje automático en CPU comerciales, anunció hoy una inversión inicial de $ 15 millones.

Comcast Ventures lideró la ronda, con la participación de NEA, Andreessen Horowitz, Pillar VC y Amdocs. La compañía había recibido previamente una semilla previa de $ 5 millones, lo que hace que el total recaudado hasta ahora sea de $ 20 millones.

La compañía también anunció el acceso temprano a su primer producto, un motor de inferencia que los científicos de datos pueden ejecutar en computadoras que ejecutan CPU, en lugar de chips especializados como GPU o TPU. Eso significa que podría reducir en gran medida el costo asociado con los proyectos de aprendizaje automático al permitir que los científicos de datos usen hardware básico.

La idea de esta solución surgió del trabajo del profesor del MIT Nir Shavit y su socio de investigación y cofundador Alex Mateev. Como él lo cuenta, estaban trabajando en datos de neurobiología en su laboratorio y encontraron una manera de usar el hardware básico que tenía en su lugar. “Descubrí que con los algoritmos correctos podíamos ejecutar estos algoritmos de aprendizaje automático en hardware básico, y ahí es donde comenzó la empresa”, dijo Shavit a TechCrunch.

Él dice que existe la falsa noción de que necesita estos chips especializados o aceleradores de hardware para tener los recursos necesarios para ejecutar estos trabajos, pero dice que no tiene por qué ser así. Él dice que su compañía no solo le permite usar este hardware básico, sino que también funciona con enfoques de desarrollo más modernos, como contenedores y microservicios.

“Nuestra visión es permitir que los equipos de ciencia de datos aprovechen las plataformas informáticas ubicuas que ya poseen para ejecutar modelos de aprendizaje profundo a velocidades de GPU, de una manera flexible y en contenedores que solo las CPU comerciales pueden ofrecer”, explicó Shavit.

Él dice que esto también elimina las limitaciones de memoria de estos otros enfoques porque las CPU tienen acceso a cantidades mucho mayores de memoria, y esta es una ventaja clave del enfoque de su empresa por encima de los ahorros de costos.

“Sí, al ejecutarse en un procesador de consumo, obtiene los ahorros de costos de ejecutarse en una CPU, pero lo que es más importante, elimina todos estos enormes problemas de comercialización y, esencialmente, esta gran limitación de todo el campo del aprendizaje automático de tener que trabajar en modelos pequeños. y pequeños conjuntos de datos porque los aceleradores son algo limitados. Este es el gran desbloqueo de Neural Magic”, dijo.

Gil Beyda, director gerente del inversionista principal Comcast Ventures, ve una gran oportunidad de mercado con un enfoque que permite a las personas usar hardware básico. “Neural Magic está bien encaminado en el uso de software para reemplazar el hardware de IA especializado y de alto costo. El software gana porque desbloquea el verdadero potencial del aprendizaje profundo para crear aplicaciones novedosas y abordar algunos de los mayores desafíos de la industria”, dijo en un comunicado.


Source link