+ USD 300 millones para Groq, + USD 676 millones para SambaNova

El crecimiento de la inteligencia artificial ha dado lugar a una reactivación de la financiación de capital de riesgo para nuevas empresas de silicio. El diseño de silicio de IA para el aprendizaje automático, tanto para el entrenamiento como para la inferencia, se ha convertido en una propiedad importante en Silicon Valley, especialmente porque los requisitos de computación y almacenamiento para el aprendizaje automático se fusionan en objetivos específicos para ese silicio. Algunas de estas empresas ya están enviando procesadores de alto rendimiento a los clientes y están buscando financiación adicional para apoyar a los clientes, ampliar sus bases de clientes y desarrollar productos de próxima generación hasta que se produzca la rentabilidad o se adquiera la empresa. Las dos últimas rondas de financiación para el silicio de IA se anunciaron la semana pasada.

Groq (Serie C, $ 300M, Procesador de transmisión Tensor Q100)

Cuando el primer producto de Groq llegó al mercado, detallado en el informe del microprocesador de enero de 2020, se describió como el primer procesador PetaOP en evitar los diseños tradicionales de múltiples núcleos y, en su lugar, implementar un solo núcleo similar a VLIW con cientos de unidades funcionales. Con este método, los datos están sujetos a un flujo de comandos, en lugar de que los comandos dependan del flujo de datos. Esto ahorra tiempo en sincronía y decodifica la sobrecarga que requieren muchos procesadores centrales.

El resultado final es un producto que implementa 400.000 unidades de acumulación múltiple, pero la métrica de marketing más importante es el rendimiento determinista. Con este enfoque de un solo núcleo, el Q100-TSP de Groq necesita la misma cantidad de tiempo para derivar la carga de trabajo sin requisitos de calidad de servicio. Hablando con el CEO Jonathan Ross, el TSP de Groq permite cargas de trabajo que antes no se podían utilizar debido a la degradación de la calidad del servicio (es decir, los resultados tardan demasiado en el peor de los casos). Esto es especialmente importante para los análisis que requieren un tamaño de lote 1, p. Ej. B. Video.

El ecosistema Groq también significa que la distribución en muchos TSP simplemente escala las conclusiones por segundo, con múltiples partes de Q100 bajo el mismo algoritmo, todas implementando el mismo rendimiento determinista.

Jonathan nos explicó cómo la empresa descubrió en el pasado que Groq se basa en un enfoque de compilador primero como empresa. En el pasado, este enfoque ha ejercido mucha presión sobre el compilador que realiza la optimización (por ejemplo, Itanium y otros procesadores VLIW) y, a menudo, genera preocupaciones generales sobre el producto. Sin embargo, nos dijeron que el equipo no tocó un diseño de silicio hasta seis meses después de que comenzara el trabajo del software y el compilador, por lo que la empresa pudo identificar los aspectos clave de los marcos clave de ML antes de que se diseñara el silicio.

Como parte de sus esfuerzos de financiación, Groq nos pidió una actualización de la empresa. Todo el trabajo de hardware y software de Groq hasta la fecha se ha logrado a través de dos rondas de financiación de capital de riesgo por un total de $ 67,3 millones, con aproximadamente $ 50 millones utilizados hasta la fecha. En esta ciudad capital, diseñaron, construyeron e implementaron el Q100 TSP para casi una docena de clientes, incluida la industria de audio / video, el centro de datos y los laboratorios gubernamentales. El producto de segunda generación también está en pleno apogeo. Esta última ronda de financiación de la Serie C de $ 300 millones, liderada por Tiger Global Management y D1 Capital, permite a la compañía expandirse de 120 a 250 empleados para fin de año, sirviendo a clientes actuales y futuros con equipos más grandes que apoyan y permiten una empresa progresiva mapa vial.

Groq declaró en nuestro informe que su producto de segunda generación se basará en sus puntos de diseño únicos y proporcionará alternativas para los clientes que estaban interesados ​​en Q100 pero tienen diferentes requisitos de carga de trabajo. Cada generación de TSP de Groqs tendrá media docena de propuestas de venta únicas en el mercado (algunas públicas, otras no), según la compañía, con el objetivo de reemplazar al menos tantas GPU con un solo TSP como sea posible para brindarles a los clientes el mejor costo total de propiedad.

SambaNova (Serie D, 676 millones de dólares, Cardinal AI)

La segunda empresa de esta semana es SambaNova, cuya financiación Serie D asciende a la asombrosa cifra de 676 millones de dólares, liderada por Vision Fund 2 de SoftBank. Los nuevos inversores Temasek y GIC se unen a partidarios existentes como BlackRock, Intel Capital, GV (antes Google Ventures) y otros. Hasta la fecha, SambaNova ha invertido más de $ 1.1 mil millones, lo que permite una valoración de $ 5 mil millones.

La entrada de SambaNova en la sala de silicio de IA se produce con su procesador de IA cardinal. En lugar de centrarse en cargas de trabajo de aprendizaje automático de inferencia, como tratar de identificar animales mediante un algoritmo conocido, el procesador Cardinal AI es una de las pocas implementaciones dedicadas que ofrece el máximo rendimiento de entrenamiento. El entrenamiento es un problema mucho más difícil que la inferencia, especialmente porque los algoritmos de entrenamiento cambian constantemente y las demandas de los conjuntos de datos más grandes parecen estar aumentando todo el tiempo.

El procesador Cardinal AI ya se presentó en AnandTech cuando SambaNova presentó su solución de ocho sockets llamada 'DataScale SN10-8R'. En un diseño de cuarto de rack, un sistema EPYC Rome x86 se combina con ocho procesadores cardinales equipados con 12 terabytes de memoria DDR4-3200, y SambaNova puede escalar esto a una solución de medio rack o de rack completo. Cada procesador Cardinal AI tiene 1.5 TB DDR4 con seis canales de memoria para un ancho de banda de 153 GB / s por procesador. Dentro de cada configuración con ocho sockets, los chips están conectados a todos los demás procesadores con un total de 64 carriles PCIe 4.0 con silicio de red de conmutación dedicado (como un NVSwitch) para 128 GB / s en cada dirección. El protocolo utilizado a través de PCIe está definido por el usuario para SambaNova. Los conmutadores también permiten la conectividad de sistema a sistema que permite escalar SambaNova según sea necesario. SambaNova cita que una solución de doble bastidor superará en un 40% a una implementación equivalente de DGX-A100 y tendrá un rendimiento mucho menor, o que las organizaciones tendrán una implementación de 1024 V100 de 16 bastidores en un solo cuarto de bastidor. El sistema DataScale puede fusionarse.

Los clientes de SambaNova buscan una combinación de opciones de nube pública y privada. Por lo tanto, el buque insignia es una línea de productos Dataflow-as-a-Service que brinda a los clientes un modelo de suscripción para iniciativas de inteligencia artificial sin tener que comprar el hardware directamente. Estos sistemas de suscripción pueden estar disponibles internamente con la suscripción y administrarse de forma remota por SambaNova. La compañía afirma que las cargas de trabajo de TensorFlow o PyTorch se pueden reconstruir en menos de una hora usando el compilador SambaNova.

SambaNova aún no ha dado muchos detalles sobre su arquitectura. Sin embargo, afirman que SambaNova puede habilitar el entrenamiento de IA que tan a menudo requiere grandes conjuntos de datos de imágenes (por ejemplo, imágenes de 50,000 x 50,000 píxeles) para astronomía, petróleo y gas, o imágenes médicas para otras plataformas, la resolución / precisión debe perderse. El procesador cardinal de IA también puede realizar entrenamiento in-the-loop, lo que permite la clasificación de modelos y la optimización de cargas de trabajo cuando se hace inferencia con entrenamiento sobre la marcha al permitir una solución heterogénea de estilo de copia cero. Esto puede ser una parte esencial de cualquier análisis de uso.

La empresa ha pasado por cuatro rondas de financiación:

  • Serie A, 56 millones de dólares, liderada por Walden International y Google Ventures
  • Serie B, $ 150 millones liderados por Intel Capital
  • Serie C, $ 250 millones, liderada por BlackRock
  • Serie D, $ 676 millones, liderada por SoftBank

Esto coloca a SambaNova casi en la cima de la financiación de chips de IA con 1.132 millones de dólares, justo detrás de Horizon Robotics (1.600 millones de dólares) pero por delante de GraphCore (460 millones de dólares), Groq (367 millones de dólares), Nuvia (293 millones de dólares, adquirido por Qualcomm) y Cambricon ($ 200 millones) y Cerebras ($ 112 millones).

Lectura relacionada

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir