IA

Snowflake présente Arctic, son LLM niveau entreprise

Snowflake a présenté son grand modèle de langage open source, Arctic, qui, selon les dires de l’entreprise, rivalise avec de grands noms de la concurrence.

Le Data Cloud de Snowflake a dévoilé le dernier-né de la famille de modèles Arctic, un grand modèle de langage open source que l’entreprise présente comme le LLM le plus ouvert et le plus performant de niveau entreprise.

« Il s'agit d'un moment décisif pour Snowflake, avec notre équipe de recherche en IA », a déclaré Sridhar Ramaswamy, CEO de Snowflake, cité dans un communiqué. « En offrant à la communauté une intelligence et une efficacité à la pointe de l'industrie d'une manière véritablement ouverte, nous repoussons les frontières de ce que l'IA open source peut faire », a-t-il ajouté.

Le choix de l’open source n’est pas un hasard, puisque selon un rapport de Forrester mis en avant par Snowflake, 46 % des décideurs en matière d’IA dans les entreprises exploitent des LLM open source dans le cadre de leur stratégie d’IA. L’entreprise, qui compte 9 400 entreprises et organisations utilisant Snowflake, dispose d’une bonne base client pour déployer ses LLM open source.

Plus fort que Mistral ?

Côté performance, l’outil dispose d’un modèle optimisé pour les charges de travail complexes, avec une licence Apache 2.0 qui permet une utilisation personnelle, de recherche et commerciale sans restriction. Et à en croire Snowflake, son outil coifferait au poteau la concurrence en matière de génération de code SQL et rivaliserait avec les grands noms du marché (cf. tableau) comme Mixtral 8x7B, Mixtral 8x22B et DBRX, et Llama 3 70B. Ce dernier a d’ailleurs été présenté par Meta comme surpassant des concurrents comme Claude Sonnet, GPT-3.5, Mistral Medium et MetaLlama2.

Capture décran 2024 04 25 à 10.24.26

Snowflake fournit en outre des modèles de code, des options d’inférence et de formation pour faciliter le déploiement et la personnalisation du LLM chez ses clients dans des frameworks comme NVIDIA NIM avec NVIDIA TensorRT-LLM, vLLM et Hugging Face. Arctic est disponible pour l’inférence sans serveur dans le service entièrement géré Snowflake Cortex, et sur Amazon Web Services (AWS).