IA

Mistral AI lance Le Chat et encore un nouveau modèle

En plus d’un assistant conversationnel, Mistral AI vient de dévoiler Large, un LLM apparemment déjà capable de concurrencer GPT-4 et disponible sur Azur grâce à un nouveau partenariat signé avec Microsoft.

Mistral AI continue d’enrichir son offre d’IA générative. La pépite française de l’intelligence artificielle vient de lancer le Chat, un assistant conversationnel ainsi qu’un tout nouveau LLM, baptisé sobrement Large. La start-up annonce que ce dernier « peut être utilisé pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code ». 

Grâce à un partenariat renforcé avec Microsoft, Large est par ailleurs accessible sur Azure AI Studio et Azure Machine Learning en plus des plateformes de Mistral AI. Ce dernier va en contrepartie pouvoir profiter des ressources de calcul de la firme de Redmond. Large peut donc générer du texte en anglais, français, espagnol, allemand et italien, ainsi que créer des codes logiciels et résoudre des problèmes mathématiques. Il peut par ailleurs encaisser des prompts de 32 000 tokens (signes ou chiffres). Pour rappel, Chatp GPT-4 Turbo en accepte 128 000. 

Mistral AI annonce par ailleurs que son nouveau modèle est le deuxième plus avancé de sa catégorie, justement derrière GPT-4. Lors d'un test portant sur quatre critères de référence du raisonnement LLM, Mistral Large n’a été devancé par le modèle phare d'OpenAI que de 10 %. Dans une autre évaluation, il a nettement surclassé le Llama 2 70B de Meta.

Le Chat, quant à lui, est aujourd’hui disponible en bêta auprès de Mistral AI. La start-up précise toutefois que ce dernier n’étant pas connecté à internet et qu'il “peut donc être inexact ou répondre avec des informations obsolètes”. Il s’appuie non seulement sur Large mais également sur les autres modèles de la start-up, notamment Small (une version condensée et optimisée de Large) et Next (conçu pour être bref et concis) qui viennent tout juste d’être présentés.