Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Rejoignez l’événement qui fait confiance aux chefs d’entreprise pendant près de deux décennies. VB Transform rassemble les gens qui construisent une véritable stratégie d’IA d’entreprise. Apprendre encore plus
Mistral tu asla startup française de l’intelligence artificielle, a annoncé mercredi une expansion radicale dans l’infrastructure d’IA qui positionne l’entreprise comme la réponse de l’Europe aux géants américains du cloud computing, tout en dévoilant simultanément de nouveaux modèles de raisonnement qui rivalisent avec les systèmes les plus avancés d’Openai.
L’entreprise basée à Paris a révélé Mistral Calculune plate-forme d’infrastructure d’IA complète construite en partenariat avec Nvidiaconçu pour donner aux entreprises et aux gouvernements européens une alternative à s’appuyer sur des fournisseurs de cloud basés aux États-Unis comme Services Web Amazon, Microsoft Azureet Google Cloud. Cette décision représente un changement stratégique important pour Mistral, du développement purement des modèles d’IA, du contrôle de l’ensemble de la pile technologique.
“Cette transition dans l’infrastructure d’IA marque une étape transformatrice pour Mistral AI, car elle nous permet de traiter une verticale critique de la chaîne de valeur de l’IA”, a déclaré Arthur Mensch, PDG et co-fondateur de Mistral IA. «Avec ce changement vient la responsabilité de garantir que nos solutions stimulent non seulement l’innovation et l’adoption de l’IA, mais aussi respecter l’autonomie technologique de l’Europe et contribuer à son leadership en matière de durabilité.»
Parallèlement à l’annonce de l’infrastructure, Mistral a dévoilé son Autoroute série de modèles de raisonnement – systèmes d’IA capables de penser logique étape par étape similaire à l’Openai modèle O1 et la Chine Deepseek R1. Mais Guillaume Lample, le scientifique en chef de Mistral, dit que l’approche de l’entreprise diffère des concurrents de manière cruciale.
“Nous avons tout fait à partir de zéro, essentiellement parce que nous voulions apprendre l’expertise que nous avons, comme, la flexibilité dans ce que nous faisons”, m’a dit Lample dans une interview exclusive. «Nous avons réussi à être, comme, vraiment, très efficace sur le pipeline d’apprentissage en ligne plus fort.»
Contrairement aux concurrents qui cachent souvent leurs processus de raisonnement, les modèles de Mistral affichent leur chaîne de pensées complète aux utilisateurs – et surtout, dans la langue maternelle de l’utilisateur plutôt que de défaut en anglais. “Ici, nous avons comme toute la chaîne de pensée qui est donnée à l’utilisateur, mais dans sa propre langue, afin qu’ils puissent en fait le lire, voir si cela a du sens”, a expliqué Lample.
La société a publié deux versions: Magistral petitun modèle d’ouverture de paramètre de 24 milliards, et Médium magistralun système propriétaire plus puissant disponible via l’API de Mistral.
Les modèles ont démontré des capacités surprenantes qui ont émergé pendant la formation. Plus particulièrement, le support magistral a conservé des capacités de raisonnement multimodal – la capacité d’analyser les images – même si le processus de formation se concentrait uniquement sur les problèmes mathématiques et codants basés sur du texte.
“Quelque chose que nous avons réalisé, pas exactement par erreur, mais quelque chose que nous ne nous attendions absolument pas, c’est que si à la fin de la formation d’apprentissage en renforcement, vous branchez le codeur de vision initial, alors vous, soudain, en quelque sorte de nulle part, voyez le modèle en mesure de faire des raisons sur les images”, a déclaré Lample.
Les modèles ont également acquis des capacités sophistiquées de fonctions de fonction, effectuant automatiquement des recherches sur Internet en plusieurs étapes et une exécution de code pour répondre aux requêtes complexes. “Ce que vous verrez, c’est un modèle en faisant cela, en pensant, puis en réalisant, d’accord, ces informations peuvent être mises à jour. Permettez-moi de faire comme une recherche sur le Web”, a expliqué Lample. “Il cherchera comme Internet, puis il passera les résultats, et cela en résultera, et cela dira, peut-être que la réponse n’est peut-être pas dans ces résultats. Permettez-moi de rechercher à nouveau.”
Ce comportement est apparu naturellement sans formation spécifique. “C’est quelque chose qui soit sur des choses à faire ensuite, mais nous avons constaté que cela se passait naturellement. Donc, c’était une très belle surprise pour nous”, a noté Lample.
L’équipe technique de Mistral a surmonté des défis d’ingénierie importants pour créer ce que Lample décrit comme une percée dans l’infrastructure de formation. L’entreprise a développé un système pour «l’apprentissage du renforcement en ligne» qui permet aux modèles d’IA de s’améliorer en continu tout en générant des réponses, plutôt que de s’appuyer sur des données de formation préexistantes.
L’innovation clé concernait la synchronisation des mises à jour du modèle à travers des centaines d’unités de traitement graphique (GPU) en temps réel. “Ce que nous avons fait, c’est que nous avons trouvé un moyen de dévisser le modèle via les GPU. Je veux dire, du GPU au GPU”, a expliqué Lample. Cela permet au système de mettre à jour les poids du modèle à travers différents clusters GPU en quelques secondes plutôt que les heures généralement requises.
“Il n’y a pas d’infrastructure open source comme qui le fera correctement”, a noté Lample. “En règle générale, il y a beaucoup de tentatives open source pour le faire, mais c’est extrêmement lent. Ici, nous nous sommes beaucoup concentrés sur l’efficacité.”
Le processus de formation s’est avéré beaucoup plus rapide et moins cher que la pré-formation traditionnelle. “C’était beaucoup moins cher que la pré-formation régulière. La pré-formation est quelque chose qui prendrait des semaines ou des mois sur d’autres GPU. Ici, nous ne sommes nulle part.
Le Mistral Calcul La plate-forme fonctionnera sur 18 000 des plus récentes de Nvidia Chips Grace Blackwellhébergé initialement dans un centre de données à Essonne, en France, avec des plans d’expansion à travers l’Europe. Le PDG de Nvidia, Jensen Huang, a décrit le partenariat comme crucial pour l’indépendance technologique européenne.
“Chaque pays devrait construire l’IA pour sa propre nation, dans sa nation”, a déclaré Huang lors d’une annonce conjointe à Paris. «Avec Mistral IA, nous développons des modèles et des usines d’IA qui servent de plateformes souveraines pour les entreprises à travers l’Europe pour faire évoluer l’intelligence dans toutes les industries.»
Huang a prévu que la capacité informatique de l’IA d’Europe augmenterait dix fois au cours des deux prochaines années, avec plus de 20 «usines d’IA» prévues à travers le continent. Plusieurs de ces installations auront plus qu’un gigawatt de capacité, se classant potentiellement parmi les plus grands centres de données au monde.
Le partenariat s’étend au-delà de l’infrastructure pour inclure le travail de Nvidia avec d’autres sociétés européennes d’IA et la perplexité, la société de recherche, pour développer des modèles de raisonnement dans diverses langues européennes où les données de formation sont souvent limitées.
Mistral Calcul répond à deux préoccupations majeures concernant le développement de l’IA: l’impact environnemental et la souveraineté des données. La plateforme garantit que les clients européens peuvent conserver leurs informations à l’intérieur des frontières de l’UE et sous la juridiction européenne.
La société s’est associée à l’agence nationale française pour la transition écologique et Carbone 4, une consultation en climat de premier plan, pour évaluer et minimiser l’empreinte carbone de ses modèles d’IA tout au long de leur cycle de vie. Mistral prévoit d’alimenter ses centres de données avec des sources d’énergie décarbonisées.
«En choisissant l’Europe pour l’emplacement de nos sites, nous nous donnons la capacité de bénéficier de sources d’énergie largement décarbonisées», a déclaré la société dans son annonce.
Les tests précoces suggèrent que les modèles de raisonnement de Mistral offrent des performances compétitives tout en abordant une critique commune des systèmes existants – la vitesse. Les modèles de raisonnement actuels d’OpenAI et d’autres peuvent prendre quelques minutes pour répondre aux requêtes complexes, limitant leur utilité pratique.
“L’une des choses que les gens n’aiment généralement pas dans ce modèle de raisonnement est que même si c’est intelligent, cela prend parfois beaucoup de temps”, a noté Lample. «Ici, vous voyez vraiment la sortie en quelques secondes, parfois moins de cinq secondes, parfois encore moins que cela. Et cela modifie l’expérience.»
L’avantage de vitesse pourrait s’avérer crucial pour l’adoption des entreprises, où les minutes d’attente pour les réponses de l’IA crée des goulots d’étranglement du flux de travail.
Le passage de Mistral dans les infrastructures le place en concurrence directe avec les géants de la technologie qui ont dominé le marché du cloud computing. Services Web Amazon, Microsoft Azureet Google Cloud contrôle actuellement la majorité des infrastructures cloud dans le monde, tandis que les nouveaux joueurs aiment Core ont gagné du terrain spécifiquement dans les charges de travail de l’IA.
L’approche de l’entreprise diffère des concurrents en offrant une solution complète et intégrée verticalement – de l’infrastructure matérielle aux modèles d’IA aux services logiciels. Cela comprend Mistral vous avez un studio Pour les développeurs, Le Chat pour la productivité d’entreprise, et Mistral Code pour l’assistance en programmation.
Les analystes de l’industrie voient la stratégie de Mistral dans le cadre d’une tendance plus large vers le développement régional de l’IA. «L’Europe doit de toute urgence pour développer son infrastructure d’IA si elle veut rester compétitive à l’échelle mondiale», a observé Huang, faisant écho aux préoccupations exprimées par les décideurs européens.
L’annonce intervient alors que les gouvernements européens s’inquiètent de plus en plus de leur dépendance à l’égard des entreprises technologiques américaines pour les infrastructures d’IA critiques. L’Union européenne a engagé 20 milliards d’euros à construire des «gigafactories» d’IA à travers le continent, et Le partenariat de Mistral avec Nvidia pourrait aider à accélérer ces plans.
La double annonce par Mistral des capacités des infrastructures et des modèles signale l’ambition de l’entreprise de devenir une plate-forme d’IA complète plutôt qu’un autre fournisseur de modèles. Avec le soutien de Microsoft et d’autres investisseurs, la société a levé plus d’un milliard de dollars et continue de demander un financement supplémentaire pour soutenir sa portée élargie.
Mais Lample voit des possibilités encore plus grandes à venir pour les modèles de raisonnement. “Je pense que lorsque je regarde les progrès en interne, et je pense que sur certains repères, le modèle obtenait une précision plus de 5% chaque semaine pendant, peut-être comme six semaines en tout”, a-t-il déclaré. “Donc, ça s’améliore très rapidement, il y a beaucoup, je veux dire, des tonnes de tonnes comme, vous savez, de petites idées auxquelles vous pouvez penser qui améliorera les performances.”
Le succès de ce défi européen à la domination américaine d’IA peut finalement dépendre de savoir si les clients apprécient suffisamment la souveraineté et la durabilité pour passer des prestataires établis. Pour l’instant, au moins, ils ont le choix.