Pour gérer vos consentements :

Avec Phi-3-mini, Microsoft va-t-il convertir les PME à la GenAI ?

À l’heure actuelle,  la taille des LLM ( Large Language Models) nécessite des ressources informatiques importantes pour leur fonctionnement.  Une barrière technique et financière qui s’avère bloquante pour les PME en quête de « test and learn » sur la GenAI.

Microsoft a donc développé une série de petits modèles de langage (SLM) qui offrent bon nombre des mêmes fonctionnalités que les LLM, mais sont de plus petite taille et sont formés sur de plus petites quantités de données.

Microsoft va publier trois petits modèles de langage (SLM), le premier étant Phi-3-mini. Microsoft affirme que le Phi-3-mini mesure 3,8 milliards de paramètres et fonctionne mieux que les modèles deux fois plus grands.

Dans les semaines à venir, des modèles supplémentaires seront ajoutés à la famille Phi-3.

Dans un article de blog , Misha Bilenko, vice-président de Microsoft GenAI, affirme que les modèles Phi-3 « sont les petits modèles de langage (SLM) les plus performants et les plus rentables disponibles, surpassant les modèles de même taille et de taille supérieure dans une variété de tests de langage, de raisonnement, de codage et de mathématiques ».

Selon Misha Bilenko, Phi-3-small et Phi-3-medium seront bientôt disponibles dans le catalogue de modèles Azure AI et dans d’autres jardins modèles.

Phi-3-mini est disponible sur Microsoft Azure AI Studio, la plateforme de modèles d’apprentissage automatique, Hugging Face et le framework Ollama.

Phi-3-mini est disponible en deux variantes

Le SLM sera également disponible sur l’outil logiciel Nvidia Inference Microservices (NIM) de Nvidia et a également été optimisé pour ses unités de traitement graphique (GPU).

Selon Microsoft, le Phi-3-mini est disponible en deux variantes de longueur de contexte :  4K et 128K tokens. Il s’agit du premier modèle de sa catégorie à prendre en charge une fenêtre contextuelle allant jusqu’à 128 000 tokens, avec peu d’impact sur la qualité.

« Phi-3-mini fait mieux que les modèles deux fois plus grands, et Phi-3-small et Phi-3-medium surpassent les modèles beaucoup plus grands, y compris le GPT-3.5T. » affirme Bilenko.

Misha Bilenko a également écrit que grâce à leur petite taille, les modèles Phi-3 peuvent être utilisés dans des environnements d’inférence limités en calcul. Phi-3-mini, en particulier, peut être utilisé sur l’appareil, en particulier lorsqu’il est optimisé avec ONNX Runtime pour une disponibilité multiplateforme.

Tom Jowitt, Silicon UK

Recent Posts

Windows 11 : comment Microsoft va réduire la taille des mises à jour

Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…

1 semaine ago

Windows 11 : comment Bloc-notes va remplacer WordPad

Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…

2 semaines ago

PC Copilot+ : Microsoft passe Recall en opt-in

Microsoft modifie la fonctionnalité de Recall sur les PC Copilot+ qui passe en opt-in. Reste…

3 semaines ago

PC IA : HP parie sur son AI Companion… et un peu sur Copilot +

HP lance ses premiers PC IA de nouvelle génération. Si les modèles Copilot + sont…

1 mois ago

Comment Cegid va infuser la GenAI dans ses solutions

Avec Cegid Pulse, l'éditeur accélère l'infusion de l'IA générative dans son offre de logiciels de…

1 mois ago

Mac, iPad, iPhone : comment Apple va intègrer l’IA

Avec Apple Intelligence, la marque à la pomme va distiller de l'IA dans toute sa…

1 mois ago