Amazon Bedrock : la réponse d’AWS à ChatGPT

CloudIntelligence Artificielle

Dans la course aux IA génératives, AWS répond à ChatGPT avec Amazon Bedrock. Le service fournit un accès à des modèles pré-entraînés d’apprentissage automatique (Few-Shot Models ou FM) provenant de start-up , via des API.

Comment se distinguer de ChatGPT dans la course à l’IA ? Amazon Web Services (AWS) répond avec  le lancement d’Amazon Bedrock.

Le service permet aux développeurs de créer et mettre à l’échelle des applications basées sur l’intelligence artificielle générative, a indiqué AWS dans un billet de blog.

Amazon Bedrock fournit  un accès à des modèles pré-entraînés d’apprentissage automatique

Disponible en « preview » limitée, Amazon Bedrock fournit, via des API, un accès à des modèles pré-entraînés d’apprentissage automatique (Few-Shot Models ou FM) provenant de start-up telles que AI21 Labs, Anthropic et Stability AI.

L’accès au modèle Titan, une famille de modèles formés en interne par AWS, est aussi proposé.

« Nous travaillons sur nos propres grands modèles de langage (LLM) depuis un certain temps maintenant. Nous sommes convaincus que cela aura un impact considérable sur l’expérience client et nous continuerons à investir fortement dans ces modèles pour toutes les expériences impliquant des clients, des vendeurs, des marques et des créateurs », a déclaré le CEO d’Amazon, Andy Jassy, dans une lettre aux actionnaires.

Amazon promeut également ses propres puces d’IA, AWS Trainium et Inferentia, pour entraîner et exécuter ces modèles sur son cloud. Aussi, un nouveau type d’instance EC2, Trn1, alimentée par Trainium, permettrait d’économiser « jusqu’à 50% » sur les coûts de formation de modèles d’IA par rapport à n’importe quelle autre instance EC2, selon l’hyperscaler.

AWS pousse les modèles d’IA de Hugging Face

L’annonce fait suite au partenariat renforcé en début d’année entre AWS et Hugging Face. Par ailleurs, AWS a également confirmé le mois dernier un partenariat avec NVIDIA. Les deux groupes disent travailler au développement d’une infrastructure évolutive, en tant que service, optimisée pour la formation de modèles de langage (LLM) complexes. Plus récemment, AWS a lancé son accélérateur de start-up actives dans l’IA générative…

La concurrence n’est pas en reste. Microsoft, qui investit dans OpenAI (ChatGPT, DALL-E), et Google, qui promeut Bard, ont lancé tous deux des outils d’IA générative pour leurs plateformes cloud respectives. Microsoft a déployé Azure OpenAI Service en janvier dernier, Google Cloud a renforcé en mars ses capacités « intelligentes » de niveau professionnel.

Lire aussi :