AWS : la guerre du cloud au rythme du machine learning

Cloud

Traduction, transcription, gestion de l’IoT… Le machine learning est au cœur de plusieurs outils dont AWS a annoncé la disponibilité générale.

Quel est le point commun entre un système de forage, un équipement d’imagerie médicale et une caméra de surveillance du trafic ?

Tous trois sont mentionnés dans le descriptif de l’offre Greengrass ML Inference, dont Amazon Web Services vient d’annoncer la disponibilité générale.

L’outil permet de transférer des modèles d’apprentissage machine créés et formés dans le cloud vers des appareils connectés et des les exécuter localement.

Il est compatible avec les frameworks TensorFlow, Caffe2, CNTK et Apache MXNet. Ce dernier a été précompilé pour les plates-formes Nvidia Jetson, Intel Apollo et les Raspberry Pi 32 bits.

Le texte…

La conférence AWS organisée ce 4 avril à San Francisco a été l’occasion d’officialiser la disponibilité générale d’autres services dans le domaine de l’intelligence artificielle.

Amazon Translate en fait partie. L’outil de traduction automatique de texte est accessible dans quatre zones (Virginie, Ohio, Oregon et Irlande), avec un tarif à 15 dollars le million de caractères traités.

AWS y a ajouté quelques fonctionnalités dont la détection automatique de la langue d’entrée (via la brique de traitement du langage naturel Comprehend) et la prise en charge de CloudWatch (outil de surveillance des ressources cloud).

Sept langues sont pour l’heure prises en charge : l’anglais, le français, l’arabe, l’allemand, l’espagnol, le portugais et le chinois simplifié. Devraient bientôt s’y ajouter le russe, le japonais, l’italien, le turc, le tchèque et le chinois traditionnel.

… et la voix

Autre disponibilité générale, dans les même zones AWS : celle d’Amazon Transcribe. Le service de transcription de fichiers audio est facturé 0,0004 dollar la seconde, à raison d’un minimum de 15 secondes.

Le paramètre SampleRate, qui définit la fréquence d’échantillonnage, devient optionnel : il suffit désormais de connaître le format de fichier et la langue en entrée. AWS a également introduit la possibilité de distinguer les locuteurs et d’intégrer des dictionnaires terminologiques.

L’environnement SageMaker, destiné au développement et à l’exploitation d’algorithmes de machine learning, bénéficie lui aussi d’une mise à jour. Celle-ci lui apporte, entre autre, la prise en charge d’un plus grand nombre d’instance et un mode d’exécution en local dans des conteneurs Docker.

Lire aussi :

Lire la biographie de l´auteur  Masquer la biographie de l´auteur