IBM : des API pour donner du sens à Watson

Bases de donnéesBusiness intelligenceData-stockage
ibm-watson-sens
1 14

IBM associe à sa technologie d’informatique cognitive Watson plusieurs API destinées à mieux comprendre le sens des interactions humaines.

IBM organisait, la semaine dernière à Las Vegas, son événement Interconnect.

À cette occasion, la firme a confirmé la mise à disposition de plusieurs API associées à sa technologie d’informatique cognitive Watson, exploitée sous l’angle de l’aide à la décision.

Ces API sont accessibles à travers le PaaS BlueMix, gratuitement pendant la phase bêta. Destinées à mieux comprendre le sens des interactions humaines, elles reçoivent l’information à analyser et renvoient le résultat au format Json ou XML selon les besoins, avec une présentation hiérarchique des résultats.

En tête de liste, Tone Analyser, qui détermine le sens de n’importe quel texte afin de détecter les émotions, la prédisposition sociale (ouvert, agréable, consciencieux…) et le style d’écriture (analytique, confiant, timide…).

Les dernières améliorations apportées à cette API permettent de cerner davantage d’émotions dont la joie, la dégoût, la peur et la tristesse. Par ailleurs, l’analyse se fait désormais systématiquement par phrases entières, mais uniquement en anglais pour le moment.

Intégré dans le bouquet d’API issues de l’acquisition d’AlchemyAPI (spécialiste du deep learning passé en mars dernier dans le giron d’IBM), Watson Emotion Analysis utilise des algorithmes de traitement du langage naturel pour analyser des fichiers texte jusqu’à 50 Ko et y détecter les principales émotions. Pratique dans une optique de communication sur les réseaux sociaux.

Au-delà du texte, il y a l’image. Visual Recognition s’inscrit dans cette logique, avec des capacités de reconnaissance de formes et de concepts dans des photos ou vidéos. Il est possible de l’entraîner à reconnaître des formes « personnalisées », au-delà de celles déjà intégrées par IBM. Idéal pour des tâches de catégorisation automatisée.

On relève aussi l’API Text-to-Speech, qui consiste à rendre les interactions vocales de la machine plus « humaines » en véhiculant des émotions après analyse du texte à énoncer.

La prise en compte des émotions dans des échanges informatisés peut indéniablement apporter un plus. Cependant, la limite de l’anglais reste un handicap. En effet, même s’ils écrivent dans la langue de Shakespeare, les interlocuteurs ne s’exprimant pas dans leur langue naturelle risquent de fausser les résultats. D’autant plus que, comme le souligne Silicon.fr, dans de nombreuses situations, ils se contentent de copier/coller du Google Translator…

Crédit photo : Andrea Danti – Shutterstock.com


Lire la biographie de l´auteur  Masquer la biographie de l´auteur