Press release

LatticeFlow AI rejoint le U.S. AI Safety Institute Consortium

0
Sponsorisé par Businesswire

LatticeFlow AI, la plateforme leader permettant aux équipes d’intelligence artificielle (IA) de construire des solutions d’IA performantes, sûres et fiables, est fière d’annoncer qu’elle a rejoint le U.S. AI Safety Institute Consortium (AISIC). Les chercheurs en IA de LatticeFlow soutiendront le groupe de travail n° 3, qui se concentre sur l’évaluation des capacités. En collaboration avec le National Institute of Standards & Technology (NIST) et d’autres membres du consortium, LatticeFlow AI soutiendra le développement de méthodes, de références et d’environnements de test qui aident les organisations à rendre opérationnelles les pratiques décrites dans le cadre de gestion des risques liés à l’IA (RMF) du NIST.

Dave Henry, vice-président du développement commercial chez LatticeFlow AI, ajoute : « Les programmes de sécurité de l’IA sont interdisciplinaires par nature et leur exécution nécessite un large éventail de compétences techniques et de gestion. Le Consortium rassemble divers experts pour créer des pratiques durables et innovantes qui favorisent une IA digne de confiance. Nous sommes impatients d’apporter nos connaissances sur la sécurité des modèles d’IA et de collaborer sur de nouvelles approches pour des évaluations évolutives. »

Les dirigeants exigent une IA digne de confiance

Malgré la précision impressionnante des modèles d’IA démontrée dans les projets pilotes et les projets de validation de principe, construire des solutions d’IA qui fonctionnent de manière fiable sur des données du monde réel reste un immense défi. Cela concerne à la fois les équipes techniques qui conçoivent et fournissent des solutions d’IA et les équipes de direction qui doivent quantifier les risques et approuver l’utilisation des solutions d’IA dans les opérations critiques. En conséquence, 85 % des modèles ne sont jamais mis en production et, parmi ceux qui le sont, 91 % se dégradent au fil du temps.

« Malheureusement, les déploiements d’IA de grande valeur sont retardés en raison du retard des développeurs, du manque d’une bonne gouvernance des données et de l’incapacité à quantifier les risques possibles associés à l’utilisation de leurs modèles d’IA », déclare Randolph Kahn Esq., président de Kahn Consulting Inc. « Les consortiums tels que l’AISIC peuvent produire des lignes directrices détaillées et des bonnes pratiques, et lorsqu’ils sont associés à la technologie de LatticeFlow AI, cela peut conduire à une réduction significative du temps et des coûts nécessaires pour réaliser des évaluations de risques approfondies et exploiter la valeur des systèmes d’IA. »

Le U.S. AI Safety Institute Consortium

L’AISIC a été créé par le National Institute of Standards and Technology (NIST) du ministère américain du commerce pour contribuer aux actions prioritaires définies dans le décret du président américain Joe Biden sur le développement et l’utilisation sûrs, sécurisés et fiables de l’IA. Il s’agit notamment d’élaborer des lignes directrices pour les équipes d’experts, des normes d’évaluation technique et des pratiques de gestion des risques, entre autres éléments clés du développement d’une IA digne de confiance et de son utilisation responsable.

Contributions de LatticeFlow AI à la sécurité et à la fiabilité de l’IA

L’association de LatticeFlow AI avec l’AISIC fait suite à une série de contributions apportées par l’équipe de LatticeFlow AI aux objectifs définis par l’AISIC et le décret du président Joe Biden. Depuis 2020, LatticeFlow AI est un contributeur technique invité à des initiatives clés en matière de sécurité de l’IA au sein de l’Organisation internationale de normalisation, où il a activement contribué au groupe de travail axé sur le développement et les normes de l’IA digne de confiance. Plus tôt cette année, LatticeFlow AI a accueilli des leaders renommés de l’IA à l’AI House du Forum économique mondial, réunissant des personnalités clés de l’IA, notamment Gary Marcus (NYU), Apostol Vassilev (NIST), Kai Zenner (Parlement européen), Matthias Bossardt (KPMG), Thomas Stauner (BMW), entre autres experts de l’industrie, pour se plonger dans les derniers développements de l’IA et discuter de l’adoption responsable de l’IA.

Des normes à la pratique : première évaluation de l’IA pour une grande banque suisse

Au-delà du développement de directives et de normes en matière d’IA, LatticeFlow AI a annoncé cette année la première évaluation technique de l’IA pour la Migros Bank, une grande banque suisse, démontrant comment ces normes d’IA sont utilisées dans la pratique pour atténuer les risques et assurer la conformité réglementaire des solutions d’IA critiques pour l’entreprise. Les résultats de cette évaluation, ainsi qu’un plan concret pour mettre en œuvre la gouvernance de l’IA et les évaluations techniques de l’IA dans les entreprises et les gouvernements, ont été présentés lors d’un événement dédié organisé à l’ETH AI Center.

Engagement de LatticeFlow AI auprès du U.S. et NIST AI Safety Institute Consortium

Avec ses contributions à l’AISIC, LatticeFlow AI poursuivra son engagement à aider les agences gouvernementales américaines telles que l’armée américaine à garantir la sécurité et la fiabilité des systèmes d’IA critiques. L’année dernière, des représentants de la Maison-Blanche ont annoncé que LatticeFlow AI avait remporté la première place dans la catégorie « red teaming » du AI Privacy Prize Challenge. Par la suite, la société a annoncé une expansion stratégique vers les États-Unis et un engagement stratégique de trois ans avec l’armée américaine pour construire des solutions d’IA résilientes de nouvelle génération pour des cas d’utilisation de défense critiques.

« Rejoindre l’AISIC nous permettra d’accélérer et d’élargir notre impact en alignant nos efforts pour garantir la confiance et la sécurité de l’IA avec les leaders mondiaux de l’IA, les entreprises et les gouvernements », déclare Petar Tsankov, cofondateur et directeur général de LatticeFlow AI.

Vous souhaitez en savoir plus ?

– Regardez la rediffusion de notre événement sur la gouvernance et les audits de l’IA :
 naviguer dans les risques et la conformité de l’IA.

– Rendez-vous sur notre site Web pour apprendre comment gérer le risque de votre modèle d’IA avec des évaluations techniques complètes de l’IA.

– Si vous souhaitez effectuer une évaluation de l’IA, prenez rendez-vous avec un expert en IA de LatticeFlow.

À propos de LatticeFlow AI

LatticeFlow AI offre une plateforme IA de pointe qui permet aux entreprises de construire une IA performante, sûre et digne de confiance à grande échelle. Notre plateforme est conçue pour concrétiser toute la valeur de l’IA en abordant de manière systématique les préoccupations de modèle et de données critiques grâce à des processus automatisés et des flux de travail intelligents sur l’ensemble du cycle de vie de votre IA.

Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.