Microsoft a publié l'outil open source Counterfit, qui aide les développeurs à tester la sécurité des systèmes d'intelligence artificielle.
Selon les développeurs, l'outil est conçu pour rechercher les vulnérabilités dans les systèmes d'IA et générer des journaux d'attaque pour le modèle cible. Avec lui, les scientifiques des données utilisent la télémétrie pour améliorer encore la sécurité.
Microsoft a indiqué que Counterfit est indépendant de l'environnement, du modèle et des données. Il est utilisé localement, à la périphérie, dans le cloud, pour tester tout modèle d'IA qui dépend de l'entrée sous presque toutes les formes, y compris le texte et les images.
Au départ, l'entreprise a créé un outil pour ses propres besoins. C'était un ensemble de scripts pour attaquer des modèles d'IA. Counterfit a ensuite évolué pour devenir un outil d'automatisation qui attaque plusieurs modèles d'IA à grande échelle.
«Cet outil est né de notre propre besoin d'évaluer les vulnérabilités des systèmes d'IA de Microsoft pour protéger les services conformément aux principes de l'IA responsable et de l'initiative RAISE (Responsible AI Strategy in Development)», a déclaré la société dans un article de blog.
Microsoft a testé Counterfit avec plusieurs clients, dont le géant de l'aérospatiale Airbus.
Rappelons qu'à la fin du mois d'avril, Microsoft a mis en œuvre la technologie de détection des menaces d'Intel pour trouver des mineurs cachés dans la plate-forme de sécurité des terminaux d'entreprise Defender.
En mars, lors de la conférence Ignite 2021, Microsoft a dévoilé un certain nombre de nouveaux outils et services pour la plate-forme cloud Azure pour les développeurs. Ceux-ci incluent une plate-forme pour exécuter des modèles d'IA sur des appareils de périphérie, une recherche sémantique dans Azure Cognitive Search et Azure Arc Services.
2021-05-06 00:49:48
Auteur: Vitalii Babkin