L'Institut britannique de sécurité de l'IA (AISI), fondé en novembre 2023, a lancé la plateforme Inspect, destinée à tester et évaluer la sécurité de l'IA. Cela simplifiera l'évaluation de l'IA pour une utilisation dans les organisations industrielles, de recherche et scientifiques.
L'ensemble d'outils Inspect, disponible sous licence open source, y compris la licence MIT, est conçu pour évaluer des capacités spécifiques des modèles d'IA dans divers domaines, y compris les connaissances fondamentales des modèles et la capacité de raisonner, et pour élaborer des évaluations basées sur les résultats obtenus.
Selon le site TechCrunch, la plateforme Inspect se compose de trois composants principaux : des ensembles de données, des outils de solution et des outils d'évaluation. Les ensembles de données fournissent des échantillons pour les tests d'évaluation. Les outils de solution effectuent le travail de réalisation des tests. Les outils d'évaluation évaluent les résultats et agrègent les scores des tests en métriques.
La plateforme Inspect a été présentée quelques jours après que l'Institut national des normes et de la technologie (NIST) des États-Unis ait annoncé fin avril le programme NIST GenAI, destiné à évaluer diverses technologies d'IA générative, y compris les modèles générant du texte et des images.
En avril, les États-Unis et le Royaume-Uni ont annoncé un partenariat, dans le cadre duquel les gouvernements échangeront des connaissances techniques, des informations et des experts talentueux dans le domaine de la sécurité de l'IA. Dans le cadre de cette collaboration, un institut de sécurité de l'IA sera créé aux États-Unis, chargé d'évaluer les risques liés à l'IA et à l'IA générative.
2024-05-12 17:14:56
Auteur: Vitalii Babkin
URL source