L'Istituto britannico per la sicurezza dell'IA (AISI), fondato nel novembre 2023, ha lanciato la piattaforma Inspect, progettata per testare e valutare la sicurezza dell'IA. Semplificherà la valutazione dell'IA per l'uso nelle organizzazioni industriali, di ricerca e scientifiche.
Il set di strumenti Inspect, disponibile con licenza open source, inclusa la licenza MIT, è progettato per valutare specifiche capacità dei modelli di IA in vari settori, comprese le conoscenze fondamentali dei modelli e la capacità di ragionare, e per elaborare valutazioni basate sui risultati ottenuti.
Secondo il sito TechCrunch, la piattaforma Inspect è composta da tre componenti principali: set di dati, strumenti di soluzione e strumenti di valutazione. I set di dati forniscono campioni per i test di valutazione. Gli strumenti di soluzione svolgono il lavoro di conduzione dei test. Gli strumenti di valutazione valutano i risultati e sommano i punteggi dei test in metriche.
La piattaforma Inspect è stata presentata pochi giorni dopo che il National Institute of Standards and Technology (NIST) degli Stati Uniti ha annunciato alla fine di aprile il programma NIST GenAI, finalizzato alla valutazione di varie tecnologie di IA generativa, inclusi modelli che generano testo e immagini.
Ad aprile, Stati Uniti e Regno Unito hanno annunciato una partnership, nell'ambito della quale i governi si scambieranno conoscenze tecniche, informazioni e talentuosi esperti nel campo della sicurezza dell'IA. Nel contesto di questa collaborazione, negli Stati Uniti sarà istituito un istituto per la sicurezza dell'IA, che si occuperà della valutazione dei rischi legati all'IA e all'IA generativa.
2024-05-12 17:14:56
Autore: Vitalii Babkin
URL di origine