Microsoft ha rilasciato lo strumento open source Counterfit, che aiuta gli sviluppatori a testare la sicurezza dei sistemi di intelligenza artificiale.
Secondo gli sviluppatori, lo strumento è progettato per eseguire la scansione delle vulnerabilità nei sistemi di intelligenza artificiale e generare registri degli attacchi per il modello di destinazione. Con esso, i data scientist utilizzano la telemetria per migliorare ulteriormente la sicurezza.
Microsoft ha indicato che Counterfit è indipendente dall'ambiente, dal modello e dai dati. Viene utilizzato localmente, ai margini, nel cloud, per testare qualsiasi modello di intelligenza artificiale che dipende dall'input in quasi tutte le forme, inclusi testo e immagini.
Inizialmente, l'azienda ha creato uno strumento per le proprie esigenze. Era una serie di script per attaccare i modelli di intelligenza artificiale. Counterfit in seguito si è evoluto in uno strumento di automazione che attacca più modelli di intelligenza artificiale su vasta scala.
"Questo strumento è emerso dalla nostra stessa esigenza di valutare le vulnerabilità nei sistemi di intelligenza artificiale di Microsoft per proteggere i servizi in conformità con i principi di Responsible AI e l'iniziativa Responsible AI Strategy in Development (RAISE)", ha affermato la società in un post sul blog.
Microsoft ha testato Counterfit con diversi clienti, incluso il gigante aerospaziale Airbus.
Ricordiamo che alla fine di aprile, Microsoft ha implementato la tecnologia di rilevamento delle minacce di Intel per trovare minatori nascosti nella piattaforma di sicurezza degli endpoint aziendali Defender.
A marzo, alla conferenza Ignite 2021, Microsoft ha presentato una serie di nuovi strumenti e servizi per la piattaforma cloud Azure per sviluppatori. Questi includono una piattaforma per l'esecuzione di modelli di intelligenza artificiale su dispositivi edge, ricerca semantica in Azure ricerca cognitiva e Azure Arc Services.
2021-05-06 00:49:48
Autore: Vitalii Babkin