A Microsoft lançou a ferramenta de código aberto Counterfit, que ajuda os desenvolvedores a testar a segurança de sistemas de inteligência artificial.
De acordo com os desenvolvedores, a ferramenta foi projetada para verificar vulnerabilidades em sistemas de IA e gerar logs de ataque para o modelo de destino. Com ele, os cientistas de dados usam a telemetria para aumentar ainda mais a segurança.
A Microsoft indicou que Counterfit é independente de ambiente, modelo e dados. É usado localmente, na borda, na nuvem, para testar qualquer modelo de IA que dependa de entrada em quase qualquer forma, incluindo texto e imagens.
Inicialmente, a empresa criou uma ferramenta para atender às suas necessidades. Era um conjunto de scripts para atacar modelos de IA. Counterfit posteriormente evoluiu para uma ferramenta de automação que ataca vários modelos de IA em grande escala.
“Esta ferramenta surgiu da nossa própria necessidade de avaliar vulnerabilidades nos sistemas de IA da Microsoft para proteger os serviços de acordo com os princípios da IA responsável e da iniciativa Estratégia em desenvolvimento de IA responsável (RAISE)”, disse a empresa em um blog.
A Microsoft testou o Counterfit com vários clientes, incluindo a gigante aeroespacial Airbus.
Lembre-se de que, no final de abril, a Microsoft implementou a tecnologia de detecção de ameaças da Intel para localizar mineiros ocultos na plataforma de segurança de endpoint corporativo Defender.
Em março, na conferência Ignite 2021, a Microsoft revelou uma série de novas ferramentas e serviços para a plataforma de nuvem Azure para desenvolvedores. Isso inclui uma plataforma para executar modelos de IA em dispositivos de borda, pesquisa semântica na Pesquisa Cognitiva do Azure e Azure Arc Services.
2021-05-06 00:49:48
Autor: Vitalii Babkin