Microsoft는 개발자가 인공 지능 시스템의 보안을 테스트하는 데 도움이되는 오픈 소스 도구 Counterfit을 출시했습니다.
개발자에 따르면이 도구는 AI 시스템의 취약성을 스캔하고 대상 모델에 대한 공격 로그를 생성하도록 설계되었습니다. 이를 통해 데이터 과학자는 원격 측정을 사용하여 보안을 더욱 강화합니다.
Microsoft는 Counterfit이 환경, 모델 및 데이터에 구애받지 않는다고 밝혔습니다. 텍스트와 이미지를 포함하여 거의 모든 형식의 입력에 의존하는 모든 AI 모델을 테스트하기 위해 로컬, 에지, 클라우드에서 사용됩니다.
처음에이 회사는 자체 요구에 맞는 도구를 만들었습니다. AI 모델을 공격하기위한 스크립트 세트였습니다. Counterfit은 나중에 대규모 AI 모델을 공격하는 자동화 도구로 발전했습니다.
"이 도구는 책임있는 AI의 원칙과 RAISE (Responsible AI Strategy in Development) 이니셔티브에 따라 서비스를 보호하기 위해 Microsoft AI 시스템의 취약성을 평가해야하는 우리의 필요성에서 비롯되었습니다."라고 회사는 블로그 게시물에서 말했습니다.
Microsoft는 항공 우주 거대 Airbus를 비롯한 여러 클라이언트를 대상으로 Counterfit을 테스트했습니다.
4 월 말에 Microsoft는 Defender 기업 엔드 포인트 보안 플랫폼에서 숨겨진 채굴자를 찾기 위해 인텔의 위협 탐지 기술을 구현했습니다.
3 월, Ignite 2021 컨퍼런스에서 Microsoft는 개발자를위한 Azure 클라우드 플랫폼을위한 여러 가지 새로운 도구와 서비스를 공개했습니다. 여기에는 에지 장치에서 AI 모델을 실행하기위한 플랫폼, Azure Cognitive Search의 의미 체계 검색 및 Azure Arc Services가 포함됩니다.
2021-05-06 00:49:48
작가: Vitalii Babkin