Microsoft hat das Open-Source-Tool Counterfit veröffentlicht, mit dem Entwickler die Sicherheit von Systemen mit künstlicher Intelligenz testen können.
Laut den Entwicklern soll das Tool nach Schwachstellen in KI-Systemen suchen und Angriffsprotokolle für das Zielmodell erstellen. Damit nutzen Datenwissenschaftler die Telemetrie, um die Sicherheit weiter zu verbessern.
Microsoft hat angegeben, dass Counterfit umwelt-, modell- und datenunabhängig ist. Es wird lokal am Rand der Cloud verwendet, um jedes KI-Modell zu testen, das von Eingaben in nahezu jeder Form abhängt, einschließlich Text und Bildern.
Zunächst hat das Unternehmen ein Tool für seine eigenen Bedürfnisse entwickelt. Es war eine Reihe von Skripten für den Angriff auf KI-Modelle. Counterfit entwickelte sich später zu einem Automatisierungstool, das mehrere KI-Modelle in großem Umfang angreift.
"Dieses Tool entstand aus unserer eigenen Notwendigkeit heraus, Schwachstellen in den KI-Systemen von Microsoft zu bewerten, um Dienste gemäß den Grundsätzen der verantwortungsvollen KI und der Initiative" Verantwortliche KI-Strategie in der Entwicklung "(RAISE) zu schützen", sagte das Unternehmen in einem Blogbeitrag.
Microsoft hat Counterfit mit mehreren Kunden getestet, darunter dem Luft- und Raumfahrtriesen Airbus.
Erinnern Sie sich daran, dass Microsoft Ende April die Bedrohungserkennungstechnologie von Intel implementiert hat, um versteckte Miner in der Endpoint-Sicherheitsplattform von Defender zu finden.
Im März stellte Microsoft auf der Ignite 2021-Konferenz eine Reihe neuer Tools und Dienste für die Azure-Cloud-Plattform für Entwickler vor. Dazu gehören eine Plattform zum Ausführen von KI-Modellen auf Edge-Geräten, die semantische Suche in Azure Cognitive Search und Azure Arc Services.
2021-05-06 00:49:48
Autor: Vitalii Babkin