Das Britische Institut für KI-Sicherheit (AISI), gegründet im November 2023, hat die Plattform Inspect gestartet, um KI zu testen und deren Sicherheit zu bewerten. Dies wird die Bewertung von KI für den Einsatz in Industrie-, Forschungs- und Wissenschaftsorganisationen vereinfachen.
Das Inspect-Toolkit, das unter Open-Source-Lizenzen wie der MIT-Lizenz erhältlich ist, ist darauf ausgelegt, bestimmte Fähigkeiten von KI-Modellen in verschiedenen Bereichen zu bewerten, einschließlich des grundlegenden Wissens von Modellen und der Fähigkeit zu schlussfolgern, sowie Bewertungen auf der Grundlage der erzielten Ergebnisse zu erstellen.
Laut der Website TechCrunch besteht die Inspect-Plattform aus drei Hauptkomponenten: Datensätzen, Lösungswerkzeugen und Bewertungswerkzeugen. Datensätze stellen Beispiele für Bewertungstests bereit. Lösungswerkzeuge führen die Tests durch. Bewertungswerkzeuge bewerten die Ergebnisse und summieren die Testpunkte in Metriken.
Die Inspect-Plattform wurde wenige Tage nach der Ankündigung des National Institute of Standards and Technology (NIST) der USA Ende April des Programms NIST GenAI vorgestellt, das darauf abzielt, verschiedene generative KI-Technologien zu bewerten, einschließlich Modelle, die Texte und Bilder generieren.
Im April haben die USA und Großbritannien eine Partnerschaft angekündigt, im Rahmen derer die Regierungen technisches Wissen, Informationen und talentierte Fachleute im Bereich KI-Sicherheit austauschen werden. Im Rahmen dieser Zusammenarbeit wird in den USA ein Institut für KI-Sicherheit eingerichtet, das sich mit der Bewertung von mit KI und generativer KI verbundenen Risiken befassen wird.
2024-05-12 17:14:56
Autor: Vitalii Babkin
Quell-URL