OpenAI zahlt den Nutzern seines KI-Chatbots ChatGPT bis zu 20.000 US-Dollar für das Auffinden von Fehlern und Schwachstellen im System. Wie das Unternehmen in einem Blogpost mitteilte, startet es ein Programm, um Schwachstellen in seinen KI-Produkten zu finden.
Um die Zusammenarbeit bei der Erkennung von Schwachstellen zu verbessern, ist OpenAI eine Partnerschaft mit Bugcrowd Inc. eingegangen, einer Plattform, die Anrufe von Programmteilnehmern sammeln wird.
OpenAI ist bereit, ab 200 Dollar für "geringfügige" Schwachstellen und bis zu 20.000 Dollar "für schwerwiegende Fehler" zu zahlen. Das Unternehmen erklärte, es habe sich zum Start des Programms entschlossen, weil es der Meinung ist, dass Transparenz und Zusammenarbeit mit den Nutzern der Schlüssel zur Entdeckung möglicher Probleme der Technologie sind.
"Diese Initiative ist ein natürlicher Teil unserer Gesamtidee der Entwicklung sicherer KI. Wir wollen sichere und verlässliche Technologien und Dienste schaffen und bitten Sie daher um Ihre Hilfe", heißt es im Blog des Unternehmens.
Auf der Bugcrowd-Plattform sind eine Reihe von Sicherheitsproblemen aufgeführt, für die es keine Belohnung gibt. Dazu gehören insbesondere Anfragen für ChatGPT, bei denen es darum geht, dem Bot durch Betrug verbotene Informationen zu entlocken, bösartigen Code zu schreiben oder Anfragen, bei denen der Nutzer den Chatbot zwingt, Beleidigungen zu schreiben.
2023-04-12 07:55:10
Autor: Vitalii Babkin
Quell-URL