In den letzten Jahren, in denen die künstliche Intelligenz den Markt revolutioniert hat, waren sie geprägt von Warnungen über ihre Gefahren. Experten, Akademiker und Unternehmer sowohl aus Spanien als auch aus dem Rest der Welt haben davor gewarnt, dass diese unkontrollierte Technologie für die Welt enorm schädlich sein kann. OpenAI, der Entwickler von ChatGPT, möchte dem mit seinem Preparedness-Team zuvorkommen.
Wie das Unternehmen von Sam Altman, der Entwickler von Programmen wie ChatGPT, erklärt, wurde eine Gruppe von Experten geschaffen, die darauf abzielt, das “gesamte Spektrum an Sicherheitsrisiken” im Zusammenhang mit künstlicher Intelligenz zu kontrollieren. Genauer gesagt, soll Preparedness darauf abzielen, die “katastrophalen Risiken” zu verhindern, die sich aus einem Missbrauch der KI ergeben.
Diese Gruppe wird von Aleksander Madry, dem Direktor des Zentrums für Implementierbares Maschinelles Lernen am MIT, geleitet und fungiert derzeit als ‘Chef der Vorbereitung’. Zu seinen Aufgaben gehört nicht nur, die zukünftigen Gefahren der künstlichen Intelligenz zu erkennen, sondern sie auch vorherzusagen und davor zu schützen.
Das Katastrophenabwehrteam
Woher kommt diese Idee? Tatsächlich scheint OpenAI sich enorm der Gefahren bewusst zu sein, die die KI birgt, insbesondere ihres zukünftigen Potenzials. Sie erklären, dass die neuesten Modelle der künstlichen Intelligenz viel mächtiger sein werden als die aktuellen und daher “zunehmend ernsthafte Risiken” darstellen.
Tatsächlich listen sie diese auf. Sie verbinden diese zukünftigen Modelle mit chemischen, biologischen, nuklearen und radiologischen Bedrohungen, um nur einige zu nennen. Und nicht nur das; sie warnen auch vor Risiken im Zusammenhang mit der Cybersicherheit, der “individualisierten Überzeugung” oder der “autonomen Replikation und Anpassung”.
Die Fronten von Preparedness sind vielfältig. Es werden Debatten über die Gefährlichkeit dieser KI-Modelle in den Händen von Feinden geführt und Rahmenbedingungen erstellt, die das “Verfolgen, Bewerten, Vorhersagen und Schützen vor gefährlichen Fähigkeiten der Grenzsysteme der KI” ermöglichen.
Die Veröffentlichung von OpenAI erläutert die Aufgaben des Teams und definiert sie in einem Schutzbereich. “Das Team wird dabei helfen, katastrophale Risiken, die mehrere Kategorien umfassen, zu verfolgen, zu bewerten, vorherzusagen und davor zu schützen”, wie zuvor erwähnt.
So sehr, dass OpenAI sogar die Möglichkeit erwogen hat, Bereiche zu untersuchen, die nicht so riskant mit künstlicher Intelligenz sind. Tatsächlich würden sie erwägen, Ideen für Risikostudien aus der Gemeinschaft anzufordern. Die relevantesten könnten mit Preisen von bis zu 25.000 Dollar ausgezeichnet werden, und sogar eine Arbeit im eigenen Preparedness-Team.
Schließlich wird dieses Team von OpenAI die Entwicklung und Wartung einer Reihe von Politiken umfassen, die als RPD bezeichnet werden, “Risikobasierte Entwicklungsrichtlinien”. In den Worten der Firma von Sam Altman werden diese Richtlinien hauptsächlich darauf abzielen, konkret zu beschreiben, wie Bewertungen für KI-Modelle und Überwachungswerkzeuge für diese erstellt werden sollen.
Richtlinien, die die restliche Arbeit von OpenAI im Bereich der Sicherheit der künstlichen Intelligenz ergänzen. In den Augen von OpenAI müssen wir “sicherstellen, dass wir das Verständnis und die Infrastruktur für die Sicherheit hochkapazitiver KI-Systeme haben, die in der Zukunft kommen werden.”
No Responses