Seit der Einführung generativer KIs wie ChatGPT haben Experten und Regierungen Bedenken hinsichtlich der unregulierten Entwicklung in diesem Bereich. Um diese Bedenken auszuräumen, bildet OpenAI nun ein engagiertes Team, das sich mit der Verwaltung des Potenzials befassen soll Risiken im Zusammenhang mit superintelligenten KIs.
Das Team unter der Leitung von Ilya Sutskever, Mitbegründer von OpenAI, zusammen mit Jan Leike, einem prominenten Mitglied des Alignment-Teams von OpenAI, wird Methoden entwickeln, um das hypothetische Szenario zu bewältigen, in dem Superintelligente KI-Systeme übertreffen die menschliche Intelligenz und beginnen autonom zu arbeiten. Obwohl dieses Szenario weit hergeholt erscheinen mag, argumentieren Experten, dass superintelligente KIs innerhalb des nächsten Jahrzehnts Realität werden könnten, was die Bedeutung der Entwicklung von Schutzmaßnahmen heute unterstreicht.
„Derzeit haben wir keine Lösung für die Steuerung oder eine potenziell superintelligente KI zu kontrollieren und zu verhindern, dass sie abtrünnig wird“, heißt es im Blogbeitrag, in dem die Entscheidung bekannt gegeben wird.
Das Superalignment-Team
Das von OpenAI gegründete Superalignment-Team wird Zugriff auf etwa 20 % der aktuellen Rechenressourcen haben, zusammen mit Wissenschaftlern und Ingenieuren von OpenAIs Vorgängern Die Ausrichtungsabteilung soll einen „automatisierten Ausrichtungsforscher auf menschlicher Ebene“ entwickeln, der in erster Linie bei der Bewertung anderer KI-Systeme und der Durchführung von Ausrichtungsforschung helfen soll.
„Wenn wir dabei Fortschritte machen, können unsere KI-Systeme mehr übernehmen.“ und mehr von unserer Ausrichtungsarbeit und letztendlich bessere Ausrichtungstechniken konzipieren, implementieren, studieren und entwickeln als jetzt“, heißt es in einem anderen Blogbeitrag.
Ein KI-System zur Überprüfung anderer KIs
Während der Vorschlag, ein KI-System zur Überprüfung anderer KIs zu entwickeln, erscheinen mag Ungewöhnlich, argumentiert OpenAI, dass KI-Systeme im Vergleich zu Menschen schnellere Fortschritte in der Alignment-Forschung machen können. Dieser Ansatz würde menschlichen Forschern nicht nur Zeit sparen, sondern es ihnen auch ermöglichen, sich auf die Überprüfung der von KI durchgeführten Alignment-Forschung zu konzentrieren, anstatt sie nur selbst zu generieren.
Es ist jedoch wichtig zu beachten, dass OpenAI die potenziellen Risiken erkennt und Gefahren, die mit diesem Ansatz verbunden sind. Darüber hinaus plant das Unternehmen die Veröffentlichung einer Roadmap, die seine künftige Forschungsrichtung darlegt.