1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

OpenAI-Entwickler warnten vor KI-Gefahren

23. November 2023

Der Grund für das hin und her um den OpenAI Chef Sam Altmann scheint die Sorge um die Menschheit zu sein. OpenAI könnte der Durchbruch zu einer Superintelligenz gelungen sein.

https://p.dw.com/p/4ZL9o
Künstlerische 3D-Illustration eines Cyborgs mit künstlicher Intelligenz
Wird die KI bald nicht mehr kontrollierbar sein?Bild: Knut Niehus/picture alliance

Kurz vor der Entlassung von Sam Altman als Chef des ChatGPT-Entwicklers OpenAI soll das Aufsichtsgremium laut Insidern vor einer folgenschweren Entdeckung im Bereich der künstlichen Intelligenz (KI) gewarnt worden sein. In dem Brief von Entwicklern des Unternehmens sei davon die Rede gewesen, dass die Entwicklung eine Bedrohung für die Menschheit darstellen könnte, sagten zwei mit der Angelegenheit vertraute Personen der Nachrichtenagentur Reuters am Mittwoch.

Das bislang unveröffentlichte Schreiben sei eine wichtige Entwicklung gewesen, die der Entlassung von Altman, dem Aushängeschild der generativen KI, vorausgegangen sei. Reuters konnte zunächst den Brief nicht einsehen. Die OpenAI-Forscher, die den Brief verfasst hatten, reagierten zunächst nicht auf eine Anfrage zur Stellungnahme.

Angst vor Q*

Das Schreiben sei ein Faktor in einer langen Liste von Verfehlungen gewesen, die zu Altmans Entlassung geführt hätten, sagten Insider. Die Geschäftsführerin Mira Murati habe das Projekt namens "Q*" (sprich: Q-Star) am Mittwoch vor der Belegschaft erwähnt und gesagt, dass vor den Ereignissen am Wochenende ein Brief an das Aufsichtsgremium geschickt worden sei.

Der Hersteller von ChatGPT hatte bei Q* Fortschritte gemacht, die nach Ansicht einiger Mitarbeiter einen Durchbruch bei der Suche des Start-ups nach einer Superintelligenz (AGI) darstellen. OpenAI definiert AGI als KI-Systeme, die intelligenter als Menschen sind. Reuters war nicht in der Lage, die von den Forschern behaupteten Fähigkeiten von Q* unabhängig zu überprüfen.

Generative KI unterstützt bislang Menschen bei ihrer Arbeit, indem sie beispielsweise langatmige Texte zusammenfasst. Einige Experten warnen jedoch davor, dass sich diese Programme zu einer "Künstlichen Allgemeinen Intelligenz" (Artificial General Intelligence, AGI) entwickeln könnten, die immer komplexere Aufgaben ohne menschliches Zutun übernehmen. Sie befürchten, dass die Software dann Verteidigungssysteme steuert, politische Propaganda verbreitet oder Waffen produziert.

Stills aus der DW-Doku "Future wars"
Die Sorge: Kriege könnten in Zukunft durch eine Superintelligenz geführt werden, auf die die Menschen keinen Einfluss mehr habenBild: DW

Altman deutete vergangene Woche an, er sehe die AGI in greifbarer Nähe. "Viermal in der Geschichte von OpenAI, zuletzt in den vergangenen Wochen, hatte ich das Privileg, dabei zu sein, wenn wir den Schleier der Unwissenheit lüften und die Grenzen der Entdeckung verschieben, und das ist die berufliche Ehre meines Lebens", sagte er auf dem Asia-Pacific Economic Cooperation Summit. Einen Tag später entließ das Aufsichtsgremium Altman.

Aufeinandertreffen zweier Denkschulen

Das Chaos um die Entlassung und Wiedereinstellung von Sam Altman als Chef des ChatGPT-Entwicklers OpenAI ist das Ergebnis des Tauziehens zweier KI-Denkschulen. Auf der einen Seite stehen diejenigen, die wie Altman die Entwicklung Künstlicher Intelligenz (KI) vorantreiben und die neuen Versionen der Öffentlichkeit zugänglich machen wollen. Nur dadurch könne diese Technologie angemessen getestet und perfektioniert werden.

Dem stehen diejenigen gegenüber, die für eine eingehende Prüfung im Labor eintreten, bevor diese Programme auf die Menschheit losgelassen werden. Dies gelte vor allem für sogenannte Generative KI, die auf Basis weniger Stichworte Texte, Bilder oder Videos erstellen kann.

"Handelt es sich hierbei nur um ein weiteres Produkt wie Soziale Medien oder Kryptowährungen", fragt Connor Leahy, Chef der KI-Firma ConjectureAI und ein Verfechter einer vorsichtigen Vorgehensweise. "Oder handelt es sich um eine Technologie, die die Fähigkeit hat, den Menschen zu übertreffen und unkontrollierbar zu werden?"

USA San Francisco | Sam Altman bei APEC-Gipfel 2023
Sam Altman auf dem Asia-Pacific Economic Cooperation SummitBild: Eric Risberg/AP Photo/picture alliance

Angst vor Superintelligenz

Ilya Sutskever, Chef-Entwickler von OpenAI und als Verwaltungsratsmitglied mitverantwortlich für Altmans Rauswurf Ende vergangener Woche, befürchtet Letzteres. Er beurteilt die Strategie Altmans, KI in möglichst viele Anwendungen einzubauen, kritisch. "Wir haben keine Mittel, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren. Der Mensch wird nicht in der Lage sein, KI-Systeme, die viel intelligenter sind als wir, zuverlässig zu überwachen", schrieb er im Sommer in einem Blog-Beitrag.

Offenbar beobachtete Sutskever vor allem die Vorstellung einer Reihe neuer Produkte auf der ersten Entwicklerkonferenz von OpenAI vor wenigen Wochen mit Sorge. Unter anderem sollen Programme auf Basis der neuesten ChatGPT-Version als virtuelle Assistenten fungieren. Allerdings ist er über den Umgang mit Altman nicht glücklich. "Ich bereue meine Beteiligung an den Aktionen des Verwaltungsrates", sagte Sutskever am Montag..

In der Belegschaft löste der Rauswurf Altmans, der als das Gesicht der KI-Branche gilt, eine offene Rebellion aus. Fast alle der etwa 700 OpenAI-Beschäftigten hatten zu Wochenbeginn mit ihrer Kündigung gedroht, sollte Altman nicht auf seinen Posten zurückkehren. Außerdem forderten sie den Rücktritt sämtlicher Verwaltungsratsmitglieder.

iw/hb (rtr)