Musk & Co. wollen KI-Entwicklung pausieren
In einem offenen Brief fordern über 1000 Unterzeichner aus der Tech-Szene, mindestens sechs Monate lang keine hochleistungsfähigen KI-Modelle mehr zu veröffentlichen. In dieser Zeit sollen Leitplanken entwickelt und eingeführt werden, um die Risiken und Fehlentwicklungen solcher Technologien zu begrenzen.
Die phänomenalen Fortschritte, die die Entwickler von Modellen künstlicher Intelligenz zur Sprachverarbeitung, allen voran ChatGPT, in jüngster Zeit gemacht haben, beeindrucken und geben Anlass zu vielen Befürchtungen. Insbesondere die Leistungsfähigkeit des neuesten OpenAI-Modells GPT-4 wirft Fragen auf, da es einen perfekt funktionierenden Plan für seine Verbreitung entwickelt hat.
Angesichts der möglichen Auswüchse dieser übermächtigen algorithmischen Modelle werden Gegenstimmen laut. Und zwar nicht wenige. Die KI-Grösse Yoshua Bengio, Elon Musk, Steve Wozniak (Mitbegründer von Apple), der Historiker, Philosoph und Autor Yuval Noah Harari, der renommierte Informatikprofessor Stuart Russell und Gary Marcus (KI-Forscher) gehören zu den über 1000 Unterzeichnern eines offenen Briefes, der dazu aufruft, "das Training von KI-Systemen, die leistungsfähiger sind als GPT-4, sofort für mindestens sechs Monate zu unterbrechen".
Der Brief betont die "tiefgreifenden Risiken für die Gesellschaft und die Menschheit" von KI-Systemen, die über eine Intelligenz verfügen, die mit der von Menschen konkurrieren kann. Nach Ansicht der Unterzeichner sollten diese Fortschritte mit der nötigen Sorgfalt und den erforderlichen Ressourcen geplant und verwaltet werden, was derzeit nicht der Fall ist. Selbst die Entwickler dieser Technologien seien derzeit nicht in der Lage, sie zu verstehen, vorherzusagen oder zuverlässig zu kontrollieren. Zu den genannten Risiken und Fehlentwicklungen gehören die Automatisierung von Arbeitsplätzen, Desinformation und die Gefahr, dass Menschen die Kontrolle verlieren.
Das Urteil der Verfasser des offenen Briefes ist jedoch nicht unumkehrbar. Um solche Systeme nur dann zu entwickeln und zu veröffentlichen, wenn sichergestellt ist, "dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind", fordern die Unterzeichner KI-Labore und unabhängige Experten auf, eine Reihe von gemeinsamen Sicherheitsprotokollen zu entwickeln und zu implementieren. "Diese Protokolle sollten sicherstellen, dass die Systeme, die sich daran halten, über jeden vernünftigen Zweifel hinaus sicher sind, was keine Pause in der Entwicklung der KI im Allgemeinen bedeutet, sondern lediglich ein Zurückweichen vor dem gefährlichen Wettlauf zu immer grösseren und unberechenbaren Blackbox-Modellen", heisst es weiter in dem vom Future of Life Institute veröffentlichten offenen Brief.