Google erschafft KI, die Chips für KI erstellt
Google-Forschende haben ein Machine-Learning-Modell entwickelt, das die physikalischen Komponenten eines Computerchips entwerfen kann. Das Modell reduziert die Arbeit der Ingenieure von Monaten auf Stunden. Es soll die nächste Generation von KI-Prozessoren entwerfen.
Computerchips zu entwerfen ist eine zeitaufwändige Aufgabe, die mehrere Monate Arbeit erfordert. Um diesen Prozess zu optimieren, entwickelten Forschende bei Google ein neues Machine-Learning-Modell. Es soll in weniger als 6 Stunden einen Designplan für die physikalischen Komponenten eines Mikroprozessors erstellen können.
"Unsere Methode generiert automatisch Chip-Grundrisse, die in allen Schlüsselmetriken, einschliesslich Stromverbrauch, Leistung und Chipgrösse, denen von Menschen produzierter Grundrisse überlegen oder vergleichbar sind", sagen die Forscher in der Zeitschrift Nature.
Der Durchbruch ist nicht nur theoretisch. Google nutzte das Modell für die Entwicklung der nächsten Generation von Prozessoren für künstliche Intelligenz. Der Konzern rechnet damit, dass diese Neuerung Tausende von Arbeitsstunden bei der Entwicklung jeder neuen Generation dieser Komponenten einsparen wird.
Routing-Dichte und Stau-Beschränkungen
In einem Blogbeitrag, der zu Beginn ihrer Forschung veröffentlicht wurde, erklären die Google-Forschenden, dass ein Computerchip in Dutzende von Blöcken, Makros (Speicherkomponenten) und Standardzellen (Logikgatter) unterteilt ist. Diese sind alle durch Drähte verbunden sind.
Einen zweidimensionalen Schaltplan zu erstellen, ist ein zeitaufwändiger und iterativer Prozess, bei dem verschiedene Designs getestet werden müssen. So sollen Leistung, Performance und Fläche minimiert und gleichzeitig die Dichte- und Stau-Routing-Beschränkungen beachtet werden.
Um diesen Vorgang zu automatisieren, nutzten die Forschenden Reinforcement Learning. Für das Training des Modells erstellten sie einen Datensatz, der auf 10.000 verschiedenen Designs basiert. Im Gegensatz zum traditionellen Deep Learning werden laut IEEE Spectrum Reinforcement-Learning-Modelle nicht auf einem grossen Satz von gelabelten Daten trainiert.
Diese Modelle lernen, indem sie die Parameter ihrer Netzwerke entsprechend einem Belohnungssignal anpassen. Im Falle des Chip-Design-Modells wird das Belohnungssignal für jede Bauteilplatzierung aus dem gewichteten Mittel der ungefähren Drahtlänge und der ungefähren Überlastung berechnet.