AMD hat auf der KI-Veranstaltung des Unternehmens die Ryzen 8040-Serie von Laptop-Prozessoren vorgestellt und damit die Diskussion über die Bedeutung von CPU-Geschwindigkeit, Stromverbrauch und Akkulaufzeit in eine Diskussion umgewandelt, bei der KI im Vordergrund steht.
Im Januar 2023 stellte AMD die Ryzen 7000-Familie vor, von der der Ryzen 7040 die erste Verwendung der damals von AMD sogenannten XDNA-Architektur enthielt, die die Ryzen-KI antreibt. (Als der Konkurrent Intel im vergangenen Sommer seinen Meteor Lake-Prozessor vorstellte, begann Intel, den KI-Beschleuniger als NPU zu bezeichnen, und der Name blieb haften.)
Lesetipp: 5 Gründe, die für eine AMD-CPU sprechen
Mehr als 50 Laptop-Modelle werden bereits mit Ryzen AI ausgeliefert, erklären die Verantwortlichen. Jetzt geht es um AMDs nächste NPU, Hawk Point, im Ryzen 8040. In AMDs Fall unterstützt die XDNA NPU die Zen-CPU, während die Radeon RDNA-Architektur der GPU die Grafikleistung erbringt. Aber alle drei logischen Komponenten arbeiten harmonisch und tragen zu einem größeren Ganzen bei.
“Wir betrachten KI als die am stärksten transformierende Technologie der letzten zehn Jahre”, sagte Dr. Lisa Su, AMDs Chief Executive, zum Auftakt der AMD-Präsentation “Advancing AI” am Mittwoch.
Diese Anwendungen sollen von KI profitieren
Jetzt wird der “Kampf” an mehreren Fronten geführt. Während Microsoft und Google wollen, dass KI in der Cloud berechnet wird, plädieren alle schwergewichtigen Chiphersteller dafür, sie lokal auf dem PC zu verarbeiten. Das bedeutet, dass Anwendungen gefunden werden müssen, die die Vorteile der lokalen KI-Verarbeitungsfunktionen nutzen können. Und das bedeutet, mit Softwareentwicklern zusammenzuarbeiten, um Anwendungen für bestimmte Prozessoren zu programmieren. Das Ergebnis ist, dass AMD und seine Konkurrenten Softwaretools bereitstellen müssen, damit diese Anwendungen mit ihren Chips kommunizieren können.
Natürlich wollen AMD, Intel und Qualcomm, dass diese Anwendungen am effektivsten auf ihrem eigenen Silizium laufen, sodass die Chiphersteller auf zwei verschiedenen Wegen konkurrieren müssen: Sie müssen nicht nur das leistungsfähigste KI-Silizium herstellen, sondern auch dafür sorgen, dass App-Entwickler auf möglichst effiziente Weise mit ihren Chips programmieren können.
AMD
Chiphersteller versuchen seit Jahren, Spieleentwickler dazu zu bewegen, das Gleiche zu tun. Und obwohl KI von außen betrachtet undurchschaubar erscheinen kann, lassen sich vertraute Konzepte herauskitzeln: Quantisierung kann beispielsweise als eine Form der Datenkomprimierung angesehen werden, die es ermöglicht, dass großsprachige Modelle, die normalerweise auf leistungsstarken Server-Prozessoren laufen, ihre Komplexität reduzieren und auf lokalen Prozessoren wie der Ryzen 8000-Serie laufen. Diese Art von Tools ist entscheidend für den Erfolg der “lokalen KI”.
Die acht mobilen Ryzen-8040-Prozessoren
AMD hat die Ryzen 8040-Serie jetzt angekündigt, aber Sie werden sie erst nächstes Jahr in Laptops sehen.
Die Ryzen 8040-Serie kombiniert AMDs Zen 4-Architektur, seine RDNA 3-GPUs und (noch) die XDNA-Architektur der ersten Generation miteinander. Die neuen Chips verwenden jedoch AMDs zweite NPU. Der erste, “Phoenix”, umfasste 10 NPU-Billionen Operationen pro Sekunde (TOPS) und 33 Gesamt-TOPS, wobei der Rest von der CPU und der GPU kam. Die 8040-Serie umfasst “Hawk Point”, das die NPU-TOPS auf 16 TOPS und insgesamt 39 TOPS erhöht.
Donny Woligroski, Senior Mobile Processor Technical Marketing Manager, erklärte gegenüber Pressevertretern, dass die CPU AVX-512 VNNI-Befehle verwendet, um leichtgewichtige KI-Funktionen auf der CPU auszuführen. KI kann auch auf der GPU laufen, aber mit einem hohen, ineffizienten Stromverbrauch – eine Haltung, die wir auch von Intel kennen.
“Wenn es um Effizienz geht, ist rohe Leistung nicht genug”, betonte Woligroski. “Man muss in der Lage sein, das Ganze in einem Laptop laufen zu lassen.”
Es gibt neun Mitglieder der Ryzen 8040-Serie. Zu den sieben leistungsstärksten gehört die Hawk Point NPU. Sie variieren von 8 Kernen/16 Threads und einem Boost-Takt von 5,2 GHz im oberen Bereich bis hin zu 4 Kernen/8 Threads und 4,7 GHz. Die TDPs reichen von einem Minimum von 15W bis zu einem 35W-Prozessor am oberen Ende und erreichen bis 54W.
AMD
Zu den neun neuen Chips gehören:
Ryzen 9 8945HS: 8 Kerne/16 Threads, 5,2 GHz (Boost); Radeon 780M Grafik, 35-54 W
Ryzen 7 8845HS : 8 Kerne/16 Threads, 5,1 GHz (Boost); Radeon 780M-Grafik, 35-54 W
Ryzen 7 8840HS: 8 Kerne/16 Threads, 5,1 GHz (Boost), Radeon 780M-Grafik, 20-30 W
Ryzen 7 8840U: 8 Kerne/16 Threads, 5,1 GHz (Boost), Radeon 780M-Grafik, 15-30 W
Ryzen 5 8645HS: 6 Kerne/12 Threads, 5,0 GHz (Boost), Radeon 760M-Grafik, 35-54 W
Ryzen 5 8640HS: 6 Kerne/12 Threads, 4,9 GHz (Boost), Radeon 760M-Grafikkarte, 20-30 W
Ryzen 5 8640U: 6 Kerne/12 Threads, 5,1 GHz (Boost), Radeon 760M-Grafikkarte, 20-30 W
Ryzen 5 8540U: 6 Kerne/12 Threads, 4,9 GHz (Boost), Radeon 740M-Grafik, 15-30 W
Ryzen 3 8440U: 4 Kerne/8 Threads, 4,7 GHz (Boost), Radeon 740M-Grafik, 15-30 W
Gemäß AMDs Modellnummer “Decoder Ring”, die Intel kürzlich als “Schlangenöl” bezeichnet hat, verwenden alle neuen Prozessoren die Zen-4-Architektur und werden im Jahr 2024 in Laptops ausgeliefert. AMD bietet drei integrierte GPUs an – den 780M (12 Kerne, bis zu 2,7 GHz), den 760M (8 Kerne, bis zu 2,6 GHz) und den 740M (4 Kerne, bis zu 2,5 GHz) – , die auf der RDNA3-Grafikarchitektur und DDR5/LPDDR5-Unterstützung basieren. Diese iGPUs waren bereits in den mobilen Ryzen 7040-Chips enthalten, die Anfang des Jahres mit der Phoenix NPU vorgestellt wurden.
Interessanterweise kündigt AMD keine “HX”-Varianten für Premium-Gaming an, zumindest noch nicht.
AMD kündigt auch eine NPU der dritten Generation namens “Strix Point” an, die irgendwann später im Jahr 2024 ausgeliefert werden soll, vermutlich in einem Ryzen-Prozessor der nächsten Generation. AMD gab keine spezifischen Spezifikationen für den Strix Point bekannt, sagte aber, dass er mehr als die dreifache generative KI-Leistung der vorherigen Generation liefern wird.
AMD
Ryzen 8040: Leistung
AMD hat einige allgemeine Benchmark-Auswertungen veröffentlicht, in denen der 8940H mit dem Intel Core i9-13900H bei 1080p und niedrigen Einstellungen verglichen wird und behauptet, dass sein eigener Chip den von Intel um das 1,8-fache übertrifft. (AMD hat neun Spiele zum Vergleich herangezogen und nicht wirklich angegeben, wie man zu den Zahlen gekommen ist). AMD nennt eine 1,4-fache Leistungssteigerung auf denselben Chips, indem es Cinebench R23 und Geekbench 6 irgendwie zusammenführt.
AMD spricht auch von einer 1,4-fachen Verbesserung der KI im Vergleich zwischen dem 7940HS und dem 8840HS bei Facebooks großem Sprachmodell Llama 2 und den “Vision-Modellen”.
AMD
Ryzen-AI-Software: ein neues Werkzeug für KI-Enthusiasten
Da die KI noch in den Kinderschuhen steckt, haben Siliziumhersteller nicht viele Vergleichspunkte für traditionelle Benchmarks. Die AMD-Führungskräfte hoben lokalisierte KI-gestützte Erfahrungen hervor, wie die verschiedenen neuronalen Filter in Photoshop, die Maskierungswerkzeuge in Lightroom und eine Reihe von Werkzeugen in BlackMagics DaVinci Resolve. Die zugrundeliegende Botschaft ist, dass dies der Grund ist, warum man lokale KI benötige, anstatt sie in der Cloud laufen zu lassen.
AMD stellt außerdem die AMD Ryzen AI Software vor, ein Tool, mit dem ein in PyTorch oder TensorFlow für Workstations und Server entwickeltes Modell auf einem lokalen AI-fähigen Ryzen-Chip ausgeführt werden kann.
Das Problem bei der Ausführung eines wirklich großen, großsprachigen Modells wie eines lokalen Chatbots, einer sprachverändernden Software oder eines anderen Modells ist, dass Server und Workstations über leistungsfähigere Prozessoren und mehr verfügbaren Speicher verfügen. Laptops haben das nicht. Die Aufgabe der Ryzen AI Software ist es, das LLM in eine einfachere, weniger intensive Version umzuwandeln, die auf dem begrenzteren Speicher und der Verarbeitungsleistung eines Ryzen Laptops ausgeführt werden kann.
Anders ausgedrückt: Der Großteil dessen, was man sich unter einem Chatbot oder LLM vorstellt, sind eigentlich die Gewichte oder Parameter – die Beziehungen zwischen verschiedenen Konzepten und Wörtern. LLMs wie GPT-3 haben Milliarden von Parametern, deren Speicherung und Ausführung (Inferencing) enorme Rechenressourcen erfordert. Die Quantisierung ist ein wenig wie eine Bildkomprimierung, bei der die Größe der Gewichte reduziert wird, ohne die “Intelligenz” des Modells zu beeinträchtigen.
AMD und Microsoft verwenden hierfür ONNX, eine Open-Source-Laufzeitumgebung mit integrierten Optimierungen und einfachen Startskripten. Die Ryzen AI Software ermöglicht diese Quantisierung automatisch und speichert das Modell in einem ONNX-Format, das auf einem Ryzen-Chip lauffähig ist.
AMD
AMD-Führungskräfte sagten, dass dieses Ryzen AI Software Tool heute veröffentlicht wird und sowohl unabhängigen Entwicklern als auch Enthusiasten eine einfachere Möglichkeit bietet, KI selbst auszuprobieren.
AMD startet außerdem den “AMD Pervasive AI Contest” mit Preisen für die Entwicklung von Robotik-KI, generativer KI und PC-KI. Die Preise für PC-KI, bei der es um die Entwicklung einzigartiger Anwendungen für Sprache oder Bildverarbeitung geht, beginnen bei 3.000 US-Dollar und steigen bis auf 10.000 Dollar.
All dies trägt dazu bei, AMD in dem noch jungen Rennen um die Etablierung von KI, insbesondere auf dem Client-PC, voranzutreiben. Nächstes Jahr wird sich zeigen, wo die einzelnen Chiphersteller stehen.
Dieser Artikel erschien ursprünglich hier auf PC-WORLD und wurde von uns ins Deutsche übersetzt.
CPUs and Processors