
Wir alle nutzen täglich Computer, und ohne dass wir es merken, arbeitet im Hintergrund eine leistungsstarke technische Maschine. Dank der Leistungsfähigkeit von Grafikprozessor (GPU) Heute genießen wir Videospiele mit komplexer Physik, realistischer Beleuchtung und Szenen, die an die Realität grenzen, und beschleunigen gleichzeitig Datenwissenschaftsaufgaben. KI-Modelle auf Ihrem PC ausführen und Inhaltserstellung.
In diesem Zusammenhang werden wir die Geschichte und die Schlüsseltechnologien von GPUs untersuchen: von der Mathematische Koprozessoren (FPU) von Raytracing und künstlicher Intelligenz bis hin zu deren Auswirkungen auf Windows, DirectX und PC-SpieleWir werden sehen, wie sich die Architekturen verändert haben, welche Meilensteine die einzelnen Phasen kennzeichneten und warum GPU-Computing (GPGPU) bereits Gegenwart und Zukunft ist.
Von der Zeit vor den GPUs bis zu den ersten Grafikkarten: als die CPU alles erledigte
Die ersten Personalcomputer folgten dem klassischen von-Neumann-Design: ALU, Speicher und Ein-/AusgabeDie CPU übernahm die gesamte Arbeit, vom Betriebssystem bis zur grafischen Ausgabe. Mit den ersten visuellen Schnittstellen und anspruchsvollen Anwendungen (CAD, frühe 2D- und 3D-Videospiele), die Last wuchs und ein Verbündeter erschien: der FPU, ein Koprozessor zur Beschleunigung von Gleitkommaoperationen, die die CPU nicht nativ ohne aufwändige Konvertierungen verarbeiten konnte.
Als der Bildschirm —a PixelmatrixEs erforderte umfangreiche und sich wiederholende Berechnungen, wodurch deutlich wurde, dass ein Großteil dieser Arbeit parallelisiert und von der CPU ausgelagert werden konnte. Koprozessoren wurden entwickelt und wichen schließlich den Grafikkarten als separate Komponenten mit größeren Chips, mehr Transistoren und besserer Stromversorgung, wodurch die Möglichkeit einer gezielten Beschleunigung des Renderings eröffnet wird.
Wegweisende Standards: von MDA und CGA bis VGA und SVGA
Die ersten Videostandards für PCs erschienen Anfang der 80er Jahre. MDA (1981) IBMs System war monochrom und textorientiert, während das CGA (1984) Es fügte Farbe hinzu (16 Farben bei niedriger Auflösung). Später folgten HGC (Hercules), EGA und das einflussreiche VGA (1987), wodurch höhere Auflösungen und Farbpaletten populär wurden; dann die SVGA Es erweiterte Auflösung und Farbdarstellung auf ein Niveau, das nur wenige Jahre zuvor undenkbar gewesen war. Diese Meilensteine festigten die Sprung ins Grafikzeitalter vom PC.
In den 90er Jahren sahen wir 2D-Beschleuniger wie die von S3 Graphics (1992) und das Debüt von 3D für Spiele mit 3Dfx Voodoo (1995)Neue Busse und videooptimierte Häfen kamen ebenfalls an, wie zum Beispiel die AGP (1997)Diese von Intel entwickelten Komponenten, die im Vergleich zu klassischen PCI-Steckplätzen eine höhere Grafikbandbreite bieten sollten, ebneten den Weg für die große Revolution, die noch kommen sollte.

1999: Das GPU-Konzept wird geboren und verändert die Spielregeln für immer.
NVIDIA prägte 1999 den Begriff GPU (Grafikverarbeitungseinheit) Mit der GeForce 256 wurden Transformation und Beleuchtung erstmals in den Grafikchip integriert – die alte T&L-Technologie war nicht mehr auf die CPU angewiesen. Dies war ein historischer Sprung: Grafikkarten entwickelten sich von mehr oder weniger passiven „Video“-Geräten zu … spezialisierte Parallelprozessoren ist in der Lage, die CPU zu entlasten und die Grafikleistung zu steigern.
Von da an war der Machtkampf unaufhörlich. In den folgenden Jahren kamen Generationen wie GeForce 7000 und 8000 Die entsprechende Radeon-Serie bot mehr Recheneinheiten, Speicher und Bandbreite. Der Fortschritt wurde nicht nur in FPS gemessen, sondern auch in neuen APIs und Bibliotheken (OpenGL und in der Windows-Welt, DirectX) wodurch es für Entwickler einfacher wurde, die GPU direkter zu nutzen.
Architektur einer modernen GPU: viele einfache Einheiten, die parallel arbeiten
Im Gegensatz zur CPU, die für Aufgaben mit geringer Latenz und sequenzieller Verarbeitung ausgelegt ist, gruppiert eine GPU Hunderte oder Tausende einfacher Prozessoren (Vereinheitlichte Shader oder Streamprozessoren) mit einem sehr spezifischen Repertoire an arithmetischen Befehlen. Diese enorme Skalierung ermöglicht die Verarbeitung parallele Algorithmen auf außerordentlich effiziente Weise, indem Hochgeschwindigkeitsspeicher und enorme Bandbreiten genutzt werden.
In Zahlen ausgedrückt war der Sprung enorm. Ende der 90er-Jahre reichte eine GeForce 256 kaum aus. 4 unidades sich der Schattierung widmeten; einige Jahre später Modelle wie ein GeForce GTX 780 Ti Insgesamt waren es 2.880 Shader, und Dual-Konfigurationen wie die AMD Radeon HD 7990 Sie erreichten insgesamt 4.096 (zwei GPUs). Die Software nutzt APIs wie beispielsweise … OpenGL und DirectX um diese Maschinen optimal zu nutzen.
Vereinheitlichte Shader, „Hot Shader“ und der Sprung zu Gigabytes an VRAM
Der Übergang zu einheitliche Shader Es war ein Wendepunkt. Heimkonsolen gaben den Trend vor: Die Xbox 360 war ihrer Zeit voraus und nutzte eine einheitliche Architektur, bevor sie auf dem PC erschien, während die PS3 auf ein Design basierend auf der GeForce-7000-Serie setzte. Auf dem PC führte ATI 2007 einheitliche Shader ein. Radeon HD 2900XT (im obigen Bild) und kurz darauf tat NVIDIA dasselbe mit GeForce 8000. Das Ergebnis: enorme Leistungssprüngewie beispielsweise die GeForce 8800 GT, die die Leistung der 7900 GT verdoppelt.
Im Jahr 2008 wurde diese Philosophie mit den Serien GeForce 9000 und Radeon HD 3000 gefestigt, deren Modelle aufgrund ihres hervorragenden Preis-Leistungs-Verhältnisses legendär sind. GeForce GT 9600 o Radeon HD 3870NVIDIA experimentierte mit dem «heiße Shader», wodurch die Shader funktionieren häufiger als der Rest der GPU (klassisches Beispiel: 8800 GT, GPU mit ca. 600 MHz und Shader mit ca. 1.500 MHz). Folgendes verbreitete sich ebenfalls: 1 GB VRAM im mittleren/oberen Preissegment.
Die Eskalation setzte sich mit mehr Shadern und mehr Bandbreite fort: a GeForce GTX 285 Sie verfügte über 240 Shader und 159 GB/s, verglichen mit den 128 Shadern und 86,4 GB/s einer 8800 GTX; auf der ATI-Seite… Radeon HD 4890 Die Shaderanzahl und die Übertragungsrate stiegen von 320 Shadern und 72,06 GB/s bei der 3870 auf 800 Shader und 124,8 GB/s. Die erste mit DirectX 11 Sie kamen mit Radeon HD 5000 und GeForce GTX 400 auf den Markt; GTX 500 und HD 6000 waren Weiterentwicklungen der Vorgängermodelle, mit Besonderheiten wie beispielsweise bestimmten GTX 580 von 3 GB.
Windows, DirectX und die große Veränderung: Abschied von „Hot Shadern“, hallo DX12
Das Ökosystem Windows/DirectX Es prägt die Entwicklung von PCs. AMD war seiner Zeit voraus mit GCN 1.0 (HD 7950/7970), eine Architektur, die für die neuen Funktionen von DX12 entwickelt wurde, wie zum Beispiel asynchrones RechnenZu dieser Zeit dominierte DX11 und die Konkurrenz (NVIDIAs Kepler) schnitt dort besser ab, aber AMD verbaute standardmäßig mehr VRAM (3 GB gegenüber 2 GB bei den grünen Äquivalenten), was für die Lebensdauer entscheidend war.
Mit KeplerNVIDIA beendete die „Hot Shader“, was dazu führte, dass die Anzahl der Shader drastisch erhöhenZum Vergleich: Die GTX 680 (Kepler) hatte 1.536 Shader bei ca. 1.058 MHz, im Vergleich zu den 512 Shadern der GTX 580 bei ca. 1.544 MHz. Kepler glänzte unter DX12 nicht, das stimmt, aber DX11 war noch immer zuständig.Und in ihrer Rohform war die GTX 780 Ti mit 2.880 Shadern ein Monster, das schon damals 4K erreichte.

Von Maxwell zu Pascal: Effizienz, mehr VRAM und ein Sprung zu DX12/Vulkan
Maxwell Dies bedeutete eine enorme Verbesserung der Effizienz und Leistung pro Watt. GeForce GTX 970Mit „nur“ 1.664 Shadern übertraf sie die GTX 780 Ti, verfügte über 4 GB VRAM und war besser mit DX12 kompatibel. Dieses ausgewogene Preis-Leistungs-Verhältnis machte sie zu einer der besten Grafikkarten. beliebteste Grafiken der letzten Zeit.
Der nächste Schritt, Pascal (GeForce GTX 10), hat sich entschieden für DX12 entschieden und Vulkanzu verbessern. GeForce GTX 1070 Es verdoppelte den VRAM seines Vorgängers (8 GB gegenüber 4 GB) und übertraf diesen trotz 1.920 Shader in der Leistung. 980 GTX Ti mit 2.816. AMD antwortete mit Radeon RX Vega 56/64leistungsstark und mit HBM2-Speicher, aber die GeForce GTX 1080 Ti Sie war unangefochten an der Spitze, und nicht einmal die Radeon VII konnte sie vom Thron stoßen. Bis heute kann die 1080 Ti 4K-Spiele in klassischer Rasterisierung flüssig darstellen.
Konsolen und ihr Einfluss: von der Xbox 360 bis zur PS4/Xbox One
Konsolen bestimmen aufgrund ihrer schieren Stückzahl die technologische Entwicklung von PCs. Die Xbox 360 hat diesen Trend schnell aufgegriffen. einheitliche Shaderund in der nächsten Generation, PS4 und Xbox One Sie haben sich für AMD entschieden. GCNDadurch wurde die Unterstützung für asynchrones Rechnen gestärkt und Standards etabliert, die später in Windows und DirectX umfassend verwendet wurden. GCN hatte sogar fünf Revisionensogar auf PS4 Pro und Xbox One X vorhanden.
Im Laufe der Zeit entschied sich AMD für HBM/HBM2 in High-End-Produkten (z. B. RX Vega 64 mit 4.096 Shadern, 8 GB HBM2 und 483,8 GB/s), während frühere Generationen wie die HD-7970 (GCN 1.0) begann mit 2.048 Shadern, 3 GB Arbeitsspeicher und 264 GB/s. Diese Bandbreitensteigerung war entscheidend für immer höhere Texturen und Auflösungen. plattformübergreifende Spiele.

Raytracing und künstliche Intelligenz: Turing, Ampere und Ada
Im Jahr 2018 brachte NVIDIA Folgendes auf den Markt: Turing (GeForce RTX 20) und veränderte das Paradigma: Zusätzlich zu den traditionellen SMs wurden auch diese integriert. RT-Kerne (Raytracing-Beschleunigung) und Spannkerne (KI und Inferenz). Schließlich war es machbar. Raytracing in Echtzeit zu erschwinglichen Kosten, was zuvor unmöglich war. Die Architektur öffnete die Tür zu wesentlich realistischeren Licht-, Reflexions- und Verdeckungseffekten.
Raytracing erforderte neue Rekonstruktionstechniken. Die erste Version von DLSS Sie war diskret, aber DLSS-2 Es hat sich etabliert und gilt heute als Maßstab: Dank der KI in TensorkernenAMD antwortete mit FSR/FSR2Eine sehr nützliche Software-Skalierungsfunktion, allerdings ohne dedizierte KI-Hardware auf Tensor-Ebene; darüber hinaus enthält Windows 11 Funktionen wie … Automatische Superauflösung in Windows 11 um das Bild ohne großen Kostenaufwand zu verbessern.
Mit Ampere (RTX 30) Es gab einen sprunghaften Anstieg der Rechenleistung, wodurch die Anzahl der Shader pro SM (a) erheblich erhöht wurde. RTX 3060 Sie verfügt über 3.584 Shader im Vergleich zu den 1.920 Shadern der RTX 2060. Die RT- und Tensor-Kerne wurden deutlich verbessert. Und mit Ada Lovelace (RTX 40) Eine große Revolution der Effizienz kam: eine RTX 4060 Ein 110-Watt-Netzteil kann rund 20 % mehr Leistung liefern als eine 170-Watt-RTX 3060, und die RTX 4090 Sie übertrifft die RTX 3090 in Rastergrafiken um etwa 40 %. Darüber hinaus DLSS-3 Es führte die GPU-Framegenerierung ein, um CPU-Engpässe zu beheben, ein Schlüsselfaktor. Windows mit schlecht optimierten Spielen.
RDNA und RDNA 2/3: AMDs Antwort mit riesigem Cache und Chiplets
AMD konterte mit RDNA (Radeon RX 5700 XT) mit WGP (Workgroups) und Frequenzen nahe 2 GHz. Mit RDNA2 Verdoppelte Shader im High-End-Bereich (bis zu 5.120 bei der RX 6900 XT), standardisiert 16 GB VRAM, erhöhte Frequenzen und fügte einen massiven Block hinzu L3-Cache um die Abhängigkeit von externer Bandbreite zu verringern, zusätzlich zu Einheiten für Raytracing beschleunigen.
Die nächste Iteration, RDNA3, verbesserte Effizienz und RT mit Kerne der zweiten Generationund führte erstmals ein Design ein Multi-Chiplet Im Gaming-Bereich: Der Grafikkern blieb monolithisch, aber der große L3-Cache (Infinity Cache) wurde auf Chiplets ausgelagert. Dies vereinfacht den Wafer. verbessert die Erträge Fertigung und Kostenreduzierung, mit Blick auf die Zukunft von MCM in komplexen GPUs. Auch lokale KI-Initiativen entstehen, wie zum Beispiel Nutzen Sie die Vorteile lokaler KI mit Ryzen. das passte zur Strategie von AMD.

GPGPU: Von der Wissenschaft bis zum Kryptowährungs-Mining und maschinellem Lernen
Die Idee der Ausführung allgemeine Aufgaben Die GPU sorgt seit Jahren für Furore, und Formate wie GGUF-Format Sie haben die lokale Ausführung von Modellen verbessert. Nicht alles skaliert gut (manche Prozesse lassen sich nicht ohne Weiteres parallelisieren), aber sie bewältigen massive und repetitive Rechenprobleme hervorragend. Ein bekanntes Beispiel war die Bitcoin-Mining, wobei SHA-256 parallel zu den Shadern auf mehrere Zeichenketten angewendet wird.
Um effizient zu abbauen, benötigt man Ausrüstung mit bescheidene CPU (einschließlich ULV), 2-4 GB RAMkleiner Speicher (SSD ist energieeffizienter), mehrere GPUs in CrossFire X. (sehr häufig bei AMD aufgrund der hohen Anzahl an Streamprozessoren) und ein robustes NetzteilDer Stromverbrauch ist jedoch der entscheidende Faktor: Farmen mit mehreren GPUs können im 24/7-Betrieb fast 1.000 W verbrauchen, was sich deutlich auf die Kosten und den Bedarf auswirkt. Schützen Sie Ihren PC.
Über das Mining hinaus hat die GPGPU Folgendes vorangetrieben HPC und DatenwissenschaftBeispiele: Supercomputer wie MareNostrum verfügen über Beschleuniger; NVIDIA hat gestartet CUDA (2006) Um die GPU in allgemeinen Rechenanwendungen zu programmieren, wird der Server DGX-2 mit Tesla V100 und NVSchalter (2 PFLOPS) und Plattformen wie SCHNELLE um die Datenwissenschaft zu beschleunigen Clara für die medizinische Bildgebung, DRIVE Constellation für Fahrsimulation und die Familie Jetson AGX Xavier für KI-gestützte Robotik. Das alles läuft auf PCs und Servern mit Windows und Linuxund APIs wie DirectCompute, CUDA und OpenCL.
Integrierte Grafik (IGP) und ihre Rolle im Haushalt
Der Aufstieg weniger visuell anspruchsvoller Websites und Apps brachte die IGPin die CPU integriert (Intel UHD, Iris Xe; AMD Radeon Vega, wie z. B. die neue APUsFür Betriebssysteme, Office-Suiten oder Streaming-Dienste ist ein modernes IGP (Integrated Gaming Programm) erforderlich. Sie ist mehr als genug.Nur anspruchsvolle Spiele oder professionelle Software benötigen eine dedizierte Konsole.
Ein anschauliches Beispiel: auf einem Laptop wie dem Alienware 14Eine GTX 765M der Mittelklasse übertrifft etwa 410% Die Intel HD 4600 iGPU schneidet in Spielen besser ab, wo die integrierte Grafik in vielen Titeln unter 30 fps fällt; im alltäglichen Gebrauch (Windows, Browser, Office-Anwendungen) ist die Benutzererfahrung jedoch... sehr ähnlichDies beweist, dass die dedizierte GPU für ernsthafte Spiele unerlässlich ist, für den alltäglichen Gebrauch jedoch nicht.
Typische Vorteile von PGIs: weniger VerbrauchVorteile: geringere Wärmeentwicklung, stetig steigende Leistung und kein zusätzlicher Platzbedarf. Nachteile: physikalische Grenzen (Größe/Temperatur im SoC) und Aktualisierung nicht möglich ohne Änderung der Baugruppe. Die Zukunft dieser integrierten Systeme hängt davon ab Knotensprünge (von 22 nm auf 14 nm, wie damals bei Broadwell) und Technologien wie AMD-Human, wodurch CPU und IGP denselben Speicherbereich gemeinsam nutzen können, um die Gesamtleistung zu verbessern.
GPU-Typen: integriert, dediziert und hybrid
Auf dem Inlandsmarkt existieren drei große Familien nebeneinander. integriert Sie kommen in den Prozessor und erledigen alltägliche Aufgaben. gewidmet Hierbei handelt es sich um eigenständige Grafikkarten mit eigenem VRAM und eigener Kühlung (z. B. NVIDIA GeForce RTX 3090 oder AMD Radeon RX 6800), ideal für Spiele, Kreation und GPGPUUnd es gibt Entwürfe Hybride wie beispielsweise einige RTX 3090-Grafikkarten mit Mischkühlung, die die Vorteile von Luft- und Flüssigkeitskühlung kombinieren, um hohe Frequenzen aufrechtzuerhalten.
Jahrelang dominierten NVIDIA und ATI den High-End-Markt; 2006 wurde ATI zum Marktführer. AMD Nach der Übernahme konkurriert es seither direkt mit NVIDIA und mit Intel in integrierten Systemen. Es gab herausragende Momente wie den HD 3870 X2, AMDs erste Dual-GPU seit der Rage Fury MAXX, die die GeForce 8800 Ultra bei hohen Auflösungen übertraf, oder die Radeon HD 5970 und Radeon R9 295X2 im Zeitalter von Multi-GPUs.
Windows und Spiele: DirectX als Rückgrat
Die Entwicklung von PC-Spielen hängt maßgeblich ab von DirectX unter WindowsVon DX9 zu DX11 war der Sprung kontinuierlich; mit DX12Microsoft hat eine Low-Level-Steuerung für Engines bereitgestellt, um die GPU besser zu nutzen (Multithreading, Befehlswarteschlangen, asynchrone BerechnungWDDM-Treiber und Funktionen wie Raytracing in DXR haben es ermöglicht, dass fortschrittliche Effekte PC-Spieler mit Skalierbarkeit und Stabilität erreichen.
Die heutigen Top-Titel vereinen Rasterisierung, Raytracing und Superauflösung (DLSS/FSR) zum Ausgleich von Qualität und Leistung. Beispiele hierfür sind der Overdrive-Modus von Cyberpunk 2077, mit PfadverfolgungSie benötigen Architekturen wie Ada und Frame-Generierungstechniken, um die FPS bei hohen Auflösungen aufrechtzuerhalten, insbesondere auf Systemen, bei denen die CPU Einschränkungen mit sich bringen kann.
Weitere Meilensteine der jüngeren Geschichte
Neben den bereits erwähnten großen Fortschritten sollte man auch Folgendes nicht vergessen: GeForce 8800 GTX (2006) für ihre Rolle in DX10, GeForce GTX 680 (2012) mit Kepler, dem GTX 1080 (2016) mit Pascal und der Familie RTX 30 (2020) mit Ampere, das Raytracing und KI weiter popularisierte. Parallel dazu wurden Technologien wie SLI (2004) y CrossFire Sie erforschten Multi-GPU-Systeme, obwohl diese heute im Vergleich zu den anderen Systemen in Spielen an Bedeutung verloren haben. vertikale Skala einer einzelnen leistungsstarken GPU.
Es gibt auch Meilensteine außerhalb des Gaming-Bereichs: die Plattform GITTER (2012) Es brachte die GPU in die Cloud und Lösungen wie DGX-2, SCHNELLE, Clara, DRIVE Constellation y Jetson AGX Xavier Sie haben die GPU-Beschleunigung auf KI, Medizin, Automobilindustrie und Robotik ausgeweitet und damit gezeigt, dass die Bedeutung des Grafik-Computing stetig wächst. über Unterhaltung hinaus.
Leistung, Kraftstoffverbrauch und praktische Wahl
Bei der Auswahl, dem Budget, der Überwachung und... NutzungsartUm in 1080p/1440p mit moderatem Raytracing zu spielen, wird eine Mittelklasse-GPU mit Unterstützung für DLSS/FSR Das könnte ausreichen; für 4K mit hochauflösendem Raytracing benötigen Sie jedoch eine High-End-Grafikkarte. Wenn Ihr Fokus auf Videobearbeitung, KI oder Data Science liegt, sollten Sie sich nach anderen Optionen umsehen. VRAM, Bandbreite und Bibliotheksunterstützung (CUDA, TensorRT, ROCm).
Der Energieverbrauch ist wichtiger als man denkt. Geräte mit mehreren Karten – wie beispielsweise Farmen für Cryptocurrency Mining – aus früheren Zeiten – können die Kosten in die Höhe treiben. Im Gaming-Bereich ist die Effizienz von Architekturen wie Ada o RDNA3 Es trägt zur Geräusch- und Wärmereduzierung bei und passt in kleine Gehäuse, ohne dass die hohe Leistung beeinträchtigt wird. Windows.
Nach jahrzehntelanger Innovation hat sich die GPU von der Bewegung von einfarbigem Text zur Unterstützung von … weiterentwickelt. fotorealistische WeltenEchtzeit-KI beschleunigen und das Windows- und Spieleerlebnis mit Technologien wie … verbessern DX12/DXR, DLSS und FSRVon MDA, CGA und VGA bis hin zu RTX und RDNA hat jeder Meilenstein – einheitliche Shader, massive Caches, HBM, Raytracing, Chiplets – ein Puzzleteil beigetragen, das wir heute zu Hause, bei der Arbeit und im Rechenzentrum nutzen.

