Da wir den Computer einschalten und das Logo erscheint Windows bis wir ein Spiel starten, das geladen ist mit Lichter, Schatten und Texturen, alles geht durch das gleiche Stück: die GrafikkarteDiese Komponente kann in den Prozessor integriert sein oder in einem speziellen Formfaktor geliefert werden. Ihre Aufgabe besteht darin, Daten flüssig, präzise und in den letzten Jahren auch mit einem Hauch künstlicher Intelligenz in Bilder umzuwandeln.
Auf dieser Reise betrachten wir mit der Lupe die Evolution der Grafikkarten „von VGA zu GPU“, der Wechsel von frühen Monochrom-Adaptern zu Echtzeit-Raytracing und wie sich all dies auf die Erfahrung innerhalb von Windows und der VideospieleWir werden uns die Geschichte, die wichtigsten Technologien, APIs, Hersteller, Busse, Speicher, Kaufberatung und sogar die Überprüfung Ihrer Grafikkarte in Windows mit zwei Klicks ansehen. dxdiag.
Was ist eine Grafikkarte und wie arbeitet sie mit der CPU zusammen?
Eine Grafikkarte (oder GPU im engeren Sinne) ist ein Prozessor, der spezialisiert ist auf Gleitkommaoperationen, entwickelt, um Tausende von Berechnungen parallel auszuführen, die Pixel formen. Die integrierte Version ist innerhalb der CPU (iGPU/APU), während die dedizierte über PCI Express auf dem Motherboard platziert ist und über einen eigenen Speicher verfügt VRAM, Stromversorgung und Kühlung.
Der typische Ablauf auf einem Windows-PC und bei Spielen ist: CPU bereitet Geometrie (Eckpunkte), Ordnungen und Physik vor; die GPU organisiert die Szene (räumliche Ordnung und Clipping) und führt dann die Pixel-/Fragment-Shader die Farbe, Materialien, Effekte und Nachbearbeitung bereitstellen. Das Signal wird dann über VGA, DVI, HDMI, USB-C oder DisplayPort an den Monitor ausgegeben, der es mit einer bestimmten Bildwiederholfrequenz anzeigt (50/60/120/144Hz...).
Die dedizierten sind in der Regel viel leistungsfähiger als die integrierten, also für die Bearbeitung, Videospiele oder KI priorisieren heute Modelle mit schnellem VRAM und hoher Bandbreite. In Gaming-Laptops optimieren Max-Q-Chips Leistung und Temperatur, um die Desktop-Leistung näher an weniger Watt.

Von MDA und CGA bis HGC, EGA, VGA und SVGA: die Grundlagen
Ausgangspunkt auf dem PC waren die IBM-Adapter Anfang der 80er Jahre. MDA (Monochrome Display Adapter) zeigte nur alphanumerischen Text (80x25) mit 4 KB Speicher und monochromen Monitoren an. Der Controller las ASCII-Werte, der Zeichengenerator erstellte eine 1st century ... durch Zeichen, und der Monitor gab es mit etwa 50 Hz wieder.
1981 kamen die ersten Farbgrafiken mit dem CGA (Color Graphics Adapter), der die RGB-Welt auf PCs einführte: bis zu 16 Farben (8 mit zwei Intensitäten) und Auflösungen wie 320 x 200 (4 Farben) oder 640 x 200 (2 Farben). Es war nicht perfekt, aber es brachte Farbe in den heimischen PC.
Parallel dazu wurde 1982 die Hercules-Grafikkarte (HGC): Monochrom, ja, aber mit 720 x 348 Pixeln und 64 KB Speicher. Es ermöglichte scharfen Text (14 x 9 Matrix) und einen für seine Zeit bemerkenswerten Grafikmodus.
Der nächste Schritt war die EGA (Enhanced Graphics Adapter) von IBM, kompatibel mit MDA und CGA, mit 256 KB Speicher und 16 Farben bei 640x350, ausgewählt aus einer Palette von 64. Darüber hinaus machte es Bildschirmwechsel reibungslos und reduzierte die lästigen flackern typisch für CGA.
Im Jahr 1987 übernahm die Industrie die VGA (Video Graphics Array): 640×480 im Grafikmodus, 720×350 im Text, 256 Farben aus einer Palette von 262.144 ausgewählt, und der große Unterschied: Signal analog zum Monitor. Deshalb enthalten VGAs die berühmte RAMDAC (Digital-Analog-Wandlerspeicher), der in späteren Modellen mit bis zu 450 MHz betrieben wurde. VGA umfasste auch Bildwiederholraten von 800 × 600, 1024 × 768 und 50/60/70 Hz.
Von 2D zu 3D: Busse, Chips und die erste große Revolution
Die 90er Jahre brachten zwei Revolutionen: die Busse und der Sprung zu 3D. Der VESA-Local-Bus-Standard wich PCI 1993 mit kompakteren Karten von Marken wie Matrox, Creative oder 3dfx (Voodoo). Kurz darauf kam die AGP (x2, x4, x8) zur Beschleunigung des Texturverkehrs mit theoretischen Spitzen von bis zu 2,1 GB/s, ein Vorspiel zum aktuellen PCI Express 16 Fahrspuren.
Auf der Chipseite entstanden Hersteller wie S3 (Trio, ViRGE), Rendition, Matrox, 3dfx, NEC PowerVR, ATI und die damals noch junge NVIDIA (RIVA TNT/TNT2). Die ersten 3D-APIs auf PCs wurden mit OpenGL (von Silicon Graphics), Gleiten (Besitzer von 3dfx) und Direct3D innerhalb Microsoft DirectX, das unter Windows letztendlich das Spiel auf dem PC dominieren würde.
Der eigentliche Wendepunkt war die GeForce 256 (1999), der erste Chip mit Hardware-T&L (Transform & Lighting), der die polygonale 3D-Beschleunigung vereinte und geometrische Berechnungen von der CPU entlastete. Von da an nannte ATI seine Familie "Radeon», was zu einer modernen Rivalität führte.
Unified Shader, Hot Shader und der Sprung zu DirectX 11
NVIDIA experimentierte mit sog. «Hot Shader», die Shader mit einer höheren MHz-Taktung laufen lassen als der Rest der GPU (z. B. 600 MHz für die GPU und 1.500 MHz für Shader auf der 8800 GT). Inzwischen ist VRAM populär geworden 1 GB und die Bandbreite wurde erhöht, um Engpässe zu vermeiden.
Die GeForce GTX 400/500 und Radeon HD 5000/6000 Bühne gebracht DirectX 11, mehr Shader-Anzahl, mehr Bandbreite und Editionen, die zum ersten Mal die 3 GB von VRAM (im High-End-Bereich von NVIDIA, wenn auch in begrenztem Umfang). Es galt die Regel: Recheneinheiten und Speicher hinzufügen, um die Rohleistung zu erhöhen.
GCN, asynchrones Computing und das Ende der Hot Shader
AMD antwortete mit GCN 1.0 (Radeon HD 7950/7970), eine ihrer Zeit vorauseilende Architektur, die DirectX 12 und asynchrones Computing. Außerdem wurde standardmäßig ein großzügigerer VRAM verwendet (3 GB gegenüber 2 GB bei NVIDIA-Äquivalenten), eine Entscheidung, die sich bei anspruchsvolleren Spielen bemerkbar machen würde.
NVIDIA, mit Kepler (GTX 600/700), verabschiedete sich von Hot Shadern, verdreifachte die Shaderanzahl zwischen den Generationen (GTX 580 bis GTX 680) und gewann in DX11 an Dynamik, obwohl die frühe DX12-Unterstützung lauwarm war. Dennoch, mit der 780 GTX Ti (2013) verdoppelte die Shader und schaffte es, 4K-Spiele mit überraschender Leichtigkeit auf Windows-PCs auszuführen.
Der große Sprung kam mit Maxwell (GTX 900): viel effizienter und leistungsfähiger pro Watt; eine GTX 970 mit 1.664 Shadern übertraf die GTX 780 Ti mit 2.880, zusätzlich zum Hinzufügen von VRAM (4 GB) und kam besser mit DX12Aufgrund ihrer Ausgewogenheit und Langlebigkeit war sie eine der beliebtesten Grafiken.
Mit Pascal (GTX 10) hat NVIDIA DX12 und Vulkan voll und ganz angenommen; eine GTX 1070 (1.920 Shader, 8 GB) übertraf die GTX 980 Ti. Die GTX 1080 Ti Es wurde zur Legende, da die 4K-Leistung auch bei klassischer Rasterung noch gültig ist.
Turing, RT-Kerne und Tensor: Raytracing und KI in Windows und Gaming
Der nächste große Meilenstein kam mit Turing (RTX 20), das zwei spezialisierte Blöcke hinzufügte: RT-Kerne (Raytracing) und Spannkerne (KI und Inferenz). Von da an bestand eine GPU nicht mehr nur aus „Shadern + Texturen + Rastern“ und konnte Effekte verarbeiten, die zuvor aufgrund von Leistungseinbußen unerschwinglich waren, und sich mit DirectX-Raytracing in Windows.
Um die Auswirkungen von Raytracing auszugleichen, hat NVIDIA DLSS, ein KI-Upscaling, das in seiner ersten Version fehlschlug, aber mit DLSS 2 dank seiner vorübergehender Wiederaufbau des Bildes. AMD antwortete mit FSR/FSR 2, das keine KI verwendet, aber eine gute plattformübergreifende Balance bietet.
Ampere und Ada (RTX 30/40), RDNA2 und RDNA3: Effizienz, Caches und Chiplets
Mit Ampere (RTX 30) hat NVIDIA die Shader pro SM massiv erhöht; eine RTX 3060 (3.584 Shader) verdoppelte die Kernanzahl der 2060, verbesserte RT/Tensor und erhöhte die Taktraten. Danach Ada Lovelace (RTX 40) hat einen enormen Effizienzsprung gemacht: Eine 110-W-RTX 4060 übertrifft eine 170-W-3060 im Raster um etwa 20 %.
La RTX 4090 Es liegt im Raster etwa 40 % vor dem 3090 und ist das einzige, das den Overdrive-Modus (Path Tracing) von Cyberpunk 2077 reibungslos ausführt. Darüber hinaus DLSS-3 führt die Frame-Generierung ein und lindert CPU-Engpässe unter Windows durch „Interleaving“ synthetisierter Frames auf der GPU.
Auf der roten Seite, RDNA2 Es verdoppelte die Shader im Vergleich zu RDNA, standardisierte sie auf 16 GB im High-End-Bereich, erhöhte die Frequenzen und fügte einen großen Block vom Typ L3-Cache hinzu «Infinity-Cache» um die Abhängigkeit von externer Bandbreite zu reduzieren. Die ersten kamen auch Raytracing-Einheiten auf AMD für DXR-Gaming.
Mit RDNA3AMD hat die Effizienz verbessert, RT-Kerne der zweiten Generation hinzugefügt, KI-Beschleuniger integriert und vor allem ein Design eingeführt Multi-Chiplet innovativ: Es wurde ein monolithischer Chip für die GPU beibehalten und der L3-Cache auf Chiplets ausgelagert. Dies reduziert die Siliziumoberfläche, verbessert die Ausbeute und niedrigere Kosten.
Mit Blick auf die Zukunft deutet alles auf GPUS hin MCM (Multi-Chip-Modul) mit mehreren miteinander verbundenen GPUs. Es ist nur eine Frage der Zeit: Die Fläche eines einzelnen Chips lässt sich hinsichtlich Kosten und Komplexität nicht mehr gut skalieren, wenn es um Zehntausende von Shader.
Wesentliche Komponenten: GPU, VRAM, RAMDAC, VRM und Kühlung
Die Platte koexistiert mit GPU (Rechnerkern mit L1/L2 Caches), der Speicher VRAM (Texturen, Framebuffer, Zwischenpuffer), die VRM (Leistungsphasen mit MOSFETs, Drosseln und Kondensatoren) und das System der KühlungDedizierte Modelle verwenden normalerweise 6+2-Pin-Anschlüsse, da der PCIe-Steckplatz nur bis zu 75 W liefert.
Das Historische RAMDAC Es wandelte digitale Daten in ein analoges Signal für VGA/CRT-Monitore um. Obwohl heute alles digital ist (HDMI/DP), ist es wichtig, seine Rolle bei der Umstellung zu verstehen: Seine Frequenz bestimmte die Bildstabilität; fortschrittliche Modelle erreichten 450 MHz.
Bei der Dissipation koexistieren Turbinenkonstruktionen (Gebläse, die heiße Luft aus dem Gehäuse befördern) und Axialströmung (mehrere Lüfter drücken Luft über einen Lamellenkühler). Gebläse sind kompakt, aber laut und weniger effizient; axial Aufgrund ihrer verbesserten Wärmeleistung sind sie der Standard bei kundenspezifischen Modellen.
Videospeicher: von EDO/SGRAM/VRAM/WRAM bis GDDR6 und HBM2
Vor der Neuzeit verwendeten Grafikkarten EDO-RAM und SDRAM, dann SGRAM (Graphics Optimized SDRAM), VRAM (Dual-Port zum gleichzeitigen Lesen und Schreiben) und WRAM (schneller als VRAM und mit Blockbeschleunigungsfunktionen, ideal für Windows in Windows). Dies markierte den Übergang von 300–800 Mbit/s zu viel größeren Bandbreiten.
Heute dominieren sie GDDR6 und GDDR6X: „DDR“-Speicher mit sehr hohen effektiven Frequenzen (14–21 Gbps) und 128- bis 384-Bit-Bussen, die enorme Bandbreiten erreichen. AMD hat HBM2 (bis zu 2048-Bit-Bus mit 3D-Stacking), weniger MHz, aber eine brutale Breite, nützlich in Szenarien mit extremer Bandbreite.
Klassisches Speicher-Auflösungs-Verhältnis (2D-Ära): mit 512 KB 1024x768 bei 16 Farben; mit 1 MB 1280x1024 bei 16 Farben oder 1024x768 bei 256; mit 2 MB 1280x1024 bei 256 und 1024x768 bei 65.536; mit 4 MB waren bereits beliebt: 16,7 millones von Farben in 800×600 und höher. Für moderne Spiele sind heute 4–8 GB ein angemessenes Minimum. 1080p–1440p.
Videoanschlüsse: VGA, DVI, HDMI, DisplayPort und USB‑C
Das analoge VGA-Signal gehört der Vergangenheit an, aber es ist wissenswert DVI: DVI-D (nur digital), DVI-A (nur analog) und DVI-I (beide). HDMI 2.1 verarbeitet bis zu 4K@120 und 8K@60; 2.0 endet bei 4K@60 (8 Bit). DisplayPort 1.4 ermöglicht 4K@120 und 8K@60 mit DSC; DP ist die bevorzugte Schnittstelle für Monitore mit hoher Bildwiederholrate auf PCs.
USB-C mit DP/Thunderbolt 3 Alt Mode kann 4K@60-Video ausgeben und Daten und Strom kombinieren. Auf modernen Windows-Computern sieht man häufig DP und HDMI koexistieren und bei Laptops USB-C als Mehrzweckausgang.
3D-APIs unter Windows: OpenGL, Glide, DirectX und Vulkan
APIs sind die „Sprache“, die das Spiel mit der GPU spricht. OpenGL (industriell und sehr leistungsfähig) und Glide (Teilmenge optimiert für 3dfx) prägten die 90er Jahre. Microsoft integrierte die Familie in Windows DirectX (Direct3D), das anfänglich etwas schleppend lief, sich aber ab DX8/DX11 zum dominierenden Standard auf dem PC entwickelte.
Außerdem dort Vulkan (Khronos), ein Low-Level-Cross-Plattform-Spiel mit Wurzeln in AMDs Mantle. In der Praxis verwenden die meisten großen Spiele unter Windows DirectX 11/12, mit DXR für Raytracing; OpenGL/Vulkan koexistieren in bestimmten Engines und Ports.
Busse: PCI, AGP und PCI Express
Der Bus definiert den Datenpfad zwischen der GPU und dem System. PCI war die Brücke der 90er Jahre. AGP erhöhte die Bandbreite und ermöglichte die Nutzung von RAM aus dem System (auf Kosten der Latenz). PCIe x16 (3.0, 4.0 und 5.0) kommunizieren die GPUs direkt mit dem CPU durch 16 dedizierte Lanes. PCIe 3.0 x16 bietet ~15,8 GB/s bidirektional; 4.0 verdoppelt sich; 5.0 verdoppelt sich noch einmal. Heutzutage ist es in Spielen selten ausgelastet.
Leistung und Messwerte: FPS, TFLOPS, TMUs/ROPs und Übertaktung
Die FPS Sie bestimmen die Flüssigkeit: höhere FPS, flüssigeres Spielgefühl, begrenzt durch die Bildwiederholfrequenz des Monitors (vertikale Synchronisierung über V-Sync/G-Sync/FreeSync). Um die „Obergrenze“ Ihrer GPU zu sehen, deaktivieren Sie die Synchronisierung und sehen Sie sich die Frametime in Testtools an.
Die TFLOPS Sie messen Gleitkommaoperationen pro Sekunde, eine Referenz für die Rohleistung, aber nicht definitiv: Architektur, Caches, Farbkomprimierung, Bandbreite und Treiber wiegen viel. TMUs (Texture Mapping/Filtering) und ROPs (Rasterisierung, Blending, Z-Buffer, Antialiasing) bestimmen den tatsächlichen Durchsatz von Pixeln und Texturen.
El übertakten GPU-Geschwindigkeiten liegen üblicherweise bei etwa +100–150 MHz und bei GDDR6-VRAM sogar effektiv bei +900–1000 MHz, mit spürbaren FPS-Gewinnen, wenn die GPU nicht CPU-limitiert ist. Beliebte Tools: MSI Afterburner, EVGA Precision X1 oder AMD Adrenalin (WattMan).
Die richtige Grafikkarte auswählen, auf die CPU abstimmen und Engpässe vermeiden
Für Office-Arbeiten und Multimedia reicht eine moderne iGPU (integrierte Intel UHD/ARC oder AMD Radeon Vega auf APUs) aus; die Investition in eine dedizierte lohnt sich nicht. Für Gaming 1080p, eine Mittelklasse-GPU mit 6–8 GB und eine 6-Kern-CPU bieten ein tolles Preis-Leistungs-Verhältnis.
Bei 1440p/4K, denken Sie an High-Gamut (mehr Shader, verbesserte RT und Headroom VRAM). Denken Sie daran: die CPU Bestimmt, wie viel Geometrie/Physik die GPU erhält; eine geringere Auflösung entlastet die GPU, reduziert die CPU-Last jedoch kaum. CPU-belastende Einstellungen: Objektdichte, NPCs, Simulation, Physik; GPU-belastende Einstellungen: Auflösung, Texturen, AA, Ambient Occlusion, Tessellation und natürlich Raytracing.
Formfaktoren und Wärmeableitung sind wichtig: Messen Sie Ihr Gehäuse und wählen Sie zwischen Zwei- oder Drei-Lüfter-Designs oder sogar Flüssigkeits-AIO in extremen Modellen. Hersteller (ASUS, MSI, Gigabyte usw.) übertakten oft die Werkstakte und installieren VRM robuster.
Gaming- und Max-Q-Laptops
Bei Laptops ist die GPU verlötet und optimiert (RTX/GTX-Serie) Max-Q) mit geringerem Stromverbrauch und etwas weniger Leistung als der Desktop. Sie teilen sich GDDR6 VRAM, einheitliche Treiber für Windows und Unterstützung für Technologien wie DLSS und RT, wobei die Priorität auf Temperaturen und Autonomie liegt, sowie Optionen wie die Mux-Schalter um die Leistung zu verbessern.
So finden Sie in Windows heraus, welche Grafikkarte Sie haben (dxdiag)
Wenn Sie Ihre Karte in Sekundenschnelle von Windows aus identifizieren möchten, verwenden Sie das Diagnosetool DirectX:
- Klicken Sie auf Startseite.
- Öffnen Sie "Ausführen" aus dem Menü Startseite.
- Schreiben dxdiag und drücken Sie OK.
- Wenn das Dienstprogramm geöffnet wird, gehen Sie zur Registerkarte Bildschirm.
- Überprüfen Sie unter „Gerät“ den Namen Ihrer GPU und die Speicher zur Verfügung.
Hersteller und Ökosystem: NVIDIA, AMD, Intel und Assembler
Heute wird der Markt angeführt von NVIDIA (GeForce RTX) und AMD (Radeon RX). Intel ist zurück im Spiel mit Arc in dedizierten und integrierten Grafiken in den meisten CPUs. Im Jahr 2006 übernahm AMD ATI; seitdem hat das Unternehmen CPUs und GPUs (APUs) zusammengeführt und konkurriert im Bereich Gaming- und Desktop-PCs direkt miteinander.
Assembler (ASUS, MSI, Gigabyte usw.) kaufen GPUs/Speicher und entwerfen ihre eigenen PCBs, VRMs und Kühlkörper. Einige fügen RGB, Dual-BIOS, Sensoren und "OC"-Profile hinzu. Im Jahr 2004 führte NVIDIA erneut SLI (Multi-GPU), um die Leistung zu steigern, und es gab Cloud-Computing-Lösungen wie die der GRID die Grafiken von Remote-Servern verschieben, vor dem aktuellen Game-Streaming.
Betrachtet man den gesamten Weg, vom analogen Signal eines VGA bis zur Pfadverfolgung und KI-Frame-Generierung, wird deutlich, dass Grafikkarten haben sich von einfachen Adaptern zu massiv parallelen Prozessoren entwickelt. Mit direkten Auswirkungen auf Windows, Engines und Spiele wird es in der Zukunft zu einer stärkeren Spezialisierung (RT/AI), Chiplet-Designs und Effizienz kommen, mit der Aussicht auf eine höhere Wiedergabetreue und höhere FPS ohne erhöhten Stromverbrauch.


