Karty graficzne!
Czyli wszystko co powinienieś wiedzieć
Karta graficzna
Karta graficzna – w węższym rozumieniu karta rozszerzeń komputera która przetwarza dane graficzne, adaptując je na sygnał odpowiedni do wyświetlenia przez monitor lub inne urządzenie wyjściowe. W szerszym znaczeniu obejmuje każdy układ zawierający procesor graficzny (GPU), niezależnie od tego, czy jest to karta rozszerzeń, zintegrowana część płyty głównej, procesora, specjalistyczny moduł przeznaczony do zastosowań naukowych, karty w sieciach neuronowych czy karty do kopania kryptowalut.

Historia
Frame buffer
Najwcześniejszym komercyjnym protoplastą kart graficznych był frame buffer (bufor ramki) o handlowej nazwie Picture System, z roku 1974 firmy Evans & Sutherland, wyświetlał obraz w 256 odcieniach szarości o rozdzielczości 512 na 512 pikseli. Współcześnie bufor ramki to integralna część struktury każdej karty graficznej, czyli wydzielony obszar pamięci
Przed główną erą GPU
Pierwszą kartą graficzną produkowaną na masową skalę, która implementowała ideę osobnego procesora do przetwarzania grafiki, podobnie jak we współczesnych konstrukcjach, był IBM Professional Graphics Adapter (PGA) z 1984 roku, przeznaczony dla komputerów IBM XT i IBM PC/AT. W przeciwieństwie do współczesnych GPU, które przetwarzają dane równolegle, korzystając z wielowątkowości, PGA posiadał procesor 8088, który przetwarzał dane sekwencyjne z podstawowym pipeliningiem, zgodnie z ówczesną architekturą x86. Aż do wczesnych lat 80. XX wieku, przed pojawieniem się rozwiązań zastosowanych w PGA, systemy graficzne były jednostkami zajmującymi się obsługą pamięci ramki do przechowywania i generowania obrazu, zintegrowanym buforem ramki
W latach 90 modele kart graficznych miały ograniczoną wydajność i oferowały podstawowe funkcje graficzne i technologie 3d. Główni producenci tego okresu to: SGI cards; 3DFX (Voodoo); Nvidia(TNT); ATI (Rage); Matrox
W 1996 3dfx wypuszcza na rynek, pierwszy powszechnie dostępny akcelerator 3d o nazwie Voodoo Graphics, później znany jako Voodoo 1. Glide interfejs programistyczny opracowany dla tych kart, stał się popularnym standardem, na komputery PC zgodne z architekturą x86 w drugiej dekadzie lat 90, przed erą DirectX.
Termin "GPU" (Procesor graficzny) został wprowadzony dopiero w 1999 roku przez NVIDIA
Główna era GPU
Pierwsza generacja (1999) - DirectX 7: Obejmuje postęp w technologiach 3D, większą wydajność oraz wprowadzenie akceleracji sprzętowej. W tym okresie firma NVIDIA ukuła pojęcie GPU.
Druga generacja (2001-2006) - DirectX 8, 9: Wprowadzenie programowalnych vertex i geometry shaders, Shader Model 1.0, 2.0 i 3.0. Ikoniczna seria GPU to GeForce 3.
Trzecia generacja (2006-2009) - DirectX 10, 11: Wprowadzenie CUDA (dla NVIDIA) oraz Shader Model 4.0. Pierwsza seria GPU kompatybilna z DirectX 10 to NVIDIA GeForce 8.
Czwarta generacja (2009-2015) - DirectX 11: Shader Model 5.0. Pierwsza kompatybilna seria GPU z DirectX 11 to AMD Radeon HD 5000.
Piąta generacja (2015-2020) - DirectX 12 i Vulkan: Wprowadzenie API niskopoziomowych oraz wielowątkowości. Ikoniczny model karty graficznej tego okresu to 1080ti.
Szósta generacja (2020-) - DirectX 12 Ultimate: Pełna implementacja ray tracingu.
Główna era GPU
Pierwsza generacja (1999) - DirectX 7: Obejmuje postęp w technologiach 3D, większą wydajność oraz wprowadzenie akceleracji sprzętowej. To właśnie wtedy firma NVIDIA ukuła pojęcie GPU.
Druga generacja (2001-2006) - DirectX 8, 9: Wprowadzenie programowalnych vertex i geometry shaders (cieniowanie geometryczne), Shader Model 1.0, 2.0 i 3.0. Ikoniczna seria GPU to GeForce 3.
Trzecia generacja (2006-2009) - DirectX 10, 11: Wprowadzenie technologii CUDA (dla NVIDIA) oraz Shader Model 4.0. Pierwsza seria GPU kompatybilna z DirectX 10 to NVIDIA GeForce 8.
Czwarta generacja (2009-2015) - DirectX 11: Wprowadzenie Shader Model 5.0. Pierwsza kompatybilna seria GPU z DirectX 11 to AMD Radeon HD 5000.
Piąta generacja (2015-2020) - DirectX 12 i Vulkan: Oba API są niskopoziomowe, wprowadzają wielowątkowość. Ikoniczny model karty graficznej tego okresu to 1080ti.
Szósta generacja (2020-obecnie) - DirectX 12 Ultimate: Pełna implementacja ray tracingu, co zrewolucjonizowało rendering grafiki w czasie rzeczywistym.
Rodzaje procesorów graficznych
Procesory graficzne (GPU), produkowane na rynek masowy przez AMD, Intel oraz NVIDIA, dzielimy ze względu na przeznaczenie:
1. Procesory dedykowane
Przeznaczone do kart graficznych, także tych laptopowych, nie dzielą pamięci RAM z CPU.
- Radeon produkowany przez AMD
- GeForce produkowany przez Nvidia
- ARC produkowany przez Intela
2. Procesory zintegrowane
Procesory będące częścią płyty głównej lub CPU, dzielące pamięć RAM z CPU.
- Radeony z sufiksem "m" produkowane przez AMD
- Intel HD Graphics produkowane przez Intela
- Laptopowe GeForce produkowane przez Nvidia
Produkowane są też inne modele kart graficznych i kart z GPU do zastosowań profesjonalnych oraz kopania kryptowalut.
Funkcje

Budowa karty graficznej
Podstawowe elementy karty graficznej
- Procesor graficzny (GPU) – serce karty graficznej
- Video random-access memory (VRAM) – pamięć RAM karty graficznej
- Wyjścia sygnałów
- Złącze do płyty głównej
- Układ chłodzenia
W przeszłości część kart graficznych posiadała:
- RAMDAC (ang. RAM + Digital-to-Analog Converter) – przetwornik cyfrowo-analogowy odpowiedzialny za przekształcanie danych cyfrowych na sygnał sterujący dla monitora analogowego.
- Framegrabber – układ zamieniający zewnętrzny, analogowy sygnał wideo na postać cyfrową (w kartach posiadających przechwytywanie obrazu).
- Procesor wideo – wspomaga dekodowanie i przetwarzanie strumieniowych danych wideo, obecnie zintegrowany z GPU.
Typy złącz do płyt głównych używane przez karty graficzne
Historyczne:
- AGP (Accelerated Graphics Port)
- ISA (Industry Standard Architecture)
- PCI (Peripheral Component Interconnect)
- PCI-Express (PCIe) wersje 1.0 do 4.0
- Zorro
Obecne:
- PCI-Express 5.0 i 6.0
Wyjścia sygnału
- D-Sub
- DFP (Digital Flat Panel)
- DisplayPort
- DVI (Digital Visual Interface)
- HDMI (High-Definition Multimedia Interface)
- P&D (Plug and Display)
- Thunderbolt
- USB-C (z obsługą DisplayPort Alternate Mode)
- WHDI (Wireless Home Digital Interface)
Zasilanie
Karty graficzne na złączu PCI Express są zasilane z płyty głównej do 75 watów. Karty o wyższym poborze prądu posiadają dodatkowe złącza zasilania:
- MOLEX – stosowane w starszych modelach
- Złącza PCI-e: 6-pin dla kart o poborze do 150 watów, 8-pin dla kart od 150 watów oraz 12VHPWR (PCIe 5.0) obsługujące do 600 watów
Układ chłodzenia
Karty graficzne potrzebują układu chłodzenia. Stosowane są trzy rozwiązania:
- Chłodzenie pasywne
- Chłodzenie aktywne
- Chłodzenie wodne
Pamięć RAM karty graficznej zazwyczaj jest chłodzona wspólnie z GPU.
Multi-GPU
Dawniej istniały technologie łączenia kart graficznych, takie jak:
- SLI (Scalable Link Interface) od Nvidia
- CrossFire od AMD
- Hybrid CrossFireX, później AMD Dual Graphics
Współczesne połączenia GPU obejmują PCIe, NVLink, NV-SLI, NVSwitch oraz GPUDirect.
Różnice w terminologii
Termin „akcelerator graficzny” pojawił się w latach 90. Karta graficzna jest często nazywana GPU, co odnosi się wyłącznie do procesora graficznego.
Znaczenie kart graficznych
Karty graficzne są wykorzystywane w nauce, AI, kryptowalutach oraz renderowaniu grafiki i wyświetlaniu obrazu.