Karty graficzne!

Czyli wszystko co powinienieś wiedzieć

Karta graficzna

Karta graficzna – w węższym rozumieniu karta rozszerzeń komputera która przetwarza dane graficzne, adaptując je na sygnał odpowiedni do wyświetlenia przez monitor lub inne urządzenie wyjściowe. W szerszym znaczeniu obejmuje każdy układ zawierający procesor graficzny (GPU), niezależnie od tego, czy jest to karta rozszerzeń, zintegrowana część płyty głównej, procesora, specjalistyczny moduł przeznaczony do zastosowań naukowych, karty w sieciach neuronowych czy karty do kopania kryptowalut.

Historia

Frame buffer

Najwcześniejszym komercyjnym protoplastą kart graficznych był frame buffer (bufor ramki) o handlowej nazwie Picture System, z roku 1974 firmy Evans & Sutherland, wyświetlał obraz w 256 odcieniach szarości o rozdzielczości 512 na 512 pikseli. Współcześnie bufor ramki to integralna część struktury każdej karty graficznej, czyli wydzielony obszar pamięci

Przed główną erą GPU

Pierwszą kartą graficzną produkowaną na masową skalę, która implementowała ideę osobnego procesora do przetwarzania grafiki, podobnie jak we współczesnych konstrukcjach, był IBM Professional Graphics Adapter (PGA) z 1984 roku, przeznaczony dla komputerów IBM XT i IBM PC/AT. W przeciwieństwie do współczesnych GPU, które przetwarzają dane równolegle, korzystając z wielowątkowości, PGA posiadał procesor 8088, który przetwarzał dane sekwencyjne z podstawowym pipeliningiem, zgodnie z ówczesną architekturą x86. Aż do wczesnych lat 80. XX wieku, przed pojawieniem się rozwiązań zastosowanych w PGA, systemy graficzne były jednostkami zajmującymi się obsługą pamięci ramki do przechowywania i generowania obrazu, zintegrowanym buforem ramki

W latach 90 modele kart graficznych miały ograniczoną wydajność i oferowały podstawowe funkcje graficzne i technologie 3d. Główni producenci tego okresu to: SGI cards; 3DFX (Voodoo); Nvidia(TNT); ATI (Rage); Matrox

W 1996 3dfx wypuszcza na rynek, pierwszy powszechnie dostępny akcelerator 3d o nazwie Voodoo Graphics, później znany jako Voodoo 1. Glide interfejs programistyczny opracowany dla tych kart, stał się popularnym standardem, na komputery PC zgodne z architekturą x86 w drugiej dekadzie lat 90, przed erą DirectX.

Termin "GPU" (Procesor graficzny) został wprowadzony dopiero w 1999 roku przez NVIDIA

Główna era GPU

Pierwsza generacja (1999) - DirectX 7: Obejmuje postęp w technologiach 3D, większą wydajność oraz wprowadzenie akceleracji sprzętowej. W tym okresie firma NVIDIA ukuła pojęcie GPU.

Druga generacja (2001-2006) - DirectX 8, 9: Wprowadzenie programowalnych vertex i geometry shaders, Shader Model 1.0, 2.0 i 3.0. Ikoniczna seria GPU to GeForce 3.

Trzecia generacja (2006-2009) - DirectX 10, 11: Wprowadzenie CUDA (dla NVIDIA) oraz Shader Model 4.0. Pierwsza seria GPU kompatybilna z DirectX 10 to NVIDIA GeForce 8.

Czwarta generacja (2009-2015) - DirectX 11: Shader Model 5.0. Pierwsza kompatybilna seria GPU z DirectX 11 to AMD Radeon HD 5000.

Piąta generacja (2015-2020) - DirectX 12 i Vulkan: Wprowadzenie API niskopoziomowych oraz wielowątkowości. Ikoniczny model karty graficznej tego okresu to 1080ti.

Szósta generacja (2020-) - DirectX 12 Ultimate: Pełna implementacja ray tracingu.

Główna era GPU

Pierwsza generacja (1999) - DirectX 7: Obejmuje postęp w technologiach 3D, większą wydajność oraz wprowadzenie akceleracji sprzętowej. To właśnie wtedy firma NVIDIA ukuła pojęcie GPU.

Druga generacja (2001-2006) - DirectX 8, 9: Wprowadzenie programowalnych vertex i geometry shaders (cieniowanie geometryczne), Shader Model 1.0, 2.0 i 3.0. Ikoniczna seria GPU to GeForce 3.

Trzecia generacja (2006-2009) - DirectX 10, 11: Wprowadzenie technologii CUDA (dla NVIDIA) oraz Shader Model 4.0. Pierwsza seria GPU kompatybilna z DirectX 10 to NVIDIA GeForce 8.

Czwarta generacja (2009-2015) - DirectX 11: Wprowadzenie Shader Model 5.0. Pierwsza kompatybilna seria GPU z DirectX 11 to AMD Radeon HD 5000.

Piąta generacja (2015-2020) - DirectX 12 i Vulkan: Oba API są niskopoziomowe, wprowadzają wielowątkowość. Ikoniczny model karty graficznej tego okresu to 1080ti.

Szósta generacja (2020-obecnie) - DirectX 12 Ultimate: Pełna implementacja ray tracingu, co zrewolucjonizowało rendering grafiki w czasie rzeczywistym.

Rodzaje procesorów graficznych

Procesory graficzne (GPU), produkowane na rynek masowy przez AMD, Intel oraz NVIDIA, dzielimy ze względu na przeznaczenie:

1. Procesory dedykowane

Przeznaczone do kart graficznych, także tych laptopowych, nie dzielą pamięci RAM z CPU.

2. Procesory zintegrowane

Procesory będące częścią płyty głównej lub CPU, dzielące pamięć RAM z CPU.

Produkowane są też inne modele kart graficznych i kart z GPU do zastosowań profesjonalnych oraz kopania kryptowalut.

Funkcje

Budowa karty graficznej

Podstawowe elementy karty graficznej

W przeszłości część kart graficznych posiadała:

Typy złącz do płyt głównych używane przez karty graficzne

Historyczne:

Obecne:

Wyjścia sygnału

Zasilanie

Karty graficzne na złączu PCI Express są zasilane z płyty głównej do 75 watów. Karty o wyższym poborze prądu posiadają dodatkowe złącza zasilania:

Układ chłodzenia

Karty graficzne potrzebują układu chłodzenia. Stosowane są trzy rozwiązania:

Pamięć RAM karty graficznej zazwyczaj jest chłodzona wspólnie z GPU.

Multi-GPU

Dawniej istniały technologie łączenia kart graficznych, takie jak:

Współczesne połączenia GPU obejmują PCIe, NVLink, NV-SLI, NVSwitch oraz GPUDirect.

Różnice w terminologii

Termin „akcelerator graficzny” pojawił się w latach 90. Karta graficzna jest często nazywana GPU, co odnosi się wyłącznie do procesora graficznego.

Znaczenie kart graficznych

Karty graficzne są wykorzystywane w nauce, AI, kryptowalutach oraz renderowaniu grafiki i wyświetlaniu obrazu.