Karty graficzne – Opis, budowa, zasada działania, funkcje, technologie

Karta graficzna – karta rozszerzeń odpowiedzialna generowanie sygnału graficznego dla ekranu monitora. Podstawowym zadaniem karty graficznej jest odbiór i przetwarzanie otrzymywanych od komputera informacji o obrazie oraz odpowiednie wyświetlanie tegoż obrazu za pośrednictwem monitora.

Podział kart graficznych. Karty graficzne możemy podzielić na:

- Karty graficzne pracujące jako oddzielne układy – Można je wymieniać, są dużo szybsze od kart zintegrowanych. Współczesne karty graficzne do komunikacji z komputerem wykorzystują interfejs AGP, PCI lub PCIe.

Nvidia GeForce GTX 295

Nvidia GeForce GTX 295

- Karty graficzne zintegrowane z płytą główną (a dokładniej z mostkiem północnym) – Z powodu małych rozmiarów są one dużo wolniejsze od kart nie zintegrowanych. Jest to mniej popularny typ kart graficznych.

Mostek północny Intel i815EP

Mostek północny Intel i815EP

Budowa karty graficznej. Każda współczesna karta graficzna posiada:

- Procesor graficzny, GPU  (Graphics Processing Unit), koprocesor graficzny –  jest główną jednostką obliczeniową kart graficznych odpowiedzialną za generowanie obrazu.

NVIDIA GeForce 3 Ti 200 GPU

NVIDIA GeForce 3 Ti 200 GPU

- Pamięć obrazu  (VideoRAM), bufor ramki (framebuffer) –  Jest to odmiana kości pamięci RAM stosowana w kartach graficznych, przeznaczona wyłącznie do przetwarzania informacji o obrazie, teksturach oraz danych o głębi (z pamięci jest w tym celu wydzielany tzw. Bufor Z).

VRAM jest to pamięć  podlegająca jednoczesnemu zapisywaniu (przez kontroler graficzny) i odczytywaniu (przez przetwornik RAMDAC). Gdyby obydwie te czynności musiały by być wykonywane w jednym bloku pamięci przetwornik RAMDAC musiał by czekać na ukończenie zapisywania. Podobnie z było by z odczytem, kontroler karty graficznej musiał by czekać na odczytanie przez przetwornik wszystkich danych. Aby te dwa procesy nie kolidowały ze sobą wprowadzono podwójne buforowanie (Dual Buffering).Kontroler graficzny ma do dyspozycji dwa bloki pamięciowe. Jeśli jeden z nich wypełniany jest świeżą treścią (Back Buffer), drugi można oddać do dyspozycji RAMDAC, by przekazał kompletną zawartość na ekran (Front Buffer). W ten sposób zawsze jakiś bufor jest używany, a jakiś jest gotów do zapisu i wspomniane dwa procesy nie zakłócają się wzajemnie. Podwójne buforowanie nie zawsze się jednak sprawdza i mimo dwóch buforów i tak występują opóźnienia. Dlatego wprowadzono buforowanie potrójne i poczwórne (które wyeliminowało wady potrójnego)

- Pamięć ROM – pamięć przechowująca dane (np. dane generatora znaków) lub firmware karty graficznej, obecnie realizowana jako pamięć flash EEPROM

- RAMDAC (Random Access Memory Digital to Analog Converter) lub po prostu DAC – jest to układ scalony na karcie graficznej, przeznaczony do zmiany sygnału cyfrowego na analogowy. RADMAC pobiera dane o obrazie wygenerowanym przez procesor karty graficznej. Dane te są w postaci zbioru różnokolorowych punktów. RAMDAC zamienia je na sygnały analogowe i wysyła do monitora.  Konwerter zawiera 4 funkcjonalne bloki: pamięć SRAM, służącą do przechowywania mapy kolorów, oraz 3 przetworniki cyfrowo-analogowe (C/A), po jednym dla każdego koloru podstawowego modelu RGB . Częstotliwość pracy układu RAMDAC zależy od ustawionej rozdzielczości i częstotliwości odświeżania. W przypadku kart wyłącznie z wyjściem cyfrowym RAMDAC nie ma zastosowania.

- Interfejs do systemu komputerowego – umożliwia wymianę danych i sterowanie kartą graficzną, najczęściej jest to PCI, AGP, PCIe

- Interfejs na slocie karty graficznej – zazwyczaj P&D, DFP, VGA, DVI, HDMI, DisplayPort

Złącze DisplayPort

Złącze DisplayPort

HDMI

HDMI

DVI

DVI

VESA Plug and Display (P&D)

VESA Plug and Display (P&D)

Video Graphics Array (VGA)

Video Graphics Array (VGA)

Najważniejsze funkcje karty graficznej

- Technologia przetwarzania i oświetlenia (Transform and Lighting), T&L – W karcie graficznej jest odpowiedzialny za przyspieszanie obliczeń animacji. Jego brak obciąża procesor, przez co znacznie zmniejsza się płynność renderowania grafiki trójwymiarowej. Technologię T&L obecnie zastępuje cieniowanie (Shader)

- Shader (cieniowanie) – Program opisuje właściwości pikseli oraz wierzchołków. Cieniowanie pozwala na skomplikowane modelowanie oświetlenia i tekstur na. Jest jednak wymagające obliczeniowo i dlatego dopiero od kilku lat sprzętowa obsługa cieniowania jest obecna w kartach graficznych dla komputerów domowych. Biblioteki graficzne Direct3D i OpenGL używają trzech typów cieniowania:

Vertex Shader (Cieniowanie wierzchołkowe)
Geometry Shader (cieniowanie geometryczne)
Pixel Shader lub Fragment Shader (cieniowanie pikseli)

Obecnie, z uwagi na wymagania bibliotek DirectX w wersji 10, zniknął podział panujący dotychczas na Pixel i Vertex Shader. Obliczenia, jakimi te odrębne jednostki się zajmowały, są teraz wykonywane przez jednolite jednostki obliczeniowe, które są dynamicznie przydzielane do takiego typu obliczeń, jaki jest aktualnie potrzebny. Rozwiązanie takie zostało nazwane przez ATI Stream Processors a przez nVidię Unified Shaders.

- HDR rendering, rendering z użyciem szerokiego zakresu dynamicznego (High Dynamic Range Rendering) – Sposób generowania sceny trójwymiarowej przy użyciu większego niż normalnie zakresu jasności. Efektem tej technologii jest scena z realistycznym oświetleniem.

- Antyaliasing – Technologia wygładzanie krawędzi (łuków, okręgów oraz innych krzywych) poprzez nałożenie dodatkowych pikseli o mniejszym nasyceniu i jasności niż piksele obiektu oraz poprzez niewielką zmianę położenia pikseli w pobliżu krawędzi. Ze względu na coraz większe rozdzielczości monitorów (a tym samym mniejsze rozmiary plamek) antyaliasing nie jest już tak potrzebny. Szacuje się że za jakiś czas nie będzie już potrzebny.

- Efekty cząsteczkowe – Symulacje zjawisk (takich dym, pył, deszcz, ogień) budowanych z małych wirtualnych cząsteczek traktowanych jak obiekty punktowe które podlegają prawom fizyki oraz interakcji z otoczeniem.

- Mapowanie wypukłości (bump mapping) – Sposób teksturowanie obiektów symulujący wypukłości powierzchni, bez ingerencji w geometrię obiektu trójwymiarowego. Efektem może być gładka kula wyglądająca jak by była nierówna.

- Filtrowanie anizotropowe -  Technika filtrowania tekstur poprawiająca ich jakość.

Schemat blokowy karty graficznej.

Schemat blokowy karty graficznej GeForce 7800 GTX

Schemat blokowy karty graficznej GeForce 7800 GTX

Łączenie kart graficznych – SLI i CrossFire

SLI (Scalable Link Interface), interfejs skalowanego łącza – Technologia pozwalająca na wspólną pracę dwóch (lub więcej) kart graficznych w celu przyspieszenia renderowania obrazu. Obliczeniami nie zajmuje się tylko jeden układ.

W 1998 roku firma 3dfx po raz pierwszy zastosowała technologię SLI (Scan Line Interleave). Dwie karty Voodoo 2 połączone mostkiem pracowały w trybie przeplatania linii obrazu. Pierwsza karta generowała obraz składający się tylko z linii nieparzystych, druga zaś – z linii parzystych. Tak wygenerowane półobrazy łączone były w jedną klatkę. Metoda została nazwana skrótem “SLI” – od “Scan-Line Interleave” – przeplot linii skanujących. W grudniu 2000 r. NVIDIA Corporation wykupiła 3dfx włączając patenty oraz własność intelektualną. Technologia SLI wróciła w 2004 roku jako Scalable Link Interface. Dwie karty graficzne NVIDIA GeForce włożone w złącza PCI-Express 16x lub 8x wspólnie generują obraz. Obraz dzielony jest na dwie części, górną i dolną. Za rendering górnej połowy odpowiada pierwsza karta, dolnej – karta druga. Obie części obrazu nie są jednak sobie równe. Na początku obraz dzielony jest na dwie połowy. Następnie przeprowadzana jest analiza każdej z nich. Jeśli górna wymaga mniej obliczeń niż dolna, linia podziału przesuwana jest ku dołowi, analogicznie jeżeli dolna połowa wymaga mniej obliczeń linia podziału przesuwa się w górę tak, by wyrównać poziom obliczeń. Technologię tę wspierają tylko karty serii 6xxx, 7xxx, 8xxx, 9xxx oraz 2xx a dzięki nowym sterownikom można używać kart bez mostka SLI, co jednak zmniejsza wydajność. W tej chwili oficjalnie technologie SLI wspierają tylko płyty główne z chipsetem NVIDIA i na nowym chipie intel x58 pod procesory core i7. Modyfikując sterowniki można uruchomić SLi także na innych chipsetach zawierających gniazda fizycznie PCI-Express x16.

Dwie karty GeForce pracujące w trybie SLI

Dwie karty GeForce pracujące w trybie SLI

Mostki do łączenia kart graficznych do pracy w trybie SLI

Mostki do łączenia kart graficznych do pracy w trybie SLI

CrossFire, CrossFireX – Odpowiedź firmy ATI na technologię SLI. Technologia CrossFire dzieliona obraz idący do pierwszej karty graficznej (master) w ten sposób, że druga karta (slave)wykonuję połowę obliczeń. Druga karta jest układem wspomagającym.  CrossfireX jest kontynuacją technologii współpracującą z nowszymi kartami graficznymi i chipsetami. Obecnie większość kart VGA posiada układ CrossFire.

Cztery Radeony pracujące w trybie CrossFireX

Cztery Radeony pracujące w trybie CrossFireX

Eyefinity – Technologia opracowana przez ATI pozwalająca jednej karcie graficznej obsługiwać wiele monitorów (standardowo 3 a w przypadku Eyefinity6, jak sama nazwa wskazuje jest to 6 monitorów). Na potrzeby Eyefinity6 została stworzona specjalna karta Radeon HD5870 posiadająca sześć złączy mini-DisplayPort. Technologia Eyefinity pozwala na dowolne ułożenie monitorów co przedstawia obrazek poniżej:

Przykłady zastosowania technologii Eyefinity

Przykłady zastosowania technologii Eyefinity

Przykłady zastosowania technologii Eyefinity z Windows 7

Przykłady zastosowania technologii Eyefinity z Windows 7

Przykłady zastosowania technologii Eyefinity w grach z Samsung MD230

Przykłady zastosowania technologii Eyefinity w grach z Samsung MD230

Eyefinity w grach

Eyefinity w grach

Skopiuj adres wpisu:
Zwykły link
Strona HTML
Forum

Leave a comment

Your comment