Grafische kaart - alles wat u moet weten

Inhoudsopgave:
- De grafische kaart en het gaming-tijdperk
- Waarom GPU en CPU scheiden
- Wat doet de CPU
- En wat doet de GPU
- Wat de CPU en GPU samen doen
- Wat is een APU?
- Een beetje geschiedenis
- De sprong naar kaarten met rijke graphics
- Het PCI-slot arriveert en daarmee de revolutie
- De PCI Express-bus en de huidige grafische kaarten
- Onderdelen en hardware van een grafische kaart
- Hoe krachtig is een grafische kaart
- De testbenchmarks voor grafische kaart
- Grootte is belangrijk ... en ook het koellichaam
- Gepersonaliseerde kaarten
- Hoe is de GPU of grafische kaart van een gaming-laptop
- Welke CPU monteer ik volgens mijn grafische kaart
- Goedkope multimedia- en kantoorapparatuur
- Apparatuur voor algemeen gebruik en low-end gaming
- Computer met grafische kaart voor gamen in het midden- en hoge bereik
- Enthousiast gaming- en ontwerpteam
- Conclusie over de grafische kaart en onze aanbevolen modellen
In het tijdperk van gamingcomputers heeft de grafische kaart net zoveel of bijna meer belang gewonnen dan de CPU. Veel gebruikers vermijden zelfs het kopen van krachtige CPU's om geld te investeren in dit belangrijke onderdeel dat verantwoordelijk is voor het verwerken van alles wat met texturen en afbeeldingen te maken heeft. Maar hoeveel weet u over deze hardware? Hier leggen we alles uit, of iets minder alles wat we het belangrijkst vinden.
Inhoudsindex
De grafische kaart en het gaming-tijdperk
Ongetwijfeld is de meest gebruikte term om GPU's te noemen die van een grafische kaart, hoewel het niet precies hetzelfde is en we zullen het uitleggen. Een GPU of grafische verwerkingseenheid is in feite een processor die is gebouwd om grafische afbeeldingen te verwerken. De term lijkt duidelijk erg op CPU, dus het is belangrijk om onderscheid te maken tussen de twee elementen.
Als we het hebben over een grafische kaart, hebben we het echt over de fysieke component. Deze is opgebouwd uit een printplaat die onafhankelijk is van het moederbord en voorzien is van een connector, normaal PCI-Express, waarmee hij op het moederbord zelf wordt aangesloten. Op deze print hebben we de GPU geïnstalleerd, en ook het grafische geheugen of VRAM samen met componenten zoals VRM, aansluitpoorten en de heatsink met zijn fans.
Gamen zou niet bestaan zonder grafische kaarten, vooral als we het hebben over computers of pc's. In het begin zal iedereen weten dat computers geen grafische interface hadden, we hadden alleen een zwart scherm met de opdracht om commando's in te voeren. Die basisfuncties bevinden zich nog lang niet in het gaming-tijdperk, waarin we apparatuur hebben met een perfecte grafische interface en in enorme resoluties die ons in staat stellen om te gaan met omgevingen en personages alsof het echt is.
Waarom GPU en CPU scheiden
Om over eigen grafische kaarten te praten, moeten we eerst weten wat ze ons brengen en waarom ze tegenwoordig zo belangrijk zijn. Tegenwoordig konden we ons geen gamingcomputer voorstellen zonder een fysiek gescheiden CPU en GPU.
Wat doet de CPU
Hier hebben we het vrij eenvoudig, omdat we allemaal een idee kunnen krijgen van wat de microprocessor in een computer doet. Het is de centrale verwerkingseenheid, waar alle door de programma's gegenereerde instructies en een groot deel van de door de randapparatuur en de gebruiker zelf verzonden instructies doorheen gaan. De programma's worden gevormd door een opeenvolging van instructies die zullen worden uitgevoerd om een antwoord te genereren op basis van een invoerprikkel, het kan een simpele klik, een commando of het besturingssysteem zelf zijn.
Nu komt er een detail dat we moeten onthouden als we zien wat de GPU is. De CPU bestaat uit kernen en een groot formaat kunnen we zeggen. Elk van hen is in staat om de ene instructie na de andere uit te voeren, hoe meer kernen, omdat er meer instructies tegelijkertijd kunnen worden uitgevoerd. Er zijn veel soorten programma's op een pc en veel soorten instructies die zeer complex zijn en in verschillende fasen zijn onderverdeeld. Maar de waarheid is dat een programma niet een groot aantal van deze instructies parallel genereert. Hoe zorgen we ervoor dat de CPU elk programma dat we installeren 'begrijpt'? Wat we nodig hebben zijn weinig kernen, erg complex, en die zijn erg snel om de instructies snel uit te voeren, dus we zullen merken dat het programma vloeiend is en reageert op wat we erom vragen.
Deze basisinstructies zijn gereduceerd tot wiskundige bewerkingen met gehele getallen, logische bewerkingen en ook enkele drijvende-kommabewerkingen. Deze laatste zijn het meest gecompliceerd omdat het zeer grote reële getallen zijn die met wetenschappelijke notatie in compactere elementen moeten worden weergegeven. De CPU wordt ondersteund door RAM, snelle opslag die actieve programma's opslaat en hun instructies om ze via een 64-bits bus naar de CPU te sturen.
En wat doet de GPU
Precies de GPU is nauw verwant aan deze drijvende-kommabewerkingen waarover we eerder hebben gesproken. In feite besteedt een grafische processor praktisch al zijn tijd aan het uitvoeren van dit soort bewerkingen, omdat ze veel te maken hebben met grafische instructies. Om deze reden wordt het vaak een wiskundige coprocessor genoemd, in feite is er een binnen de CPU, maar veel eenvoudiger dan de GPU.
Waar is een spel van gemaakt? Nou, eigenlijk de pixelbeweging dankzij een grafische engine. Het is niets meer dan een programma gericht op het emuleren van een digitale omgeving of wereld waarin we ons verplaatsen alsof het onze eigen omgeving is. In deze programma's hebben de meeste instructies te maken met pixels en hun beweging om texturen te vormen. Deze texturen hebben op hun beurt kleur, 3D-volume en fysieke eigenschappen van lichtreflectie. Dit alles is in feite drijvende-kommabewerkingen met matrices en geometrieën die tegelijkertijd moeten worden uitgevoerd.
Daarom heeft een GPU geen 4 of 6 kernen, maar duizenden om al deze specifieke bewerkingen steeds opnieuw parallel uit te voeren. Natuurlijk zijn deze kernen niet zo "slim" als de CPU-kernen, maar ze kunnen veel meer van dit soort bewerkingen tegelijk uitvoeren. De GPU heeft ook een eigen geheugen, GRAM, dat veel sneller is dan normaal RAM. Het heeft een veel grotere bus, tussen 128 en 256 bits om veel meer instructies naar de GPU te sturen.
In de video die we je laten linken, bootsen de mythejagers de werking van een CPU en een GPU na en in termen van hun aantal cores als het gaat om het schilderen van een foto.
youtu.be/-P28LKWTzrI
Wat de CPU en GPU samen doen
Op dit punt had je misschien al gedacht dat de gaming-computer in gaming-computers ook de uiteindelijke prestaties van het spel en de FPS beïnvloedt. Het is duidelijk dat er veel instructies zijn die onder de verantwoordelijkheid van de CPU vallen.
De CPU is verantwoordelijk voor het verzenden van gegevens in de vorm van hoekpunten naar de GPU, zodat deze "begrijpt" wat fysieke transformaties (bewegingen) met de texturen moeten doen. Dit wordt de Vertex Shader of bewegingsfysica genoemd. Hierna verkrijgt de GPU informatie over welke van deze hoekpunten zichtbaar zullen zijn, waardoor de zogenaamde pixel-clipping door rastering plaatsvindt. Als we de vorm en zijn beweging al kennen, is het tijd om de texturen toe te passen, in Full HD, UHD of een andere resolutie, en de bijbehorende effecten, het zou het Pixel Shader- proces zijn .
Om dezelfde reden, hoe meer kracht de CPU heeft, hoe meer hoekpuntinstructies hij naar de GPU kan sturen en hoe beter hij deze zal vergrendelen. Het belangrijkste verschil tussen deze twee elementen zit dus in het specialisatieniveau en de mate van parallellisme in de verwerking voor de GPU.
Wat is een APU?
We hebben al gezien wat een GPU is en de functie ervan op een pc en de relatie met de processor. Maar het is niet het enige bestaande element dat 3D-afbeeldingen kan verwerken, en daarom hebben we de APU of Accelerated Processor Unit.
Deze term is uitgevonden door AMD om de processors een naam te geven met een GPU die in hetzelfde pakket is geïntegreerd. Dit betekent inderdaad dat we binnen de processor zelf een chip hebben of beter gezegd, een chipset die uit meerdere kernen bestaat en die op dezelfde manier met 3D-graphics kan werken als een grafische kaart. Veel van de huidige processors hebben zelfs dit type processor, IGP (Integrated Graphics Processor) genaamd, in zichzelf.
Maar natuurlijk kunnen we a priori de prestaties van een grafische kaart niet vergelijken met duizenden interne kernen met een IGP die in de CPU zelf is geïntegreerd. De verwerkingscapaciteit is dus nog steeds veel lager, in termen van brutovermogen. Hieraan voegen we het feit toe dat we niet beschikken over een speciaal geheugen zo snel als de GDDR van de grafische kaarten, genoeg met een deel van het RAM-geheugen voor zijn grafisch beheer.
We noemen onafhankelijke grafische kaarten speciale grafische kaarten, terwijl we interne grafische kaarten van IGP noemen. De Intel Core ix-processors hebben bijna allemaal een geïntegreerde GPU genaamd Intel HD / UHD Graphics, behalve de modellen met de "F" aan het einde. AMD doet hetzelfde met sommige van zijn CPU's, met name de Ryzen van de G-serie en de Athlon, met graphics genaamd Radeon RX Vega 11 en Radeon Vega 8.
Een beetje geschiedenis
Verreweg de oude computers met alleen tekst die we nu hebben, maar als er in alle tijden iets is geweest, is de wens om steeds gedetailleerdere virtuele werelden te creëren om onszelf onder te dompelen.
In de eerste algemene consumentenapparatuur met Intel 4004, 8008 en bedrijfsprocessors hadden we al grafische kaarten of iets dergelijks. Deze waren alleen beperkt tot het interpreteren van de code en het weergeven ervan op een scherm in de vorm van platte tekst van ongeveer 40 of 80 kolommen, en natuurlijk in zwart-wit. In feite heette de eerste grafische kaart MDA (Monocrome Data Adapter). Het had zijn eigen RAM van maar liefst 4KB, om perfecte afbeeldingen in de vorm van platte tekst op 80 × 25 kolommen weer te geven.
Hierna kwam de CGA (Color Graphics Adapter) grafische kaart, in 1981 begon IBM met het op de markt brengen van de eerste grafische kaart in kleur. Het was in staat om 4 kleuren tegelijkertijd weer te geven vanuit een intern 16-palet met een resolutie van 320 × 200. In tekstmodus kon het de resolutie verhogen tot 80 × 25 kolommen of wat gelijk is aan 640 × 200.
We blijven vooruitgaan, met de HGC of Hercules grafische kaart, de naam belooft! Een monochrome kaart die de resolutie verhoogde tot 720 × 348 en naast een CGA kon werken om tot twee verschillende video-uitgangen te hebben.
De sprong naar kaarten met rijke graphics
Of liever EGA, Enharced Graphics Adapter die in 1984 werd gemaakt. Dit was de eerste grafische kaart zelf, die in staat was om te werken met 16 kleuren en resoluties tot 720 × 540 voor ATI Technologies- modellen, klinkt dat je bekend voor, toch?
In 1987 wordt een nieuwe resolutie geproduceerd en wordt de ISA- videoconnector verlaten om de VGA- poort (Video Graphics Array) te gebruiken, ook wel Sub15-D genoemd, een analoge seriële poort die tot voor kort werd gebruikt voor CRT's en zelfs panelen TFT. De nieuwe grafische kaarten verhoogden het kleurenpalet tot 256 en het VRAM-geheugen tot 256KB. Op dit moment begonnen computerspellen zich veel complexer te ontwikkelen.
Het was in 1989 toen grafische kaarten stopten met het gebruik van kleurenpaletten en kleurdiepte begonnen te gebruiken. Met de VESA-standaard als aansluiting op het moederbord werd de bus uitgebreid naar 32 bits, waardoor ze dankzij de monitoren met de SuperVGA-poort al met miljoenen kleuren en resoluties tot 1024x768p konden werken. Kaarten die zo iconisch zijn als de ATI Match 32 of Match 64 met een 64-bit interface behoorden tot de beste van de tijd.
Het PCI-slot arriveert en daarmee de revolutie
De VESA-standaard was een geweldige grote bus, dus in 1993 evolueerde hij naar de PCI-standaard, degene die we vandaag hebben met zijn verschillende generaties. Hierdoor konden we kleinere kaarten, en veel fabrikanten voegden zich bij de partij zoals Creative, Matrox, 3dfx met hun Voodoo en Voodoo 2, en een Nvidia met zijn eerste RIVA TNT- en TNT2-modellen die in 1998 werden uitgebracht. Op dat moment verschenen de eerste specifieke bibliotheken voor 3D-versnelling, zoals DirectX van Microsoft en OpenGL van Silicon Graphics.
Al snel werd de PCI-bus te klein, met kaarten die 16 bits en 3D-afbeeldingen konden adresseren met een resolutie van 800x600p, dus werd de AGP-bus (Advanced Graphics Port) gemaakt. Deze bus had een 32-bit PCI-achtige interface, maar breidde zijn bus uit met 8 extra kanalen om sneller met RAM te communiceren. De bus werkte op 66 MHz en 256 Mbps aan bandbreedte, met tot 8 versies (AGP x8) tot 2, 1 GB / s, die in 2004 zouden worden vervangen door de PCIe-bus.
Hier hebben we de twee grote 3D grafische kaartbedrijven zoals Nvidia en ATI al heel goed gevestigd. Een van de eerste kaarten die het nieuwe tijdperk markeerde, was de Nvidia GeForce 256, die T & L-technologie (berekeningen voor belichting en geometrie) implementeerde. Dan rangschikt het boven zijn rivalen omdat het de eerste 3D-polygoon grafische versneller is en compatibel met Direct3D. Kort daarna zou ATI zijn eerste Radeon uitbrengen, en zo de namen van beide fabrikanten vormgeven voor zijn gaming grafische kaarten die tot op de dag van vandaag blijven bestaan, zelfs na de aankoop van ATI door AMD.
De PCI Express-bus en de huidige grafische kaarten
En tot slot komen we bij het huidige tijdperk van grafische kaarten, toen in 2004 de VGA-interface niet meer werkte en werd vervangen door PCI-Express. Deze nieuwe bus maakte overdrachten tot 4 GB / s mogelijk, zowel omhoog als omlaag tegelijkertijd (250 MB x 16 rijstroken). Aanvankelijk zou het worden aangesloten op de noordbrug van het moederbord en zou het een deel van het RAM gebruiken voor video, met de naam TurboCaché of HyperMemory. Maar later met de opname van de noordbrug in de CPU zelf, zouden deze 16 PCIe-banen rechtstreeks in verbinding staan met de CPU.
Het tijdperk van ATI Radeon HD en Nvidia GeForce begon en werd de toonaangevende exponenten van grafische videokaarten voor computers op de markt. Nvidia zou snel het voortouw nemen met een GeForce 6800 die DirectX 9.0c ondersteunde versus een ATI Radeon X850 Pro die een beetje achterbleef. Daarna ontwikkelden beide merken de unified shader-architectuur met hun Radeon HD 2000 en hun GeForce 8- serie. In feite was de krachtige Nvidia GeForce 8800 GTX een van de krachtigste kaarten van zijn generatie, en zelfs de kaarten die erop volgden, aangezien het de definitieve sprong naar de suprematie van Nvidia was. In 2006 was het toen AMD ATI kocht en hun kaarten werden omgedoopt tot AMD Radeon.
Eindelijk staan we op kaarten die compatibel zijn met DirectX 12, Open GL 4.5 / 4.6- bibliotheken, de eerste zijn de Nvidia GTX 680 en de AMD Radeon HD 7000. Opeenvolgende generaties zijn afkomstig van de twee fabrikanten, in het geval van Nvidia hebben we de architecturen Maxwell (GeForce 900), Pascal (GeForce 10) en Turing (Geforce 20), terwijl AMD de Polaris (Radeon RX), GCN (Radeon Vega) en nu de RDNA (Radeon RX 5000).
Onderdelen en hardware van een grafische kaart
We gaan de belangrijkste onderdelen van een grafische kaart bekijken om te bepalen welke elementen en technologieën we moeten weten wanneer we er een kopen. Natuurlijk gaat de technologie veel vooruit, dus we zullen geleidelijk updaten wat we hier zien.
Chipset of GPU
We weten al vrij goed wat de functie van de grafische processor van een kaart is, maar het zal belangrijk zijn om te weten wat we binnenin hebben. Het is de kern ervan en binnenin vinden we een groot aantal kernen die verantwoordelijk zijn voor het uitvoeren van verschillende functies, vooral in de architectuur die momenteel wordt gebruikt door Nvidia. Binnenin vinden we de respectievelijke kernen en het cachegeheugen geassocieerd met de chip, die normaal gesproken L1 en L2 heeft.
In een Nvidia GPU vinden we de CUDA- of CUDA-kernen, die als het ware verantwoordelijk zijn voor het uitvoeren van de algemene drijvende-kommaberekeningen. Deze kernen in AMD-kaarten worden Stream Processors genoemd. Hetzelfde aantal op kaarten van verschillende fabrikanten betekent niet dezelfde capaciteit, omdat deze afhankelijk zijn van de architectuur.
Daarnaast beschikt Nvidia ook over Tensor-kernen en RT-kernen. Deze kernen zijn bedoeld voor de processor met complexere instructies over real-time ray tracing, een van de belangrijkste mogelijkheden van de nieuwe generatie kaart van de fabrikant.
GRAM-geheugen
Het GRAM-geheugen heeft praktisch dezelfde functie als het RAM-geheugen van onze computer en slaat de texturen en elementen op die in de GPU zullen worden verwerkt. Bovendien vinden we zeer grote capaciteiten, met meer dan 6 GB momenteel in bijna alle high-end grafische kaarten.
Het is een DDR-type geheugen, net als RAM, dus de effectieve frequentie zal altijd twee keer de klokfrequentie zijn, iets om in gedachten te houden als het gaat om overklokken en specificatiegegevens. Momenteel gebruiken de meeste kaarten GDDR6-technologie, als je DDR6 hoort, terwijl ze in normaal RAM DDR4 zijn. Deze geheugens zijn veel sneller dan DDR4 en bereiken effectief frequenties tot 14.000 MHz (14 Gbps) met een klok op 7.000 MHz. Bovendien is de busbreedte veel groter, soms tot 384 bits op Nvidia top bereik.
Maar er is nog een tweede geheugen dat AMD heeft gebruikt voor zijn Radeon VII, in het geval van de HBM2. Dit geheugen heeft geen snelheden zo hoog als GDDR6, maar biedt ons in plaats daarvan een brute busbreedte van maximaal 2048 bits.
VRM en TDP
De VRM is het element dat verantwoordelijk is voor het leveren van stroom aan alle componenten van de grafische kaart, met name de GPU en het GRAM-geheugen. Het bestaat uit dezelfde elementen als de VRM van een moederbord, met zijn MOSFETS die werken als gelijkstroom-gelijkstroom-gelijkrichters, de smoorspoelen en de condensatoren. Evenzo zijn deze fasen onderverdeeld in V_core en V-SoC, voor GPU en geheugen.
Aan de TDP-kant betekent het ook precies hetzelfde als op een CPU. Het gaat niet om het stroomverbruik van de processor, maar om het vermogen in de vorm van warmte die een maximale belasting genereert.
Om de kaart van stroom te voorzien, hebben we een stroomconnector nodig. Momenteel worden 6 + 2-pins configuraties gebruikt voor de kaarten, aangezien de PCIe-sleuf zelf slechts een maximum van 75 W kan leveren, terwijl een GPU meer dan 200 W kan verbruiken.
Verbindingsinterface
De verbindingsinterface is de manier om de grafische kaart op het moederbord aan te sluiten. Momenteel werken absoluut alle speciale grafische kaarten via de PCI-Express 3.0-bus, behalve de nieuwe AMD Radeon XR 5000-kaarten, die zijn geüpgraded naar PCIe 4.0 Bus.
Om praktische redenen zullen we geen verschil merken, aangezien de hoeveelheid gegevens die momenteel wordt uitgewisseld op deze 16-lijns bus veel kleiner is dan de capaciteit. Uit nieuwsgierigheid is PCIe 3.0 x16 in staat om 15, 8 GB / s gelijktijdig op en neer te dragen, terwijl PCIe 4.0 x16 de capaciteit verdubbelt tot 31, 5 GB / s. Binnenkort zullen alle GPU's PCIe 4.0 zijn, dit is duidelijk. We hoeven ons geen zorgen te maken over een PCIe 4.0-kaart en een 3.0-kaart, omdat de standaard altijd achterwaartse compatibiliteit biedt.
Videopoorten
Last but not least hebben we de video-connectoren, die we nodig hebben om onze monitor of monitoren aan te sluiten en het beeld te verkrijgen. In de huidige markt hebben we vier soorten videoverbindingen:
- HDMI: High-Definition Multimedia Interface is een communicatiestandaard voor ongecomprimeerde multimedia-apparaten met beeld en geluid. De HDMI-versie heeft invloed op de beeldcapaciteit die we van de grafische kaart kunnen krijgen. De nieuwste versie is HDMI 2.1, die een maximale resolutie van 10K biedt, 4K bij 120Hz en 8K bij 60Hz. Terwijl versie 2.0 4K @ 60Hz in 8 bits biedt. DisplayPort: het is ook een seriële interface met ongecomprimeerd geluid en beeld. Net als voorheen zal de versie van deze poort erg belangrijk zijn, en we hebben er minimaal 1.4 nodig, omdat deze versie ondersteuning biedt voor het afspelen van inhoud in 8K bij 60 Hz en in 4K bij 120 Hz met niet minder dan 30 bits. en in HDR. Zonder twijfel de beste van vandaag. USB-C: USB Type-C bereikt steeds meer apparaten dankzij de hoge snelheid en de integratie met interfaces zoals DisplayPort en Thunderbolt 3 met 40 Gbps. Deze USB heeft DisplayPort Alternate Mode, zijnde de DisplayPort 1.3, met ondersteuning voor het weergeven van beelden in 4K resolutie bij 60 Hz. Evenzo kan Thunderbolt 3 onder dezelfde omstandigheden inhoud afspelen in UHD. DVI: het is een onwaarschijnlijke connector om het in huidige monitoren te vinden, aangezien het de evolutie is van VGA naar een high-definition digitaal signaal. Als we het kunnen vermijden, beter dan beter, is DVI-DL de meest voorkomende.
Hoe krachtig is een grafische kaart
Om te verwijzen naar de kracht van een grafische kaart, is het noodzakelijk om enkele concepten te kennen die gewoonlijk voorkomen in de specificaties en benchmarks. Dit is de beste manier om de grafische kaart die we willen kopen grondig te leren kennen en ook te vergelijken met de concurrentie.
FPS-tarief
De FPS is de framerate of frames per seconde. Het meet de frequentie waarmee het scherm de afbeeldingen van een video, game of wat erop wordt weergegeven weergeeft. FPS heeft veel te maken met hoe we beweging in een afbeelding waarnemen. Hoe meer FPS, hoe vloeiender het gevoel dat een foto ons geeft. Met een snelheid van 60 FPS of hoger zal het menselijk oog onder normale omstandigheden een volledig vloeiend beeld waarderen, dat de realiteit zou simuleren.
Maar natuurlijk is niet alles afhankelijk van de grafische kaart, aangezien de verversingssnelheid van het scherm de FPS zal markeren die we zullen zien. FPS is hetzelfde als Hz, en als een scherm 50 Hz is, wordt de game bekeken met maximaal 60 FPS, zelfs als de GPU het kan spelen met 100 of 200 FPS. Om te weten wat de maximale FPS-snelheid zou zijn die de GPU zou kunnen vertegenwoordigen, moeten we verticale synchronisatie in de spelopties uitschakelen.
Architectuur van uw GPU
Voordat we hebben gezien dat GPU's een bepaald aantal fysieke kernen hebben, kunnen we denken dat hoe meer, hoe beter de prestaties ons zullen opleveren. Maar dit is niet precies zo, aangezien, net als bij de CPU-architectuur, de prestaties zullen variëren, zelfs met dezelfde snelheid en dezelfde cores. We noemen dit IPC of instructies per cyclus.
De architectuur van grafische kaarten is in de loop van de tijd geëvolueerd tot spectaculaire prestaties. Ze ondersteunen 4K-resoluties boven 60Hz of zelfs 8K-resoluties. Maar het belangrijkste is dat het in staat is om texturen in realtime te animeren en weer te geven met licht, net zoals onze ogen dat in het echte leven doen.
Momenteel hebben we de Nvidia met zijn Turing-architectuur, die 12nm FinFET-transistors gebruikt om de chipsets van de nieuwe RTX te bouwen. Deze architectuur heeft twee differentiële elementen die tot nu toe niet voorkwamen in consumentenapparatuur, de Ray Tracing- mogelijkheid in realtime en de DLSS (Deep Learning Super Sampling). De eerste functie probeert te simuleren wat er in de echte wereld gebeurt, door te berekenen hoe licht in realtime virtuele objecten beïnvloedt. Ten tweede is het een reeks algoritmen voor kunstmatige intelligentie waarmee de kaart de texturen met een lagere resolutie weergeeft om de prestaties van het spel te optimaliseren, het is als een soort antialiasing. Ideaal is om DLSS en Ray Tracing te combineren.
Aan de AMD-kant heeft het ook architectuur vrijgegeven, hoewel het waar is dat het naast de onmiddellijk voorgaande naast elkaar bestaat om een breed scala aan kaarten te hebben die, hoewel het waar is, niet op het niveau van het topbereik van Nvidia zijn. Met RDNA heeft AMD de IPC van zijn GPU's met 25% verhoogd in vergelijking met de CNG-architectuur, waardoor 50% meer snelheid wordt bereikt voor elke verbruikte watt.
Klokfrequentie en turbomodus
Naast de architectuur zijn twee parameters erg belangrijk om de prestaties van een GPU te zien, namelijk die van de basisklokfrequentie en de toename van de fabrieks turbo- of overklokmodus. Net als bij CPU's, kunnen GPU's ook op elk gewenst moment hun grafische verwerkingsfrequentie variëren.
Als je kijkt, zijn de frequenties van grafische kaarten veel lager dan die van processors, namelijk rond 1600-2000 MHz. Dit komt omdat het grotere aantal kernen voorziet in de behoefte aan een hogere frequentie, om de TDP van de kaart te regelen.
Op dit punt is het essentieel om te weten dat we in de markt referentiemodellen en gepersonaliseerde kaarten hebben. De eerste zijn de modellen die door de fabrikanten zelf zijn uitgebracht, Nvidia en AMD. Ten tweede nemen fabrikanten in feite GPU's en herinneringen om die zelf samen te stellen met beter presterende componenten en heatsinks. Het geval is dat de klokfrequentie ook verandert en dat deze modellen sneller zijn dan de referentiemodellen.
TFLOPS
Samen met de klokfrequentie hebben we de FLOPS (Floating Point Operations per seconde). Deze waarde meet de drijvende-kommabewerkingen die een processor in één seconde kan uitvoeren. Het is een figuur die het bruto vermogen van de GPU meet, en ook van de CPU's. Momenteel kunnen we niet simpelweg praten over FLOSP, afkomstig van TeraFLOPS of TFLOPS.
We moeten niet in de war raken als we denken dat meer TFLOPS betekent dat onze grafische kaart beter is. Dit is normaal gesproken het geval, omdat u texturen vrijer moet kunnen verplaatsen. Maar andere elementen zoals de hoeveelheid geheugen, de snelheid en de architectuur van de GPU en de cache zullen het verschil maken.
TMU's en ROP's
Dit zijn termen die op alle grafische kaarten zullen verschijnen en ze geven ons een goed idee van de werksnelheid ervan.
TMU staat voor Texture Mapping Unit. Dit element is verantwoordelijk voor het dimensioneren, roteren en vervormen van een bitmapafbeelding om deze in een 3D-model te plaatsen dat als textuur zal dienen. Met andere woorden, het past een kleurenkaart toe op een 3D-object dat a priori leeg zal zijn. Hoe meer TMU, hoe hoger de textuurprestaties, hoe sneller de pixels worden gevuld en hoe meer FPS we zullen krijgen. Huidige TMU's zijn onder meer Texture Direction Units (TA) en Texture Filter Units (TF).
Nu gaan we kijken om de ROP's of Raster Units te zien. Deze eenheden verwerken de texel-informatie uit het VRAM-geheugen en voeren matrix- en vectorbewerkingen uit om een uiteindelijke waarde aan de pixel te geven, wat de diepte zal zijn. Dit wordt rasterisatie genoemd en in feite de antialiasing of het samenvoegen van de verschillende pixelwaarden in het geheugen regelen. DLSS is precies een evolutie van dit proces om te genereren
Hoeveelheid geheugen, bandbreedte en busbreedte
We weten dat er verschillende soorten technologieën zijn voor VRAM-geheugen, waarvan momenteel de meest gebruikte GDDR5 en GDDR6 zijn, met snelheden tot 14 Gbps voor de laatste. Net als bij RAM, hoe meer geheugen, hoe meer pixel-, tekst- en tekstgegevens we kunnen opslaan. Dit heeft grote invloed op de resolutie waarop we spelen, het detailniveau in de wereld en de kijkafstand. Momenteel heeft een grafische kaart minimaal 4 GB VRAM nodig om te kunnen werken met de nieuwe generatie games op Full HD en hogere resoluties.
De geheugenbusbreedte vertegenwoordigt het aantal bits dat kan worden verzonden in een woord of instructie. Deze zijn veel langer dan die van CPU's, met lengtes tussen 192 en 384 bits, laten we het concept van parallellisme bij verwerking onthouden.
Geheugenbandbreedte is de hoeveelheid informatie die per tijdseenheid kan worden overgedragen en wordt gemeten in GB / s. Hoe groter de busbreedte en hoe groter de geheugenfrequentie, hoe meer bandbreedte we zullen hebben, want hoe groter de hoeveelheid informatie die er doorheen kan reizen. Het is net als internet.
API-compatibiliteit
Een API is in feite een verzameling bibliotheken die worden gebruikt om verschillende applicaties te ontwikkelen en ermee te werken. Het betekent applicatieprogrammering en is de manier waarop verschillende applicaties met elkaar communiceren.
Als we naar de multimediale wereld gaan, hebben we ook API's die de bediening en creatie van games en video mogelijk maken. De meest bekende is DirectX, dat sinds 2014 in de 12e versie zit, en in de laatste updates Ray Tracing, programmeerbare MSAA en virtual reality-mogelijkheden heeft geïmplementeerd. De open source-versie is OpenGL, dat is versie 4.5 en wordt ook door veel games gebruikt. Eindelijk hebben we Vulkan, een API die speciaal voor AMD is ontwikkeld (de broncode was van AMD en werd overgebracht naar Khronos).
Overklokmogelijkheden
Voordat we het hadden over de turbofrequentie van de GPU's, maar het is ook mogelijk om deze boven de limieten te brengen door deze te overklokken. Deze praktijk probeert in feite meer FPS in games te vinden, meer vloeiend om onze respons te verbeteren.
De overklokcapaciteit van de CPU's ligt rond de 100 of 150 MHz, hoewel sommige in staat zijn iets meer of iets minder te ondersteunen, afhankelijk van hun architectuur en maximale frequentie.
Maar het is ook mogelijk om de GDDR-geheugens te overlocken en ook veel. Een gemiddeld GDDR6-geheugen dat werkt op 7000 MHz ondersteunt uploads tot 900 en 1000 MHz, en bereikt zo tot 16 Gbps effectief. In feite is het het element dat de FPS-snelheid van het spel het meest verhoogt, met een toename van zelfs 15 FPS.
Enkele van de beste overklokprogramma's zijn Evga Precision X1, MSI AfterBurner en AMD WattMan voor Radeons. Hoewel veel fabrikanten hun eigen hebben, zoals AORUS, Colourful, Asus, etc.
De testbenchmarks voor grafische kaart
Benchmarks zijn stress- en prestatietests die bepaalde hardwaresupplementen van onze pc ondergaan om hun prestaties te evalueren en te vergelijken met andere producten op de markt. Natuurlijk zijn er benchmarks om de prestaties van grafische kaarten en zelfs de grafische CPU-set te evalueren.
Deze tests tonen bijna altijd een dimensieloze score, dat wil zeggen dat ze alleen kunnen worden gekocht met de tests die door dat programma zijn gegenereerd. Aan de andere kant zou de FPS staan en bijvoorbeeld TFLOPS. De meest gebruikte programma's voor benchmarks voor grafische kaarten zijn 3DMark, dat een groot aantal verschillende tests heeft, PassMark, VRMark of GeekBench. Ze hebben allemaal hun eigen statistiekentabel om onze GPU met de concurrentie te kopen.
Grootte is belangrijk… en ook het koellichaam
Natuurlijk maakt het vrienden uit, dus voordat we een grafische kaart kopen, is het minste wat we kunnen doen om naar de specificaties te gaan en te kijken wat hij meet. Laten we dan naar ons chassis gaan en meten welke ruimte we daarvoor beschikbaar hebben.
Dedicated grafische kaarten hebben zeer krachtige GPU's met een TDP van meer dan 100W in allemaal. Dit betekent dat ze behoorlijk heet worden, in feite zelfs heter dan processors. Om deze reden hebben ze allemaal grote heatsinks die bijna de hele elektronische printplaat beslaan.
In de markt vinden we in principe twee soorten heatsinks.
- Blower: Dit type koellichaam is bijvoorbeeld degene met de referentiemodellen AMD Radeon RX 5700 en 5700 XT of de vorige Nvidia GTX 1000. Een enkele ventilator zuigt verticale lucht aan en laat deze door het lamellen koellichaam stromen. Deze heatsinks zijn erg slecht, omdat het weinig lucht nodig heeft en de doorvoersnelheid door de heatsink laag is. Axiale stroming: ze zijn de fans van je leven, verticaal in het koellichaam geplaatst en duwen de lucht naar de vinnen die later uit de zijkanten zullen komen. Het wordt gebruikt in alle aangepaste modellen omdat het degene is die de beste prestaties levert. Zelfs vloeistofkoeling: sommige topmodellen hebben koellichamen met een vloeistofkoelsysteem, bijvoorbeeld de Asus Matrix RTX 2080 Ti.
Gepersonaliseerde kaarten
We noemen de grafische modellen samengesteld door generieke hardwarefabrikanten zoals Asus, MSI, Gigabyte, etc. Deze kopen de grafische chips en herinneringen rechtstreeks van de hoofdfabrikant, AMD of Nvidia, en monteren ze vervolgens op een door hen gemaakte printplaat samen met een eveneens door hen gecreëerde heatsink.
Het goede aan deze kaart is dat ze in de fabriek overgeklokt worden, met een hogere frequentie dan de referentiemodellen, dus ze zullen iets meer presteren. Zijn heatsink is ook beter en zijn VRM, en zelfs velen hebben RGB. Het slechte is dat ze meestal duurder zijn. Een ander positief aspect is dat ze vele soorten formaten aanbieden, voor ATX, Micro ATX of zelfs ITX-chassis, met zeer kleine en compacte kaarten.
Hoe is de GPU of grafische kaart van een gaming-laptop
Op dit punt vragen we ons zeker af of een laptop ook een speciale grafische kaart kan hebben, en de waarheid is dat dit zo is. In Professional Review analyseren we zelfs een groot aantal gaming-laptops met een speciale GPU.
In dit geval wordt het niet op een uitbreidingskaart geïnstalleerd, maar wordt de chipset direct op de hoofdprintplaat van de laptop gesoldeerd en zeer dicht bij de CPU. Deze ontwerpen worden meestal Max-Q genoemd omdat ze geen heatsink met vinnen hebben en voor hen een specifiek gebied in de basisplaat hebben.
In dit gebied is de onbetwiste koning Nvidia, met zijn RTX en GTX Max-Q. Het zijn chips die zijn geoptimaliseerd voor laptops en die 1/3 verbruiken in vergelijking met desktopmodellen en slechts 30% van hun prestaties opofferen. Dit wordt bereikt door de klokfrequentie te verlagen, soms door enkele kernen te verwijderen en de GRAM te vertragen.
Welke CPU monteer ik volgens mijn grafische kaart
Om te spelen en om allerlei taken op onze computer uit te voeren, moeten we altijd een balans in onze componenten vinden om knelpunten te voorkomen. Om dit terug te brengen tot de wereld van gaming en onze grafische kaarten, moeten we een balans bereiken tussen GPU en CPU, zodat geen van beide tekortschiet en de ander teveel misbruikt. Ons geld staat op het spel en we kunnen geen RTX 2080 kopen en installeren met een Core i3-9300F.
De centrale processor speelt een belangrijke rol bij het werken met afbeeldingen, zoals we al in eerdere secties hebben gezien. We moeten er dus voor zorgen dat het voldoende snelheid, kernen en verwerkingsdraden heeft om met de fysica en beweging van het spel of de video te werken en ze zo snel mogelijk naar de grafische kaart te sturen.
In ieder geval zullen we altijd de mogelijkheid hebben om de grafische instellingen van het spel aan te passen om de impact van een te trage CPU te verminderen. In het geval van de GPU is het eenvoudig om het gebrek aan prestaties te compenseren, alleen door de resolutie te verlagen, bereiken we geweldige resultaten. Met de CPU is het anders, want hoewel er minder pixels zijn, blijven de fysica en beweging bijna hetzelfde en kan het verlagen van de kwaliteit van deze opties de juiste game-ervaring sterk beïnvloeden. Hier zijn enkele opties die de CPU en andere op de GPU beïnvloeden:
Ze beïnvloeden GPU | Ze beïnvloeden de CPU |
Over het algemeen renderopties | Over het algemeen zijn de fysieke opties |
Anti-aliasing | Karakterbeweging |
Ray Tracing | Items weergegeven op het scherm |
Texturen | Deeltjes |
Mozaïekpatroon | |
Nabewerkt | |
Resolutie | |
Omgevingsocclusie |
Als we dit zien, kunnen we een min of meer algemene balans maken door de apparatuur te classificeren op basis van het doel waarvoor ze zijn gebouwd. Dit maakt het gemakkelijker om min of meer uitgebalanceerde specificaties te bereiken.
Goedkope multimedia- en kantoorapparatuur
We beginnen met de meest elementaire, of in ieder geval wat we beschouwen, afgezien van de mini-pc's met Celeron. Als we op zoek waren naar iets goedkoops, zou het het beste zijn om naar de Athlon-processors van AMD of Intel's Pentium Gold te gaan. In beide gevallen hebben we geïntegreerde grafische kaarten van goed niveau, zoals de Radeon Vega in het eerste geval, of de UHD Graphics in het geval van Intel, die hoge resoluties en behoorlijke prestaties ondersteunen bij niet veeleisende taken.
Op dit gebied is het volstrekt zinloos om een speciale grafische kaart te kopen. Het zijn CPU's met twee cores die niet genoeg zullen opleveren om de kosten van een kaart af te schrijven. Bovendien zullen de geïntegreerde grafische afbeeldingen ons een prestatie geven die vergelijkbaar is met wat een speciale GPU van 80-100 euro zou bieden.
Apparatuur voor algemeen gebruik en low-end gaming
We kunnen een apparaat voor algemeen gebruik beschouwen als een apparaat dat in veel verschillende omstandigheden goed zal reageren. Bijvoorbeeld surfen, werken op kantoor, kleine dingen doen in het ontwerp en zelfs video's bewerken op amateurniveau en af en toe spelen in Full HD (we kunnen hier niet komen om veel meer te vragen).
Op dit gebied zal de 4-core en hoogfrequente Intel Core i3 opvallen, en vooral de AMD Ryzen 3 3200G en 5 3400G met geïntegreerde Radeon RX Vega 11-graphics en een zeer aangepaste prijs. Deze Ryzen zijn in staat om een spel van de laatste generatie waardig te verplaatsen in lage kwaliteit en Full HD. Als we iets beters willen, gaan we verder met de volgende.
Computer met grafische kaart voor gamen in het midden- en hoge bereik
Maar als we meer willen, moeten we natuurlijk offers brengen, en dit is wat we willen als we een optimale spelervaring in Full HD of 2K in hoge kwaliteit willen verkrijgen. In dit geval zijn de becommentarieerde processors nog steeds een geweldige optie om 6-core te zijn, maar we zouden kunnen gaan naar de Ryzen 5 3600 en 3600X en de Intel Core i5-9600K. Hiermee is het de moeite waard om te upgraden naar Nvidia's RTX 2060/2070 Super en AMD's RX 5700/5700 XT.
Enthousiast gaming- en ontwerpteam
Hier zullen er veel renderingtaken en games zijn die maximaal met de filters worden uitgevoerd, dus we hebben een CPU van minimaal 8 kernen en een krachtige grafische kaart nodig. De AMD Ryzen 2700X of 3700X is een geweldige optie, of de Intel Core i7 8700K of 9700F. Samen met hen verdienen we een Nvidia RTX 2070 Super of een AMD Radeon RX 5700 XT.
En als we jaloers willen zijn op onze vrienden, laten we dan een RTX 2080 Super nemen, een beetje wachten op de Radeon 5800 en een AMD Ryzen 3900X of een Intel Core i9-9900K. Threadrippers zijn momenteel geen haalbare optie, hoewel de Intel X en XE van het LGA 2066-platform dat wel zijn en hun hoge kosten.
Conclusie over de grafische kaart en onze aanbevolen modellen
Tot dusver komt dit bericht waarin we voldoende gedetailleerd de huidige status van grafische kaarten uitleggen, evenals een beetje hun geschiedenis vanaf het begin ervan. Het is een van de meest populaire producten in de computerwereld, aangezien een gaming-pc zeker veel meer zal presteren dan een console.
Echte gamers gebruiken computers om te spelen, vooral in e-sport of competitieve gaming wereldwijd. Probeer daarin altijd de maximaal mogelijke prestaties te bereiken, de FPS te verhogen, de responstijden te verkorten en componenten te gebruiken die zijn ontworpen voor gaming. Maar zonder grafische kaarten zou niets mogelijk zijn.
- Welke grafische kaart moet ik kopen? De beste op de markt De beste grafische kaarten op de markt
Wat je moet weten over root, su en sudo in linux

Een attractie van Linux is de extra beveiligingslaag. In deze post vind je wat je moet weten over root, su, sudo en rootkits.
Geïntegreerde grafische kaart of speciale grafische kaart?

We leggen de verschillen uit tussen een geïntegreerde en een speciale grafische kaart. Daarnaast laten we u zijn prestaties zien in games in HD-resolutie, Full HD en die het waard is voor de aanschaf ervan.
Externe grafische kaart versus interne grafische kaart?

Interne of externe grafische kaart? Het is de grote twijfel die gebruikers van gaming-laptops hebben, of eenvoudige laptops. Binnenin het antwoord.