Nvidia 【alle informatie】

Inhoudsopgave:
- Nvidia geschiedenis
- Nvidia GeForce en Nvidia Pascal, domineren gaming
- Kunstmatige intelligentie en Volta-architectuur
- De toekomst van Nvidia gaat door Turing en Ampere
- NVIDIA G-Sync, beëindigt problemen met beeldsynchronisatie
Nvidia Corporation, beter bekend als Nvidia, is een Amerikaans technologiebedrijf gevestigd in Delaware en gevestigd in Santa Clara, Californië. Nvidia ontwerpt grafische verwerkingseenheden voor de videogame- en professionele markten, evenals een chip-unit (SoC) -systeem voor de auto- en mobiele computermarkt. De belangrijkste productlijn, GeForce, concurreert rechtstreeks met AMD's Radeon-producten.
We raden u aan onze beste pc-hardware- en componenthandleidingen te lezen:
Naast het vervaardigen van GPU's, biedt Nvidia parallelle verwerkingsmogelijkheden voor onderzoekers en wetenschappers over de hele wereld, waardoor ze efficiënt krachtige toepassingen kunnen uitvoeren. Meer recentelijk heeft het de markt voor mobiele computers betreden, waar het Tegra mobiele processors produceert voor gameconsoles, tablets en autonome navigatie- en voertuigentertainmentsystemen. Dit heeft ertoe geleid dat Nvidia sinds 2014 een bedrijf is geworden dat zich op vier markten richt: gaming, professionele visualisatie, datacenters en kunstmatige intelligentie en auto's.
Inhoudsindex
Nvidia geschiedenis
Nvidia is in 1993 opgericht door Jen-Hsun Huang, Chris Malachowsky en Curtis Priem. De drie medeoprichters van het bedrijf stelden de hypothese dat de juiste richting voor computers zou gaan via grafische versnelde verwerking, in de overtuiging dat dit computermodel problemen zou kunnen oplossen die algemene computergebruik niet kon oplossen. Ze merkten ook op dat videogames enkele van de meest computationele uitdagingen zijn en dat ze ongelooflijk hoge verkoopvolumes hebben.
Van een klein videogamebedrijf tot een gigant van kunstmatige intelligentie
Het bedrijf werd geboren met een startkapitaal van $ 40.000, had aanvankelijk geen naam en de mede-oprichters noemden al hun NV-bestanden, zoals in 'volgende release'. De noodzaak om het bedrijf op te nemen zorgde ervoor dat de mede-oprichters alle woorden met die twee letters herzien, wat hen leidde tot "invidia", het Latijnse woord dat "afgunst" betekent.
De lancering van RIVA TNT in 1998 bevestigde de reputatie van Nvidia voor het ontwikkelen van grafische adapters. Eind 1999 bracht Nvidia de GeForce 256 (NV10) uit, die met name transformatie en verlichting (T&L) op consumentenniveau in 3D-hardware introduceerde. Met een snelheid van 120 MHz en vier regels pixels, implementeerde het geavanceerde videoversnelling, bewegingscompensatie en hardware-subbeeldmenging. GeForce presteerde met een ruime marge beter dan bestaande producten.
Vanwege het succes van zijn producten heeft Nvidia het contract gewonnen voor de ontwikkeling van de grafische hardware voor de Xbox-gameconsole van Microsoft, waarmee Nvidia een voorschot van $ 200 miljoen verdiende. Het project heeft echter veel van de beste ingenieurs van andere projecten gehaald. Op korte termijn deed dit er niet toe en de GeForce2 GTS werd in de zomer van 2000 verzonden. In december 2000 bereikte Nvidia een overeenkomst om de intellectuele activa van zijn enige rivaal 3dfx, een pionier in 3D-grafische technologie voor de consument, te verwerven. die het veld leidde van midden jaren negentig tot 2000. Het acquisitieproces eindigde in april 2002.
In juli 2002 heeft Nvidia Exluna overgenomen voor een niet bekendgemaakt bedrag. Exluna was verantwoordelijk voor het maken van verschillende software-renderingtools. Later, in augustus 2003, verwierf Nvidia MediaQ voor ongeveer $ 70 miljoen. En op 22 april 2004 verwierf het ook iReady, een leverancier van hoogwaardige TCP / IP- en iSCSI-offloadoplossingen.
Het succes van Nvidia op de videogamemarkt was zo groot dat in december 2004 werd aangekondigd dat het Sony zou helpen met het ontwerp van de PlayStation 3's RSX grafische processor, de nieuwe generatie videogameconsole van het Japanse bedrijf dat het had de moeilijke taak om het succes van zijn voorganger, de best verkochte in de geschiedenis, te herhalen.
In december 2006 ontving Nvidia citaten van het Amerikaanse ministerie van Justitie. Met betrekking tot mogelijke schendingen van de antitrustwetgeving in de grafische kaartindustrie. In die tijd was AMD zijn grote rivaal geworden, na de aankoop van ATI door laatstgenoemde. Sindsdien zijn AMD en Nvidia de enige fabrikanten van videokaart grafische kaarten, en niet te vergeten Intel's geïntegreerde chips.
Forbes heeft Nvidia uitgeroepen tot Beste Bedrijf van het Jaar voor 2007, onder verwijzing naar de prestaties die het de afgelopen vijf jaar heeft behaald. Op 5 januari 2007 maakte Nvidia bekend dat het de acquisitie van PortalPlayer, Inc had afgerond en in februari 2008 nam Nvidia Ageia over, ontwikkelaar van de PhysX physics engine en physics processing unit met deze engine. Nvidia heeft aangekondigd dat het van plan is PhysX-technologie te integreren in haar toekomstige GeForce GPU-producten.
Nvidia kampte in juli 2008 met grote moeilijkheden, toen het een omzetdaling van ongeveer $ 200 miljoen ontving nadat werd gemeld dat bepaalde door het bedrijf geproduceerde mobiele chipsets en mobiele GPU's abnormale uitvalpercentages vertoonden als gevolg van fabricagefouten. In september 2008 werd Nvidia het onderwerp van een class action-rechtszaak door de betrokkenen, omdat de defecte GPU's waren opgenomen in bepaalde modellen notebooks die door Apple, Dell en HP waren vervaardigd. De soap eindigde in september 2010, toen Nvidia een overeenkomst bereikte dat eigenaren van de getroffen laptops vergoed zouden worden voor de reparatiekosten of, in sommige gevallen, voor productvervanging.
In november 2011 bracht Nvidia zijn ARG Tegra 3-chipsysteem voor mobiele apparaten uit, nadat het voor het eerst was gepresenteerd op het Mobile World Congress. Nvidia beweerde dat de chip de eerste quad-core mobiele CPU bevatte. In januari 2013 introduceerde Nvidia de Tegra 4, evenals de Nvidia Shield, een op Android gebaseerde draagbare spelconsole met de nieuwe processor.
Op 6 mei 2016 introduceerde Nvidia de GeForce GTX 1080 en 1070 grafische kaarten, de eerste gebaseerd op de nieuwe Pascal-microarchitectuur. Nvidia beweerde dat beide modellen beter presteerden dan hun op Maxwell gebaseerde Titan X-model. Deze kaarten bevatten respectievelijk GDDR5X- en GDDR5-geheugen en gebruiken een productieproces van 16 nm. De Pascal-architectuur ondersteunt ook een nieuwe hardwarefunctie die bekend staat als gelijktijdige meervoudige projectie (SMP), die is ontworpen om de kwaliteit van weergave met meerdere monitoren en virtual reality te verbeteren. Pascal heeft de productie mogelijk gemaakt van laptops die voldoen aan Nvidia's Max-Q-ontwerpnorm.
In mei 2017 kondigde Nvidia een samenwerking aan met Toyota Motor Corp, waarbij laatstgenoemde Nvidia's Drive X-serie kunstmatige intelligentieplatform zal gebruiken voor haar autonome voertuigen. In juli 2017 kondigden Nvidia en de Chinese zoekgigant Baidu, Inc. een krachtig AI-partnerschap aan met cloud computing, autonoom rijden, consumentenapparaten en Baidu's AI-framework PaddlePaddle.
Nvidia GeForce en Nvidia Pascal, domineren gaming
GeForce is de merknaam voor grafische kaarten op basis van grafische verwerkingseenheden (GPU's), gemaakt door Nvidia uit 1999. Tot op heden kent de GeForce-serie sinds de oprichting zestien generaties. De op professionele gebruikers van deze kaarten gerichte versies komen onder de naam Quadro en bevatten enkele onderscheidende kenmerken op bestuurdersniveau. De directe concurrentie van GeForce is AMD met zijn Radeon-kaarten.
Pascal is de codenaam voor de nieuwste GPU-microarchitectuur die is ontwikkeld door Nvidia en die de videogamemarkt heeft betreden, als opvolger van de vorige Maxwell-architectuur. De Pascal-architectuur werd voor het eerst geïntroduceerd in april 2016 met de lancering van de Tesla P100 voor servers op 5 april 2016. Momenteel wordt Pascal voornamelijk gebruikt in de GeForce 10-serie, waarbij de GeForce GTX 1080 en GTX worden De eerste 1070 videogamekaarten werden uitgebracht met deze architectuur, respectievelijk op 17 mei 2016 en 10 juni 2016. Pascal wordt vervaardigd met behulp van TSMC's 16nm FinFET-proces, waardoor het veel superieure energie-efficiëntie en prestaties biedt in vergelijking met Maxwell, dat werd geproduceerd met 28nm FinFET.
De Pascal-architectuur is intern georganiseerd in wat bekend staat als streaming multiprocessor ( SM), functionele eenheden die bestaan uit 64 CUDA-kernen, die op hun beurt zijn verdeeld in twee verwerkingsblokken van elk 32 CUDA-kernen van hen en vergezeld van een instructiebuffer, een warpplanner, 2 texture mapping units en 2 dispatch units. Deze SM-schijven zijn het equivalent van AMD's CU's.
De Pascal-architectuur van Nvidia is ontworpen om de meest efficiënte en geavanceerde in de gamingwereld te zijn. Het technische team van Nvidia heeft veel moeite gedaan om een GPU-architectuur te creëren die in staat is tot zeer hoge kloksnelheden, met behoud van een laag stroomverbruik. Om dit te bereiken, is in alle circuits een zeer zorgvuldig en geoptimaliseerd ontwerp gekozen, waardoor Pascal een frequentie kan bereiken die 40% hoger is dan Maxwell, een cijfer dat veel hoger is dan het proces zou hebben toegestaan bij 16 nm zonder alle optimalisaties op ontwerpniveau.
Geheugen is een belangrijk element in de prestaties van een grafische kaart, GDDR5-technologie werd aangekondigd in 2009, dus het is al achterhaald voor de krachtigste grafische kaarten van vandaag. Daarom ondersteunt Pascal GDDR5X-geheugen, dat ten tijde van de lancering van deze grafische kaarten de snelste en meest geavanceerde geheugeninterfacestandaard in de geschiedenis was, met overdrachtssnelheden tot 10 Gbps of bijna 100 picoseconden tussen bits. van gegevens. Dankzij GDDR5X-geheugen verbruikt de grafische kaart ook minder stroom in vergelijking met GDDR5, aangezien de bedrijfsspanning 1, 35 V bedraagt, vergeleken met 1, 5 V of zelfs meer dan de snellere GDDR5-chips nodig hebben. Deze spanningsvermindering vertaalt zich in een 43% hogere bedrijfsfrequentie met hetzelfde stroomverbruik.
Een andere belangrijke innovatie van Pascal komt van geheugencompressietechnieken zonder prestatieverlies, wat de vraag naar bandbreedte door de GPU vermindert. Pascal omvat de vierde generatie delta-kleurcompressietechnologie. Met delta-kleurcompressie analyseert de GPU scènes om de pixels te berekenen waarvan de informatie kan worden gecomprimeerd zonder de kwaliteit van de scène op te offeren. Hoewel de Maxwell-architectuur gegevens over bepaalde elementen, zoals vegetatie en delen van de auto in het Project Cars-spel niet kon comprimeren, kan Pascal de meeste informatie over deze elementen comprimeren, waardoor hij veel efficiënter is dan Maxwell. Als gevolg hiervan kan Pascal het aantal bytes dat uit het geheugen moet worden geëxtraheerd, aanzienlijk verminderen. Deze vermindering van bytes vertaalt zich in een extra 20% effectieve bandbreedte, wat resulteert in een toename van 1, 7 keer de bandbreedte met het gebruik van GDDR5X-geheugen in vergelijking met GDDR5- en Maxwell-architectuur.
Pascal biedt ook belangrijke verbeteringen met betrekking tot Asynchronous Computing, iets heel belangrijks omdat de werklasten momenteel erg complex zijn. Dankzij deze verbeteringen is de Pascal- architectuur efficiënter in het verdelen van de belasting over al zijn verschillende SM-eenheden, wat betekent dat er nauwelijks ongebruikte CUDA-kernen zijn. Hierdoor kan de optimalisatie van de GPU veel groter zijn, waarbij beter gebruik wordt gemaakt van alle bronnen die deze heeft.
De volgende tabel vat de belangrijkste kenmerken van alle op Pascal gebaseerde GeForce-kaarten samen.
NVIDIA GEFORCE PASCAL GRAFISCHE KAARTEN |
||||||
CUDA-kernen | Frequenties (MHz) | Geheugen | Geheugeninterface | Geheugenbandbreedte (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64 beetje | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3 GB GDDR5 | 192 beetje | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | 6 GB GDDR5 | 192 beetje | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8 GB GDDR5 | 256 bit | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8 GB GDDR5 | 256 bit | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB GDDR5X | 256 bit | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 GB GDDR5X | 352 beetje | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 GB GDDR5X | 384 beetje | 547 | 250 |
Kunstmatige intelligentie en Volta-architectuur
Nvidia's GPU's worden veel gebruikt op het gebied van deep learning, kunstmatige intelligentie en versnelde analyse van grote hoeveelheden gegevens. Het bedrijf ontwikkelde deep learning op basis van GPU-technologie om kunstmatige intelligentie te gebruiken om problemen zoals kankerdetectie, weersvoorspelling en autonoom rijdende voertuigen, zoals de beroemde Tesla, aan te pakken.
Het doel van Nvidia is om netwerken te helpen leren "denken ". De GPU's van Nvidia werken uitzonderlijk goed voor deep learning-taken omdat ze zijn ontworpen voor parallel computing en ze werken goed om de vector- en matrixbewerkingen af te handelen die bij deep learning heersen. De GPU's van het bedrijf worden gebruikt door onderzoekers, laboratoria, technologiebedrijven en bedrijven. In 2009 nam Nvidia deel aan wat de oerknal werd genoemd voor deep learning, aangezien neurale netwerken voor deep learning werden gecombineerd met de grafische verwerkingseenheden van het bedrijf. In datzelfde jaar gebruikte Google Brain de GPU's van Nvidia om diepe neurale netwerken te creëren die in staat zijn tot machine learning, waar Andrew Ng vaststelde dat ze de snelheid van deep learning-systemen met 100 keer konden verhogen.
In april 2016 introduceerde Nvidia de 8-GPU clustergebaseerde DGX-1-supercomputer om het vermogen van gebruikers om deep learning te gebruiken te verbeteren door GPU's te combineren met specifiek ontworpen software. Nvidia ontwikkelde ook de op GPU gebaseerde Nvidia Tesla K80 en P100 virtuele machines, beschikbaar via de Google Cloud, die Google in november 2016 installeerde. Microsoft voegde servers toe op basis van Nvidia's GPU-technologie in een preview van zijn N-serie, gebaseerd op de Tesla K80-kaart. Nvidia werkte ook samen met IBM om een softwarekit te creëren die de AI-mogelijkheden van zijn GPU's vergroot. In 2017 werden de GPU's van Nvidia ook online gebracht in het RIKEN Center for the Advanced Intelligence Project voor Fujitsu.
In mei 2018 beseften onderzoekers van de afdeling kunstmatige intelligentie van Nvidi a de mogelijkheid dat een robot een baan zou kunnen leren door simpelweg de persoon te observeren die hetzelfde werk doet. Om dit te bereiken, hebben ze een systeem ontwikkeld dat, na een korte beoordeling en test, nu kan worden gebruikt om universele robots van de volgende generatie te besturen.
Volta is de codenaam voor de meest geavanceerde GPU-microarchitectuur die is ontwikkeld door Nvidia, het is de opvolgerarchitectuur van Pascal en werd aangekondigd als onderdeel van een toekomstige roadmap-ambitie in maart 2013. De architectuur is vernoemd naar Alessandro Volta, de natuurkundige, scheikundige en uitvinder van de elektrische batterij. De Volta- architectuur heeft de gamingsector niet bereikt, hoewel dit wel is gebeurd met de Nvidia Titan V grafische kaart, gericht op de consumentensector en die ook kan worden gebruikt in gamingapparatuur.
Deze Nvidia Titan V is een op GV100 gebaseerde grafische kaart en drie HBM2-geheugenstacks, alles in één pakket. De kaart heeft in totaal 12 GB HBM2-geheugen dat werkt via een 3072-bits geheugeninterface. De GPU bevat meer dan 21 miljoen transistors, 5.120 CUDA-cores en 640 Tensor-cores om 110 TeraFLOPS-prestaties te leveren in deep learning. De werkfrequenties zijn 1200 MHz-basis en 1455 MHz in turbomodus, terwijl het geheugen werkt op 850 MHz en een bandbreedte van 652, 8 GB / s biedt. Onlangs is een CEO-versie aangekondigd die het geheugen vergroot tot 32 GB.
De eerste grafische kaart die door Nvidia met de Volta-architectuur werd vervaardigd, was de Tesla V100, die deel uitmaakt van het Nvidia DGX-1-systeem. De Tesla V100 maakt gebruik van de GV100-kern die op 21 juni 2017 is uitgebracht. De Volta GV100 GPU is gebouwd in een 12nm FinFET- productieproces , met 32 GB HBM2-geheugen dat tot 900 GB / s aan bandbreedte kan leveren.
Volta brengt ook de nieuwste Nvidia Tegra SoC tot leven , genaamd Xavier, die werd aangekondigd op 28 september 2016. Xavier Bevat 7 miljard transistors en 8 aangepaste ARMv8-kernen, samen met een Volta GPU met 512 CUDA-kernen en een TPU van open source (Tensor Processing Unit) genaamd DLA (Deep Learning Accelerator). Xavier kan video in realtime coderen en decoderen met 8K Ultra HD-resolutie (7680 × 4320 pixels), allemaal met een TDP van 20-30 watt en een matrijsgrootte die wordt geschat op ongeveer 300 mm2 dankzij het 12 productieproces. nm FinFET.
De Volta- architectuur wordt gekenmerkt doordat het de eerste is die de Tensor Core bevat, kernen die speciaal zijn ontworpen om veel betere prestaties te bieden bij deep learning-taken in vergelijking met gewone CUDA-kernen. Een Tensor Core is een eenheid die twee FP16 4 × 4-matrices vermenigvuldigt en vervolgens een derde FP16- of FP32-matrix aan het resultaat toevoegt, met behulp van samengevoegde optel- en vermenigvuldigingsbewerkingen, waardoor een FP32-resultaat wordt verkregen dat optioneel kan worden verlaagd tot een FP16-resultaat. Tensor-kernen zijn bedoeld om de training van neurale netwerken te versnellen.
Volta onderscheidt zich ook door het opnemen van de geavanceerde, gepatenteerde NVLink-interface, een draadgebaseerd communicatieprotocol voor korte-afstands halfgeleidercommunicatie ontwikkeld door Nvidia, dat kan worden gebruikt voor gegevenscodeoverdracht en besturing in processorsystemen op basis van CPU en GPU en die uitsluitend gebaseerd op GPU. NVLink specificeert een point-to-point-verbinding met datasnelheden van 20 en 25 Gb / s per datalaan en per adres in de eerste en tweede versie. De totale gegevenssnelheden in real-world systemen zijn 160 en 300 GB / s voor de totale som van de invoer- en uitvoergegevensstromen. NVLink-producten die tot nu toe zijn geïntroduceerd, richten zich op de krachtige toepassingsruimte. NVLINK werd voor het eerst aangekondigd in maart 2014 en maakt gebruik van een gepatenteerde hogesnelheidssignaleringsverbinding die is ontwikkeld en ontwikkeld door Nvidia.
De volgende tabel vat de belangrijkste kenmerken van op Volta gebaseerde kaarten samen:
NVIDIA VOLTA GRAFISCHE KAARTEN |
||||||||
CUDA-kernen | Kerntensor | Frequenties (MHz) | Geheugen | Geheugeninterface | Geheugenbandbreedte (GB / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | 32 GB HBM2 | 4.096 bit | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3.072 bit | 652 | 250 | |
GeForce Titan V CEO-editie | 5120 | 640 | 1200/1455 | 32 GB HBM2 | 4.096 bit | 900 | 250 |
De toekomst van Nvidia gaat door Turing en Ampere
De twee toekomstige Nvidia-architecturen zullen Turing en Ampere zijn, volgens alle geruchten die tot nu toe zijn verschenen, is het mogelijk dat wanneer je dit bericht leest, een van hen al officieel is aangekondigd. Voorlopig is niets zeker over deze twee architecturen, hoewel er wordt gezegd dat Turing een vereenvoudigde versie van Volta zou zijn voor de gamingmarkt, in feite wordt verwacht dat het met hetzelfde productieproces op 12 nm zal aankomen.
Ampere klinkt als de opvolgerarchitectuur van Turing, hoewel het ook de opvolger van Volta kan zijn in de sector van kunstmatige intelligentie. Hierover is absoluut niets bekend, hoewel het logisch lijkt om te verwachten dat het op 7 nm wordt geproduceerd. De geruchten suggereren dat Nvidia zijn nieuwe GeForce-kaarten in de komende maand augustus bij Gamecom zal aankondigen, alleen dan zullen we twijfelen over wat Turing of Ampere zal zijn, als ze echt ontstaan.
NVIDIA G-Sync, beëindigt problemen met beeldsynchronisatie
G-Sync is een gepatenteerde adaptieve synchronisatietechnologie ontwikkeld door Nvidia, met als belangrijkste doel het wegnemen van schermscheuren en de behoefte aan alternatieven in de vorm van software zoals Vsync. G-Sync elimineert scheuren van het scherm door het te dwingen zich aan te passen aan de framerate van het uitvoerapparaat, de grafische kaart, in plaats van dat het uitvoerapparaat zich aanpast aan het scherm, wat resulteert in scheuren in het beeld het scherm.
Om een monitor G-Sync-compatibel te maken, moet deze een hardwaremodule bevatten die wordt verkocht door Nvidia. AMD (Advanced Micro Devices) heeft een vergelijkbare technologie voor beeldschermen uitgebracht, FreeSync genaamd, die dezelfde functie heeft als G-Sync maar geen specifieke hardware vereist.
Nvidia heeft een speciale functie gemaakt om de mogelijkheid te voorkomen dat een nieuw frame klaar is terwijl er een duplicaat op het scherm wordt getekend, iets dat vertraging en / of stotteren kan veroorzaken, de module anticipeert op de update en wacht op het volgende frame dat is voltooid. Pixeloverbelasting wordt ook misleidend in een niet-vast updatescenario en de oplossingen voorspellen wanneer de volgende update zal plaatsvinden, daarom moet de overdrive-waarde worden geïmplementeerd en aangepast voor elk paneel om ghosting te voorkomen.
De module is gebaseerd op een Altera Arria V GX-familie FPGA met 156K logische elementen, 396 DSP-blokken en 67 LVDS-kanalen. Het wordt geproduceerd in het TSMC 28LP-proces en wordt gecombineerd met drie chips voor een totaal van 768 MB DDR3L DRAM, om een bepaalde bandbreedte te bereiken. De gebruikte FPGA heeft ook een LVDS-interface om het monitorpaneel te bedienen. Deze module is bedoeld om gewone klimmers te vervangen en kan eenvoudig worden geïntegreerd door monitorfabrikanten, die alleen de printplaat van de voeding en de ingangsaansluitingen hoeven te verzorgen.
G-Sync heeft enige kritiek gekregen vanwege het eigen karakter en het feit dat het nog steeds wordt gepromoot wanneer er gratis alternatieven zijn, zoals de VESA Adaptive-Sync-standaard, een optioneel kenmerk van DisplayPort 1.2a. Hoewel FreeSync van AMD is gebaseerd op DisplayPort 1.2a, vereist G-Sync een door Nvidia gemaakte module in plaats van de gebruikelijke on-screen scaler voor Nvidia GeForce grafische kaarten om goed te werken, omdat het compatibel is met Kepler, Maxwell, Pascal en Volta.
De volgende stap is gezet met G-Sync HDR-technologie, die, zoals de naam al doet vermoeden, HDR-mogelijkheden toevoegt om de beeldkwaliteit van de monitor aanzienlijk te verbeteren. Om dit mogelijk te maken, moest er een flinke sprong in hardware worden gemaakt. Deze nieuwe versie G-Sync HDR gebruikt een Intel Altera Arria 10 GX 480 FPGA, een zeer geavanceerde en zeer programmeerbare processor die kan worden gecodeerd voor een breed scala aan toepassingen, die wordt vergezeld door 3 GB DDR4 2400 MHz-geheugen vervaardigd door Micron. Dit maakt de prijs van deze monitoren duurder.
Hier eindigt onze post over alles wat u moet weten over Nvidia. Vergeet niet dat je het op sociale netwerken kunt delen, zodat het meer gebruikers bereikt. Je kunt ook een opmerking achterlaten als je een suggestie hebt of iets toe te voegen.
Alle informatie over lenovo yoga tablet

Alles over de eerste tablet van het Lenovo Yoga-assortiment: technische kenmerken, afbeeldingen, batterij, camera, beschikbaarheid en prijs.
Nvidia RTX 【alle informatie】

We hebben de nieuwe NVIDIA RTX grafische kaarten al bij ons. Van het vlaggenschipmodel: NVIDIA RTX 2080 Ti, tot het model voor de meeste gamers in 4K:
▷ Nvidia quadro 【alle informatie】?

Alle informatie over Nvidia Quadro professionele grafische kaarten: kenmerken, ontwerp, prestaties, voor- en nadelen ✅