Android

Nvidia 【vse informacije】

Kazalo:

Anonim

Korporacija Nvidia, bolj znana kot Nvidia, je ameriško tehnološko podjetje s sedežem v Delawareu in ima sedež v Santa Clari, Kalifornija. Nvidia oblikuje grafične procesne enote za video igre in profesionalne trge ter sistem čip (SoC) za avtomobilski in mobilni računalniški trg. Njegova osnovna linija izdelkov, GeForce, je v neposredni konkurenci z izdelki AMD Radeon.

Priporočamo, da preberete naše najboljše računalniške priročnike za strojno opremo in komponente:

Poleg proizvodnje GPU-jev Nvidia nudi raziskovalcem in znanstvenikom zmogljivosti vzporedne obdelave po vsem svetu, kar jim omogoča učinkovito izvajanje visoko zmogljivih aplikacij. V zadnjem času se je preselil na trg mobilnih računalnikov, kjer proizvaja mobilne procesorje Tegra za konzole, tablične računalnike in tablične računalnike ter avtonomne navigacijske in zabavne sisteme vozil. To je privedlo do tega, da je Nvidia od leta 2014 postala podjetje, osredotočeno na štiri trge: igre na srečo, profesionalna vizualizacija, podatkovni centri ter umetna inteligenca in avtomobili.

Kazalo vsebine

Zgodovina Nvidije

Nvidia so leta 1993 ustanovili Jen-Hsun Huang, Chris Malachowsky in Curtis Priem. Trije soustanovitelji podjetja so domnevali, da bo prava smer računalništva šla skozi grafično pospešeno obdelavo, saj verjame, da lahko ta model računalništva reši težave, ki jih splošni računalniški računalnik ne bi mogel rešiti. Opozorili so tudi , da so video igre nekaj najbolj računalniško zahtevnih vprašanj in da imajo neverjetno velik obseg prodaje.

Od majhnega podjetja za video igre do giganta umetne inteligence

Podjetje se je rodilo z začetnim kapitalom v višini 40.000 dolarjev, sprva ni imelo, soustanovitelji pa so poimenovali vse njegove datoteke NV, kot v "naslednji izdaji." Potreba po vključitvi podjetja je povzročila, da so soustanovitelji pregledali vse besede s tistima dvema črkama, kar ju je pripeljalo do "invidia", latinske besede, ki pomeni "zavist".

Uvedba RIVA TNT leta 1998 je utrdila ugled Nvidie pri razvoju grafičnih adapterjev. Konec leta 1999 je Nvidia izdala GeForce 256 (NV10), ki je v 3D strojni opremi najbolj predstavil preobrazbo in osvetlitev na ravni potrošnikov (T&L). Deluje na 120 MHz in ima štiri vrstice slikovnih pik, zato je izvajal napredno pospeševanje videa, kompenzacijo gibanja in strojno mešanje pod slike. GeForce je z veliko maržo presegel obstoječe izdelke.

Zaradi uspeha svojih izdelkov je Nvidia dobila pogodbo za razvoj grafične strojne opreme za Microsoftovo igralno konzolo Xbox, s čimer je Nvidia zaslužila 200 milijonov dolarjev. Vendar pa je projekt prevzel veliko svojih najboljših inženirjev iz drugih projektov. Kratkoročno to ni bilo pomembno in GeForce2 GTS je bil odposlan poleti 2000. Decembra 2000 je Nvidia dosegla dogovor o nakupu intelektualnega premoženja svojega edinega tekmeca 3dfx, pionirja 3D grafične tehnologije za potrošnika. ki je področje vodil od sredine devetdesetih do 2000. Proces pridobitve se je končal aprila 2002.

Julija 2002 je Nvidia Exluna kupila za nerazkriti znesek denarja. Podjetje Exluna je bilo odgovorno za ustvarjanje različnih orodij za upodabljanje programske opreme. Kasneje, avgusta 2003, je Nvidia pridobila MediaQ za približno 70 milijonov dolarjev. 22. aprila 2004 je pridobil tudi iReady, ponudnika visokozmogljivih rešitev za nalaganje TCP / IP in iSCSI.

Tako uspešen je bil Nvidijin uspeh na trgu video iger, da je bilo decembra 2004 objavljeno, da bo Sonyju pomagal pri oblikovanju grafičnega procesorja RSX PlayStation 3, nove generacije konzole za video igre japonske družbe, ki je imela je težko nalogo ponoviti uspeh svojega predhodnika, najbolje prodajanega v zgodovini.

Decembra 2006 je Nvidia od ameriškega ministrstva za pravosodje prejela navedbe. Glede možnih kršitev protitrustovskih pravic v industriji grafičnih kartic. AMD je takrat postal njen velik tekmec, potem ko je slednji kupil ATI. AMD in Nvidia sta od takrat edina proizvajalca grafičnih kartic za video igre, ne pozabimo na Intelove integrirane čipe.

Forbes je Nvidijo razglasil za najboljše podjetje leta 2007 in navajal njene dosežke v zadnjih petih letih. 5. januarja 2007 je Nvidia sporočila, da je zaključila nakup portala PortalPlayer, Inc, februarja 2008 pa je Nvidia pridobila Ageia, razvijalec fizične enote PhysX in fizične procesne enote, ki poganja ta motor. Nvidia je sporočila, da načrtuje vključitev tehnologije PhysX v svoje bodoče izdelke GeForce GPU.

Nvidia se je julija 2008 soočila z velikimi težavami, ko je dosegla približno 200 milijonov dolarjev prihodka, potem ko je poročala, da imajo določene mobilne čipsete in mobilni grafični procesorji, ki jih proizvaja podjetje, nenormalne stopnje napak zaradi proizvodnih napak. Septembra 2008 je Nvidia postala predmet tožbe, ki jo je prizadel prizadet, trdijo, da so bili okvarjeni grafični procesorji vključeni v nekatere modele prenosnih računalnikov proizvajalcev Apple, Dell in HP. Sapunica se je končala septembra 2010, ko je Nvidia dosegla dogovor, da bodo lastnikom prizadetih prenosnih računalnikov povrnili stroške popravil ali v nekaterih primerih zamenjave izdelkov.

Novembra 2011 je Nvidia izdala svoj sistem čipov ARG Tegra 3 za mobilne naprave, potem ko ga je prvotno predstavila na mobilnem svetovnem kongresu. Nvidia je trdila, da ima čip prvi štirijedrni mobilni procesor. Januarja 2013 je Nvidia predstavila Tegra 4, pa tudi Nvidia Shield, prenosno igralno konzolo s sistemom Android, ki jo poganja nov procesor.

6. maja 2016 je Nvidia predstavila grafične kartice GeForce GTX 1080 in 1070, prve na osnovi nove mikroarhitekture Pascal. Nvidia je trdila, da sta oba modela presegla svoj model Titan X, ki temelji na Maxwellu. Te kartice vsebujejo GDDR5X in GDDR5 pomnilnik in uporabljajo 16nm proizvodni postopek. Pascal arhitektura podpira tudi novo funkcijo strojne opreme, znano kot istočasno večkratno projekcijo (SMP), ki je zasnovana za izboljšanje kakovosti prikazovanja več monitorjev in navidezne resničnosti. Pascal je omogočil izdelavo prenosnih računalnikov, ki ustrezajo Nvidijinim Max-Q oblikovalskim standardom.

Maja 2017 je Nvidia napovedala partnerstvo s Toyoto Motor Corp, v okviru katere bo slednja za svoje avtonomna vozila uporabljala platformo za umetno inteligenco serije Nvidia Drive X. Julija 2017 sta Nvidia in kitajski iskalni velikan Baidu, Inc. objavila močno AI partnerstvo, ki vključuje računalništvo v oblaku, avtonomno vožnjo, potrošniške naprave in Baiduov AI okvir, PaddlePaddle.

Nvidia GeForce in Nvidia Pascal s prevladujočimi igrami

GeForce je blagovna znamka grafičnih kartic, ki temeljijo na grafičnih procesorjih (GPU), ki jih je Nvidia ustvarila od leta 1999. Do danes je serija GeForce poznala šestnajst generacij od svojega nastanka. Različice, osredotočene na profesionalne uporabnike teh kartic, so pod imenom Quadro in vsebujejo nekaj različnih lastnosti na voznikovi ravni. Neposredna konkurenca GeForce je AMD s svojimi Radeon karticami.

Pascal je kodno ime za najnovejšo mikroarhitekturo GPU, ki jo je razvila Nvidia, ki je vstopila na trg video iger, kot naslednik prejšnje arhitekture Maxwell. Pascal arhitektura je bila prvič predstavljena aprila 2016 z uvedbo Tesle P100 za strežnike 5. aprila 2016. Trenutno se Pascal uporablja predvsem v seriji GeForce 10, pri čemer sta GeForce GTX 1080 in GTX Prve 1070 kartice za video igre so bile izdane s to arhitekturo, 17. maja 2016 oziroma 10. junija 2016. Pascal je izdelan po postopku TSMC 16 nm FinFET, ki mu omogoča veliko boljše energetske učinkovitosti in zmogljivosti v primerjavi z Maxwellom, ki je bil izdelan na 28nm FinFET.

Pascal arhitektura je notranje organizirana v tako imenovanem pretočnem večprocesorskem ( SM), funkcionalnih enotah, ki jih sestavlja 64 jeder CUDA, ki so razdeljena na dva procesna bloka po 32 CUDA jeder od njih in jih spremljajo navodila za uporabo, načrtovalnik osnove, 2 enoti za preslikavo teksture in 2 odpremni enoti. Ti pogoni SM so enakovredni AMD-jevim CU-jem.

Nvidijina arhitektura Pascal je bila zasnovana tako, da je najbolj učinkovita in napredna v svetu iger. Nvidijina inženirska ekipa je vložila veliko truda v ustvarjanje arhitekture GPU-ja, ki je zmožna zelo visokih taktnih hitrosti, obenem pa je ohranjala močno porabo energije. Da bi to dosegli, je bil izbran zelo previden in optimiziran dizajn v vseh njegovih vezjih, zaradi česar je Pascal lahko dosegel frekvenco 40% višjo od Maxwell- a, kar je številka, ki je veliko višja, kot bi dovoljeval postopek pri 16 nm brez vseh optimizacij na ravni zasnove.

Pomnilnik je ključni element pri zmogljivosti grafične kartice, tehnologija GDDR5 je bila napovedana leta 2009, tako da je za danes najzmogljivejše grafične kartice že zastarela. Zaradi tega Pascal podpira pomnilnik GDDR5X, ki je bil v času predstavitve teh grafičnih kartic najhitrejši in najnaprednejši pomnilniški vmesnik v zgodovini in je med bitov dosegel hitrost prenosa do 10 Gbps ali skoraj 100 picosekund. podatkov. Pomnilnik GDDR5X omogoča tudi, da grafična kartica porabi manj energije v primerjavi z GDDR5, saj je delovna napetost 1, 35 V v primerjavi s 1, 5 V ali celo več, kot potrebujejo hitrejši čipi GDDR5. Zmanjšanje napetosti pomeni 43% večjo delovno frekvenco z enako porabo energije.

Druga pomembna inovacija Pascala prihaja iz tehnik stiskanja pomnilnika brez izgube zmogljivosti, kar zmanjšuje povpraševanje po pasovni širini s strani GPU-ja. Pascal vključuje četrto generacijo delta tehnologije stiskanja barv. Z stiskanjem delta barv GPU analizira prizore, da izračuna piksle, katerih informacije je mogoče stisniti, ne da bi pri tem žrtvovali kakovost scene. Medtem ko arhitektura Maxwell ni bila sposobna stisniti podatkov, povezanih z nekaterimi elementi, kot so vegetacija in deli avtomobila v igri Project Cars, je Pascal sposoben stisniti večino informacij o teh elementih in je zato veliko bolj učinkovit Maxwell. Posledično lahko Pascal znatno zmanjša število bajtov, ki jih je treba izvleči iz pomnilnika. To zmanjšanje bajtov pomeni dodatnih 20% efektivne pasovne širine, kar ima za 1, 7-krat večjo pasovno širino z uporabo pomnilnika GDDR5X v primerjavi z arhitekturo GDDR5 in Maxwell.

Pascal ponuja tudi pomembne izboljšave v zvezi z asinhronim računalništvom, kar je zelo pomembno, saj so trenutno obremenitve zelo zapletene. Zahvaljujoč tem izboljšavam je Pascal arhitektura učinkovitejša pri razporejanju bremena med vsemi njegovimi različnimi enotami SM, kar pomeni, da skoraj ni uporabljenih jeder CUDA. To omogoča, da je optimizacija grafičnega procesorja veliko večja, kar bolje izkoristi vse vire, ki jih ima.

Naslednja tabela povzema najpomembnejše lastnosti vseh GeForce kartic, ki temeljijo na Pascalu.

PASCALNE GRAFIČNE KARTICE NVIDIA GEFORCE

Jedra CUDA Frekvence (MHz) Spomin Pomnilniški vmesnik Pasovna širina pomnilnika (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 bit 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1060 6 GB 1280 1506/1708 6 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8 GB GDDR5 256 bit 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 GB GDDR5 256 bit 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 bit 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 bit 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 bit 547 250

Umetna inteligenca in Volta arhitektura

Nvidijini GPU-ji se široko uporabljajo na področju globokega učenja, umetne inteligence in pospešene analize velikih količin podatkov. Podjetje je razvilo poglobljeno učenje, ki temelji na tehnologiji GPU, z namenom uporabe umetne inteligence za reševanje težav, kot so odkrivanje raka, napovedovanje vremena in avtonomna vožnja vozil, kot je znana Tesla.

Cilj Nvidije je pomagati mrežam, da se naučijo "razmišljati ". Nvidijini GPU-ji delujejo izredno dobro pri nalogah za globoko učenje, saj so zasnovani za vzporedno računanje in dobro delujejo na vektorske in matrične operacije, ki prevladujejo pri globokem učenju. GPU podjetja uporabljajo raziskovalci, laboratoriji, tehnološka podjetja in poslovna podjetja. Leta 2009 je Nvidia sodelovala pri tako imenovanem velikem udarcu za poglobljeno učenje, saj so bile nevronske mreže globokega učenja združene z grafičnimi enotami podjetja. Istega leta je Google Brain s pomočjo Nvidijinih GPU-jev ustvaril globoke nevronske mreže, ki so sposobne strojnega učenja, pri čemer je Andrew Ng ugotovil, da bi lahko hitrost globinskih učnih sistemov povečali za 100-krat.

Aprila 2016 je Nvidia predstavila superračunalnik DGX-1 v grozdih z 8-GPU, da bi povečal zmožnost uporabnikov za uporabo globokega učenja s kombiniranjem GPU-jev s posebej zasnovano programsko opremo. Nvidia je razvila tudi navidezni računalnik Nvidia Tesla K80 in P100, na voljo prek Googla Cloud, ki ga je Google namestil novembra 2016. Microsoft je v predogled svoje serije N dodal strežnike, ki temeljijo na Nvidijini tehnologiji GPU, temelji na kartici Tesla K80. Nvidia je sodelovala tudi z IBM-om, da bi ustvarila programski komplet, ki povečuje zmogljivosti AI svojih GPU-jev. Leta 2017 so bili Nvidijini GPU-ji na spletu predstavljeni tudi v centru RIKEN za projekt napredne obveščevalne službe za Fujitsu.

Maja 2018 so raziskovalci na oddelku za umetno inteligenco Nvidi a spoznali možnost, da bi se robot lahko naučil opravljati neko delo s preprostim opazovanjem osebe, ki opravlja isto delo. Da bi to dosegli, so ustvarili sistem, ki ga lahko po kratkem pregledu in preizkusu zdaj uporabimo za nadzor univerzalnih robotov nove generacije.

Volta je kodno ime za najnaprednejšo mikroarhitekturo GPU, ki jo je razvila Nvidia, je naslednica Pascalove arhitekture in je bila napovedana kot del prihodnjih ambicij časovnega načrta marca 2013. Arhitektura je dobila ime po Alessandru Volti, fizik, kemik in izumitelj električne baterije. Arhitektura Volta ni dosegla igralnega sektorja, čeprav je to storila z grafično kartico Nvidia Titan V, osredotočeno na potrošniški sektor in ki jo je mogoče uporabiti tudi v igralni opremi.

Ta Nvidia Titan V je jedrna grafična kartica GV100 in trije nizi spominov HBM2, vse v enem paketu. Kartica ima skupno 12 GB pomnilnika HBM2, ki deluje prek 3072-bitnega pomnilniškega vmesnika. Njegov GPU vsebuje več kot 21 milijonov tranzistorjev, 5.120 CUDA jeder in 640 tenzorskih jeder, ki omogočajo 110 TeraFLOPS zmogljivosti pri globokem učenju. Njegove delovne frekvence so 1200 MHz v bazi in 1455 MHz v turbo načinu, medtem ko pomnilnik deluje na 850 MHz, ki ponuja pasovno širino 652, 8 GB / s. Pred kratkim je bila predstavljena različica CEO Edition, ki povečuje pomnilnik do 32 GB.

Prva grafična kartica, ki jo je izdelala Nvidia z arhitekturo Volta, je bila Tesla V100, ki je del sistema Nvidia DGX-1. Tesla V100 uporablja jedro GV100, ki je izšlo 21. junija 2017. Volta GV100 GPU je vgrajen v 12nm proizvodni proces FinFET z 32 GB HBM2 pomnilnika, ki lahko zagotavlja do 900 GB / s pasovne širine.

Volta oživi tudi najnovejši Nvidia Tegra SoC, imenovan Xavier, ki je bil objavljen 28. septembra 2016. Xavier Vsebuje 7 milijard tranzistorjev in 8 prilagojenih jeder ARMv8, skupaj z Volta GPU s 512 CUDA jedri in TPU odprtokodni vir (Tensor Processing Unit), imenovan DLA (Deep Learning Accelerator). Xavier lahko v realnem času kodira in dekodira video z ločljivostjo 8K Ultra HD (7680 × 4320 slikovnih pik), vse z TDP 20-30 vatov in velikostjo matrice, ki je po 12 proizvodnih postopkih ocenjena na približno 300 mm2. nm FinFET.

Za arhitekturo Volta je značilno, da prvo vključuje jedro Tensorja, jedra, posebej zasnovana za ponujanje veliko boljše učinkovitosti pri nalogah globokega učenja v primerjavi z običajnimi jedri CUDA. Tensor Core je enota, ki pomnoži dve matriki FP16 4 × 4 in nato v rezultat doda tretjo matrico FP16 ali FP32 z uporabo združenih operacij združevanja in množenja, tako da dobite rezultat FP32, ki bi ga lahko poljubno zmanjšali na rezultat FP16. Tenzorska jedra so namenjena pospeševanju treninga nevronske mreže.

Volta izstopa tudi po vključitvi naprednega lastniškega vmesnika NVLink, ki je kabelski komunikacijski protokol za polprevodniške komunikacije kratkega dosega, ki ga je razvila Nvidia in ki se lahko uporablja za prenos in nadzor podatkovnih kod v procesorskih sistemih, ki temeljijo na CPU in GPU ter tisti, ki temeljijo izključno na GPU. NVLink določa povezavo od točke do točke s hitrostjo podatkov 20 in 25 Gb / s na podatkovni pas in na naslov v svoji prvi in ​​drugi različici. Skupne hitrosti podatkov v realnih sistemih znašajo 160 in 300 GB / s za skupno vsoto vhodnih in izhodnih podatkovnih tokov. Do danes predstavljeni izdelki NVLink se osredotočajo na aplikacijski prostor z visoko zmogljivostjo. NVLINK je bil prvič objavljen marca 2014 in uporablja lastniški povezovalni signal za visoke hitrosti, ki ga je razvila in razvila Nvidia.

Naslednja tabela povzema najpomembnejše značilnosti kartic, ki temeljijo na Volti:

GRAFIČNE KARTICE NVIDIA VOLTA

Jedra CUDA Core Tensor Frekvence (MHz) Spomin Pomnilniški vmesnik Pasovna širina pomnilnika (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32 GB HBM2 4.096 bit 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3.072 bit 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32 GB HBM2 4.096 bit 900 250

Prihodnost Nvidije sega skozi Turing in Ampere

Dve prihodnji arhitekturi Nvidia bosta Turing in Ampere glede na vse govorice, ki so se pojavile do danes, možno je, da boste ob branju te objave eno od njih že uradno objavili. Za zdaj o teh dveh arhitekturah zagotovo ni nič znanega, čeprav naj bi bil Turing poenostavljena različica Volta za igralni trg, pravzaprav naj bi z istim proizvodnim postopkom prišel ob 12 nm.

Ampere zveni kot Turingova naslednica arhitekture, čeprav bi lahko bil tudi Voltov naslednik na področju umetne inteligence. O tem ni popolnoma nič znanega, čeprav se zdi logično pričakovati, da bo prišel izdelan pri 7 nm. Govorice kažejo, da bo Nvidia svoje nove GeForce kartice v Gamecomu objavila v naslednjem mesecu avgustu, šele takrat bomo pustili dvome o tem, kaj bosta Turing ali Ampere, če bosta res nastala.

NVIDIA G-Sync, preneha težave s sinhronizacijo slik

G-Sync je lastniška tehnologija za prilagodljivo sinhronizacijo, ki jo je razvila Nvidia, katere glavni cilj je odpraviti trganje zaslona in potrebo po alternativah v obliki programske opreme, kot je Vsync. G-Sync izloči pretrganje zaslona tako, da ga prisili, da se prilagodi okvirju izhodne naprave, grafične kartice, namesto da se izhodna naprava prilagodi zaslonu, kar ima za posledico raztrg slike zaslon.

Da je monitor združljiv z G-Sync, mora vsebovati strojni modul, ki ga prodaja Nvidia. AMD (Advanced Micro Devices) je izdal podobno tehnologijo za zaslone, imenovano FreeSync, ki ima enako funkcijo kot G-Sync, vendar ne potrebuje posebne strojne opreme.

Nvidia je ustvarila posebno funkcijo, da bi se izognila možnosti, da je nov okvir pripravljen, medtem ko na zaslon nariše dvojnik, nekaj, kar lahko ustvari zamudo in / ali muca, modul predvideva posodobitev in čaka, da se naslednji okvir zaključi. Preobremenitev pikslov postane zavajajoča tudi v nespremenjenem scenariju posodobitev, rešitve pa napovedujejo, kdaj se bo zgodila naslednja posodobitev, zato je treba za vsako ploščo implementirati in prilagoditi vrednost overrive, da se prepreči učinek ghost.

Modul temelji na družini FPGA Altera Arria V GX s 156K logičnimi elementi, 396 DSP bloki in 67 LVDS kanali. Izdelana je v postopku TSMC 28LP in je kombinirana s tremi čipi za skupno 768 MB DDR3L DRAM-a, da bi dosegli določeno pasovno širino. FPGA uporablja tudi vmesnik LVDS za nadzor nadzorne plošče. Ta modul je namenjen nadomestitvi običajnih plezalcev in ga lahko enostavno vključijo proizvajalci monitorjev, ki morajo skrbeti le za napajalno vezje in vhodne povezave.

Podjetje G-Sync se je soočilo z nekaterimi kritikami zaradi lastniške narave in dejstva, da se še vedno oglašuje, ko obstajajo brezplačne alternative, kot je standard VESA Adaptive-Sync, ki je neobvezna funkcija DisplayPort 1.2a. Medtem ko AMD-ov FreeSync temelji na DisplayPort 1.2a, G-Sync zahteva, da namesto običajnega zaslonskega bralnika grafičnih kartic Nvidia GeForce pravilno deluje, združljiv s Keplerjem, Maxwellom, Pascalom in mikroarhitekturami, namesto običajnega zaslonskega bralnika. Volta.

Naslednji korak je bil storjen s tehnologijo G-Sync HDR, ki, kot že ime pove, dodaja zmogljivosti HDR in tako močno izboljša kakovost slike monitorja. Da bi to omogočili, je bilo treba storiti velik preskok strojne opreme. Ta nova različica G-Sync HDR uporablja Intel Altera Arria 10 GX 480 FPGA, zelo napreden in zelo programirljiv procesor, ki ga je mogoče kodirati za široko paleto aplikacij, ki ga spremlja 3 GB pomnilnika DDR4 s 2400 MHz DDR4, ki ga izdeluje Micron. Zaradi tega je cena teh monitorjev dražja.

Tu se konča naša objava o vsem, kar morate vedeti o Nvidiji. Ne pozabite, da ga lahko delite na družbenih omrežjih, tako da doseže več uporabnikov. Komentar lahko pustite tudi, če imate kakšen predlog ali kaj dodati.

Android

Izbira urednika

Back to top button