Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 68 reacties

Nvidia komt in 2016 met de opvolger van de huidige Maxwell-gpu voor videokaarten en die chip gaat 32GB geheugen ondersteunen. De geheugenbandbreedte ligt bij de Pascal-gpu drie keer zo hoog als bij Maxwell, claimt Nvidia.

Tijdens de GPU Technology Conference gaf Nvidia-ceo Jen-Hsun Huang een update van de gpu-roadmap van zijn bedrijf, waarbij onder andere meer details over de Pascal-gpu, de opvolger van de huidige Maxwell, gegeven werden. De hoeveelheid geheugen waarmee de chip overweg kan is 32GB, waar Maxwell met maximaal 12GB uitgerust kan worden. De geheugenbandbreedte komt drie keer zo hoog te liggen als gevolg van het gebruik van High Bandwidth Memory, dat ook wel als 3d-geheugen wordt omschreven. Volgens geruchten gaat de komende high-end videokaart van AMD ook over HBM beschikken.

Pascal krijgt bovendien ondersteuning voor NVLink. Nvidia kondigde deze interconnect eind vorig jaar aan. NVLink moet een aanzienlijk snellere dataoverdracht tussen cpu en gpu, en tussen gpu's onderling opleveren, 'vijf tot twaalf keer zo snel als pci-e'. De interconnect zorgt er bovendien voor dat acht gpu's in een enkel systeem kunnen werken, waar dat maximum momenteel op vier ligt.

Naast Pascal staat ook Volta weer op de roadmap. Deze verscheen in 2013 op de planning, was bij een presentatie vorig jaar weer verdwenen en keert nu dus terug. Volta moet in 2018 verschijnen, twee jaar na Pascal.

Ten slotte kondigde Nvidia de Digits DevBox aan. Dit zijn desktopsystemen die Nvidia speciaal voor deep learning-onderzoek maakt en die met vier Titan X-kaarten uitgerust worden. De prijs komt op 15.000 dollar te liggen en de levering begint in mei.

Nvidia Pascal

Moderatie-faq Wijzig weergave

Reacties (68)

Het klinkt heel imposant, die 32GB, maar als je de exponentiele ontwikkeling van de hoeveelheid geheugen op grafische kaarten doortrekt, is het eigenlijk niet zo heel verbazingwekend.
De 12GB die nu als limiet geldt is voor nu nog ruim zat, maar het benodigde videogeheugen neemt inderdaad met snelle schreden toe. Ik verwacht wel dat 32GB als limiet nog flink wat jaartjes voldoende zal zijn, en daar gaat het tenslotte om. Hardware kun je nooit voor de eeuwigheid bouwen, maar je kunt wel een flinke marge inbouwen zodat je geen bottlenecks krijgt totdat de hierop volgende generatie chips klaarstaat.

Het is ook goed mogelijk dat verdere vooruitgang qua opslagtechnologie (SSD's en wat daarop volgt) ervoor gaat zorgen dat RAM en VRAM flink sneller gevuld kunnen worden vanaf de vaste opslag. Dat zou de behoefte aan meer (V)RAM kunnen beperken.

Ideaal zou zijn als hardeschijven, werkgeheugen en videogeheugen samen zouden gaan in ťťn Łbersnelle oplossing, dan kunnen laadtijden en opstarttijden zo goed als compleet worden uitgebannen volgens mij. Maar dat is voor nu toekomstmuziek.

[Reactie gewijzigd door geert1 op 18 maart 2015 15:01]

De Titan wordt in de praktijk zeer weinig gebruikt voor gaming. De Titan is feitelijk een tesla kaart gebaseerd op het GTX platform. Dus de Titan-P (Pascal) zal misschien 32GB krijgen, echter de GTX1080 zal zeer waarschijnlijk 'slechts' 8GB geheugen krijgen.

De Titan wordt vooral ingezet als GPU acceleratie. Software welke gebruik kunnen maken van GPU acceleratie zijn onder andere Photoshop, Premier, AutoCad, model rendering (maya) en OLAP (cube analysis) systemen. Ik vermoed dat de meeste tweakers zullen GPU acceleratie vooral kennen van het bitcoin minen.

Verder heeft Windows zelf geen beperking wat betreft het aantal GPU's welke je in een systeem kunt plaatsen. Het artikel zelf mist een ontzettend belangrijk woordje in de tekst. NVLInk zorgt ervoor dat maximaal 8 kaarten kunnen SAMEN werken. NVLink is een soort van geadvanceerde SLI technologie. Echter de meeste software welke GPU acceleratie ondersteunen, sturen elke GPU afzonderlijk aan, dus zonder SLI of NVLink koppeling.. Bijvoorbeeld het Asus Z10PE-D16 moederbord kan zonder problemen 4 R9 295X aansturen via PCI 3.0 x16 lanes mits een tweede Xeon CPU aanwezig is..
Nou nee. Dat de semi pro, budged zat heeft om instap compute ding te kopen.
Maakt de de TitanX geen non_gamers kaart.
Maar is Titan gecrippled voor gamen? Ik observer alleen die flink hogere prijs!
Dat maakt het niet semi professioneel.
De titan heeft functionaliteiten die gamers niet nodig hebben: double precision ALUs. Geen enkele game gebruikt doubles in render werk. Dit is dus letterlijk geld verspilling voor games (echter was het op dat moment 'toevallig' ook gewoon de snelste kaart voor games, maar de prestatie/geld verhouding was ver te zoeken...).
Maar dat is met de Titan X dus niet meer het geval. Die beschikt namelijk niet meer over DP ALU's, waardoor de titan X zelfs nog slechter presteerd dan een gtx 580 als het aankomt op DP...

[Reactie gewijzigd door Spekkie88 op 19 maart 2015 09:34]

Het is idd een instap compute kaart;

Ik ben best benieuwd naar hoe op dit moment idd de titan en titan black gebruikt worden, of het merendeel in compute georienteerde machines zit. Ik gok van wel maar ken geen cijfers.

Trouwens, voor autocad en photoshop is een titan nogal overkill maar dat terzijde :)

[Reactie gewijzigd door maratropa op 18 maart 2015 16:15]

De nieuwe Titan X niet meer omdat dit sinds 9 jaar de eerste gpu is met een volledig graphics chip.
http://anandtech.com/show...orce-gtx-titan-x-review/2
Met je eens dat er niet zomaar consumenten-gaming-kaarten zullen komen met 32GB videogeheugen. Misschien dat zelfs de volgende Titan (met Pascal-chip) die 32GB niet zal aantikken. Zou zomaar kunnen dat een 16, 20 of 24GB ook al meer dan zat is (de eerstvolgende Titan krijgt 12GB).

Maar er zal wel steeds meer geheugen nodig zijn in de loop der tijd, vanwege grotere werelden in games, hogere textuurresoluties, 4K rendering, VR, Holo, enz. Op de langere termijn zullen er volgens mij vanzelf kaarten komen met 16GB of meer videogeheugen voor gewone consumenten, dus buiten de Titans en de industrie-gerichte kaarten. Maar ik verwacht niet dat dat binnen deze console-generatie zal gebeuren, aangezien PC-games meestal redelijk in de pas blijven met de huidige consoles (die 8GB gedeeld geheugen hebben).

Zoals ik zei: Het is gewoon leuk en handig dat de chip op zich een flink hogere limiet heeft qua videogeheugen, voor wanneer het maar van pas moge komen.

Verder prima toevoegingen in je reactie, maar niet echt aan mij gericht volgens mij :)

[Reactie gewijzigd door geert1 op 18 maart 2015 16:21]

8 gig op een 1080gtx? Dat kan niet..... Het word 3 6 of 12.... Het is een 364 bit bus... Geen 512...
De Titan van volgend jaar zal waarschijnlijk 24GB vram hebben aangezien de Tesla K80 24GB vram heeft momenteel waar dat een jaar ervoor 12GB was bij de K40. Ik vermoed dat die 32GB eerder zal slaan op de volgende Tesla kaart.
Er wordt software gemaakt naarmate de harware beschikbaar is. Als er 32 GB op een kaart kan, dan worden de spellen met nog meer faces gerenderd, en dan kan het GPU-rekenwerk nog meer ruimte pakken.

Dus het is 'genoeg' totdat de eerste gamebakker de kolder in de kop heeft gekregen.
Leuk bedacht maar slechts een krimpende subset van games heeft de PC als enige target. Multiplatform-development zet een flinke rem op het aloude fenomeen waar pc hardware de technologische voortgang in games aanstuwt.
Maar wie zegt dat deze gpu alleen voor de PC is?
Het is niet waar dat alle developers die multi platform zijn gaan ontwikkelen dat de cp versie minder is.

Kijk maar naar bijvoorbeeld GTA4 of Skyrim
Maar uiteindelijk is die multiplatform trend wel een goed iets, want meer dan ooit komen console games ook op PC uit (Metal Gear Solid) en elke opeenvolgende console generatie heeft minder exclusives.
Er zijn al bijna 10 jaar 64 bit en Multi core cpu's maar software snappen er nog maar bijster weinig van....
Maar niet alles is lekker te parallelliseren. Sommige processen zijn nou eenmaal erg sequentieel. Als het enigszins kant, wordt er lustig op los geparallelliseerd. Twee weken geleden heb ik zelf nog een jobje op 512 cores gedraaid. :-)

En alle grafisch intensieve games, die parallel al die duizenden CUDA-coretjes gebruiken. Er is meer parallel dan je denkt.
Idd, ik was ih weekend +-42 Windows updates ah installeren met mijn i7 en alle 8 de kernen werden netjes gebruikt.
Heeft er ook mee te maken dat de adoptie van x64 windows vrij traag is gegaan afgelopen 10 jaar.. plus dat er recent nog tablets met x86 SoC's werden verkocht, wat ook niet helpt.
Das niet waar, er zijn zat voorbeelden waarbij de software voorloopt, of zeker voor kŠn lopen, op de hardware. De huidige 3d-engines kunnen prima beelden uitspugen waar de nieuwste hardware z'n tanden volledig op stuk bijt.
Dat heeft meer met het beperkende DX11 te maken.
Nee hoor, de hardware is nog steeds de beperkende factor, niet DX11..
Nee hoor, en geloof alsjeblieft niet die marketing praatjes over DX12, want het zou bij elke introductie van DirectX een revolutie zijn en telkens bleek het een doodnormale evolutie te zijn. Wat performance toename, natuurlijk, maar niks spectaculairs.
Zit wat in natuurlijk, maar welke hardware beschikbaar is, is niet het belangrijkste. Welke hardware gemeengoed is, des te meer. Het is voor game-ontwikkelaars immers niet interessant om slechts de bovenste 5% van de PC-markt te bedienen (dure game, kleine doelgroep = verlies draaien). Over het algemeen wordt uitgegaan van de consoles + de "redelijk gemiddelde" game-pc, en wordt daarvoor ontwikkeld. Met op de PC soms wat extra opties voor de high-end doelgroep.

Dus game-ontwikkelaars hebben volgens mij niet buitengewoon veel interesse om snel de grenzen op te zoeken, maar gaan meer geleidelijk omhoog naarmate het publiek nieuwe hardware aanschaft. In de console-wereld gebeurt dat uiteraard minder gestaag, maar per generatie.

[Reactie gewijzigd door geert1 op 18 maart 2015 15:22]

Voor PC hoef je dan ook niet slechts ťťn doelgroep te bedienen, door grafische instellingen kan een goede game prima draaien op zowel 4 jaar oude low-end als nieuwe high-end systemen.
Voor games is 12gb prima, maar GPU rendering wordt heel erg tegengehouden door deze limiet. Bij grote scenes zit je dan al snel aan de 12gb (hele rits aan 8k textures en je vram zit vol)
Dus 32gb hebben gpu's zeker baar bij. Vooral de quadro reeks dus. Misschien dat GPU rendering voor high end doeleinden dan eindelijk z'n doorbraak kan maken.
nieuws: HP werkt aan nieuw type computer met memristors en optische datacommunicatie
Ze vormen daarmee een combinatie van werk- en opslaggeheugen en kunnen in potentie een einde maken aan de nadelen van bijvoorbeeld het trage opslaggeheugen.
Komt dat voor een groot gedeelte niet door de introductie van de nieuwe spelcomputers? Die hebben het videogeheugengebruik voor de massa-games flink omhoog geschroefd, maar dit is natuurlijk enkel een schokeffect; dat die ontwikkeling zich doorzet is allesbehalve zeker. Ik denk dat een volgende grote stap pas weer 'noodzakelijk' is als we weer een volgende generatie spelcomputers kunnen verwachten.
Komt dat voor een groot gedeelte niet door de introductie van de nieuwe spelcomputers?
'Nieuwe' spelcomputers? De Xbox One komt van eind 2013, de Playstation 4 komt uit dezelfde periode, en de Wii U is een jaar ouder (en heeft in verhouding met de anderen minder krachtige hardware). En ten tijden dat ze uitkwamen konden ze al niet presteren met de top PC's van toen.

Een budgetsysteem van nu kan qua hardware gemakkelijk een 'current gen' XB1/PS4 inhalen. Dus nee, de introductie van nieuwe spelcomputers heeft hier niet veel aan gedaan. Sterker nog, het is de introductie van deze nieuwe spelcomputers dat veel cross-platform spellen voor PC's kunstmatig beperkt worden (voorbeeld: Watch_Dogs).
Hij doelt waarschijnlijk op de hoeveelheid (weliswaar gesharede) GDDR geheugen op console's zoals de playstation 4 met 8GB GDDR5. In overall perfomance zegt het niets en heb je helemaal gelijk, maar het valt mij ook wel op dat sinds de introductie van de nieuwe consoles de recommended specs voor videokaart geheugen zijn verhoogd.
Exact.

Excuses aan The Zep Man dat ik het woordje 'nieuwe' en niet 'nieuwste' gebruik, en vervolgens staat er een totaal irrelevant verhaal over performance van PC's vs spelcomputers. Ik weet niet zo goed wat ik daar mee moet aangezien het hier over videogeheugen gaat.

Ik doel op de gigantische stap die consoles gemaakt hebben vwb videogeheugen. Ineens gingen de hardware-eisen voor pc's op dat gebied ook flink omhoog, en daar kan je dus die trend van meer en meer videogeheugen door verklaren. De introductie van een nieuwe generatie spelcomputers heeft echter een eenmalig effect op deze trend, en dus is het niet zomaar te stellen (zoals hooibergje doet) dat je die exponentiele groei zomaar door kan trekken.
Laat The Zep Man maar, hij is blijkbaar wat zuur vandaag. Iedereen snapt wat je bedoelt met de "nieuwe consoles"; voor mij voelen ze ook nog relatief nieuw.

Verder heb je inhoudelijk helemaal gelijk. De bekende AAA-games worden veelal ontwikkeld voor zowel console als PC, en de console-versies hebben daarbij meestal de overhand (omdat op die platformen meer verdiend wordt). Nu de consoles ineens een veelvoud aan (werk- en video-) geheugen beschikbaar hebben ten opzichte van de vorige generatie, zien we dat dus ook terug in de PC-gamingwereld. PC en console lopen niet gelijk met elkaar, maar ze beÔnvloeden elkaar wel sterk. Game-ontwikkelaars richten zich vaak eerst en vooral op de consoles, met de PC als extraatje (jammer, maar waar). Dus nu de consoles een hoop meer kunnen dan eerst, zijn de eisen aan PC-games mee omhoog geschoten.

Dit even los van de PC-only titels als bijvoorbeeld Starcraft; die games ontwikkelen zich meer los van de consoles.

Natuurlijk heeft de algehele vooruitgang qua hardware er ook mee te maken, maar die is veel geleidelijker dan wat we de afgelopen twee jaar hebben gezien qua systeemeisen op het gebied van RAM en VRAM.

[Reactie gewijzigd door geert1 op 18 maart 2015 21:18]

Console games hebben bij lange na niet zoveel intern geheugen nodig als een pc met spellen als Civ , Europe Universalis, GTA , dus een groot deel van die 8gb kan voor video worden benut.

Echter de resolutie van de beelden is nog steeds bedroevend laag, 1080p slechts zelden en dan ook nog eens op 30fps.

Ik zou zelfs willen stellen dat er helemaal geen AAA games zijn die alleen op de console zijn uitgekomen ..

PS een spel dat je binnen 8 uur kan uitspelen is geen AAA spel mijns inziens.
Dit komt grotendeels vanwege de introductie van stacked ram.
Hierdoor word geheugen goedkoper en word het ook goedkoper en eenvoudiger om meer op een plankje te gooien.

Met stacked ram zal 4GB denk ik standaard worden voor de mid range kaarten.
Valt heel erg mee.. 3GB geheugen wordt al ingenomen door het OS, en de overige 5GB is ook minder dan het lijkt omdat textures vaak niet gecomprimeerd worden door de trage cpu. De reden dat dit kan zorgen voor hoge eisen aan RAM of VRAM is door een slechte port waarbij developers niet de moeite nemen om textures te comprimeren.
http://videocardz.com/552...ils-roadmap-for-2015-2018

Volta zou het volgens deze informatie zelfs kunnen verdubbelen naar 64Gb VRAM
15000 dollar voor zo een box? Ik zou eerder denken: geef zo'n box gratis aan devs. Als de game goed geoptimaliseerd is voor NVIDIA zullen ze automatisch meer kaarten verkopen.

En ik denk dat een gamedev voor 15000 dollar wel een beter systeem kan bouwen met 4 Titan-X's.

Vraag me af wat er dan zoal extra in zit...
Deze box is vooral gemaakt voor deep-learning volgens Phoronix
Klopt. "Deep learning" is een toepassing van neurale netwerken. Met een gewone GPU kom je ergens in de buurt van de rekenkracht van een bij of zo, en hiermee misschien in de buurt van een kikker.

Om aan te geven hoe groot de "deep learning" business is, Google kocht DeepMind voor tenminste 400 miljoen dollar. Dan is 15K voor een developer machine een redelijke vraagprijs.
Dat lijkt me helemaal geen goede ontwikkeling, concurrentie en keuze is iets waar we zuinig op moeten zijn, en een Nvidia monopolie (of een ontwikkeling die die richting op gaat) is niet iets wat het PC platform goed zal doen.
Ja... je hebt een punt alleen 4x TITAN X blijft toch max 12 GB.... wie weet wat ze qua VR van plan zijn. Meer renderen dan wat jij ziet en zodra je beweegt het al klaar staat. Kost geheugen....
DirectX 12 kan VRam samenvoegen.
http://wccftech.com/gefor...api-combine-video-memory/
I think I should make it clear hear that just because you are running Windows 10 and DX12 and/or Mantle API does not mean that your multiple GPU configuration is now stacking memory. The capability is present in these low overhead APIs but they will not come into affect until devs specifically optimize the game as such. No optimization would still equal the usual no-stacking scenario. Optimization has always been pretty poor on PC titles due to the immense amount of raw horsepower that the platform offers, but this new development can usher in a sought-after era of optimization (of PC Games) and it will be about damn time.
Dus alleen als de developers hier ook ondersteuning voor bieden natuurlijk.
Bewonderenswaardig om te zien wat er in 20 jaar tijd allemaal veranderd is op het gebied van grafische mogelijkheden en bijbehorende hardware.

12x zo snel als PCI-E... rond de 189GB/s!! 8)7

Maar zover zijn ze voor de consumenten voorlopig nog niet.... maar wel leuk om te zien wat er mogelijk is!
Eerst maar even Win10, DX12 en Vulkan afwachten en kijken in hoeverre die de aanloop naar nieuwe ontwikkelingen gaan veranderen of sturen. 8-)
12X zo snel als PCI-E 3.0 dan volgens jouw berekening, de 4.0 spec doet er nog een schepje bovenop :)

http://en.wikipedia.org/wiki/PCI_Express
Ja ok, maar omdat er in het artikel niet wordt gezegd met welke PCI-E ze vergelijken en aangezien 4.0 voorlopig nog niet op de markt is ben ik uit gegaan van 3.0. ;)
Maar inderdaad, als ze 4.0 bedoelen is het helemaal gekkenwerk! :9~
Zit nog steeds met me 680je, maar ik ga het volhouden tot Pascal :)

Sinds de 680 word er te veel gemolken uit oude architectuur, Pascal is weer een stap in de goede richting.
Precies hetzelfde hier! Ik heb momenteel 2 GTX680's in SLI draaien maar ik hou het ook nog wel even vol tot pascal. Het enige wat een beetje knijpt is de 2gb vram, begint een tikje te weinig te worden helaas.
Met de opkomst van nieuwe videokaarten met 32GB aan ram denk ik dat PCI-e 3 generatie toch weer aan zijn einde begint te werken. Om zoveel data van en naar het ram toe te werken, kost inmiddels meer tijd dan de 12GB waar de videokaarten nu mee werken.

P.S: dankje wet van Moore, je bewijst je al maar weer eens.
Je vergeet dat een texture voor de huidge frame in videoram zit en de next frame ook. Pas als er textures ongebruikt zijn worden ze geflushed. Een resource cache en texture memory houden de local texture die nodig zijn voor volggende of huidige frame in ram.
Alleen de resources die veranderen gaan over de bus.


Je kan dus 5GB aan texure pool voor een map hebben maar waar je ook in de game zit max 2.5GB is nodig per frame. Dus er zullen textures geladen en geflushed worden afhankelijk waar de player heen gaat.
Volgens mij heeft hij dat nooit gezegd en had hij het over 16GB en een "eventueel theoretisch haalbare 32GB".
Pc gaming gaat fantastische tijden tegemoet:

- DirectX12 brengt console efficiency naar de pc
- 16nm brengt nog meer performance per Watt naar laptop en desktop. Nvidia en AMD hebben het over 65% prestatiewinst voor hetzelfde vermogen. D.w.z. GTX 980 vermogen voor <100W
- Steam Link zorgt dat je met een kastje ter grootte van een externe schijf de hele Steam library (en meer) naar je bank kunt streamen voor $50.
- SteamVR/Occulus Rift voor ťcht next-gen gaming
- 4k monitoren worden langzamerhand betaalbaar

Console efficiency + enorme boost in prestaties + flexibiliteit in controls en display = Goede tijden.
Aah en dan te bedenken dat het nog helemaal niet zo lang geleden voelt dat mijn vader een Nvidia TNT haalde met 16MB, of toen ik een FX5500 haalde met 128MB, of de 7600GS met 512MB. :+
Zo jammer dat games tegenwoordig allemaal multiplatform zijn.
En dat ontwikkelaars niet de moeite gaan nemen om mega veel extra textures te intergreren speciaal voor de pc versie van de game.....
NVLink, weer een nieuwe standaard .... waarom ? PCI exper 3.0 is toch prima zelfs een titan x kan niet die bandbrede vol krijgen. Dan heb je zo dadelijk moederborden die speciaal voor Nvidia kaarten zijn omdat alleen die NVLink hebben. :|

Verder gaan op deze manier game ontwikkelaars volledig stoppen met het optimaliseren van game's op het gebied van geheugen. Als 12 GB normaal gaat worden en 32 voor high end....
Ook worden kaarten hierdoor onnodig duur. Wel leuk dat dit kan, maar of het ook praktisch is ? ( en nee ik ben normaal gesproken voor technologische vooruitgang maar ik ben bang dat deze trant op lange termijn alleen maar ongunstig is)
Optimaliseren is al een tijdje verleden tijd, tot op zekere hoogte. Je koopt een engine, en gebruikt die vervolgens, en that's it. Alleen engine-bouwers doen er soms nog hun best voor, maar ook daar zijn de voorbeelden legio van engines die eerst ongelofelijke monsters zijn (de Cry-engine springs to mind), en later pas een optimalisatieronde krijgen, waarna ze algemeen bruikbaar worden. Een zwaarder spel is namelijk wenselijk, want dan kunnen mensen hun videokaart goed gebruiken... (zie de benchmarks maar eens... Allemaal spellen die gewoon zwaar zijn, en that's it)

Consoles doen overigens in shared memory, die hebben 8 GB voor zowel CPU- als GPU-data, en AMD stuurt daar met hun geintegreerde GPUs en unified memory architecture en heterogenous systems ook op aan. Da's van 1 kant jammer, want gewoon DDR3 is heel anders (lagere latencies en bandwidth) dan GDDR5, maar misschien dat HBM dat hele verhaal oplost door en hoge bandbreedtes en grotere capaciteit te bieden.

(verder, 8 GB doet op moment zo'n 100 euro/dollar, dus echt belemmerend is het niet voor high-end kaarten van 500+ euro)
Binnen een engine dient ook een ontwikkelaar zeker nog wel rekening te houden met max. RAM van potentiele gebruikers!
Meer bandbreedte betekend dat je bijvoorbeeld geen SLI-Bridge meer nodig hebt.

Video geheugen optimaliseren? Dat is ongeveer het laatste wat je kan/wil doen, je kan veel beter die ene onnodige instructie uit je shader(programma die draait op GPU) halen.

Groter geheugen is juist nodig nu: texture kwaliteit op 4k scherm kan nog altijd een stuk beter.
Mijn 'bezwaar' is meer dat, inderdaad, PCIe niet alleen genoeg is, maar vooral dat met standaarden als DX12, GLNext en Vulcan, performance ook al flink ver omhoog kan. NVLink zou mogelijk de samenwerkingsmogelijkheden tussen NV en AMD GPU's nog blokkeren ook...
Inderdaad, vooral nu het misschien mogelijk word om amd en Nvidia karten te combineren als er gebruik gemaakt word van direct x 12, maar de NVLink standaard zal dat wel eens kunnen verpesten helaas.
Op een kale vista met destijdse drivers kon je amd/nvidia naast elkaar draaien. Nvidia blokkeert dit gewoon en heeft al lopen janken over dx12 en die "nieuwe" feature. Kans is vrij groot dat nvidia het actief blijft blokkeren.
nvlink is voor supercomputers ontwikkeld, vraag me af of het uberhaupt op consumentenkaarten te vinden zal zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True