Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 94 reacties

Uit online verschenen foto's van de GP104-gpu's, die vermoedelijk op de GTX 1080 en GTX 1070 toegepast zullen worden, is op te maken dat Nvidia kiest voor gddr5x op het topmodel. De GTX 1070 krijgt net als de huidige generatie videokaarten gddr5-geheugen.

Nvidia GP104-400Wccftech publiceerde de foto van de GP104-400-gpu. De chip is geplaatst op een pcb en wordt vergezeld door gddr5x-geheugenchips van Micron. Eerdere geruchten spraken over een GTX 1080 met 8GB gddr5x-geheugen en dat lijkt nu bevestigd. In februari maakte Micron bekend in de zomer te beginnen met de massaproductie van het nieuwe geheugen. Volgens de fabrikant werden snelheden van 13Gb/s met testchips behaald. Welke snelheid het geheugen op de GTX 1080 krijgt is nog niet bekend.

Videocardz ontdekte dat de uitgelekte foto een custom pcb is. Het zou gaan om een variant van MSI, want de plaatsing van onderdelen komt exact overeen met het pcb van een MSI GTX 980 4GB. Waarschijnlijk hebben videokaartbouwers de nieuwe Pascal-gpu's dan ook al in handen en zijn ze bezig met de productie van hun nieuwe kaarten.

MSI GeForce GTX 1080 Gaming

Vergelijking van uitgelekte foto met een bestaand pcb van MSI. Afbeelding via Videocardz.com

Chiphell - GP104-200Via Chiphell.com kwam een afbeelding van de GP104-200-gpu naar buiten. Deze chip gaat zijn weg vermoedelijk vinden naar de GeForce GTX 1070-kaarten. Er is ook een foto te zien van de gpu op het pcb, waarbij de geheugenchips in beeld zijn. Hoewel de afbeelding niet erg scherp is, gaat het volgens Videocardz om gddr5-geheugen van Samsung met een capaciteit van 8GB.

De GP104-200 en GP104-400 hebben dezelfde afmetingen. Afgaande op de grootte van de package is uit te rekenen hoeveel transistors de GP104 ongeveer bevat. De chip is namelijk gebaseerd op de GP100, waarvan de die-afmetingen en het aantal transistors bekend zijn. Volgens de berekeningen is de die van de GP104 ongeveer 317mm2 groot en heeft deze ongeveer 8 miljard transistors. De volledige GP100-gpu met 15,3 miljard transistors is 610mm2 groot.

Vermoedelijk krijgt de GP104 flink hogere kloksnelheden dan de huidige generatie Maxwell-videokaarten. De GP100-gpu krijgt op de Tesla P100-kaart voor servers en workstations een snelheid van 1328MHz en boost naar 1480MHz. De kloksnelheid van Tesla-kaarten voor de professionele markt is over het algemeen lager dan GeForce-kaarten met dezelfde gpu-architectuur.

Videokaart GTX 970 GTX 980 GTX 980 Ti GTX 1070 GTX 1080 Tesla P100
Gpu GM204 GM204 GM200 GP104 GP104 GP100
Procedé 28nm 28nm 28nm 16nm finfet 16nm finfet 16nm
finfet
Transistors 5,2 miljard 5,2 miljard 8 miljard ~8 miljard ~8 miljard 15,3 miljard
Cudacores 1664 2048 2816 2048 (?) 2560 (?) 3584
Baseclock 1050MHz 1126MHz 1000MHz nnb nnb 1328MHz
Boostclock 1178MHz 1216MHz 1075MHz nnb nnb 1480MHz
Vram 4GB gddr5 4GB gddr5 6GB gddr5 8GB gddr5 8GB gddr5x 16GB hbm2
Geheugenbus 256bit 256bit 384bit 256bit 256bit 4096bit
TDP 145W 165W 250W nnb nnb 300W

Vermoedelijke specificaties van GTX 1070 en GTX 1080

Waarschijnlijk zal Nvidia eind mei, vlak voor de start van de Computex-beurs in Taiwan, zijn nieuwe GeForce-kaarten aankondigen. De verwachting is dat de videokaarten rond juni hun weg naar de winkels zullen vinden. Mogelijk verschijnt de GTX 1080 met gddr5x-geheugen wat later, gezien Micron de massaproductie van dit geheugentype voor deze zomer op de planning heeft staan.

Moderatie-faq Wijzig weergave

Reacties (94)

Wat levert het nu precies voor performance winst op om gddr5X te gebruiken of normaal gddr5? Snellere laadtijden in Games?
Nee zeker niet vanwege snellere laadtijd in game's, de bandbrete van ram lig zo veel hoger dan die van je hdd / ssd dat die altijd daar de bottelnek zullen zijn.

Sneller Vram zorgt voor een hogere bandbrede van de kaart, Nvidia gebruikt dit om vervolgens een smallere bus te kunnen gebruiken en toch veel bandbrede te kunnen bieden, dit kust hun alleen minder bij de productie omdat een 256bit bus minder complex is om op een PCB te maken dan een 512bit bus.

Kijk naar de AMD r9 390 kaarten, deze hebben een 512bit bus was resulteer in een grotere bandbrete dan een GTX 970 en zijn daardoor net wat beter in game's met een hoge resolutie. Dit effect zie je nog sterker bij een Fury X, de kaart met de hoogste bandbrede op dit moment, welke het vooral onder 4k game's erg goed doet. Dit komt niet omdat de Kaart nu krachtiger is dan een GTX 980, maar omdat de GTX 980 tegen zijn maximale doorvoersnelheid loopt. Zou je de GTX 980 met gddr5X geheugen voorzien zou deze op hoge resoluties waarschijnlijk beter presteren.
Wat is de reden dan nvidia dan niet al eerder voor dit type geheugen gekozen heeft. Het word nl al een tijdje gebruikt door AMD.

Zoals ik me kan herinneren loopt nvidea wel vaker achter met het type geheugen?
AMD had ook al sneller hun kaarten voorzien van GDDR5 tov Nvidia, en volgens mij GDDR 4 en 3 ook.
Wat is de reden dan nvidia dan niet al eerder voor dit type geheugen gekozen heeft. Het word nl al een tijdje gebruikt door AMD.

Zoals ik me kan herinneren loopt nvidea wel vaker achter met het type geheugen?
AMD had ook al sneller hun kaarten voorzien van GDDR5 tov Nvidia, en volgens mij GDDR 4 en 3 ook.
Dat komt omdat Nvidia nooit heeft meewerkt aan het maken van nieuwe geheugen standaarden en ATI/AMD wel.

ATI/AMD hebben GDDR3 en HBM in samenwerking met geheugen fabrikanten ontworpen, dat is ook gelijk de reden dat ze die standaard eerder kunnen gebruiken dan Nvidia.
Van GDDR5 dacht ik dat ze er aan mee hebben ontwikkeld maar ik kan de bron zo snel niet terugvinden.

Helaas laat Nvidia vaak anderen het werk doen om daar van te profiteren. Ze zijn minder open met hun bedrijfs ethiek.

[Reactie gewijzigd door Sp3ci3s8472 op 25 april 2016 07:44]

[...]
Helaas laat Nvidia vaak anderen het werk doen om daar van te profiteren. Ze zijn minder open met hun bedrijfs ethiek.
Het is eerder zo dat Nvidia er totaal geen belang bij heeft om geld en R&D te steken in de ontwikkeling van eigen 'geheugen' omdat dat buiten de GPU's geen enkel voordeel kent. AMD is een volledig andere speler met een veel breder portfolio waaronder x86 zelf, zoals Intel.

Je moet Nvidia dan ook eigenlijk vergelijken met het oude ATI, niet met AMD. Nvidia ontwikkelt namelijk wel heel erg veel zelf, zoals het nu met Pascal geintroduceerde NVlink, maar heeft sinds een aantal jaren ook de eerste stappen gezet met CPUs (Tegra). Het is alleen veel minder breed inzetbaar spul (en matig succesvol).

[Reactie gewijzigd door Vayra op 25 april 2016 08:22]

Nvidia zou er wel belang bij hebben als AMD zich op dezelfde manier zou gedragen als Nvidia. Bij Nvidia is (bijna) alles wat ze ontwikkelen en wat toevoegt aan de hele industrie closed met dure licensing, terwijl AMD vrijwel alles Open Source maakt. Denk aan G-Sync vs Freesync. Denk aan Hairworks. Enz. Enz. Het eindresultaat is dat wij als consument genaaid worden doordat games etc minder goed draaien dan dat ze zouden kunnen als de hele industrie van bepaalde technologieën zou kunnen profiteren. Nu worden deze technologieen of niet geimplementeerd omdat het teveel werk is om het meerdere keren te doen voor verschillende videokaarten, of het wordt halfbakken geïmplementeerd voor beiden, of het werkt alleen als je een bepaalde GPU hebt.

Verder niks tegen Nvidia (heb net een nieuwe graka besteld met hun chipset), maar de bedrijfsethiek en openheid die @Sp3ci3s8472 aanhaalt zijn weldegelijk zaken die daar verbeterd kunnen worden.
Freesync is gewoon een licentie van AMD.
AMD64 is in licentie van AMD.

AMD verdient dus gewoon geld aan wat ze ontwikkelt. Nvidia kiest ervoor om de technologie in eigen hand te houden, maar draagt net zo goed kosten af voor licenties.

Onderaan de streep maakt het geen verschil, maar hebben de bedrijven gewoon een verschillende strategie. Feit blijft wel dat het Nvidia veel beter lukt om winst te maken en AMD kijkt al jaren tegen de financiele afgrond aan.

Wat de beste weg is laat zich dus raden... AMD is zo 'goed' voor zijn klanten dat het er zelf aan onderdoor gaat en er bijna geen geld meer is voor R&D waardoor het zichzelf op achterstand heeft gezet.

[Reactie gewijzigd door Vayra op 25 april 2016 11:37]

Freesync is een open VESA standaard. Daar hoeft verders niet voor betaald te worden en iedereen kan en mag dat implementeren. Daarom kost een monitor met Freesync ook niets meer als eentje zonder, terwijl diezelfde monitor met G-Sync ca 200 euro duurder is.

Daarnaast zijn er sterke aanwijzigingen dat Nvidia actief probeert AMD te belemmeren door ontwikkelaars specifieke Nvidia technologieën te laten implementeren en zelfs AMD optimalisaties te laten verwijderen om AMD kaarten slechter te laten lijken als dat ze zijn. Als je meer wil weten, Google is your friend.

Dus iets minder fanboy en iets meer kritisch zou goed zijn.
Je hoort mij niet zeggen dat de manier van Nvidia voor mij als consument het beste is.

Maar voor de gezondheid van het bedrijf is het wel de betere manier en het biedt het bedrijf ook de mogelijkheid meer te investeren dan de concurrent. Die investering zien wij 'gamers' terug in betere support, snellere driver releases en dergelijke. AMD maakt nu een inhaalslag met Crimson, en dat zegt genoeg.

Kritisch genoeg? :)

[Reactie gewijzigd door Vayra op 25 april 2016 13:10]

Voor Freesync hoeft geen licensing fee te worden betaalt. Voor G-Sync wel, Freesync is open en G-Sync is dat niet.
Als je in de pricewatch kijkt dan kan je een goede Freesync monitor voor 100-150 euro minder krijgen dan een vergelijkbare G-Sync monitor. Beste voorbeeld is de Asus MG279Q Zwart (IPS), alle G-Sync monitoren op dat prijs niveau zijn TN.

AMD heeft een licentie deal met Intel dat ze beide vrij alle x86 gerelateerde licenties mogen gebruiken. Dus ja AMD heeft voordeel van AMD64 maar verdient er geen geld aan.

Maar gelijk heb je, Nvidia weet met zijn strategie winst te maken en AMD niet tot weinig. Laat niet weg dat ik liever AMD's manier zie dan het soms hufterige gedrag van Nvidia.
Dit jaar heeft AMD de kans om dat eens flink om te gooien als Zen en Polaris niet floppen :P.
Waarom zou Nvidia erin investeren als ze zonder bakken met geld in geheugen r&d te stoppen al makkelijk de snelste single gpu oplossingen op de markt brengen?
AMD heeft ook geen gddr5X op het moment. dat komt echt pas deze zomer uit.

AMD heeft op fiji (fury) wel HBM gebruikt, wat een heel ander type geheugen is en helemaal niet lijkt op gddr5(x). maar door wat limieten van HBM kon er maar 4GB geheugen per GPU worden gebruikt (of eigenlijk elke stack kan maximaal 1GB bevatten, en meer als 4 stacks is niet te doen wat geheugen controler betreft)

die limiet word opgeheven met HBM2, maar HBM2 komt nog pas veel later uit.
Sneller geheugen resulteert in een hogere geheugenbandbreedte. Dat is met name relevant bij gamen op hoge resoluties zoals 4K, waarbij er veel grotere textures in het geheugen geladen moeten worden. Sneller geheugen en meer bandbreedte levert dan gewoonweg meer frames per seconde op.
4k heeft op zich niks te maken met grote textures.
Volgens mij haal je hier ook 2 dingen door elkaar.
Ten eerste heb je het feit dat we meer en grote textures willen. Sneller geheugen helpt wel om meer textures te hebben, maar niet persee grotere. Voor grotere textures heb je meer geheugen nodig maar niet persee sneller. Je zou kunnen denken dat je dan sneller textures van disk kunt halen maar dat pad is op zich al zo traag dat dat laatste stukje sneller maken niet zoveel effect heeft.

Daarnaast heb je renderen op 4k. Hierbij heb je meer pixels te vullen en dat kost meer geheugentransacties. (Edit: hiervoor is sneller geheugen dus wel nuttig, maar dus vanwege de hoeveelheid te tekenen pixels en niet de hoeveelheid pixels in de texture zelf) En dit blijft ook hetzelfde ook al gebruik je piepkleine textures (eventuele cachingmechanismes daargelaten).

Verder is er nog het punt dat je sneller kunt bij alle data die op dat moment in vram staat.
Dat betekent dus dat je bijvoorbeeld sneller dingen kunt processen.

[Reactie gewijzigd door koelpasta op 24 april 2016 21:12]

Niet helemaal waar.

Voor grotere textures is het ook wel handig als het geheugen het bij kan houden. Net als bij meer textures dus. Vooropgesteld dat alle textures in VRAM kunnen uiteraard. Daarnaast ligt het er ook maar aan hoeveel verschillende textures er op hetzelfde moment gebruikt worden in de zichtbare scene.

Grotere textures betekent meer data en dus ook meer geheugentransacties om die ene texture te verwerken (zowel uitlezen als toepassen). Sneller geheugen is dan dus zeker handig. En met name als het aantal verschillende textures gelijk blijft.
Grotere textures betekent meer data en dus ook meer geheugentransacties om die ene texture te verwerken
Ik dacht van niet hoor.
Als een texture gerendert wordt dan wordt niet de hele texture in geheugen afgescanned maar alleen de pixels die op een scherm-pixel vallen.
Stel je hebt een 4k x 4k texture maar op het scherm wordt ie als 128 x 128 pixels gerendert, dan zijn daar slechts 128 x 128 memory accesses voor nodig.
Dit is een beetje kort door de bocht omdat er ook nog allerlei soorten interpollatie aan te pas komen en ik durf niet helemaal te zeggen wat voor impact dat heeft op geheugengeruik.
Daarnaast ligt het er ook maar aan hoeveel verschillende textures er op hetzelfde moment gebruikt worden in de zichtbare scene.
Ja, dit heeft direct te maken met hoeveel texture reads er plaatsvinden per pixel van het scherm.
Om iets te kunnen interpoleren moet je het eerst uitlezen. Het lijkt me dat dat dus gepaard gaat met geheugentransacties. ;)

Een zooi pixels overslaan en dan een samplepixel gewoon overnemen zal niet tot al te beste kwaliteit leiden.
Om iets te kunnen interpoleren moet je het eerst uitlezen.
Bij interpoleren worden er juist waardes bijbedacht. Dat betekent dat niet elke pixel op het scherm leidt tot een geheugentransactie. Verder is dat interpoleren nog steeds gerelateerd aan scherm-pixels, dus doet de resolutie van de originele texture zelf er niet toe.
Maar er kunnen wel wat extra geheugentransacties mee gemoeid zijn en ik wou alleen aangeven dat ik dat in mn verhaal niet meenam.
Een zooi pixels overslaan en dan een samplepixel gewoon overnemen zal niet tot al te beste kwaliteit leiden.
Nu heb je het geloof ik over grote textures die klein gerenderd worden. Dan wordt dit probleem meestal opgelost door mipmapping waarbij je van te voren kleinere versies van de texture in geheugen hebt gezet en die worden bij het schalen in elkaar geblend. Als de texture groter is dan gerenderd kijk je dus eigenlijk bijna altijd naar een kleinere versie van die texture. Anders krijg je inderdaad de aliassing waar jij bang voor bent.
Er worden mipmap geladen en dicht bij oppervlak krijgt de hoogste mipmap in geval van 4 K gamen dan ook de bij passende grotere resolutie mipmap.
Waar het met ce TMU om texels / sec en dus bandbreedte.
Groter textures meer bandbreedte.
Meer textures meer bandbreedte.
Hoeveel meer hangt af van complexiteit en of opervlakten doorschijnend zijn.
Ik denk dat sneller geheugen juist nu vooral ook relevant is voor virtual reality toepassingen. Het precieze hoe en waarom laat ik verder graag even aan anderen over.

Dat de 1080 wél de x-variant krijgt en de 1070 niet heeft denk ik met productie capaciteit te maken. De eerste VR-brillen (van deze generatie) komen nu op de markt en Nvidia zal er alles aan gelegen zijn zo snel mogelijk zo goed mogelijke VR-capabele kaarten op de markt te brengen. Vanwege de beperkte beschikbaarheid van de x-variant is het aannemelijk dat ze met één kaart komen zodra er x-variant beschikbaar is. Juni dus, zolang er tenminste geen natuurrampen het schema in de war gooien.

Nvidia een beetje kennende zal de topkaart, die relatief gezien uniek is vanwege de allerbeste VR-ervaring, relatief erg duur zijn. Helaas. Ik denk dat rond de 800 Euro wel te verwachten is. Of misschien nog wel meer.

[Reactie gewijzigd door Yalden op 25 april 2016 15:56]

Laadtijden zijn vooral afhankelijk van de snelheid van de hdd of ssd.
Maar ook door je grafische driver/kaart. Ik kan me nog een update herinneren van catalyst waardoor de laadtijd van bf: Bad company werd gehalveerd.
Niet bij GTA V, though. :X

[Reactie gewijzigd door TommieW op 24 april 2016 16:38]

Correctie. GTA V laad wel sneller in singleplayer.
Online daarintegen laad je alleen sneller als je een private lobby/map maakt.
Je laad afhankelijk van hoe snel de host is. De game rent voor het merendeel p2p.
geen enkele game wordt opgeslagen op het VRAM of RAM dus GTA V ook niet.

Mischien bedoelde je van de Console versies van die game want de consoles maken niet goed gebruik van de ssd snelheid.

GTA V op de pc laadt veel sneller als je een SSD hebt.
Zou je dit kunnen onderbouwen met test resultaten? want op mijn systeem blijft het in beide gevallen niet leuk om op te wachten.
Als ik op internet kijk vind ik geen resultaten die ik kan gebruiken,
Maar toen ik een ssd in de pc van een vriend installeerde laadde GTA V veel sneller dan toen hij nog een HDD had. (HDD en SSD waren allebij nieuw, hij had een pc gekocht en een dag later een ssd erbij gedaan)
Ik kan me voorstellen dat goede Vram ontiegelijk veel helpt met enorm hoge kwaliteit textures die games steeds meer hebben. Of het bij andere dingen helpt weet ik zo niet :s
Nee, het helpt je om b.v. meer textures over elkaar te tekenen, of om de textures (whatever de resolutie) op een groter scherm (qua resolutie) te renderen.
Voor de grote textures hem je vooral meer vram nodig.
Dat soort laadtijden hangt af van je SSD/HDD niet je GPU. Ik denk dat ze dat doen om sneller een frame door de kaart te krijgen, wat resulteert in een snellere/betere/stabielere framerate, al is dat gewoon een gezond verstand claim.
Gast nee, dat heeft niets met laadtijden te maken. Die versnel je door de bestanden op je pc sneller in te laden, zoals het verschil tussen een hdd en een ssd. GDDR5x heeft voor zover ik het begrepen heb een veel hogere bandbreedte waardoor gamen op grotere schermen op bv 4k beter wordt (fps gain dus). Ik geloof dat de meningen uiteen lopen hierover maar dat is in een notendop wat ik er van begrepen heb.
Zeker geen snellere laadtijden want dat gaat over zaken vanaf disk in RAM laden (en ook wel VRAM in mindere mate), terwijl dit gaat over de bandbreedte tussen het geheugen en de GPU, dus tussen de verschillende componenten op de grafische kaart zelf.

De reden dat we meer en sneller geheugen op de graka nodig hebben is volgens mij gewoon omdat de FPU's er steeds meer data in steeds minder tijd doorheen kunnen jassen. Die data moet aangevoerd kunnen worden dus heeft men steeds meer bandbreedte nodig.

De toegenomen rekenkracht kan zich net zo goed vertalen in meer FPS als in minder FPS (maar meer detail in de scenes, of grotere textures, of 4K, of betere physics berekeningen etc.) De programmeurs bepalen uiteindelijk waar ze deze rekenkracht voor gebruiken,
Wat levert het nu precies voor performance winst op om gddr5X te gebruiken of normaal gddr5? Snellere laadtijden in Games?
Heel kort gezegd: je krijgt meer FPS, met name als je bij hogere resolutie gaat spelen geloof ik.

EDIT, bericht aangepast: mijn info lijkt niet te kloppen, excuus.

ontopic:

Als ik kijk naar de laatste release van AMD, dan lijkt het erop dat Nvidia nog steeds aan kop loopt op basis van prestatie, maar qua prijs lijkt AMD nog steeds kop loper te zijn.

[Reactie gewijzigd door mugen4u op 24 april 2016 20:49]

Wel grappig dat je iemand die weinig verstand heeft van gpus gaat corrigeren en dan vervolgens zelf een compleet verkeerd beeld hebt van wat de toekomst gaat brengen.
Wel grappig dat je iemand die weinig verstand heeft van gpus gaat corrigeren en dan vervolgens zelf een compleet verkeerd beeld hebt van wat de toekomst gaat brengen.
Ik gebruik Tweakers ook om te leren, maar klopt het niet wat ik zei? zo niet dan sorry daarvoor.
Lieve Tweakers.net, waarom nemen we rapporten van Videocardz en Wccftech aan voor waarheid? Ze schrijven het liefst alles op, zodat er uiteindelijk iets tussen zit wat waar is. Ze hebben een érg slechte reputatie op het gebied van goede, betrouwbare verslaggeving. Met 't oog op de lanceermaand: kijk even naar de massaproductie van GDDR5X. Welke? Ja, klopt, die is er nog niet, hoewel ze blijkbaar wel voorliggen op schema. Juni gaan ze never nooit halen. Reken maar op Q3.
We kijken zeker kritisch naar deze bronnen. In dit geval vind ik de gepubliceerde afbeeldingen absoluut interessant en nieuwswaardig. De pcb met gp104 en gddr5x-geheugen geeft toch een vrij duidelijk beeld van wat er te komen staat.

Natuurlijk moeten we een slag om de arm houden zolang er niks officieel is gepubliceerd door Nvidia. In het artikel presenteer ik het dan ook nog niet als waarheid. Wellicht had ik dat nog wat meer kunnen benadrukken met andere woorden.

Ik zal het stukje over de launch nog wat aanpassen. Juni is wellicht wat snel voor gddr5x-geheugen. Maar gezien Micron zelf stelt in de zomer massaproductie op gang te hebben, zou het niet heel veel langer hoeven te duren lijkt mij.
Wccftech is inderdaad nogal uit de duim gezogen, aan elkaar geknoopte onzin. Maar in dit geval tonen ze foto's, en ik Wccftech nog niet de boel bewust oplichten met photoshops.
Videocardz heeft daarentegen een redelijk goede reputatie. Zij hebben een aantal keer NDA's gebroken waardoor ze niks meer krijgen om te reviewen, of op perstrips mogen, maar veel info van hun is legit.

Dit bericht neem ik zeer zeker aan voor waarheid ;) wellicht dat de 1080 met GDDR5X inderdaad later komt, maar dat de lancering nabij is, daar hebben inmiddels talloze onafhankelijke geruchten (en meer ;)) allang over gesproken.
Ik vind nu juist dat Tweakers een keertje het goede nieuws/gerucht heeft gepakt omdat dit wél nieuwswaardig is, en ook plausibel + ondersteund door informatie van verschillende bronnen.

De kracht van een nieuwssite is juist het kunnen waarderen van alle nieuws en geruchten en daar het juiste uit proberen te pikken. Dat gaat hier nu eindelijk eens goed ;)
De 1080 zal dus een paperlauch zijn. Gddr5x is er nog niet eens in volumes.
Dat is toch bij elke introductie van een nieuwe generatie GPU's.
Dat bij de eerste verkopen er maar een beperkt aantal modellen wereldwijd te verdelen is en daardoor de prijs 'competitief' blijft met de vorige generatie en in de loop van een half jaar met ong. 20% daalt.

Wat je nog nergens kan lezen behalve speculaties is hoe deze serie gaat presteren. Dat zal wel gaan komen als review modellen nader bekeken gaan worden. Zelf denk ik dat de prijs van deze serie tussen de 980 (ti) en Titan X zal gaan zitten.
Nvidia heeft wel eens hardlaunches gedaan bij topmodellen.
Dus dat ze de kaarten presenteerden en de dag erna zijn ze op voorraad bij de winkels, en dan niet 2 of 3 kaarten maar echt grote hoeveelheden.
Maar dit is zeer zelden.

Maar met betrekking tot GDDR5X is er zo weinig betrouwbare info dat het best wel eens mogelijk zou kunnen zijn dat we het eerder op producten zullen zien dan verwacht.
Er zijn geruchten die zeggen dat massa productie pas in de zomer is, maar er zijn ook geruchten dat men voor ligt op schema, de yields beter zijn dan verwacht etc.
Misschien zijn ze al bezig met productie in volume maar is deze niet dusdanig dat ze het op teveel kaarten kunnen gooien zonder tekorten te krijgen.
Lijkt me wel een goede reden voor waarom de X70 geen GDDR5X heeft.
In februari had Micron al fab capaciteit voor GDDR5X en had het theoretisch dus al kunnen beginnen met de eerste chips. De productie liep destijds namelijk volgens Micron's eigen zeggen al boven verwachting.

Het is dus helemaal niet vreemd als er nu over een maand of 2 al GPU's mee beschikbaar zijn.
Is er al iets bekend mbt prijs? ben op dit moment een systeem aan het samenstellen.. de GTX 970 strix lijkt nu het meeste interessant voor 335 euro. Hopelijk gaat de 1070 ook rond die prijs te koop zijn..
Niet bij introductie denk ik. Als de prijzen een beetje hetzelfde blijven als bij maxwell dan moet je rekenen op rond de 400 euro voor de 970 en rond de 530 voor de 980. Ik zou als ik jou was sowieso even wachten. De launch van de kaarten is zo dichtbij. Kan alleen maar in je voordeel uitpakken.
Ik zou niet meer de 970 kopen nu, beter wacht je even. De 970 draait ieder spel ook niet meer met het grootste gemak.

[Reactie gewijzigd door NotSoSteady op 24 april 2016 19:22]

Excuus dit is een Nvidia Topic maar ik zou zeker wachten op benchmarks van niet alleen Pascal maar ook Polaris.

Op het moment ben ik meer bezig met ontwikkelingen van de Consoles en minder met PC hardware maar er zijn prachtige ontwikkelingen met VR en AR.

Houd aub rekening met AR en VR met jouw volgende aankoop en kies mogelijk voor meer prestatie voor net die euro's meer.

Als je toch een systeem bouwt en nu een stevige kaart wilt kijk eens naar een tweedehands 280X of 7970 of 680TI dezen zijn te vinden voor rond de 150 euro :) succes.
Gtx 680 TI heb ik nog nooit van gehoord...

Overigens is je reactie erg dubieus, je zegt eerst dat hij mogelijk net iets meer prestatie nodig hebt en daarna raad je hem kaarten aan die zich in een veel lager segment bevinden dan een Gtx 970? }:O
Het is te betwijfelen of de R9 280X / de HD 7970 in een lager segment zitten...

De R9 380 is gelijkwaardig (of mogelijk zelfs beter) dan de GTX 970, het verschil met de R9 280X / R9 380 is niet enorm...
Volgens mij is een r9 390 meer vergelijkbaar met een 970. Zit in dezelfde prijsklasse.
Komt op het zelfde neer, om nou te zeggen dat de R9 280X een veel lager "segment" is xD
Oke 1 segment lager dan volgens dit tabel
Set and point!

Can't argue with that ^^
Ah er is geen TI 680 versie bedankt voor deze opheldering voordat iemand een 680TI had besteld :)

De prijs van 150 euro voor een GTX 680 of 280X is beter dan nu even een 970 te kopen voor 335 euro om deze later weer te vervangen.

De huidige Videokaarten kunnen vast AR en VR aan maar voor welke prijzen ? de vernieuwde kaarten gaan zeker aantrekkelijker worden qua prijs en prestatie verhouding.

Dus waarom investeren in oude techniek als het nieuwe in aankomst is ?

Het punt is spartacus bouwt nu dus misschien voor nu een tijdelijke stevige kaart voor zo zacht mogelijk bedrag.

En dus ook bij het vervangen van deze kaart het verlies minimaal houden ;)
Ah duidelijk, las het voorheen nog niet zo :)
Bedankt Xm0ur3r maar nee het is meer mijn gebrek in communiceren.

Ik probeer zo duidelijk mogelijk iets te zeggen maar op een of andere manier komen mijn gedachten en verhaal niet overeen.

Nee het is geen dyslexie maar wat wel geen idee.. zoiets als verstrooid of gewoon blond :)
Het lager segment.. dat verschilt per software en is te vinden in benchmarks.

Het één is geoptimaliseerd voor AMD kaarten en het ander voor Nvidia en het is vreemd maar er zit per titel en kaart echt wel verschil tussen.
Excuus dit is een Nvidia Topic maar ik zou zeker wachten op benchmarks van niet alleen Pascal maar ook Polaris.
Waarom wachten op Polaris. Daar komt geen high end van uit voor het einde van het jaar.
Ondanks dat dit een Nvidia topic is misschien is deze informatie nuttig nieuws: Gerucht: AMD Radeon 400-videokaarten met Polaris-gpu komen eind juni op de markt wat high end genoeg is voor AR en VR geen idee maar de efficiency van Polaris en Pascal zal een hoogtepunt worden ;)
Nee dat is geen high end. Lees recent nieuws.
Dus de high ends van gisteren zijn vandaag de dag mid range geworden ? meerdere sites laten testen zien dat de 480X zich kan meten met 980TI.

Als het om één site gaat dan heb ik twijfels maar meerdere sites met vergelijkbare test resultaten geloof ik wel.

Maar ik heb nog geen benchmarkings gevonden van framerates per titel en daar gaat het juist om en ga morgen eens kijken.

Fijne avond.. of morgen :)
Wel interessant aan de tabel is het verschil van de Tesla met de Gamekaarten. Bijna twee keer zo veel transistors (natuurlijk vooral ook door het dubbel zo grote geheugen ) en de extreembrede geheugenbus. Maar op zo'n kaart worden toch ook vaak een heel ander type berekeningen gedaan, of iig met een andere data flow.
De extreem brede geheugenbeus is vooral toe te schrijven aan het gebruik van HBM2 (High Bandwidth Memory) :), de naam zegt het al.
De AMD Fury met HBM heeft ook een 4096bit brede geheugenbus, wat een consumer kaart is.

Er worden inderdaad heel andere berekeningen gedaan op de Tesla. Deze heeft een chip die een stuk groter is en dichter bij de Titan - class kaarten zit. De 980Ti heeft ook een grotere chip dan de 980.

[Reactie gewijzigd door Epsilon op 24 april 2016 16:19]

Nee de Tesla heeft meer transistors omdat het een grotere chip is.
En hoe zit het met de mobile versies, komen die na de zomer uit ?
En... kan ik starcraft 2 (legacy of the void) op 4 k spelen (60 fps) ?
Weet niet maar starcraft 2 was altijd heel erg CPU dependent in plaats van GPU.
Je hebt gelijk, een quadcore proces is tevens ook belangrijk, zou een i7 6700HQ wel goed genoeg zijn, vraag ik me af
Had toch verwacht dat de nieuwe kaarten hbm(2) aan boord zullen hebben...
dat is nog niet klaar. dat duurt jammer genoeg nog langer als als dat Gddr5X kost.

een van de redenen waarom de echte top modellen (fury/titan) pas rond de jaarwisseling gepland staan.
Eigenaren van een 980Ti hebben nu nog geen reden tot upgraden naar een 1080 lijkt mij. Wachten op een 1080Ti of 980Ti SLI gaan draaien voor 4K/VR dus...
Wat zou de performance van een 1080 ten opzichte van een GTX980ti op 3440x1440P doen?
edit: ik las niet goed. In het geval van een 980ti zou ik niet upgraden naar een 1080. Als je het überhaupt een upgrade kan noemen.

[Reactie gewijzigd door echtwaarisdatzo op 25 april 2016 18:07]

De gddr5x modules staan wel in de micron catalogus

https://www.micron.com/su...matpart=MT58K256M32JA-100

https://www.micron.com/parts/dram/gddr5/mt58k256m32ja-100?pc={36AC3EF0-A201-4647-A69B-2B6A506FEEDE}
Lol... Eerst dat gehype van nvidia over HBM en nu dit?

Ervanuitgaande dat wcttech of whatever dit keer wel betrouwbaar is.
Zal waarschijnlijk alleen voor de professionele markt beschikbaar komen en misschien de titan.
Was toch weer even lekker gratis reclame voor Nvidia, door al die gamers, die dachten dat ze HBM2 kregen :)
HBM2 komt ook, maar is nog te vroeg ervoor. Zal waarschijnlijk einde van dit jaar of begin volgend jaar worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True