Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 241 reacties

De Nvidia GeForce GTX 1080 presteert in games op hoge resoluties ongeveer 30 procent beter dan de GTX 980 Ti op stocksnelheden. Dat blijkt uit benchmarks en reviews van onder andere AnandTech, ArsTechnica en Hardware.Info. De kaart krijgt een adviesprijs van 789 euro.

AnandTech concludeert in zijn publicatie dat de GTX 1080 bij 4k-resoluties in games zo'n 31 procent sneller is dan de GTX 980 Ti en 32 procent sneller dan de AMD Radeon R9 Fury X. Het verschil met de GTX 980 is 70 procent in het voordeel van de nieuwe kaart. De prestatie-index van TechPowerUp laat een vergelijkbare winst zien. ArsTechnica spreekt van een winst van 20 tot 35 procent ten opzichte van de 980 Ti en Titan X.

De Nvidia GTX 1080 is verreweg de snelste single-gpu tot nu toe, maar desondanks nog niet snel genoeg om de meest recente games in 4k-resolutie te draaien met 60fps op de hoogste instellingen. Bij veel games komt de framerate echter wel dicht in de buurt en door de grafische instellingen iets omlaag te draaien zal 60fps bij veel games in uhd-resolutie mogelijk zijn.

Nvidia GTX 1080 benchmarksNvidia GTX 1080 benchmarksNvidia GTX 1080 benchmarksNvidia GTX 1080 benchmarksNvidia GTX 1080 benchmarksNvidia GTX 1080 benchmarksNvidia GTX 1080 benchmarksNvidia GTX 1080 benchmarks

Benchmarks uit de reviews van AnandTech en TechPowerUp.

Overigens moet opgemerkt worden dat in alle reviews tot nu toe de GTX 1080 wordt vergeleken met de GTX 980 Ti op stocksnelheid. Veel van de GTX 980 Ti-kaarten die op de markt zijn hebben een flink hoger geklokte gpu. Ten opzichte van dergelijke kaarten is de prestatiewinst van de Founders Edition GTX 1080 dus minder hoog.

Nvidia beloofde bij de presentatie dat de GTX 1080 bij vr-toepassingen net zo snel als twee GTX 980-kaarten zou zijn. Uit de review van Hardware.Info blijkt dat de kaart in 3D Mark een score neer weet te zetten die dicht in de buurt komt van de score van een GTX  980 sli-opstelling. De diverse gepubliceerde reviews gaan niet in op de prestatieverbeteringen bij vr-toepassingen. Om hier iets van te merken moeten toepassingen gebruikmaken van de simultaneous multi-projection-techniek die Nvidia daarvoor heeft bedacht en op dit moment zijn dergelijke games er nog niet.

GTX 1080 oc performanceTechPowerUp wist met overklokken een praktijkwinst van 12,8 procent te halen. De gpu werd geklokt op 2114MHz en het geheugen van 1250 naar 1450MHz. Hardware.Info haalde ook de snelheid van 2,1GHz, maar noemt dat daarboven het systeem vaak crasht. De praktijkwinst kwam uit op 13,3 procent in 3DMark. Ook ArsTechnica ondervond problemen met de overkloksoftware, maar wijt dat aan de prerelease-status daarvan. Ars haalt een gpu-snelheid van zo'n 2GHz.

Alle gepubliceerde reviews zijn gebaseerd op een 'Founders Edition' van de GTX 1080. Dit is Nvidia's nieuwe naam voor videokaarten met het referentieontwerp. Vrijwel alle fabrikanten hebben inmiddels zo'n uitvoering van de GTX 1080 aangekondigd. Varianten met custom pcb, aangepaste koeler en vaak ook hogere kloksnelheden, zullen later aangekondigd worden.

De GTX 1080 Founders Edition is vanaf 27 mei beschikbaar en krijgt in Europa een adviesprijs van 789 euro. Later zullen fabrikanten met aangepaste modellen komen, die ook goedkoper zouden moeten zijn. Wanneer deze verschijnen is nog niet bekend.

Nvidia heeft nog geen nieuwe informatie bekendgemaakt over de GeForce GTX 1070. Deze goedkopere videokaart werd tijdens de introductie kort genoemd. Ook de 1070 heeft een GP104-gpu van de Pascal-generatie, maar krijgt regulier gddr5-geheugen. De rekenkracht is 6,5 tflops, terwijl dat bij de GTX 1080 hoger is met 9 tflops. Vanaf 10 juni zal een 'Founders Edition' van de GTX 1070 beschikbaar zijn voor 449 dollar. Varianten met aangepast pcb zullen bij 379 dollar beginnen. Omgerekend inclusief btw gaat het om ongeveer 477 en 402 euro.

Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080

Moderatie-faq Wijzig weergave

Reacties (241)

Als het gaat om het overklokpotentieel van de 1080 heeft een Duitse reviewer een alleraardigste ontdekking gedaan. Het schijnt noch de temperatuur, noch de architectuur te zijn die de grens vormt van het overklokken; het is de afwezigheid van een 2e 8-pins powerconnector. Nog korter gezegd: Het gebrek aan extra stroom verhindert het verder overklokken.

Het is dus afwachten wat de lui van Asus, MSI, Gigabyte, EVGA etc. gaan doen. Gaan ze een extra connector op de custom kaarten zetten? Duurt nog ongeveer 10 dagen voordat we het weten.

Bron: http://www.pcgameshardwar...hmark-Test-Video-1195464/

Engelstalige interpretatie: http://videocardz.com/601...d-with-aftermarket-cooler
Uhm ... de titel van de onderste alinea is "und mit starker Nachrüstkühlung auf der Jagd nach 2 GHz Kerntakt". Vrij vertaald, met sterkere luchtkoeling op zoek naar de 2GHz core snelheid. Daarbij vervangen ze de koeler en zien ze, zonder extra stroom o.i.d., dat de kaart (inclusief een voltage bump) hogere snelheden bereikt in een OC en die ook volhoudt tijdens het spelen van de nieuwe DOOM waar deze eerder door temperatuur terugklokt.

Waar haal je uit dit stuk dat de kaart power-hungry is? Die 120% power target hebben andere reviews ook geprobeerd, maar dat biedt extra power draw ruimte binnen de 1 8-pins connecter spec - niet miraculeus meer dan wat die 8 pinnen + het slot kunnen leveren :) . Ze behalen deze hoge clocks door de hogere power target te combineren met goede koeling.

Dat werkt overigens al zo op veel oudere kaarten, zie bijvoorbeeld een 7950 Boost kaart van 2~3 jaar oud die in de Radeon Settings ook een %-vergroting van de power target ingesteld kan krijgen om hogere clocks stabiel te maken ... MITS je goede koeling hebt die hem binnen de temperatuur limieten houden :) .
De Duitse reviewer begint er over in de bij de review behorende video (rond 7:02)
https://www.youtube.com/watch?v=wlSeHCPd75s

Hij oppert daarbij ook dat het tweaken van de BIOS om een wat hoger TDP te krijgen een methode is om de kaart nog hoger te klokken. Hiermee is dus duidelijk dat linksom (extra 8-pin) of rechtsom (BIOS-tweak) of beiden er meer vermogen in deze kaart schuilt die wellicht/hopelijk door de custom kaarten van de AIB partners ontsloten gaat worden.

Ik kwam op deze Duitse review terecht via videocardz.com die deze conclusie trokken uit die review:
Test performed by PCHG brought a simple conclusion; it is not temperature that is keeping GP104 from achieving higher clocks, but board power limit, which can’t be increased unless more power connectors are added. So I’m guessing we need to wait 10 more days to see what custom cards can deliver in this matter.

[Reactie gewijzigd door Gehaktbal op 18 mei 2016 08:34]

Yep, je hebt gelijk, nu ik beter kijk is het inderdaad een combinatie. Met de stock koeler loop je te snel tegen de temperatuur op, maar vervang deze en met de softwarematige TDP verhoging + OC loopt de kaart tegen de 225W grens aan.

Dit is natuurlijk 100% bekend bij NV, waarom zo limitten... gemakkelijke Ti introductie en nieuwe Titan? Hebben ze met het nieuwe procedé al zulke goede yields dat ze dit bij introductie kunnen doen of speelt mee dat AMD zijn kaarten nog moet laten zien?
Sorry hoor, maar het is nog helemaal niet gezegd dat er ook maar IETS verschillend is aan Pascal ten opzichte van Maxwell of Kepler. De enige reden dat we dat nu denken is omdat we alleen het bordje van Nvidia in handen hebben gehad en die heeft een bottleneck op de koeling, en op de PCIE connectors.

Maxwell klokte tot ongeveer 1500-1600mhz en daarna werd het moeilijk. Je kon hoog en laag springen maar dat was een beetje de harde cap. Meer voltage had weinig zin, meer koelen ook niet, tenzij je echt gekke dingen wil gaan doen maar dan hebben we het niet meer over 24/7 en bruikbaar.

Maxwell klokte echter uit de doos niet tot die 1500, maar tot 12--1300mhz. Herkenbaar? Ook nu liggen de boost clocks een stuk lager uit de doos, ook bij Kepler was dit zo, en ook bij Kepler was er een plafond dat op zijn beurt tegen de 1250-1300mhz lag, maar ze kwamen als 1150-1200 uit de doos. Ondertussen hebben we echter niet zo gek veel meer shaders gekregen sinds de 780ti.

Zien we al een patroon ontstaan? Pascal gaat gewoon hard cappen op 2060-2200mhz en maakt daarmee een gebrek aan shaders goed met een hoge clock. Dus die jacht naar 2000mhz of hoger klinkt heel cool, maar het valt allemaal wel mee. En op het moment dat je er meer power in gaat gooien, verlies je eigenlijk het enige dat Pascal zo tof maakt en dat is de perf/watt. Die is namelijk op stock heel erg mooi, maar op stock is het verschil met de 980ti in veel games niet noemenswaardig te noemen - want de 980ti klokt ook lekker en qua architectuur is er niet zo bijzonder veel veranderd. De shaders van Maxwell zijn dus op gelijke clock bijna hetzelfde 'waard'.

Overigens is de voorspelde +30% inmiddels uitgekomen. Houd er rekening mee dat de 30% gehaald wordt met aanzienlijk hogere clocks, dus het OC potentieel lijkt veel hoger dan het werkelijk is. Ik reken op zo'n 10% ipv de 13 die je in reviews ziet.

Als je écht wil zien wat er voor raw performance in deze GPU zit, pak voor de grap eens de 4K benchmark van Crysis 3 erbij. Dan zie je hoe dramatisch weinig er écht verandert, en dan zie je waar hoge clocks en weinig shaders door de mand vallen.

De GTX 1080 is nog vér verwijderd van een '4K gaming' GPU.

[Reactie gewijzigd door Vayra op 18 mei 2016 11:08]

Het wordt dus gewoon nog ff afwachten op de latere versies eind dit jaar/begin volgend jaar met hbm2 geheugen en dan te zien of er een '4K gaming' rig te bouwen is zonder dat t 4k kost ;)
Idd, ivm het nog uit te brengen van de Titan en de 1080TI, maar ik moet zeggen, dat ik bang ben, dat AMD ze weg gaat blazen.

Het meeste performance is gewoon toe te schrijven aan de die shrink naar 16nm en het geheugen.

Als ik dit meeneem, kan ik niet anders concluderen, dat de kaarten van AMD een dikke 10 tot 20 procent sneller zullen gaan worden.
Polaris 10 zou vooral een goedkope vervanger moeten zijn voor de R9 390X, iets sneller en de helft zuiniger.
Hun performance kaart zou pas begin 2017 op de markt komen.
Jammer genoeg ja, lijkt alsof ze graag de boot mislopen de laatste tijd.
Nu nog day 0 driver patches, game-developers hun software laten gebruiken en de "leading gpu" worden in de scene...

- een treurige amd r9 290 bezitter.

oh en aub het fixen van al die vreselijke screen-tear bugs in the division
Hmm.... Niet helemaal waar dit.
Kijk maar eens naar de R9 295X2, met twee 8-pins kon deze prima overklokken.

Als dit echt het probleem is, is dit vaak op te lossen met bios tweaks, ik heb vaak zat de TDP van de kaarten verhoogt via een bios tweak, en in deze bios tweaks kun je ook de maximale stroom per PEG-connector aanpassen, en een 8-pin kan prima meer dan 150W vervoeren. Daarom dat ik eerder benieuwd ben naar BIOS tweaks waar je dus de TDP en de PEG-connector restricties kan omzeilen, net zoals AMD gewoon doet met zijn dual-GPU kaarten
Twee 8-pins connectors leveren dan ook een shitload aan stroom, maximaal 150 watt (volgens de officiële specs) per stuk. Samen met het moederbord kom je dan op 375w uit.

De huidige 1080 moet het met slechts één PEG-connector doen met 225 watt. Als je door rekent met de stijging van het stroomverbruik per extra mhz, resulteert dat precies in een falende overklok wanneer je meer dan 225w vereist van de kaart.
Dat je dat wellicht met BIOS-tweaks kan omzeilen zal best kunnen, daar komen we dan wellicht later nog achter. Voor nu lijkt het duidelijk dat de 1080 qua overclocking bottlenecked wordt door de afwezigheid van een tweede stroomconnector.
Die stijging van extra mhz werkt twee kanten op. De voltages zijn met pascal gedaalt. Oftewel. Increase in mhz gepaard met decrease van voltage. Is nog steeds hetzelfde verbruik. Vandaar dat de TDP ook maar 180W is
Maar de 295x2 trekt bij gaming 430 tot 500W, bij furmark 650W.

Die gaat dus zeker over de spec heen, maar goed, stekkers en voedingen kunnen wel wat hebben.
is dat niet voor heel een systeem?
Dit heeft er dus niks mee te maken...

Waar jij over babbelt is een 'software' limit.

Hier wordt gesproken over hetzelfde feit dat als jij een PSU koopt die niet krachtig genoeg voor je PC is, je PC dus bij load instabiel wordt.

Hetzelfde geld dus voor je Video kaart, basically. Zowel de pin kabels en het PCI-E slot kan maar een bepaalde hoeveelheid stroom leveren.

[Reactie gewijzigd door Marctraider op 18 mei 2016 00:35]

Dat is totaal niet het geval. Een 8-pin is door specificatie gelimiteerd tot 150W. deze kan veel meer stroom doorvoeren. Dit is echt met software gelimiteerd. Mocht jij dus deze software omzeilen (een aparte bios maken). Dan kun jij dus wel meer stroom trekken dan de software gelimiteerde 150W.

Ik denk dat je niet snapt dat alles tegenwoordig digitaal wordt gelimiteerd en niet hardwarematig. Er zijn gewoon entries in de vbios die de maximale stroom aangeven. Deze zijn dus aan te passen. Waardoor je dus meer stroom door een 8-pin kan trekken
Lijkt mij ook wel, alleen... zijn PSU's daar dan ook op voorzien? Aangezien de specificatie zegt dat een 8-pinsconnector 150W moet 'leveren', zijn er misschien maar weinig of geen PSU-fabrikanten die de internals van hun voedingen hierop voorzien hebben en de benodigde stroom niet kunnen leveren.

Of vergis ik mij hierin nu? :)
Kan alle kanten opgaan dat is het mooie van verschillende Fabrikanten en Smaken :)

http://tweakers.net/price...845;496469;463137;459125/
Passieve GTX 950 heeft een TDP van 75W.
Standaard GTX 950 heeft een TDP van 90W.
OC GTX 950 heeft een TDP van 110W.

In de praktijk kan het anders zijn maar de TDP is toch een mooie indicatie maar als je een OC moederbord en of lage efficiënte voeding hebt dan maakt het toch niets meer uit...

Voor de enthousiasteling maakt het weinig uit maar ik heb liever een kaartje van ongeveer 100W met een totaal systeem van 150W ;)
Zonder een kamp te kiezen lijken me dit licht teleurstellende resultaten voor de hype en met dit prijskaartje specifiek voor de founders edition. Een populaire 980 Ti kaart is de MSI variant (pricewatch: MSI GTX 980 Ti GAMING 6G) welke voor ¤658 op de mat ligt. Met een prijs van ¤789 (20% duurder) is de 30% performance bump natuurlijk netjes, maar het geeft wel aan dat het ontwijken van 4K en een direct vergelijk met de 980 Ti in de NVIDIA aankondiging met een goede reden was.

Alsnog een beest van een GPU / kaart, maar nog steeds geen 4K kaart. En juist de gepresenteerde super SMP feature schittert door afwezigheid omdat de applicaties er nog niet klaar voor zijn (niet NVIDIA haar verantwoordelijkheid, wel haar marketing probleem).

Kant tekening, de niet-founders editions zullen mogelijk voor ~¤100 minder over de toonbank gaan, laat staan als er concurrerend aanbod van AIB's bij verschijnen, dan wordt het plaatje alweer heel anders en is de prijs-prestatie ineens wél indrukwekkend. Maar hoe lang duurt dat nog en is de 980 (non-)Ti dan niet meegezakt in prijs in dezelfde verhouding?

Nu is de zet aan AMD, nieuwsgierig nieuwsgierig. Soms denk ik wel dat dit soort kaarten uiteindelijk marketing uitingen zijn van het echte werk dat wordt verricht door de "14"/16nm transistor producenten. Zij zijn de eigenlijke technologische rocksterren op de achtergrond en AMD en NV "profiteren" en plukken er de "super epic gaming" stickers op voor ons gamers.

P.S. Zie overigens mijn eerdere reactie: Cassius in 'nieuws: Fabrikanten kondigen Founder Editions van GTX 1080-kaarten aan' als je vragen hebt over wat de "Founder's Edition" inhoudt.

[Reactie gewijzigd door Cassius op 17 mei 2016 17:02]

De GTX1080 is maar 10% sneller dan een MSI GTX980Ti Gaming, dus de resultaten zijn dan inderdaad wat teleurstellend.
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/
Tot er een MSI GTX1080 Gaming komt, die heeft (als we Nvidia mogen geloven) nog meer overklokpotentieel dan de 980Ti ooit had.

Dat zou betekenen dat een aftermarket GTX1080 meer snelheid wint vergeleken met een aftermarket GTX980Ti, dan een stock GTX1080 dat doet tov een stock GTX 980Ti.

dat extra zal wel niks van kloppen maar opnieuw die 30% moet in ieder geval lukken met aftermarket coolers :9
Wellicht, maar er zijn ook geruchten van een betrouwbare bron dat het mee valt en dat er tijdens de presentatie LN2 is gebruikt of in ieder geval geen stock cooler (zie Nvidia topic). Maar ik ben benieuwd wat er nog uit te halen valt, met een Accelero 3 is de 2ghz te halen een OC van +/-17% op de boost clock. Denk niet dat dat zoveel hoger gaat worden met factory OC kaarten tenzij ze de board power verhogen want dat is de huidige limitatie.
http://videocardz.com/601...d-with-aftermarket-cooler

Wat veel mensen lijken te vergeten is dat naarmate de kaarten steeds hoger worden geclocked dat je ook meer mhz moet overclocken om hetzelfde percentage OC te halen.
Om een simpel voorbeeld te geven, een kaart van 1000mhz naar 1200mhz OCen is hetzelfde als een kaart van 1600mhz naar 1920mhz te clocken in percentage. Terwijl je bij de ene máár 200mhz erbij hebt en bij de ander wel 320! (voor de duidelijkheid in beide gevallen een OC van 20%)

[Reactie gewijzigd door Sp3ci3s8472 op 17 mei 2016 22:51]

Wat je ook vergeet is het feit dat als je de core omhoog krikt dat je het geheugen er niet per se bij overklokt op hetzelfde percentage ;)
Maar wat jij lijkt te vergeten is dat
als die kaart op 1920mhz draait meer dan 20% sneller is dan de kaart waar je het mee vergelijkt.
Als je die oc had op de kaart waarmee je vergelijkt was dat 32% oc geweest
Nee, want een 20% OC is niet 20% meer prestaties dat hangt van veel meer factoren af, zoals toegestaan TDP, warmte van de chip, geheugen bandbreedte en andere limitaties in de chip zelf.
Als je die oc had op de kaart waarmee je vergelijkt was dat 32% oc geweest
Ik neem aan dat je bedoelt dat als je de kaart van 1000mhz naar 1320 had geoced dat je dan wel 32% had? Dat klopt, en dat is ook mijn punt, 320mhz op een 1000mhz kaart geeft veel meer winst dan 320mhz op een 1600mhz kaart.
Ik spreek ook niet over prestaties, maar over een OC percentage.
Het is afhankelijk wat je referentiepunt is, de nieuwe kaart, of je oude kaart.

Vaak is de referentie je oude kaart, want je vergelijkt wat je prestatiewinst zou zijn indien je upgrade.

[Reactie gewijzigd door dieter87 op 17 mei 2016 22:45]

Ik spreek ook niet over prestaties, maar over een OC percentage.
Het is afhankelijk wat je referentiepunt is, de nieuwe kaart, of je oude kaart.
Maar een OC percentage is helemaal niet afhankelijk van welke kaart je neemt als referentie punt omdat beide kaarten andere chips gebruiken. Misschien dat een 20% oc op een GTX980Ti wel veel meer doet dan bij een GTX1080.
Vaak is de referentie je oude kaart, want je vergelijkt wat je prestatiewinst zou zijn indien je upgrade.
Dat is dus tenopzichte van een factory OC GTX980Ti dus +/- 10% indien je een stock GTX1080 koopt, klok je beide kaarten verder over dan zal het verschil nog steeds vergelijkbaar zijn.
Dit zal blijven totdat er custom pcbs komen voor de GTX1080 die nu gelimiteerd is doordat hij te weinig stroom krijgt voor een hogere OC.

Volgens mij lopen we langs elkaar heen te praten, plus ik ben moe doordat ik een lange dag achter de rug heb :p. Er komt vanavond niet veel meer binnen dan een Jip en Janneke voorbeeld :+.
Tot je het ding in gaat zetten in VR en gebruik maakt van SMP, dan maakt de 1080 gehakt van de 980Ti.
Dat klopt, dat ga ik ook niet ontkennen. Ik had dat er voor de duidelijkheid wellicht bij moeten vermelden.

Gamedevelopers moeten SMP toch wel eerst implementeren voordat er gebruik van kan worden gemaakt?
Precies. En laat er nu nog geen enkele VR game gebruik van maken... De meeste VR games laten op de 980Ti nog niet eens de fan draaien. Maar er wordt al wel luid geklaagd dat Smp geen invloed heeft binnen VR. Dit zal in de toekomst vast veranderen maar tot die tijd ben ik erg blij met de 980Ti.
Dit is een "educated guess", een aannemelijke assumptie. Maar vooralsnog nog steeds een assumptie tot we de getallen zelf gezien hebben. Ik hoop het voor de eindgebruiker hoor, maar je kan marketing er niet van betichten dat ze altijd vooral waarheid aan de eindgebruiker voorschotelen :) .
Hier wat getallen van een review door RoadToVR waarbij de focus ligt op VR-prestaties.
Dat is met alles, ja 'als SMP'. En dan ondersteunt niks weer SMP net als dat niks SLI ondersteunt.
Niet echt bepaald een eerlijke vergelijking. SMP is een redelijke no-brainer - je rendert je scene toch al twee keer vanuit verschillende camerastandpunten, dat blijf je doen alleen doe je het nu tegelijk. Plus, je weet nu al dat alle nVidia kaarten vanaf Pascal het gaan ondersteunen.

Dit itt SLI, waar je veel meer over na moet denken en de afzetmarkt een heel stuk kleiner is.
Niet alleen voor VR. Ook voor bijvoorbeeld drie monitor set ups e.d. Bij drie monitor set ups, zal het beeld nu ook beter zijn en kan je nu dus volgens de Nvidia live stream daarnaast ook drie monitors aansluiten op 1 kaart.
Je kon sowieso al meer dan 2 monitoren aansluiten op 1 kaart. Waar jij overigens op doelt is multimonitor viewports waarbij de monitoren onder een hoek staan. Je desktop zal er niet echt sneller mee worden
Nee dat niet perse, maar het beeld wat je ziet op de monitoren is wel mooier door de veel betere schaling van de 3d omgeving in bijvoorbeeld games. Vond dat nog best een verschil, van wat ik zag tijdens de live stream op Twitch.
Dan moet je toch wat meer reviews lezen want hij is aanzienlijk sneller als slechts 10% ;) want alle reviewers klokken hem naar minimaal 2K GHz _/-\o_

[Reactie gewijzigd door calsonic op 17 mei 2016 21:42]

Nee, dat is hij niet. Ik zeg toch duidelijk de MSI GTX980Ti Gaming, die kaart is niet stock. Dat hij een stuk sneller is dan een niet stock is duidelijk, alleen koopt niemand een niet stock GTX980Ti. Als je de MSI GTX980Ti nog eens OCed naar +/- 1500mhz dan is hij even snel als een GTX1080.

Zoals ik al aangeef in een andere post, dat is een OC van 17% voor de GTX1080, dat is zeker leuk en geeft een winst van iets van 12%. Niet veel sneller dan een GTX980Ti met OC. Als er custom kaarten komen van de GTX1080 dan zal dat vast wel veranderen, en dan wordt het wel leuker.
Laat me raden jij hebt een 980Ti en baalt nu dat hij in waarde gehalveerd is en niet meer de snelste kaart is :O
Laat me raden, jij hebt net je factory oc GTX980Ti verkocht voor 300 euro en je baalt ervan dat de stockGTX1080 maar 10% sneller is? :+

Wat dan nog als ik een GTX980Ti had gehad? Ik maak valide punten.
Maar, nee, ik zit hier prima op een R9 290. Ik koop pas weer een kaart als er iets leuks voorbij komt. Ik vind de hype alleen overdreven, met name voor mensen met al een snelle GTX980Ti.

[Reactie gewijzigd door Sp3ci3s8472 op 18 mei 2016 10:51]

Nee ik was niet zo dom om een 980Ti te halen - de duurste kaart is altijd een slechte investering - een 970 was veel beter voor ¤ 300 nieuw ;)
Net zoals straks een 1070 Twin Frozr beter is voor je portemonnee als een 1080(Ti) omdat er binnenkort toch weer wat beters uitkomt - en zo gaat het al vanaf dag 1 in de hardware wereld.
Daar ben ik het helemaal met je eens, de enthausiast kaarten hebben altijd een slecht prijspunt (voor onze portemenee dan).

Om nu een "Founders Edition" kaart te gaan halen als je een GTX980Ti (met OC) hebt is gekte, de custom kaarten worden waarschijnlijk beter betaalbaar. Dat was meer het punt wat ik probeerde te maken, de GTX1080 voor de rest een prima kaart, alleen weinig vernieuwends en omdat hij nieuw is duur.
De 980ti lijkt eigenlijk met deze 1080 release een stuk minder snel in waarde te dalen als voorheen gedacht, juist *omdat* de raw performance niet zo heel ver van de 1080 af ligt.

Hogere clocks zijn niet zoveel geld waard en de 980ti heeft op gelijke clocks misschien wel meer power dankzij de bredere bus.

Je moet tussen de regels door lezen. Er wordt vergeleken met stock 980ti, niet met factory OC, maar niemand heeft die stock 980ti want die is bijna niet geproduceerd.

[Reactie gewijzigd door Vayra op 18 mei 2016 11:19]

De waardedaling is nu nog nauwelijks ingetreden maar die komt vanzelf als de 1070 te koop is ;)
En een nieuwe 980Ti kost nu al ¤100 minder als een week terug.
Ja klopt ook wel, dat is altijd zo. Maar ik verwacht niet dat de 980ti bij release van de 1070 tweedehands gaat dalen naar de 300 euro. Als dat zo is, koop ik er twee :)
Je vergelijkt nu wel een pricewatch-prijs van een kaart die al even op de markt is, met een adviesprijs van een nieuwe kaart, he.
Overigens moet dan wel opgemerkt worden dat de "founders edition" feitelijk gewoon een andere naam is voor reference design. Als je een dergelijke kaart wil gaan aanschaffen zou ik nog even wachten totdat de andere fabrikanten ermee aan de slag gaan. Dikke kans dat de prestatieverschillen dan weer net zo zijn als bij de 980 ti.

De GPU op de 1080 is immers nu al goed overclockbaar doordat de temperaturen echt wel laag liggen voor reference design. Met aftermarket koelers van Asus, MSI en EVGA gok ik dat de prestaties nog flink omhoog zullen gaan af fabriek. Ik hoop alleen wel dat custom PCB mogelijkheden wel in de GTX lijn blijven. Dat schept nog meer mogeijkheden op absurde grafische prestaties en daarmee ligt UHD gaming wel heel erg dichtbij met de huidige games.
Je vergelijkt nu de adviesprijs van een kaart die nog niet eens te krijgen is (een prijs waarvoor geen enkele webshop hem gaat verkopen) met de prijs van een kaart die al enige tijd op de markt is. Dat is natuurlijk geen eerlijke vergelijking. Verder is de GTX 1080 inderdaad aardig overhyped. Natuurlijk is het een leuke stap vooruit, maar NVidia heeft met termen gegooid die veel grotere vooruitgang suggereerden en het blijft pijnlijk hoeveel wij in euro's betalen vergeleken met de prijzen in dollars (ja, ik ken het effect van hun BTW, maar dan nog is er een significant verschil).

Maar goed, NVidia heeft stevig ingezet op VR gaming en daar allerlei optimalisaties voor ingebouwd. Aangezien dat de grootste bottleneck is de komende jaren, ben ik vooral benieuwd naar benchmarks die specifiek dat onderwerp testen :)
Nou ja dat is de adviesprijs van de "founders edition", de kaarten van de andere aanbieders gaan een dikke 100 euro minder kosten, zeg advies 669 Euro. Dan ziet het plaatje er al anders uit, daarbij mag je aannemen dat enige weken na de introductie er zo'n 10% van de advies prijs af is.

Dan zitten we rond de 599 Euro en is het ineens een hele verbetering t.o.v. de 980Ti die dan tegen die tijd, mits hij nog op de markt aanwezig is, zo rond de 449 zou moeten doen, als maximum.
Nog steeds geen 60 fps op 4K.

90 FPS op VR is ook nog ver weg voor een 'normale' game. Teleurstellend.
AMD richt met de Polaris kaarten helemaal niet op de top positie. Dit is marketingwise wel leuk, maar het verkoopt uiteindelijk helemaal niet zo goed. Polaris is gericht op een laag stroom verbruik en een zo hoog mogelijke performance/watt. Deze ronde zal NVidia winnen, ook mede omdat de benodigde geheugen bandbreedte op dit moment niet geleverd kan worden. GDDR5X is nauwelijks verkrijgbaar en is momenteel 10-12Gb. De oplage van GTX1080 kaarten zal ook relatief beperkt zijn.
GDDR5 loopt al op de tenen en levert gewoon niet genoeg bandbreedte om de nieuwe generatie voldoende te voeden, daarom is het nuttiger om mid-range kaarten uit te brengen.

De echte interessante kaarten komen eind dit jaar wanneer HBM2 klaar is, AMD's Vega en NVidia's GP102 (geloof ik) zullen dit beide gebruiken en zullen daarmee waarschijnlijk veel sneller zijn dan deze kaarten nu. Ik ben vooral benieuwd wie van de 2 die wedstrijd wint.

Zie ook AdoredTV op Youtube die hier veelvuldig op in gaat.
https://www.youtube.com/user/adoredtv/featured
GTX 980 TI is nu voor 549 te koop met game dus dat maakt het verschil alleen maar teleurstellender!
Heeft Tweakers geen Sample ontvangen? Ik had ook wel een review hier verwacht.

[Reactie gewijzigd door tijmenvn op 17 mei 2016 16:43]

Helaas geen sample, dus geen review :(
Daar balen wij hard van en we gaan er alles aan doen om dat in de toekomst te voorkomen.
Hoe kan het dat tweakers geen sample heeft ontvangen, als ik vragen mag?

[Reactie gewijzigd door Omni op 17 mei 2016 16:48]

Omdat (naar hun eigen geposte review geschiedenis) componenten nog maar 5-10% van de reviews uitmaakt, daarnaast is Tweakers met hun hernieuwde "techniek toegankelijke maken voor de massa" beleid een stuk minder interessant.

Ook heeft Nvidia deze keer ingezet op wat minder review samples en daarvan meer toe bedeeld aan social media specialists (aka youtube tech specialists)

Ik zeg niet dat ik het besluit steun om Tweakers er geen te sturen, maar als ik kijk naar de verspreidings strategie van Nvidia en deze naast Tweakers leg, zie ik wel dat deze niet echt op elkaar lijken afgestemt...
Ik vond de laatste tijd de Review al zwaar tegenvallen, ik ben uitgeweken naar HWinfo, Tweakers vindt ik sowieso nog maar marginaal, kapot gemaakt door Commercieel belang Jammer 8)7
Deels mee eens. Maar de reviews van de VR-brillen vind ik dan weer heel goed gedaan. Juist als "leek" erg goed te begrijpen, goed je eigen pro's en cons kunnen bekijken....

HWI voor de echte pc-related stuff (al lees ik enkel de conclusie vaak. enkel bij aankoop hele artikelen... te veel droge stof en statische benchmarks). Verder Tweakers.
Kan wel zijn maar deze site heet Tweakers niet Leeks |:( 8)7 :P ;)
Jup, want de basis moeten we al weten natuurlijk, zeker bij een 1st gen product 8)7 .
Tweakers ja. Niet Experts (al volgt dat vaak wel uit het eerste). Wat is exact het nut van 2x dezelfde site met dezelfde inhoud? HWI richt zich duidelijk op een ander doel. Prima dat je daar naar uitwijkt, dat doe ik ook. Maar voor andere achtergronden/reviews kijk ik nog altijd naar Tweakers. Zeker de achtergrondartikelen zijn gewoon erg goed. De reviews zijn voor sommige productgroepen vaak wat minder, maar voor andere groepen weer goed.

Veel mensen klagen vooral over de conclusie van de reviews... maar op basis van wat er geschreven is kan je vaak prima een eigen mening vormen over het product, en daar gaat het toch uiteindelijk om?
Daar heb je zeker gelijk in. Ze zijn een beetje aan het afstompen helaas.
Ik heb er ook geen probleem mee, ik vind zelf video's kijken fijner.
Ik ben het er mee eens dat het niet heel gek is dat Tweakers er geen heeft gekregen, ik heb ook gezien dat Tweakers meer op de casual-markt en tweakers-markt aan het focussen is, en niet meer de beste site is voor hardware tests. Zelf bezoek ik Tweakers alleen nog voor pricewatch V&A en nieuws.
... en ik heb ook helemaal geen moeite met deze verschoven focus. Nog steeds goede reviews enzo, en de overlap met HWI is minder. En da's goed als je allebei de sites leest, zoals ik doe ;-)
HWI gaat inderdaad niet zo diep als Anandtech maar dat doet niemand - ik vindt hun reviews meestal wel goed genoeg om een beeld te krijgen van het product. Tja, meer is altijd beter, dat is natuurlijk zo.
En dan word je weggemod. |:( 8)7
De review-exemplaren zijn verdeeld op het Nvidia-evenement in Texas, tijdens de aankondiging begin mei. Tweakers heeft geen uitnodiging gekregen helaas en dus ook geen sample. De precieze reden daarvoor weet ik niet. Er zijn verschillende scenario's te bedenken: vanuit Nederland was in ieder geval HWinfo aanwezig en Guru3D (Engelstalige website, maar een Nederlandse auteur). Een argument zou kunnen zijn dat daarmee de plaatsen vanuit de Benelux op waren. Of dat T.net minder belangrijk is omdat we niet in het Engels publiceren (de buren doen dat wel). Hoe dat precies zit, en hoe we dat op kunnen lossen, daar zullen wij met Nvidia uit moeten komen...
Ach, het commentaar van Ornias is waarschijnlijk redelijk to-the-point en om heel eerlijk te zijn denk ik niet dat het een probleem is. De focus van Tweakers is verschoven maar goed, in mijn ogen. Minder overlap met HWI is ook een goede zaak, wat mij betreft is dit artikel ok.

Ik snap natuurlijk dat jullie liever de views hebben en jullie zijn ook geeks die graag de laatste toys testen dus uit commercieel en persoonlijk opzicht ben je het waarschijnlijk niet met me eens, zou ik denk ik ook niet zijn. Maar ik geef alleen even aan dat als lezer ik dit niet als een groot issue zie - ik ben er niet minder trouw tweaker door.
Daarnaast heeft hardware info ook een magazine en een youtube kanaal, dus heeft beschikking tot meerdere media. Waar tweakers alles gebeurd op de site. Het publisher-en in het Engels is volgens mijn niet het ding, kan me moeilijk voorstellen dat het Engels zo belangrijk zou zijn want op HWI is bijna geen Engelstalige lezer te vinden. Ja er is een Engels onderdeel maar daar zijn amper reacties op te vinden.
Ik denk dat HWI misschien wel meest uitblinkt in de grote hoeveelheid van benchmarks. SLI configuraties tot zelfs Quad SLI, frametimes, 10+ benchmarks in review, een simpele algemene prestatie score (voor de overzicht).

Teruggaand op het artikel bij HWI zien we toch grotere prestatie winsten op, gemiddeld 35% maar op zwaardere instellingen eerder 40-45%
In wezen geef je zelf het antwoord al: publiceer het in het Engels en daarmee zul je al gelijk een hoop problemen hebben opgelost. :)
Guru3d maakt imo echt goede revieuws.
Hopelijk zijn jullie met de GTX1070 van de partij.
En bij guru3d is ook te zien dat de kaart in-game gewoon naar 1873MHz boost :9
http://www.guru3d.com/art...ce_gtx_1080_review,9.html
De troostprijs ;(
Beste Xtuv .Erg jammer ,Ik vind Tweakers WEL een grote player,(staat ook op wikipedia dat jullie groot zijn :) ) Misschien volgende keer een Business kaartje afgeven?
Of duidelijk laten weten ,dat Tweakers, in da house is? Of een contact persoon bij Nvidia maken.Ik bedoel het goed hoor.Geen kritiek .

Ik denk misschien een misverstand ,maar goed ik heb alle vertrouwen dat er vast nog wel een review komt.

Persoonlijk wacht ik op de Gtx 1050ti en Gtx 1060,ben benieuwd hoe sterk die zullen zijn,en hun stroom verbruik.

[Reactie gewijzigd door tweaker1971 op 17 mei 2016 18:26]

Het hangt van de efficiency en de prijs af van de 1070 het zal vast hoge prestaties met lage stroomverbruik zijn maar ik ben ook voorstander van series die eindigen op 50 en 60 :)

Qua prijs en efficiency zijn deze ideaal voor mij en heb deze pricewatch: Asus GTX950-2G in mijn lijst in afwachting van de 1070.
Koop er gewoon 1 en review hem.
Andere sites doen dit ook.
Dat doen wij ook regelmatig. In dit geval simpelweg onmogelijk omdat de kaart nog niet te koop is.
idd bijna niet te geloven. Kwestie van prioriteiten en eisen aan partners stellen, niet ?
Is het mogelijk dat de andere fabrikanten (Asus, EVGA, Gigabyte, MSI etc.) wel een kaart naar jullie sturen die jullie dan zelf reviewen?
Zeker :) Daarvoor zijn we niet afhankelijk van Nvidia en hebben we contacten bij de diverse kaartfabrikanten. Wanneer die kaarten er zijn is echter nog niet bekend.
Snap ik wel een beetje, jullie zijn misschien groot maar lijken in mijn oog toch een website voor casual tech als telefoons en pre Build systemen. Niet echt de markt die hardware.info waarschijnlijk wel bereikt
Nja is niet echt zo. Als t.net reviews van specifieke hardware doet doen ze dat wel goed.
Echter spreekt het alleen een kleine deel van Nederland en meer niet aan.

Ze zullen niet europees verder gaan (engelse reviews) etc. Bekijk de history eens tussen t.net al die kaarten zie al gauw waarom niet. Of tenminste nu nog niet....
Toch wel jammer dat Tweakers gedegradeerd is tot casual tech- en telefoon website...
Ze hebben er enorm hun best op gedaan.............
Ai da's niet best...
Op de instagram van HWI zag ik er al wel 1
Jammer, bij HWI hadden ze m wel. Bij jullie zitten denk ik meer bevlogen mensen met meer kennis, maarja er worden ook koelkasten en strijkijzers verkocht. Blijf bij je leest zou ik zeggen!
Ik hoop het toch wel. Ik zie menig youtuber met "maar" 250k subscribers ook met een 1080 GTX review sample.

Deze reference card is leuk, maar ik ga toch even wachten op de Asus of Gigabyte GTX 1080's.
Tweakers heeft gewoon te weinig youtube subs :P
Verder zie ik persoonlijk ook straks liever de non reference/overclocked kaarten in een grote review/test van Tweakers voorbij komen dan deze 'stock' kaart.
Je hebt ook kans dat dat soort partijen hem delen.

Ik vind het jammer dat Tweakers er geen gekregen heeft maar kan het goed begrijpen.
Tweakers en GoT zijn meer gericht op de massa en het niveau van de meeste reviews is ook een stuk lager dan dat van sites die echt gespecialiseerd zijn.
En tweakers doet super weinig met youtube. Heel weinig subscribers enz!!!
Yep, een gemiste kans en nu is het eigenlijk al te laat.
te laat voor deze serie, eventueel niet te laat voor andere serie videokaarten!
Gemiste kans voor alles. Waarom ze hier niet de youtube embedded player gebruiken, maar een propriëtaire speler met veel minder mogelijkheden en slechte kwaliteit reclame verbaast mij nog steeds.
Ja hoezo ads?? Die heeft embedded youtube video ook hoor
Maar je mag niet je eigen reclame in Youtube filmpjes stoppen, want dan vangt Google niet hun percentage.
Jawel hoor. Doen Linus en andere tech reviewers ook. Daarnaast kan google dan nog steeds een extra reclame tonen. Dit werkt een stuk beter dan de videoplayer van Tweakers.
Als je ads op youtube gebruikt, dan pakt Google 45% van de inkomsten daarvan. Daarnaast krijg je sowieso al minder CPM (ofwel geld per 1000 views), dus effectief verdien je veel minder geld met youtube ads.
Als je ads op youtube gebruikt, dan pakt Google 45% van de inkomsten daarvan.
Niet als je de reclame dus hard in je video's stopt zoals iedere grote youtuber doet. Je moet er wel rekening mee houden dat je die 45% makkelijk weer terug verdient doordat je ook hits krijgt van youtube zelf. Als ik een review van de laatste GPU wil hebben dan kijk ik eerst naar de bekende channels zoals LTT, J2C en anderen. Tweakers zal dan ws ook tussen de related video's komen te staan en dus meer views krijgen dan dat ze hier krijgen met deze *** speler.
Waarom wordt er in het artikel zo raar gedaan over dat de 980Ti op stocksnelheden wordt gedraait?
Dat is met de geteste 1080 FE kaarten toch ook zo? Dus dit is juist een goede vergelijking?

Daarnaast vind ik het jammer dat de 1080 eigenlijk nog geen 4K 60FPS aan kan op de hoogste instellingen. Begint er steeds meer op te lijken dat deze kaarten meer gericht zijn op VR dan op 4K.
http://nl.hardware.info/r...o-gpu-prestatiescore-2016

Even helemaal naar onder scrollen.

Gemiddeld over 7 games zo'n 51 fps op 4K, met maximale settings. Die 10 fps tik je er makkelijk bij door een paar settings op high ipv ultra te zetten, en de kans dat je het echt gaat merken in beeldkwaliteit is minimaal.
Valt me wel op dat er steeds de term koning/king gebruikt wordt bij veel (niet allemaal) invloedrijke sites(leuke embargo voorwaarden :+):
Linus tech tips: The New King
Digital Foundry: The New GPU King
Hardware.info : de nieuwe koning?
Forbes: Hail To The King
TweakTown.com: Hail to the King, Baby
HotHardware.com: The New King
Nvidia gebruikt in haar persmateriaal ook de term "A New King". Neem aan dat de diverse tech sites dit gewoon overnemen.
Haha, ik denk dat je hier een mooie vorm van onbewuste beïnvloeding aan het werk ziet :)
Wat moet je anders met de snelste single GPU oplossing?
Wel opvallend. Zou kunnen dat ze veel overnemen van elkaar of van één bron.
Tja, het is nu eenmaal een voor de hand liggende titel.

Overigens lijkt dit een compleet lijstje, maar dit zijn natuurlijk ver van alle publicaties. Waarbij niet iedereen "koning of king" gebruikt.
The Emperor vind ik toch wat sterker :)
Valt me wel op dat er steeds de term koning/king gebruikt wordt bij veel (niet allemaal) invloedrijke sites(leuke embargo voorwaarden :+):
Tweakers doet hier ook regelmatig aan mee, alleen in dit geval geen echte review helaas:
reviews: Samsung Galaxy S6: de nieuwe koning in Android-land
Dit is in bestaande games, waarbij sommige toch al paar jaar oud zijn. Waarbij er nog niet echt gebruik wordt gemaakt van 4K textures. Dus daar zal de performance ook nog wel opzakken op 60FPS.
Zo kan je blijven detail verlagen natuurlijk. Wat een non argument.
Wat een non-reactie.

Alsof iemand het verschil ziet tussen bijv de Nightmare of Ultra settings bij de nieuwe Doom, behalve als je ze cropped op stilstaand beeld.
4K@60@Ultra lekker draaien, zal voorlopig wel een illusie na blijven jagen zijn..

Tegen de tijd dat een kaart komt die dat kan, zijn de spellen ook weer dermate zwaarder geworden, dat ie er weer wat achteraan hobbelt :)

En tegen de tijd dat t aan elkaar gewaagd is (zoals nu wel 1080@60@Ultra mogelijk is), wil iedereen 8K@120@Ultra en begint t weer opnieuw :+
Uiteindelijk gaan game developers weer meer grafische toeters en bellen toevoegen (meer polygonen, meer textures, meer shaders, particles, etc). Hierdoor kan het zo maar zijn dat je weer de resolutie omlaag moet schroeven of minder fps.

Althans dat hoop ik. Ik speel liever een game op 1080p met nog meer effecten en mooiere beelden dan op 4k.
Helemaal mee eens hiostu!

De games krijgen net als altijd nog steeds meer en meer "toeters een bellen" waardoor deze steeds zwaarder worden voor de GPU's totdat deze de nieuwste games niet meer met een knappe fps kunnen weergeven en er dus een krachtigere GPU nodig is.

GTX 1080 @ 1920x1080 ultra bij verschillende games
Anno 2205 78fps - Uitgekomen 3 November 2015.
Op 4K net aan speelbaar.

Battlefield 4 162fps - Uitgekomen 1 November 2013
4K redelijk speelbaar maar een spel uit 2013.

Dirt Rally 153fps - Uitgekomen December 2015.
Nette prestatie voor een game die pas 6 maanden oud is maar is al goed speelbaar met een 780 uit 2013 dus zo zwaar zal de game wel niet zijn?
Ook in 4K goed speelbaar.

F1 2015 154fps - Uitgekomen Juli 2015.
Zelfde verhaal als Dirt Rally alleen dan nog eens 5 maanden ouder en met een 780 al zeer goed speelbaar.
Ook in 4K speelbaar.

Far Cry Primal 104 fps - Uitgekomen 1 Maart 2016.
Dit is een game waarbij de kaart goed tot zijn recht komt, 2 maanden oude game en een goede fps ook op 2560x1440!
4K ook redelijk speelbaar.

GTA5 58 fps - Uitgekomen 14 April 2015.
4K nog niet speelbaar met hoogste settings.

Metro Last Light 149fps - Uitgekomen 17 Mei 2013.
Redelijk speelbaar.

Project Cars 187fps - Uitgekomen 16 Mei 2015.
Ook weer meer dan goed speelbaar op een GTX 780.
Ook 4K zeer goed speelbaar.

Rainbow Six Siege 108fps - uitgekomen 1 Dec 2015.
Ook pas een 6 maand oude game waarbij deze kaart goed tot zijn recht komt.
4K net aan speelbaar.

The Witcher 3 97 fps - Uitgekomen 19 mei 2015.
4K net aan speelbaar.

The Division 108 fps - Uitgekomen 8 Maart 2016.
Ook een game waarbij de kaart zeer goed tot zijn recht komen.
4K net aan speelbaar.

Als je het mij vraagt is 4K gaming alleen leuk voor games die 3+ jaar oud zijn of als je akkoord gaat met gemiddeld 30fps.
Een uitzondering hier en daar gelaten natuurlijk al vraag ik me af of je dan wel speelt met echte 4K textures of gewoon up-scaled textures.

Neem bijvoorbeeld Battlefield 1, tegen de tijd dat deze uitkomt vraag ik me af of deze uberhaupt speelbaar is op 4K (30+ fps)?

Ik blijf voorlopig liever (in de toekomst mogelijk met een 1080TI) op 1920x1080 gamen op de hoogste grafische instellingen met een goede stabiele fps dan 4K met lagere details en waarschijnlijk ook nog lage (+/-30 fps).

[Reactie gewijzigd door Cowamundo op 17 mei 2016 21:41]

deze reactie is helaas nutteloos als je geen resoluties en referenties geeft. Witcher 3: 98fps. 4k net aan speelbaar. Dus op 4k met 98 fps noem je net aan speelbaar? Ik noem dat uitstekend. Maar die 1080 haalt geen 98fps op 4k. Dus over welke resolutie heb je het dan?
Daarom staat er ook boven de eerste game: GTX 1080 @ 1920x1080 ultra bij verschillende games:
Wat ik opnoem is dus niet de 4k ultra fps, deze ligt in dit geval bij de witcher 3 rond de 48 fps.
Bij de games waar je net speelbaar of net niet speelbaar zet kan je gewoon een grafisch niveau lager gaan en dan wordt alles wel speelbaar.
Waarom zou je grafisch niveau lager gaan om dan te spelen op 4k? Ik zou liever dan op 1080p spelen met alle grafische toeters en bellen aan. Die 4k maakt het spel niet echt mooier, dat doen de grafische details. Dan nog liever de AA wat hoger om te zorgen dat je geen eventuele kartelrantjes ziet.
Omdat de hoogste grafische settings enkel voor de benchmarks gebruikt werden, gamers spelen niet vaak op de hoogste grafische setting.
Eind jaren 90 kwam de Geforce 256 uit en daarmee kon je Quake 3 op 1600x1200 op 30fps spelen. Dat was een resolutie die bijna net zo hoog is als full-hd alleen een iets andere beeldverhouding (beide rond de 2mpix). Nu 15 tot 16 jaar later zitten we nog steeds rond de zelfde resolutie, maar dan zien de spellen er wel vele malen mooier uit.

Ik ben het daarom ook met je eens dat resolutie helemaal niet zo veel boeit. Ooit kunnen we de stap maken naar 4k, maar wat mij betreft langer op 1080p en nog veel meer details op het scherm.
ik speel BF 4 op max in 4k en haal makkelijk 70 fps met een 390X.
het is ook maar net hoe je alles insteld, en de rest van je pc is
Veel spellen zijn best speelbaar op 4K, alleen nie top ultra settings. Zo lust ik er nog wel eentje.
Details > resolutie. Wat geeft 4k nou voor voordelen boven 1080p en goede AA?
Net wat je zegt; meer detail. 16x AA + 1080P mag er gladder uitzien, je hebt minder detail dan met 4K + een lagere AA. De laatste vertoond wellicht iets meer karteltjes.

Buiten dat; native resolution is altijd het beste. Upscaling ziet er nooit zo strak uit. Eigenlijk bepaalt de resolutie van je monitor de beste setting.

[Reactie gewijzigd door Madrox op 19 mei 2016 00:57]

4k geeft niet echt meer detail. Alleen wanneer de textures in de spellen groter worden en dat vereist weer meer rekenkracht en dan zullen de huidige spellen weer te zwaar worden voor die resolutie. Vergeet niet dat we in 1999 al op 1600x1200 gamende.

Overigens is 1080p gamen op een 4k monitor niet erg vwb native resolutie, aangezien 1pixel dan gewoon exact 4 pixels inneemt van het scherm.
Sorry, maar je loopt achter.
http://www.trustedreviews...4k-games-you-need-to-play
Er is genoeg 4K te vinden, en het is ook nog speelbaar.

Detail zit hem niet alleen in textures and skins, maar ook in details; zoals een hUD of een achteruitkijk spiegel etc.
In 4K kan dat er veel strakker uitzien, zie ook plaatjes in de link hierboven.

[Reactie gewijzigd door Madrox op 22 mei 2016 03:02]

Ik vind dat relevant om te melden omdat de meeste 980 Ti's die verkocht worden niet op stocksnelheden draaien. Vrijwel alle custom-varianten hebben een gpu-boost op 1,2 of 1,3GHz, niet alleen de zwaar overgeklokte speciale versies.
Juist om dat de custom-varianten een gpu-boost hebben is het vergelijking tussen de stock kaarten beter. Daarom is de opmerking naar mijn idee nog al verwarrend. Omdat dit zou aangeven dat een 980-Ti toch misschien sneller is. Terwijl de custom variant van de 1080 misschien nog wel meer prestatie winst kan opleveren ten opzichte van de verkochte 980-Ti .
Op youtube staan al reviews waar deze stock 1080 wordt overgeclocked tot maar liefst 2126 MHz terwijl de temperatuur onder de 60 graden bleef. (hardwarecanucks)

Het zou zo maar kunnen zijn dat de tijd dat custom varianten nog betekenis hebben voorbij is als de reference dit al aankan.
Dan zal de ventilator vast op 100% capaciteit gedraaid hebben. Bij de aankondiging van de GTX 1080 een tijdje terug werd een GTX 1080 Founders Edition met oc getoond die onder de 65 graden Celsius bleef. Ook daar zal de ventilator op volledige capaciteit gedraaid hebben, maar je merkt het natuurlijk niet als er een menigte omheen staat.
De custom 1080's zullen ook allemaal een hogere clocksnelheid hebben en meer worden verkocht (zeker nu de stock koeler duurder is dan custom).
Aan de andere kant ook weet niet, want de 980TI kaarten draaien in de praktijk op een hogere frequentie, waardoor de performance verbetering dan ineens lager is..

Toen de GTX970 net uitkwam was iedereen super enthousiast over de kaart. Ruim 9 maanden werd de 3,5GB ram bottleneck bekend en mensen vonden zichzelf bekocht ondanks dat benchmarks dezelfde cores haalt.

Het gaat natuurlijk ook om een stukje gevoel. Bij de GTX970 was er ineens de wetenschap dat de kaart sneller had kunnen zijn zonder de 3.5Gb + 0,5GB RAM structuur. Eenzelfde effect kunt je krijgen als een GTX980TI gamer overstapt naar de GTX1080 en dan ineens geen 30% performence winst ziet. Goed dat Tweakers dit punt dus extra goed onderstreept. Het voorkomt namelijk teleurstelling.

Maar ik zou persoonlijk wachten op de custom pcb kaarten. Kun je 6 tot 9 maanden wachten, dan kan wachten op de TI uitvoering lonend zijn. Echter moet je dan ook oppassen dat je niet eeuwig blijft wachten op de volgende opvolger.

Toch vraag ik mij weleens af of het niet verstandiger zou zijn als Nvidia als eerste de GTX1050/GTX1060 op de markt zou zetten, daarna de GTX1070 en als laatste de GTX1080.. Die strategie heeft Intel niet bepaald windeieren gelegd, maar ik begrijp ook dat de concurrentie op de CPU markt is niet zo groot is als op de GPU markt.

Maar ik wacht nog steeds op een echte klapper van AMD. Omdat AMD kaarten vaak net ietsje langzamer zijn dat de NVidia kaarten, compenseert AMD dit met langere prijzen. Maar dat betekend ook dat AMD minder winst maakt en dus een lager R&D budget heeft..
Op computerbase nemen ze de Gaming versie van de GTX980TI mee, en precies zoals je al aangeeft de GTX1080Ti is dan niet de moeite waard tenzij jezelf nog eens goed gaat overclocken of een vooral overclockte variant koopt.
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/

Ga uit van +/-10% winst ten opzichte van een GTX980Ti met een factory OC.

Edit:
Nog wat extra onderzoek gedaan. Als je een factory OC GTX980Ti neemt en die zelf nog OCed (op lucht) dan is de kaart net zo snel als een GTX1080, Nu kan je een GTX1080 ook OCen maar zoals in het artikel te lezen valt geeft dat niet bijster veel winst.

[Reactie gewijzigd door Sp3ci3s8472 op 17 mei 2016 18:27]

De 1080 kan je ook overklokken en bovendien verbruikt die ook nog eens heel wat minder. Ook dx12 performance is significant beter. Bij hogere resoluties worden de verschillen veel groter dan 10%. Dus je advies raakt kant noch wal.
Lees het dan nog een keertje goed na. Ik geef als advies, indien je al over een GTX980Ti beschikt met een factory OC en je bent zelf niét van plan om over te clocken dan zou ik niet overwegen om te upgraden. Overigens zou ik dat sowieso niet doen als je al een GTX980Ti hebt, ik zou lekker wachten op de 1080Ti of een kaart die significant sneller is.

Bij hogere resoluties zijn de verschillen juist kleiner, bekijk anders de bron die ik hierboven poste voordat je onzinnige dingen zegt. Dit is een highend kaart, niet enthausiast dus de prestaties zijn er ook naar op hogere resoluties.
Zelfde patroon zie je bij:
https://www.techpowerup.c.../GeForce_GTX_1080/26.html


Ik geeft toch ook aan met mijn edit (die ik wel voordat jij poste heb geplaatst) dat je kan overclocken met de GTX1080, maar dat het gewoon weinig winst geeft. Zover ik weet laten alle reviews dat zien.

[Reactie gewijzigd door Sp3ci3s8472 op 17 mei 2016 22:46]

Mooi linkje, het bewijst perfect wat ik zeg. Bij hogere resoluties wordt de gap tussen the 980Ti en de 1080 groter.

En daarbij, dit zijn referentiekaarten, wanneer AIBs eigen koelers en standaard overklokte kaarten gaan uitbrengen wordt het verschil nog groter en de kaarten bovendien goedkoper.

[Reactie gewijzigd door aval0ne op 17 mei 2016 22:38]

Inderdaad, bij TPU heb je gelijk. Lekker dom dat het bij Computerbase niet het geval is. Het zal dus per spel afhankelijk zijn.

Het verschil zal met custom kaarten inderdaad wat groter worden. Grappig :'( dat Nvidia mensen de premium prijs laten betalen voor de reference kaarten en dat er zo meteen custom kaarten komen die waarschijnljik dezelfde prijs hebben of iets goedkoper zijn.
Die kaarten van het middensegment als eerste presenteren is toch minder spectaculair. Die zullen kwa prestaties hetzelfde presteren als de vorige top.

Het is nu even afwachten waar AMD mee komt. Als dit voor Nvidia stock is dan zit er nog rek in en het zou me niet verbazen als ze versneld de kaarten wat opschroeven als die van AMD beter lijkt.
Als die van AMD maar matig presteert zullen dit langzaam uitmelken.
De kaarten van AMD zijn juist (iets) sneller. Natuurlijk verschilt dit (soms ster) per benchmark en game, maar de algemene tendens is volgens mij net andersom.

Overigens ben ik van de kaarten van beide fabrikanten fan, iets minder fan van de sluwe (driver) praktijken van Nvidia.
De kaarten van AMD zijn net niet sneller. De review van deze kaart bewijst dat genoeg.
Er zijn nog geen reviews van de nieuwe AMD kaarten
en waar bazeer je vaak op ?

elke generatie verschilt het weer, dan hefet NVidia de top en dan weer amd
Wat ik uit de previews begreep is te verwachten dat de AMD kaarten welliswaar in rauwe rekenkracht onderdoen,maar veel efficiënter in staat moeten zijn de apis aan te sturen. Nvidia lijkt puur op de powerbeast tour te gaan,omdat zij niet over die Amd technieken beschikken
Ik snap dat je voor jezelf zoekt naar argumenten om zo snel mogelijk een nieuwe NVIDIA te kopen. Maar hoewel de AMD kaarten nog niet uit zijn, zijn er goede aanwijzigingen over wat ik hierboven zeg. Aardig artikel
Aanwijzigingen en AMD, altijd leuk om later te zien dat niets van de beloftes waarmaken. Kijk maar naar bulldozer, de fury kaarten en vele rebrands. Nu beloven ze weer veel maar als je teleurstelling na teleurstelling op de markt brengt is er toch geen hond die je nog gelooft. En ook geen investeerder aan de beurskoers van AMD te zien.

Laten we nog eens lachen met de aanwijzingen die AMD gaf over de Fury, PCB, power circuits en koeling zouden van deze kaarten een 'overclockers dream' maken (letterlijke AMD quote). Wat blijkt in alle reviews? Als je 100Mhz kon overklokken was het veel.

[Reactie gewijzigd door aval0ne op 18 mei 2016 10:31]

Dat laatste zat er ook wel een klein beetje in, vind ik. VR is hét (tech-)thema van dit jaar, marketingtechnisch, net zoals dat vorig jaar de smart watch was. Dat wil verder niet zeggen dat de mensheid daar volledig achterstaat, maar het stuurt wel waar bedrijven vol op inzetten.

Voor de volgende generatie kan er dan vol op 4K worden ingezet, als de VR-rage weer wat is afgezakt en de nieuwe tech wat volwassener (lees goedkoper) is geworden om te produceren, zodat het voor Nvidia wat meer marge oplevert. Smart marketing.
Technisch vind ik het een hele indrukwekkende prestatie, met een flinke performance boost tegenover de GTX 980 Ti en toch krijg ik het idee dat deze kaart en generatie een beetje tussen het wal en schip valt.

Als je toch al een nieuwe videokaart nodig hebt is het een tof ding, maar er is bijna geen reden om naar deze kaart te upgraden. Op 1080P doet de oude generatie het eigenlijk nog heel erg aardig (zo niet prima) en 4K kan deze kaart gewoon nog steeds niet aan. Voor VR zie ik wel een upgradereden, snap daarom ook de marketing van nVidia wel. Wordt leuk om te zien hoeveel mensen echt VR gaan doen, ik denk echter dat het de nieuwe 3D televisie wordt zonder content.

[Reactie gewijzigd door Willaaam op 17 mei 2016 17:05]

Ja maar geldt dat niet voor elke niew component? De GTX970 en hoger voldoen nog steeds voor bijna alle spellen, sterker nog, als je geen framerate fetishist bent kun je zelf met minder nog prima gamen. Grote voordeel is dat de huidige generatie weer een stukje goedkoper gaan worden door de nieuwe generatie en dat si weer goed nieuws voor de lurkers (zoals ik) die niet altijd het nieuwste van het nieuwste hoeven te hebben en net zo lekker gamen in fullHD op 50 fps als op 60 fps ;-).
Maar ontopic, ondanks de prijs wel een beest van een kaart en ben dan ook zeer benieuwd naar de GTX1070 specs en benchmarks.
Mja, hij heeft wel een punt. Voor 4K of VR gamen heb ik een duurdere monitor + andere componenten nodig als ik nu in mijn systeem heb zitten. Deze componenten zullen waarschijnlijk net zo duur uitvallen als deze kaart. In die zin is het weldegelijk een gpu voor een nieuwe generatie pc's en wat minder om mee te retrofitten. Voor een simpele gamepc voor 1440/1080p is deze gpu misschien wel een beetje overkill, het lijkt me de ideale gpu voor een systeempje met een highend 6 core intel cpu, een nieuwe bak dus.
Feitelijk zitten we dus allemaal op 1 lijn hier :)
Dit is ook niet echt een kaart om meteen naar te upgraden, moet je eigenlijk nooit doen. Maar voor vr heeft ie bestwel wat leuke technologieën
Waarschijnlijk omdat nVidia hun vorige generatie kaarten vergeet zodra ze een nieuwe serie uitbrengen. Kijk naar de 700-serie: daar werd helemaal niets meer aan gedaan nadat de 900-serie kwam.
Ik snap wel wat je bedoelt ja, het is een mooi product en een indrukwekkende stap vooruit, maar ik vraag me ook af of er veel mensen gaan overstappen van een 980 Ti. De 980 Ti is ook al een enthousiast kaart, behoorlijke overkill voor mensen die niet de hoofdprijs willen betalen. Daarom is de 970 ook zo populair. Omdat je met een 1080 dus nog steeds niet echt 4K kunt draaien heeft het niet heel veel zin om te upgraden zoals je al aangeeft.

Ik denk dat de 1050/1060/1070 veel interessantere kaarten worden voor de Pascal generatie. Ik ben zelf heel erg benieuwd wat het verbruik van de 1050 en 1060 gaat worden, en of ik mijn 750 Ti zou kunnen upgraden naar een van die kaarten, zonder extra koeling nodig te hebben, en in een klein formaat dat in mijn mini-ITX kast past.
4K kan deze kaart gewoon nog steeds niet aan
Uit interesse, waar baseer je dat op? Van wat ik kan zien in de verschillende benchmarks op verschillende sites, geven de meeste games zo'n 30-60 frames per seconde op 4k (de meeste meer rond de 35-45 dan rond de 60 echter). Maar dat is wel vaak met ultra of very high graphical settings, en soms met anti-aliasing aan, wat je op een resolutie als 4k gewoon uit kan laten, en een enorme impact op de framerate heeft.

Daarnaast heeft niet iedereen per sé een stabiele 60 frames per seconde nodig, er zijn zat gamers die rond de 50-60 met soms dips naar 40-50 best wel prima vinden.

Ten slotte is dit de eerste kaart uit de serie, en een reference design, zonder veel trucjes. Als er zo een MSI kaart met een OC en een Twin Frozr koeler komt bijvoorbeeld, kan het best zijn dat er nog iets meer prestatie uit te halen valt.

Dus ik denk zeker wel dat dit juist de eerste echte 4k kaart is. Niet voor een stabiele 60+ fps op ultra settings misschien, maar zeker wel op gemiddelde settings.

Overigens zit er tussen 1080p en 4k ook nog wel 1440p, en daarop presenteert deze kaart fenomenaal, dus dat kan ook nog wel een interessante tussenstap zijn, als je toch wilt upgraden, en die stabiele 60 fps wilt halen.
Bestond er maar een resolutie tussen 1080p en 4k in............

:+
Beetje off-topic maar kan iemand me vertellen wat de founders edition precies inhoudt?
Is het gewoon een mooie naam voor een reference kaart? Of zijn er echte voordelen?
Het lijkt me eerlijk gezegd slimmer om te wachten op een custom PCB met een echte koeler i.p.v eentje die opstijgt als je een spel opstart.

Bron: reference 980Ti eigenaar, grootste fout ooit, wordt +/-90 graden

[Reactie gewijzigd door 586111 op 17 mei 2016 16:56]

De Founders editie is eigenlijk inderdaad een " Reference" kaart maar Nvidia wilt hem uitbrengen als echt hun merk, het beste geoptimaliseerd en het beste dat zij kunnen maken (zij zijn ook de "founder"). De Founders editie is ook duurder geprijst dan merken als MSI, Asus, Gigabyte zodat ze niet hoeven te concurreren met de prijzen waar deze merken de videokaarten verkopen.

hier in een filmpje waar het uitgelegd wordt

het bruggetje Founders editie = Reference kan wel gemaakt worden. O-)

ik moet wel zeggen dat het 3x zo vet klinkt als je zegt dat je de "founders edition" hebt :+
Ja geweldig dat je tegen mensen kan zeggen dat je een "founders edition" hebt maar persoonlijk heb ik liever een kaart met een echte koeler en hogere kloksnelheden voor een lagere prijs (custom PCB dus)
En die zullen zeker ook nog komen, en zelf voor een lagere prijs dan Nvidia voor zijn Founders Edition vraagt! :D
Enkel een andere naam voor een reference/stock kaart.
Je betaalt extra om een 1080 als eerste te kunnen hebben. Voor de echte fanboys, zeg maar :9
Het is inderdaad beter om even te wachten en een kaart van asus, msi, gigabyte, evga etc te kopen.

[Reactie gewijzigd door SmokingCrop op 17 mei 2016 16:58]

Het is inderdaad gewoon een mooie naam voor de reference kaart. Het primaire voordeel is de "blower-design cooler", sommige mensen prefereren dat. De prijs is hoger omdat Nvidia niet wilt concurreren met de partners die de kaarten met custom-coolers gaan uitbrengen.
De founders edition is eigenlijk de standaard kaart zoals Geforce deze uitbrengt. Deze zijn niet cherry-picked enzijn niet overclocked, maar pure reference cards :)
Apart dat Crysis 3 zo'n belabberde prestaties heeft terwijl Battlefield 4, dat er toch wel flink wat beter uit ziet, zóveel beter draait.
Tja, misschien dat AA er nogal inhakt op deze resolutie of nog slecht geoptimaliseerd is?
Dat staat bij Crysis 3 aan en bij Battlefield 4 uit.
Can it run crisis komt toch ergens vandaan, misschien een zwaardere engine
Even off topic:

"De Nvidia GTX 1080 is verreweg de snelste single-gpu tot nu toe, maar desondanks nog niet snel genoeg om de meest recente games in 4k-resolutie te draaien met 60fps op de hoogste instellingen."

En dan pretenderen nieuwssites dat met de PlayStation 4.5 4K of Neo (geef het beestje een naam) mogelijk 4K gegamed kan worden. 😅🙈😁
Je hebt gelijk, al denk ik dat op de nieuwe ps4 waarschijnlijk wordt uitgegaan van 30 fps op 4k. Ik vind 30 fps op de pc onspeelbaar terwijl ik het op de ps4 niet zo heel erg vind.
zelfs op 30tja consoles gebruiken lagere textures en minder complexe wireframes als de pc en laten behorlijk wat effecten weg en dat scheelt al een hoop rekenkracht.
¤789,-. Nu vraag ik me af wat de 1070, waarschijnlijk de "more value for your money" kaart, zal gaan kosten in euro's.
Vanuit de tekst:
Vanaf 10 juni zal een 'Founders Edition' van de GTX 1070 beschikbaar zijn voor 449 dollar.
Misschien geen direct antwoord op jouw vraag, maar je kan vaak wel het dollar-symbool vervangen voor het euro-symbool. :) Het verschil zal dus ~¤200,- gaan bedragen.
Maar dat is dan wel de founders editie. Er zit nog ongeveer 100 dollar tussen de founders editie en de kaarten die door 3th parties worden uitgebracht. De prijs zal dus wel ergens tussen de 350 en de 400 gaan zitten.

Er is overigens geen verschil in performance tussen de founders editie en de 3th party kaarten, anders dan dat de laatstgenoemde uiteindelijk hogere kloks mee zullen krijgen. De founders editie is eigenlijk een rebranding van het concept reference card. Deze zijn door Nvidea expres duurder gemaakt om zo niet te concurreren met de 3th party leveranciers.
Jammer, deze kaarten zijn duidelijk nog niet 100% 4k ready.
Helaas vragen ze er wel de hoofdprijs voor.
Wil je 4k gamen heb je 2 van deze badboys nodig, =1500 euro
Deze serie was eigenlijk bedoeld als midrange, dus goedkoop om te produceren, maar omdat ze goed presteren willen ze je vakantiegeld.

We zullen dus een paar jaar moeten wachten voordat 4k echt voor de massa beschikbaar zal zijn.
Bedankt Nvidia.

[Reactie gewijzigd door revengeyo op 17 mei 2016 18:49]

Is er ooit wel één GPU geweest die de maximale resolutie en settings en frames uit die tijd haalde en want wat is vandaag de dag het maximale ?

Volgens mij is het juist de bedoeling dat Hardware in buurt komt maar het net niet haald om de ontwikkelingen te stimuleren en Pascal heeft een nieuwe top behaald ;)

Inderdaad bedankt Nvidia _/-\o_ nu eens kijken waar Polaris mee komt dan wordt het ook ineens een stuk consument vriendelijker.
Er is grote vraag naar hardware om op 4k te kunnen gamen.
Nvidia slaat de plank mis door er niet op te reageren.

Deze kaarten zijn eigenlijk bedoeld voor het midden segment.
Nvidia trapt dus bewust op de rem, en blokkeert de weg naar 4k voor de massa.
Hoe groot de vraag is naar 4k of VR of AR geen idee maar hoe hoog en groot de vraag ook is.. het maximale is niet haalbaar en als het vandaag gehaald wordt dan is de lat morgen nog hoger.

Maar de Pascals laten toch goede Frames op 4k zien en Nvidia gaat hun gang in afwachting van Polaris en als Polaris kan concurreren in prestaties dan volgen de prijsdalingen ook ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True