GTX 1070 blijkt sneller dan GeForce Titan X voor helft van de prijs

Twee weken na de benchmarks van de GeForce GTX 1080 zijn de resultaten van de GTX 1070 verschenen. Deze goedkopere nieuwe GeForce-kaart in de 1000-serie blijkt sneller dan een Titan X en meer dan 50 procent sneller dan de GTX 970, met een lager verbruik dan die laatste.

De introductie van de GTX 1070 is een stuk logischer dan die van de GTX 1080, meent Guru3D. De adviesprijs van de GTX 1070 Founder's Edition bedraagt 499 euro en die van de kaarten met alternatieve koelers en pcb start bij 430 euro. Die prijzen liggen hiermee in de buurt van de voorgaande vlaggenschepen van Nvidia, waar de GTX 1080 met zijn prijzen rond 800 euro daarboven ligt. De GTX 1070 spreekt daarmee potentieel een groter publiek aan.

Nvidia GeForce GTX 1070

Bij elke test die Tom's Hardware draaide, blijkt de GTX 1070 sneller dan de GTX Titan X, een kaart die bij introductie meer dan 1100 dollar kostte. Bij de benchmarks van Hexus presteert de nieuweling gemiddeld op 80 procent van de resultaten van de GTX 1080 en iets beter dan de GTX 980 Ti. Ook bij de prestatieindex van SweClockers neemt de GTX 1070 comfortabel een plek in boven de Titan X en GTX 980 Ti.

PC Perspective benadrukt nog wel dat AMD zich met zijn Polaris-kaarten op het segment rond 299 dollar gaat richten en daarmee mogelijk een geduchte concurrent van deze kaart uitbrengt, al is dit speculatie. De GTX 1070-kaart komt tot deze prestaties met een verbruik dat ruim onder dat van de GTX 1080 ligt en dat iets onder dat van de GTX 970 ligt, ondervond onder andere Hardware Canucks. Ook Legit Reviews kwam bij een meting tot een laag verbruik al tekent de site aan dat dit sterk afhankelijk was van de resolutie.

GTX 1070 performance per dollar PCPerHet performance-per-dollar-overzicht van de GTX 1070 volgens Pc Perspective.

De GTX 1070 Founders Edition beschikt over dezelfde koeler als zijn grote broer en ook zijn drie displayports, hdmi en duallink-dvi aanwezig. Verschil is er bij het geheugen: er is 8GB gddr5 in plaats van het snellere gddr5x van de GTX 1080 aanwezig. De GP104-gpu is uiteraard ook aangepast. Er is ten opzichte van de gpu bij de GTX 1080 een gpc, en daarmee vijf sm's, uitgeschakeld. Dat resulteert in 1920 shaders, waar de GTX 1080 er 2560 heeft. Verder is er een vier- in plaats van vijffasige stroomvoorziening en bedraagt de tdp 150W tegenover 180W voor de GTX 1080.

Vanaf 10 juni komt de kaart beschikbaar, maar meerdere reviewsites tekenen aan dat de kans bestaat dat het de vraag is of er voldoende voorraden zijn tegen die tijd.

Videokaart GTX 970 GTX 980 GTX 980 Ti GTX 1070 GTX 1080
Gpu GM204 GM204 GM200 GP104-200 GP104-400
Procedé 28nm 28nm 28nm 16nm finfet 16nm finfet
Transistors 5,2 miljard 5,2 miljard 8 miljard 7,2 miljard 7,2 miljard
Sm's 13 16 22 15 20
Cudacores 1664 2048 2816 1920 2560
Tmu's 104 128 176 120 160
Rop's 56 64 96 64 64
Baseclock 1050MHz 1126MHz 1000MHz 1506MHz 1607MHz
Boostclock 1178MHz 1216MHz 1075MHz 1683MHz 1733MHz
Vram 4GB gddr5 4GB gddr5 6GB gddr5 8GB gddr5 8GB gddr5x
Geheugenbus 256bit 256bit 384bit 256bit 256bit
Bandbreedte 224GB/s 224GB/s 336,5GB/s 256GB/s 320GB/s
Tdp 145W 165W 250W 150W 180W
Stroom-
aansluiting
2x 6pins 2x 6pins 6pin+8pin 1x 8pins 1x 8pins

Vergelijking van de nieuwe Pascal-videokaarten met de op Maxwell gebaseerde GeForce 9XX-generatie.

Update, 12.35: Afbeelding van Legit Reviews verwijderd wegens onduidelijkheid verbruik videokaart versus verbruik hele systeem.

Door Olaf van Miltenburg

Nieuwscoördinator

30-05-2016 • 08:24

249

Submitter: Mrten

Reacties (249)

249
242
163
8
1
17
Wijzig sortering
Tweakers is niet meer serieus te nemen als het aankomt op het reviewen van nieuwe videokaarten of processors. Daarvoor hebben ze de capaciteit niet meer. Keuze die gemaakt is, prima, maar wel heel jammer.

Geen eigen review exemplaar van de GTX 1070 of 1080, alleen afgaan op een beperkt aantal andere sites, en dan ook nog niet eens kritisch zijn. Leuk om een lekker pakkende titel te baseren op de conclusie van Tom's Hardware, maar wat moeten we hiermee? De Titan X is enorm overpriced, en voor praktisch niemand interessant. Nu lijkt het net alsof de GTX 1070 de beste deal ooit is, want je krijgt méér voor de helft van de prijs! Die conclusie slaat nergens op.

Bovendien zijn de verschillen in prestatie tussen de reference GTX 1070 met custom kaarten van de vorige generatie veel kleiner dan de percentages die je nu overal genoemd ziet worden, omdat meestal wordt vergeleken met andere (oude) reference versies. En dat zou prima zijn, ware het niet dat nVidia ook relatief hoge turbo kloksneden gebruikt op de reference 10xx kaarten. En de reference GTX 10xx koeler kan die turbo kloksneden niet aan (en blijkbaar ook normale snelheden niet). De standaard koeler houdt het tijdens zware belasting maar enkele minuten uit, in ieder geval bij de GTX 1080. Kans is groot dat dat bij de 1070 hetzelfde is. Het probleem is dat tijdens veel benchmarks de turbo kloksnelheden nog wél worden gehaald, puur omdat ze niet zo lang duren én er vaak niet in een case wordt getest. Geen goede afspiegeling van de praktijk dus.

Is dat héél erg? Nee. Want binnenkort (hopelijk) komen er custom versies uit van de 1070 en 1080, hoger geklokt en met betere koelers. Die zijn koeler, stiller, en in de praktijk ook daadwerkelijk sneller. Maar tot die tijd wordt er echt een verkeerd beeld geschept. Helemaal voor de leek, die na het lezen van dit nieuwsbericht misschien naar de winkel rent voor een reference GTX 1070.

De GTX 1070 wordt naar alle waarschijnlijkheid weer een prima kaart, maar zo schokkend zijn de ontwikkelingen allemaal ook weer niet. Met de marketing zit het in ieder geval wel goed.

[Reactie gewijzigd door Dionamuh op 22 juli 2024 22:17]

Waarom doen zowel Nvidia als AMD nog de moeite om high-end kaarten met reference koelers uit te rusten? Het is toch al jaren duidelijk dat dat ontwerp niet werkt met één fan op het eind. Zo "referentiewaardig" zijn die reference koelers dus ook niet...
De blower-style koeler met een radiale fan is *juist* een hufterproof en foolproof oplossing, en daarom houden beide fabrikanten dat aan.

De open-air koelers dumpen alle warmte in je kast. Voor een goed gebouwde game bak is dat geen punt, want die heeft goede airflow en de gebruiker kijkt naar temperaturen en plaats een fan waar nodig. Maar OEM bakjes, kleine form factors, SLI systemen, enzovoort, hebben allemaal baat bij een foolproof oplossing die niet teveel beinvloed wordt door de rest van de componenten eromheen, of een slechte/rommelige/volle kast met te weinig airflow.

Kortom, de blower/exhaust functie is nuttig om te garanderen dat een bepaald performance niveau altijd bereikt wordt - zie het als een disclaimer. Ze zijn volledig afgestemd op dat niveau en veel verder kom je er dus ook niet mee - zo maakt het bijna niet uit of je goede airflow hebt, de radiale fan perst de lucht door het windtunneltje naar achter en naar buiten, dus er vindt (bijna) geen opwarming in de kast plaats door de GPU zelf.

Dat gezegd hebbende, er een meerprijs voor vragen is bizar. Nvidia deed goede zaken met de vorige NVTTM koeler (Nvidia Time To Market) zo heten de FE koelers eigenlijk echt)) en die deed het ook iets beter (vooral qua geluidsproductie) dan die plastic shroud die je bij de budget kaartjes vindt, maar nog steeds is het koelvermogen niet te vergelijken met een half-degelijke open-air met twee fans.

De FE versie is dus écht niet voor mensen die meer uit de GPU willen halen. Het is voor de mensen die geilen op het merk, mensen die zich nergens in verdiepen en graag de hoofdprijs betalen, en sommigen voeren het argument van een passend waterblok aan, maar aangezien de FE maar 1x 8 pin heeft heb je daar niets aan.

[Reactie gewijzigd door Vayra op 22 juli 2024 22:17]

volgens mij werken die kaarten met 1 koeler wel hoor, bovendien werken die via een andere techniek dan standaard koelers.

gewone koelers hebben een element dat opwarmt en dat de warmte overbrengt dmv heatpipes (tegenwoordig toch). bij de single coolers wordt er gebruik gemaakt van de zgn vapochill techniek wat meer werkt zoals een warmtewisselaar/diepvriezer.
het is een andere techniek en daarom wordt het dus op een andere manier gekoeld; het heeft geen zin om er drie koelers op te zetten die de warmte neerblazen op de kaart, het werkt veel beter als er 1 koeler is die warme lucht onttrekt en frisse lucht aanzuigt.

bovendien heeft amd al laten zien dat ze bv ook waterkoeling durven inzetten als standaard koeeling, en bij hun nano kaarten heeft het bovendien echt geen zin om 2 of meer koelers te gaan gebriuken als ze de kaart zo klein willen houden.
Ik geloof er niet zo veel van eerlijk gezegd, de Vapor-X series van Sapphire hebben ook phase-change koeling, maar ook altijd minstens 2 fans:

https://www.google.nl/sea...NAhWsCMAKHRygBp8Q_AUIBigB

Verder geloof ik wel dat het werkt, maar niet dat het goed werkt: hoge warmte en geluidsproductie, hier heb je 't gezeik weer:
nieuws: Bezitters GeForce GTX 1080 Founders Edition klagen over problemen met ventilator

Immers waarom zouden fabrikanten third party koelers ontwikkelen die niet veel lijken op de reference koeler, maar wel veel op elkaar, met altijd betere koelprestaties tot gevolg?

[Reactie gewijzigd door Neophyte808 op 22 juli 2024 22:17]

Weet je zeker dat het phase change koeling is, als ik erop google krijg ik hele andere koeling te zien namelijk (koelkast in je pc), ook leuk :)
Ja, zie ook: nieuws: Sapphire komt met 1GB-versie van HD 4870 met Vapor-X-koeling

"(...) een zogeheten Vapor-X-koeler, die gebruik maakt van de 'Vapor Chamber Technology'. Deze koeler beschikt over een holle heatspreader met daarin een koelmiddel, dat dankzij een bijzonder lage druk een laag kookpunt heeft. Bij de gpu verdampt het koelmiddel en elders in het blok condenseert het weer, waarna de vloeistof via een poreus materiaal weer naar de gpu wordt getransporteerd. Een drietal heatpipes zorgt voor de verdere distributie van de warmte."

De zoekresultaten die jij vindt zijn met een externe processor. Die zit uiteraard niet in zo'n GPU cooler. Daar verdampt de vloeistof en condenseert die weer, rinse and repeat.

[Reactie gewijzigd door Neophyte808 op 22 juli 2024 22:17]

Anoniem: 696390 @Neophyte80830 mei 2016 21:30
Er is een verschil tussen Phase change en Vapor camber cooling.

Vapor chamber is een manier van luchtkoeling. phasechange cooling is zeg maar zero sub zero cooling
Oh ik was in de veronderstelling dat de vloeistof in een Vapor Chamber van aggregatietoestand verandert, dus dat dat de phase change was zegmaar |:( .
Een vaporchamber is in essentie gewoon een platgeslagen heatpipe. Beide hebben voor- en nadelen. De reden dat de reference kaarten niet zulke goede koelers hebben is omdat de klanten van nVidia liever zelf de beste koeler menen te hebben. En het liefst zijn ze ook de goedkoopste en snelste, en ook daarin voorziet de reference kaart; duurder en niet 'overgeklokt'.

Het zal nVidia verder worst wezen die verkoopt toch z'n chippies wel natuurlijk.
Reference design heeft soms zijn voordelen omdat het de warme lucht gelijk uit de achterkant blaast. Vooral in kleine kasten is dit voordelig.

Maar voor de meeste gebruikers zijn aftermarket beter omdat ze stiller, en koeler zijn.
Daar kan ik me dan weer wel wat bij voorstellen.
Niet elke partner heeft het geld om een eigen koeling te ontwerpen.
En je hebt ook mensen die het niets uitmaakt wat voor koeler erop zit aangezien ze deze toch vervangen met waterkoeling.
Simpel, de mensen die de schaarse kaart nu als eerste willen hebben betalen daarvoor een premium prijs. Ze betalen eigenlijk ook voor het nieuwe naampje 'reference'. Gewoon een kwestie van goede marketing. Iets waar Nvidia net als apple erg goed in is. Dat de koeling daarbij ruk is doet niet ter zake. Dat proberen enkele omgekochte ytubers mooi te verdoezelen door de testen alleen op open benches te doen en er verder geen woord aan vuil te maken.

Over marketing gesproken. Alleen de naam Nvidia al ligt veel lekkerder in de mond als AMD. Binnenkort komt de Nieuwe Titan voor de ultieme hoofdprijs uit. Lijken alle kaarten zoals de 1080 en de nog uit te brengen 1080ti weer een stuk goedkoper.
Ben blij om meer kritische geluiden terug te lezen.

Kennelijk is de reactie van Tweakers.net op de roep om meer over componenten te schrijven, het copy-pasten van clickbait rommel van WCCFTech en andere baggersites die meer dan eens pertinent onjuiste info naar buiten brengen of onderhands een verkapte Nvidia advertorial presenteren, zoals hier.

Gelukkig stellen ze technologie op de proef. _/-\o_

Te bizar voor woorden gewoon. Dit kost een boel punten in mijn boekje.

[Reactie gewijzigd door Vayra op 22 juli 2024 22:17]

Helemaal mee eens.

De insteek zou volgens mij moeten zijn om componenten en hardware te reviewen vanuit een interesse en enthousiasme ervoor, en daarbij natuurlijk altijd kritisch te zijn.

Nu lijkt het alsof er nieuwsberichten worden geplaatst 'omdat het moet'. De diepgang ontbreekt vaak totaal. En nogmaals, die keuze kun je als website maken. Maar pretendeer dan inderdaad niet dat je technologie op de proef te stelt.
Tweakers moet het dan ook vooral van de reacties hebben, dat is wel een must om die te lezen als je hier komt.

Inderdaad jammer dat het qua berichtgeving een beetje de webwereld.nl kant op gaat met vooral veel clickbait headlines.
Ik moet zeggen dat ik na het lezen van een titel altijd doorscroll naar de reacties om te kijken of er veel commentaar is op het stuk inhoudelijk alvoor ik het lees. Deze laat ik dus duidelijk aan me voorbij gaan
Inderdaad, ben nog nooit naar Tweakers gegaan om een review van de redactie te lezen.
Simpelweg omdat er voor alles diverse sites zijn die betere reviews hebben, niet alleen nu maar altijd al.

Ik kom meer voor de gebruikerservaringen op het forum en de reacties op de officiële reviews, omdat daar met regelmaat dingen in staan die eigenlijk in de review hadden moeten staan.
Sorry de reacties en eindeloze discussies las ik enkel als ik me dood aan het vervelen was. Ik kwam hier vroeger voor de diepgaandere analyze maar die lijkt weg.
Je begint hier te lezen over ruimtevaart en andere ontdekking die met tweaken niets te maken hebben.
Leuk als de redactie zou gegroeid zijn, ik vermoed echter het omgekeerde.
Schoenmaker blijf bij je leest zeggen ze bij ons..
Anoniem: 399807 @Vayra31 mei 2016 10:00
Het zou al helpen als tweakers niet elke keer als NASA een scheet laat daar over te berichten. Met ICT en tweaking heeft dat niets te maken. Misschien kunnen ze dan meer aandacht besteden aan diepgang.

Als ik NASA nieuws wil, ga ik wel naar hun website.
Ik ben ook zeker blij met kritische geluiden, daar moet ten alle tijden ruimte voor zijn. Ik wil dan echter ook wel weten wat de ideeën zijn van de critici, want het lijkt tegenwoordig bijna een trend om een artikel tot op de detail na te lopen op foutjes en daarna pas inhoudelijk in te gaan op het artikel. Wederom, niks mis met kritiek, maar geef daarbij ook bruikbare feedback van hoe jij denkt dat het beter kan.

[Reactie gewijzigd door T!mothy op 22 juli 2024 22:17]

Ik vind 't ook erg jammer. Het wordt ook steeds meer populistisch met een opvallend commercieel tintje.

Op de 1 of andere manier hebben ze gekozen om zich te gaan focussen op de "community". Events, meet & greets en dat soort zaken. Terwijl dat nu juist iets is wat je aan de community over moet laten (die kunnen dat prima zelf regelen als er behoefte voor is). Laat de Tweaker redactie zich nou aub inhoudelijk bezighouden. Zonder al die events hou je die tijd namelijk gewoon over.

1 TV reviewen, 1 moederbord. case of videokaart - met bovendien vertekende informatie. Wat heb je eraan? Doe 's weer 's meer vergelijkende tests waar je echt wat aan hebt.

Zelfs de productreviews van menig Tweaker is tegenwoordig al beter dan die van de Tweakers redactie.
1 TV reviewen, 1 moederbord. case of videokaart - met bovendien vertekende informatie. Wat heb je eraan? Doe 's weer 's meer vergelijkende tests waar je echt wat aan hebt.

Zelfs de productreviews van menig Tweaker is tegenwoordig al beter dan die van de
Precies dit, voor de reviews moeten we al een tijd naar de buren hardware.info. Het doet me pijn om die site hier te moeten posten, maar de huidige richting van tweakers.net is mijns inziens niet de goede.

[Reactie gewijzigd door -ION- op 22 juli 2024 22:17]

laten we even wat persepectief hebben voordat we allemaal Tweakers.net de schuld gaan geven, toen de1080 uitkwam heeft tweakers al duidelijk gemaakt dat ze om onduidelijke redenen geen sample hebben gekregen waar dat vroeger altijd wel het geval was.

ze hebben al NVidia geschreven, en ze hopen dit probleem op te lossen,
verder heeft Hardware.info wel een GTX 1080 gekregen maar geen GTX 1070 sample, het lijkt er dan dus ook op dat er een tekort aan samples is en dat alleen enkele grote sites een review exemplaar hebben mogen ontvangen (mogelijk ook nog eens met stricte eisen maar daar is verder weinig over te zeggen)

hoedanook, gezien HWI ook geen 1070 heeft mogen ontvangen is het een beetje onredelijk om meteen allemaal Tweakers de schuld te gaan geven vinden we niet? nogal snel veroordeeld imho.

desalniettemin ben ik het eens met het sentiment dat ik het erg jammer vindt en dat ik het belangrijk vindt voor het team om dit zsm op orde te krijgen.
maar laten we niet meteen tweakers.net haar andere onderdelen de schuld gaan geven, of denken dat dit een geisoleerd probleem is met tweakers, dat zijn de feiten gewoonweg niet.

Tweakers heeft gewoonweg hetgene gedaan wat ze kon, haar lezers attenderen op de andere reviews die bestaan, zodat we tenminste op de hoogte zijn, dat zullen ze zelf ook heus niet leuk vinden.

kortom give em a break guys.
Natuurlijk. Of je wacht gewoon een halve dag op de reviews en linkt die, in plaats van voor maximale clicks te gaan en vroeg op de dag al pertinent onjuiste clickbait/marketing te posten.

De kritiek is terecht. Als ik advertorials wil lezen zet ik de adblocker wel uit.

[Reactie gewijzigd door Vayra op 22 juli 2024 22:17]

ik wil niet veel zeggen, maar ik mag al enige tijd geen beoordelingen meer geven (+ of -) . Waarschijnlijk te negatief geweest tegen/over een moderator of zo.? Of niet "to the point" punten geven, i.i.g. niet zoals hij/zij er zelf tegenaan keek of erover dacht. |:(
(mja, als een "test" / "review" artikel meer (verkapte) reclame voor dat onderwerp heeft i.p.v. de echte (diepgaande) tests en info waar wij als tweakers.net bezoekers voor komen...
Ik ben nog nooit naar een evenement dat door tweakers georganiseerd is geweest, meestal omdat het niet interessant was of gewoon op de verkeerde dag. (meestal 't eerste trouwens.) Maar daar tegenover ben ik wel naar door de community georganiseerde evenementen geweest. hmmmm wonder why.)
Ahwell, dan maar reacties typen. 8)7

To the point. (zoals ik het zie dan.)
Ik zelf gebruik tweakers.net tegenwoordig voornamelijk alleen om prijzen te vergelijken (!) en om de gebruikers reacties bij een product te lezen.
Heeeeel soms lees ik een artikeltje van tweakers helemaal uit.
Voor diepgaande tests / reviews ga ik tegenwoordig ook naar andere sites.


Over de GTX10xx kaarten... ik wacht tot er voor de gtx1080 watergekoelde opties komen en er meer (goede) tests gedaan zijn. M'n oude kaartje is binnenkort aan vervanging toe. (gtx670oc 2gb)
Of beter gezegd, mijn meest up-to-date systeem is al ouder dan 3-4 jaar. :o :X O-)

main:
Win 10 Pro 64-bit + Mint Cinnamon 17.3 (Rosa)
i7-3939K @4GHz
65Gb Ram (8 sticks)
GTX670 OC 2Gb
2x 24" Dell 2407WFP screens (dus 2x 1920*1200)
8-) }:O
Om op het eerste stukje in te haken - ik denk niet dat censuur werkt. Ik probeer altijd de vinger op de zere plek te leggen (en zit er ongetwijfeld ook weleens naast), niet alleen binnen Tweakers.net maar ook over nieuws wat langskomt en producten die heel prachtig worden voorgesteld. Niemand leest reacties onder artikelen voor 200 ja-knikkers (en doe je dat wel, dan geeft dat te denken :P)

Als men dat kritische geluid liever niet heeft, 'their loss' in mijn ogen. Kortom daar maak ik me niet druk om. Maar ik heb nog nooit ook maar iets van censuur geproefd op Tweakers.net, dus heb geen reden om aan te nemen dat men dat toepast om een eigen straatje schoon te houden. Dat is ook een reden dat ik hier terugkom, ook al bieden andere techsites tegenwoordig geregeld meer, Tweakers profileert zich wél als open-minded, openstaand voor kritiek en er wordt ook wel degelijk geluisterd. Alleen de uitvoering is niet altijd perfect.

[Reactie gewijzigd door Vayra op 22 juli 2024 22:17]

Het probleem ligt wat mij betreft niet bij deze GTX 1080/1070. Dit speelt namelijk al veel langer. Tweakers kiest steeds meer voor de grote meute en dat valt te zien aan de steeds oppervlakkigere artikelen en een zeer beperkt aantal reviews van hardware.
Ik zeg 't ook niet om alleen maar naar Tweakers te sneren. Maar omdat ze zeggen naar de community te luisteren en daar richting op bepalen die mijnsinziens niet klopt met mijn interesses, als Tweaker zijnde. Dus die wil ik kenbaar maken. En ik herken gewoon een hele inhoudloze trend de laatste tijd met populistische titels. Zag er net nog 1. Dell monitor met dunne randen, klik je erop, niks duns aan.

Vervolgens zie ik aan de ratings dat m'n post een mediaan van +3 krijg van de "community", maar dat een mod er blijkbaar 0 van heeft gemaakt. Begint op censuur te lijken en de community mag blijkbaar niet meer spreken?
Rare gang van zaken hier de laatste tijd.
Helemaal mee eens! Stel wijsneuzen die gelijk beginnen te zeiken als een artikel niet naar hun zin is. Blijkbaar hebben ze niet het inzicht om begrip te hebben voor het feit dat Tweakers in dit geval niet veel anders kon dan alleen dit.
Ik kan dat alleen maar beamen. Ik zie dat de focus van Tweakers langzaam aan verplaatst van ''net dat beetje extra'' in de reviews dmv grafieken of ''Tweak-waardigheid'' naar redelijke oppervlakkige nieuwspostings. Dat ''beetje extra'' is overgeheveld naar de vele ''acties'' en evenementen die Tweakers organiseert. Want dat kost natuurlijk geld.

Geld, waarvan blijkbaar de beslissing op is genomen dat die evenementen (die niet iedereen kan bezoeken, of wilt bezoeken omdat het weinig ''Tweak-gehalte'' heeft) worden voorzien van extra flair. Ten koste van de gedetailleerdheid van de nieuws items en het gebrek aan toegang bij de juiste instanties om zelf zo'n nagelnieuwe kaart te bemachtigen. (En dat is dan slechts 1 voorbeeld)

Het zal geheid worden gerechtvaardigd met argumenten als ''Uit onze cijfers zien wij toch echt dat de community meer evenementen willen'' maar in de praktijk zie je dus dat de kwaliteit van de nieuwspostings eronder lijdt, evenals het gebrek aan datzelfde ''beetje extra'' wat die nieuwtjes voorheen zo definieerde.

Ik zou in ieder geval op z'n minst als Tweakers zijnde heroverwegen waar je je als commerciële instantie op wilt focussen.
Ik heb wel de indruk dat de reviews op hardware.info (HWI) beter worden (de test voor CPU koelers is bijvoorbeeld een stuk verbeterd). Mss hebben tweakers en HWI beslist dat ze ipv beide hetzelfde te doen, elks beter wat kan focussen op een ander aspect van de tweaker community.

[Reactie gewijzigd door Robbedem op 22 juli 2024 22:17]

Ik denk al een tijdje dat ik de enige ben die dit geluid laat horen, maar gelukkig, er zijn er nog meer. Zoals ik inmiddels al vaker heb gezegd, Tweakers kan het verschil maken met eigen onderzoek en duiding, maar kiest blijkbaar voor de makkelijke weg, laat haar publiek reviews schrijven, buit dat uit als eigen content (niet persé negatief geladen), komt zelf af en toe met een goed artikel, maar grofweg 90% is copypaste.

Ook zat ruimte om in copy paste materiaal een Tweakers Nuance aan te brengen, maar de tijd en moeite wordt er niet in gestoken. Stel dat ik niet altijd wacht op uitgebreide reviews en commentaren, zoals deze twee goede hierboven, dan had het zomaar gekund dat ik naar de winkel zou rennen (bij wijze van). Ik wacht namelijk al enige tijd met de aanschaf van een nieuwe GFX card.

Als Tweakers niet langer een bron is van analyse, waar zit de toegevoegde waarde dan? Is Tweakers moreel fout bezig als men nu een stelling deelt die mogelijk niet klopt?
Dat je Tweakers afbrand op het gebrek van eigen goede reviews kan ik begrijpen maar in je betoog kraak je ook het kunnen van Toms Hardware af want die hebben de review gedaan.
Het citaat zelf in de review van Tom's Hardware heb ik niet zo'n probleem mee, in de context van de rest van de review. Ze zeggen er bovendien netjes bij:

"Missing out on power consumption, operating temperatures and noise due to the constraints of Computex leaves us with an incomplete picture of GeForce GTX 1070, though we can certainly make some assumptions."

en

"When our German team runs the GTX 1070 through their battery of tests, we do hope to see temperatures that are more conservative than those of the GTX 1080, though it remains to be seen if GPU Boost stays active for any longer."
Anoniem: 14038 @Dionamuh30 mei 2016 10:55
Titan X en 1070 zijn voor verschillende doelgroepen bedoeld waarbij iedereen wel snapt dat de Titan X door de kleinere oplages (en waarschijnlijk hogere marges) duurder uitpakt.
Dat hardware sneller en goedkoper wordt is ook niet ongewoon en ook al lijkt het hier om een grote stap te gaan valt het op zich wel mee als je deze factoren mee laat wegen.

De markt hoeft helemaal geen massale sprongen te zetten in prestatieverbetering omdat dit minder oplevert dan in kleinere stapjes te verbeteren. Dat ze dan de getalletjes heel mooi opkloppen is dan onderdeel van het spel wat er gespeeld wordt. Kwestie van even goed opletten en je concentreren op de zaken die er (voor jouw) toe doen om zo de best onderbouwde beslissing te maken.
Precies. Heel leuk die performance per dollar tabel ook, want wij gebruiken hier namelijk ook dollars.... Oh nee toch niet.

Het hele artikel staat vol met "meent techsite x, y, z". En "volgens techsite x, z, y".

We zitten hier op Tweakers omdat we daar de info van willen, niet omdat we nieuws van andere techsites willen..
Phoehee, zo had ik het nog niet bekeken Dionamuh. De GTX 1070 staat zeker op mn wensenlijstje. Maar ik realiseer me dat ik berichten op Tweakers.net dan helaas ook maar met een korreltje zout moet gaan nemen. En met meer dan 170 +3 likes op je bericht hoop ik dat de Tweakers redactie het ook heeft gezien. Een helder signaal.

Tot die tijd, is er naar mijn weten geen andere Nederlandse website waar ik het nieuws een beetje in de gaten kan houden. Over Hardwareinfo lees ik ook klachten, dat ze hun benchmarks veel te kort draaien bijvoorbeeld.
Slap verhaal zeg, en dan zonder enige referentie een conclusie trekken en vervolgens Tweakers veroordelen op hun conclusie zonder enige test...
Ik baseer mijn gewauwel wel ergens op hoor. :)

Bijvoorbeeld Tom's Hardware wijst erop dat de reference 1080 koeler de boost snelheden niet aankan:

"And unfortunately, real-world temperatures after three minutes of warm-up look a lot different than what we saw during Nvidia's press day.""

en

"The 1080 hits its temperature target by dropping the GPU's clock rate. During a gaming loop, it falls all the way down to its base frequency, leaving nothing left of GPU Boost. This gets even worse during our stress test, where the core clock dips below the 1607MHz that is supposed to be the GeForce GTX 1080’s floor."
(plaatje)

Als je geïnteresseerd bent, in deze video wordt bijvoorbeeld verwezen naar allerlei reviews. Op zijn kanaal staan nog een hoop andere interessante en kritische video's, vind ik.

[Reactie gewijzigd door Dionamuh op 22 juli 2024 22:17]

Dat is precies mijn punt. Ik had graag wél gelezen dat de reference koeler de turbo (boost) snelheden niet aankan. En dat mede daarom veel benchmarks en reviews een vertekend beeld geven.

Mijn kritiek is dat dit nieuwsbericht niet kritisch is. Ik ben zelf ook enthousiast over de GTX 1070 en 1080, maar het is natuurlijk juist de taak van een site als Tweakers om zowel positieve als negatieve punten te belichten. Niet om zomaar klakkeloos van alles over te nemen.

Deze Pascal architectuur is sterk afgeleid van de Maxwell voorganger, die ook al erg indrukwekkend was. Er valt echter nogal wat aan te merken op de manier waarop nVidia deze nieuwe kaarten gepresenteerd heeft, en in de markt zet. Dat begon allemaal met de benchmarkresultaten waar nVidia zelf mee kwam bij de presentatie van de GTX 1080. Er werd toen gedaan alsof de reference kaart (die ze zelf zo nodig 'founders edition' willen noemen) extreem hoge kloksnelheden haalde met de reference koeler maar toch heel koel bleef.

Later bleek dat die resultaten veel te positief waren; de reference 1080 draait in de praktijk op veel lagere kloksnelheden en is daardoor een stuk minder snel. Ondertussen verantwoordt nVidia wél de hoge prijs van de 1080 (1070) en de 'founders editions' door hoog van de toren te blazen over prestaties. Maar goed, dat is allemaal marketing.

Het is dan aan reviewers om daar doorheen te prikken, en te laten zien wat de prestaties in de praktijk echt zijn. Het liefst vergeleken met de meest recente en snelste custom videokaarten, zodat je weet hoeveel waar je voor je geld krijgt. Consumenten kunnen dan zelf bepalen wat interessant voor ze is, en hoeveel ze willen uitgeven.

Het zou voor consumenten ook fijn zijn om te kunnen lezen dat:
  • 1. de GTX 1070/1080 sneller zijn dan oudere kaarten, maar niet zoveel sneller als nVidia zelf zegt;
  • 2. de GTX 1070/1080 wel erg hoog zijn geprijsd; en
  • 3. de reference 'founders editions' echt niet de moeite waard zijn omdat ze veel te duur zijn en de koelers slecht zijn.
offtopic:
Waar het overigens precies aan ligt dat de reference 1080 fan zo raar doet weten we nog niet zeker. Het lijkt volgens mij toch echt op z'n minst gerelateerd te zijn aan kloksnelheden en warmte, waarbij de boost functie van de GPU de boel ontregelt. De kans bestaat dat de reference 1070 last heeft van hetzelfde euvel. Misschien is het te fixen met een simpele driver update, laten we het hopen.
Het zou voor consumenten ook fijn zijn om te kunnen lezen dat:
  • 1. de GTX 1070/1080 sneller zijn dan oudere kaarten, maar niet zoveel sneller als nVidia zelf zegt;
  • 2. de GTX 1070/1080 wel erg hoog zijn geprijsd; en
  • 3. de reference 'founders editions' echt niet de moeite waard zijn omdat ze veel te duur zijn en de koelers slecht zijn.
  • De nieuwe kaarten zijn even snel zoals NVIDIA beweert. Het gaat om een stock 980TI vs een 1080. Vele review sites bevestigen dit. Probleem is dat er veel standaard overklokte bestaan maar die zullen er vast ook wel van de 1080 komen.
  • Bij gebrek aan concurrentie liggen de prijzen hoog, wie de laatste nieuwe en snelste kaarten wil moet veel betalen. Dat is zo en dat altijd zo geweest.
  • Zie punt 1, natuurlijk zijn ze de moeite waard, het zijn prachtige kaarten en voor wie niet kan wachten, ideaal.
offtopic:
Waar het overigens precies aan ligt dat de reference 1080 fan zo raar doet weten we nog niet zeker. Het lijkt volgens mij toch echt op z'n minst gerelateerd te zijn aan kloksnelheden en warmte, waarbij de boost functie van de GPU de boel ontregelt. De kans bestaat dat de reference 1070 last heeft van hetzelfde euvel. Misschien is het te fixen met een simpele driver update, laten we het hopen.
Waarom denk je dat toch? Nergens maar dan ook nergens wordt de link gemaakt van koeler die raar doet met kloksnelheden en warmte. Want dat is net verwacht gedrag, nu gaat de koeler soms sneller draaien op momenten dat je het niet verwacht! Waarom blijf je dit hardnekkig volhouden? Je wil gewoon kost wat kost de nieuwe NVIDIA kaarten afbranden met compleet idiote argumenten.

[Reactie gewijzigd door aval0ne op 22 juli 2024 22:17]

Uit alle reviews blijkt dat de reference 1080 onder load niet de boost clock van 1733 MHz kan vasthouden, en al na enkele minuten terugschakelt naar de base clock van 1607 MHz. Het is dan ook misleidend dat nVidia tijdens haar presentatie een zogenaamde reference 1080 laat zien die op meer dan 2000 MHz loopt en maar 67 graden wordt (bron). Dat is belachelijk als je beziet dat de boost clocks van de aangekondigde custom 1080 kaarten met moeite boven de 1900 MHz uitkomen, afgezien van mogelijke ruimte tot nog verder overclocken door de gebruiker natuurlijk (bron).

Ook misleidend is dat nVidia zegt te garanderen dat elke reference 1080 de boost clock haalt: "GPU Boost Clock speed of 1.7GHz, which all GeForce GTX 1080 Founders Edition buyers are guaranteed to get" (bron). Hint: ze zeggen niet hoe lang de kaarten de boost clock kunnen volhouden.

De kaarten zijn dus niet zo snel al nVidia zelf beweert. De kloksnelheden van de reference 1080 liggen in de praktijk namelijk aanzienlijk lager. Bovendien gaat nVidia natuurlijk zelf uit van de benchmarks waar de 1080 het beste in presteert. Dat doet AMD overigens net zo goed in haar presentaties, laat daar geen misverstand over bestaan.

Helemaal met je eens dat nVidia heel goed is in marketing, en dat de prijzen zonder concurrentie ook gewoon hoog kunnen zijn. En wil je op dit moment de snelste GPU, dan moet je een GTX 1080 kopen.

Zoals ik al zei, het zijn mooie kaarten. Ik heb geen enkele voorkeur voor AMD of nVidia. Mijn verontschuldigingen dat ik niet eerder doorhad dat je alleen nVidia kunt ophemelen en AMD afbranden (1, 2, 3, 4, 5, 6, 7). Besef alsjeblieft hoe belangrijk gezonde concurrentie is.

[Reactie gewijzigd door Dionamuh op 22 juli 2024 22:17]

Ze hebben nooit gezegd dat het een reference was kaart was die ze hadden overclocked, misschien zat er wel LN2 op wie weet.

Ik bedoel geen directe onwaarheden zijn gezegd ;). Ze waren technisch correct.
Je hebt gelijk, I stand corrected! Ik kon eerder vandaag zo gauw niet het stuk in de presentatie vinden.

Er stond bij: EVGA PrecisionX OC, 2114 MHz GPU, 5508 MHz memory, 67 graden (klik!). Overigens zeiden ze er wel bij dat het air cooled was.

[Reactie gewijzigd door Dionamuh op 22 juli 2024 22:17]

Zolang het mijn 970 in SLI niet verslaat in de spelen die ik speel zie ik geen reden om voor de 1070 te gaan. Ik scoor 18429 in firestrike dus ik zit net onder een 1080 kwa performance. Ik sla even deze generatie over :P
Draai nog steeds met 660 sli, en ja ik wacht mooi tot begin volgend jaar om te zien wat er nou komt..
Je zit alleen met 3.5gb geheugen..
Kan gewoon 4 GB aanspreken zonder problemen hoor. Bovendien staat mijn AA lager want niet nodig om x16 te doen op 1440p dus 4GB spreek ik bijna nooit aan.
Ik lees/zie juist dat de performance van de GTX1070 vaak overeenkomt met de GTX980ti; soms wat trager, soms wat sneller. Ik lees vrijwel nergens dat dat de GTX1070 per definitie sneller is dan een Titan X :/

1. https://www.youtube.com/watch?v=-FWtJXmtITs
Conclusie: de GTX1070 is soms sneller dan de GTX980ti, vaak even snel & soms ook wat langzamer. Vrijwel nooit even snel als Titan X, nooit sneller dan Titan X.

2. https://www.youtube.com/watch?v=4yq7VVW76VY
Conclusie: de GTX1070 is soms sneller dan de GTX980ti, vaak even snel & soms ook wat langzamer. Vrijwel nooit even snel als Titan X, nooit sneller dan Titan X.
Dat zet de markt nogal op z'n kop zeg. Niet alleen wordt de concurrentie (voor even?) weg gezet, ook de tweedehandsmarkt krijgt een aardige schok. Lijkt me dat als je een gtx970/980 in je kast hebt zitten, dat deze ook plotseling een stuk minder waard is.

Voor de 'insiders' een vraag, hoe kan het dat Nvidia zoveel progressie ineens kan maken? Hebben ze jaren aan een nieuwe architectuur gewerkt en is dit nu het resultaat, of is het een kwestie van 'slechts' een nieuwe procedé?
Een nieuw procedé brengt geen directe snelheidswinst. Hoogstens kan je wat sneller klokken omdat het verbruik wat minder is. De winst zit hem dus met name in de nieuwe architectuur (samen met nieuw geheugen).
Een nieuw procedé is simpelweg sneller. Als je het basis mosfet model gebruikt dan worden transistoren kwadratisch sneller met een afname van de gate lengte (de gate-capaciteit wordt lineair kleiner en de transconductie, versterking, van de mosfet neemt lineair toe met een kleinere gate lengte, totaal een kwadratisch effect). Nu is dat model tegenwoordig niet meer bijzonder nuttig, en kwadratisch ga je echt niet halen. Je moet al erg blij zijn wil je richting lineair gaan (oftewel 2x zo snel bij een twee keer kleiner procedé). Maar er is wel zeker een directe snelheidswinst door een nieuw procedé.
I stand corrected. Nooit geweten dat verkleining direct effect had op de 'schakelsnelheid'. Heb je misschien wat leesvoer hierover
Om je vraag te beantwoorden, moet je het micro-elektronisch bekijken... (duh)

Er vloeit enkel stroom door de transistors, op het moment dat deze schakelt.
Tijdens deze korte tijd, moet er genoeg stroom vloeien, om 'de draad' waar de transistor aanhangt 'op te laden'
Hoe korter de draad, hoe sneller dat de draad kan worden opgeladen.

Een andere manier om de draad sneller op te laden is de spanning verhogen.
Het nadeel, is dat het stroomverbruik dan exponentieel toeneemt.
I x t = C x V (of P = C x U² x f)
Stroom x tijd = capaciteit (van 'de draad') x spanning


Hier uit afleidend, kan je verklaren, waarom de je de spanning moet verhogen bij overclocken. Of waarom intel de spanning kan verlagen, als het procedé verkleint. (bij dezelfde klok)

Transistors hebben lekstromen, door de steeds lagere spanning, werd dit wel een probleem, ondertussen zijn er al sterke regeltransistors, om dit op te lossen.
meer info over den draad kan je ook hier vinden:
https://www.youtube.com/watch?v=_subcnZKpWU
en deel 2 (slechte kwaliteit)
https://www.youtube.com/w...g&list=PL45D8FA8215B17BEE
deel 3
https://www.youtube.com/watch?v=t48Fvcx8e4g

OT: lijkt me dat de 1070 dezelfde doorbraak brengt als de gtx970 destijds. enkel vragen ze er nu meer geld voor

[Reactie gewijzigd door wibra op 22 juli 2024 22:17]

Ik heb wat rond gegoogled, maar ik kan eigenlijk niet zo snel wat vinden wat een beetje toegankelijk is. Hopelijk weet iemand anders wat te vinden.
Anoniem: 669957 @Aikon30 mei 2016 10:37
Het tegendeel, de architectuur van pascal is vrijwel hetzelfde als maxwell. Bijna alle snelheidswinst komt direct bij het nieuwe geheugen en procedé vandaan. De snelheidswinst in gaming vindt ik ook helemaal niet zo revolutionair, vroeger was de prestatieswinst per generatie ook vergelijkbaar.
Ligt eraan wat je onder architectuur verstaat. Wellicht zijn de pipelinestructuren hetzelfde, maar Pascal heeft er wel veel meer ervan, gezien de transistor count van 5.2 miljard naar 7.2 miljard gegaan. En sneller, gezien de rauwe kloksnelheden flink verhoogd zijn.

Om dat allemaal onder procedé te scharen is natuurlijk vreemd. Kleiner procedé maakt het makkelijker om hogere snelheden te halen, en de chip qua grootte in bedwang te houden, maar dat zijn er geen directe gevolgen van. nVidia heeft eerder ook versies van dezelfde GPU op een kleiner procede gebakken, en dan zie je simpelweg maar weinig verbetering.

Verder is sneller geheugen ondersteunend in de snelheidsverbetering en niet leidend. Het gaat er om dat dit toereikend is voor de hoeveelheid data die de GPU kan verwerken. Door te zeggen dat GDDR5x voor de snelheidsverbetering zorgt zou betekenen dat er een flinke bottleneck op het geheugen zat bij de GTX980. De GTX1070 heeft trouwens geen nieuw geheugen, het is enkel hoger geklokt tov de GTX970.
Pascal is meer verschillend als je zou denken en is zeker niet toe te schrijven aan het geheugen en de die shrink.
Leesvoer: https://images.nvidia.com...chitecture-whitepaper.pdf
Vergeet ook niet dat je simpelweg méér transistoren op hetzelfde oppervlak kwijt kan met een kleiner procede. Meer transistoren betekent in dit geval meer cores en dat komt meestal wel ten goede bij een GPU :)
Dat zou kunnen, maar vergelijk je het met de 980 TI een kaart die naar nu blijkt iets langzamer is dan gaat het verhaal niet op, want de 1070 heeft minder transistors en minder cores dus die getallen zijn niet zaligmakend.

Wat je wel ziet is dat de base clock frequentie 50% hoger ligt, nl. 1506Mhz vs 1000Mhz.
Mijn vermoeden is dan ook dat de winst vooral in die significant hogere base clock frequentie zit.
Nou nee,je vergelijkt big chip oud procede met sub size chip nieuwe procede.
Dus GTX1080Ti bigchip met oude bigchip.

Dus 970 met 1070 en ja meer transistoren meer cores meer van alles op iets hogere klok.

Ouwe Godzila chip kan next gen upper midrange bij benen en next next gen low budged vaak ook wel, dat is normaal. Ja de ouwe garde verschuift gewoon. Als degradatie.

Maar nieuwere gen godzilla chip maken grote sprongen met procede sprong. Dat is meer transistoren bij ook hogere klok.
Dus wat DLgandalf zegt klopt.
Maar ook daar boven op. Verschillende procede even veel transistoren in chip zelfde architectuur dan kan klok stuk hoger.

Houd in dat er omslag punt is dat je met minder transistoren en wat hogere klok een oude chip evenaard die groter is en lager geklokt.
"simpelweg méér transistoren op hetzelfde oppervlak kwijt kan"; Klopt helemaal, maar ook dat je er meer defecte erbij krijgt.
Dat is wel waar, maargoed dit is het probleem voor de foundries, en die hebben lang genoeg opzich laten wachten wat 16nm betreft. De laatste procede verkleining was 4 jaar geleden leert Wikipedia mij:
https://en.wikipedia.org/wiki/Transistor_count#GPUs
Anoniem: 159816 @Emgeebee30 mei 2016 09:16
Ach ik heb in februari een 970 gekocht omdat mijn oude videokaart helemaal kapot was en niet meer bootte. Ik was van plan te wachten op de nieuwe modellen, maar het is niet anders. Maar voorlopig kan ik alles spelen wat ik wil (custom bios, 980 performance). Wacht wel op HBM van nvidia. Een 1080 is eigenlijk net op de grens van wat ik zou willen.

[Reactie gewijzigd door Anoniem: 159816 op 22 juli 2024 22:17]

Hier ben ik ook wel benieuwd naar. Naar wat ik gelezen heb, zou GDDR5 zo'n beetje dead on arrival zijn t.o.v. HBM memory.

De nieuwe AMD kaarten zouden wel HBM gaan gebruiken naar wat ik begrepen heb, t'is denk ik even afwachten of dit echt zoveel impact op performance zal hebben.
Waarschijnlijk zullen enkel de high end kaarten HBM gaan gebruiken, het is simpelweg te duur voor de lagere segmenten. En daar zal GDDR5(x) zeker nog zijn mannetje staan.
Ineens zoveel progressie?
Persoonlijk ben ik daar sceptisch over. het zou me niks verbazen als ze deze technologie al jarenlang in de koelkast hebben staan. het komt nu naar buiten omdat de markt een focus op VR gaat krijgen. Eerder was het niet nodig, want de PS4 en XBOX one zorgden ervoor dat ontwikkelaars een aantal jaar rustig aan konden doen met technologische vernieuwing en er dus geen noodzaak voor snellere videokaarten was. Tuurlijk zit er progressie in het uiterlijk van games, maar die zou veel groter kunnen zijn.
Daarnaast brengt het uitsmeren van je producten over meerdere jaren meer geld op.

[Reactie gewijzigd door Croqy op 22 juli 2024 22:17]

Nee ineens flinke dieshrink. Er is dieshrink overgeslagen. Dus eerder wat we nog te goed hadden. Daarom zo flinke stap. Houd ook in dat de vorige gen ver beneden midrange komt. Dus mogelijk ook goede redenen om niet meteen met de zware godzilla chips te komen aangezien je de markt overhoop haald. Maar AMD doet dat al lang niet.
Ze maken niet zoveel progressie, dat lijkt zo. En als je kritisch naar de inhoud kijkt, dan zie je dat ook gewoon.

GTX 980ti: 320GB/s bandwidth, 2816 cores en 96 ROPs.
1070: 256GB/s, 2048, 64 ROPs

Maar die 1070 is sneller - erg geloofwaardig nietwaar? De winst zit in de hogere clocks, maar deze kaart gaat gewoon bottlenecken op VRAM bij een hoge core clock OC, net zoals de 970 dat doet in bepaalde titels en met name in SLI.

Natuurlijk is de nieuwe compressie op geheugen een stukje winst. Natuurlijk doet Pascal bepaalde dingen iets efficienter. Maar het gros van de performance zit gewoon in een hogere clock. De SM(X) is sinds Kepler niet zoveel veranderd.

Altijd onthouden; als het te mooi klinkt om waar te zijn, dan is het dat ook.

[Reactie gewijzigd door Vayra op 22 juli 2024 22:17]

Ennn daar zijn de reviews, die een maximale winst laten zien van 3-4% ten opzichte van de 980ti, maar met een OC op beide kaarten gaat de 1070 de strijd verliezen en op 4K is de 980ti veelal de snellere kaart op stock clocks met eenzelfde 3-4%.

De -1 staat je goed.

[Reactie gewijzigd door Vayra op 22 juli 2024 22:17]

Voor de 'insiders' een vraag, hoe kan het dat Nvidia zoveel progressie ineens kan maken? Hebben ze jaren aan een nieuwe architectuur gewerkt en is dit nu het resultaat, of is het een kwestie van 'slechts' een nieuwe procedé?
Het nieuwe procedé is verreweg de belangrijkste factor. GPUs hebben meerdere generaties lang vastgezeten op 28mm en nu is er opeens een procedé met een feature-size die 2 stappen kleiner is. Dat levert een flink wat potentie op voor betere prestaties en voor gereduceerd stroomverbruik, zoals te zien is.

AMD gaat een vergelijkbare sprong maken, maar we moeten nog even afwachten of ze boven, onder of gelijk met Nvidia terecht komen in de ranglijsten.
Ik heb zelf een 980 in m'n kast en die schok valt wel mee. Gewoonweg omdat de 980 nog zeker een tijd mee kan. Het hangt er maar van af wat de spellenindustrie doet. Als die meteen inspringen op de hoge prestaties van de 1000 serie heb ik wel een probleem :p
Voor mensen die high end kaarten 2ehands willen kopen is het inderdaad denk ik minder interessant om voor zo'n kaart te gaan dan voor een 1070 of 1080 als het prijsverschil klein is.

Ik hoop dat de 2ehands prijzen lekker laag komen te liggen, dan kan ik mijn 650Ti (1GB) eens upgraden naar high end (en anders wachten op de 1050 of 1060). Die 650Ti draait de meeste spellen nog prima, en loopt met name tegen VRAM beperkingen op in sommige games. (zo ziet black ops 3 er praktisch cell shaded uit omdat hij de textures niet fatsoenlijk in het vram krijgt :+ ) maar de framerate is alsnog wel redelijk speelbaar gek genoeg.

High end hoeft voor mij niet, en daarom geef ik er nooit geld aan uit. Als ik een 970 of 980 voor een redelijke prijs kan krijgen denk ik dat ik daar als niet veeleisende gebruiker wel mee door kan tot de kaart *poef* zegt.

Dus mij (en veel gebruikers zoals ik) zullen dan misschien eens aan het "high end" segment gaan voelen of dat nou echt zo veel beter is.

[Reactie gewijzigd door VNA9216 op 22 juli 2024 22:17]

De 970 in mijn kast is voor mij nog steeds evenveel waard. Hij draait nog steeds hetzelfde als vorig jaar en de games die ik speel draaien nog steeds vloeiend op max.
De vraag is.. wil je elk jaar overstappen naar een nieuwe videokaart? Dat is persoonlijk. Voor mij hoeft het niet. De kaart die ik nu heb doet wat ie moet doen, voor nu.
Zeker, als je elk jaar de videokaart upgrade, dan zal dit flink knagen als je vorig jaar een 970 had gekocht.
Ik vind de 10x generatie enorm interessant maar om nu te zeggen dat ik baal dat ik een 970 heb, die nu dan in waarde is gedaald? Niet echt. Dat is de wereld van electronica. Je koopt een TV en een half jaar later is ie de helft van de prijs.. Hetzelfde voor telefoons etc..
Ik ben wel benieuwd naar de GTX 1060 en de GTX 1050, vooral om te zien of ze ook daadwerkelijk beter dan een GTX 970 zijn of niet.
Als de 1060 trager is dan de 970...dan zouden ze er geen enkele van verkopen want diegene die een 1060 overwegen kiezen dan voor een tweedehands 970 (ok ik zou dit niet doen aangezien ik gebruik maak van de 10 bit HEVC decoder die de 970 maar partieel hardwarematig ondersteund, maar de meeste zijn enkel geintteresseerd in fps en dan is de 970 logischer, het hangt natuurlijk ook een beetje af van de schermresolutie die men gebruikt en hoeveel vram de 1060 krijgt. Maar bv. voor 1080p zou de 3.5+0.5 gb van de voldoende moeten zijn)
Als de 1050 sneller dan de 970 wordt, wordt dat al snel een duidelijke keuze voor mij. 1060 weet ik nog niet.
Ik denk dat de 1050 de prijs heeft van de 960 en prestaties tussen deze en de 970 in en met de 1060 hetzelfde.

De verhouding van prestaties en stroomverbruik en prijzen gaan in vergelijking van de oude één segment hoger.

Dus als de 950 en 960 budget kaarten zijn dan worden de 1050 en 1060 midrange :)

Mijn kijk zal wel fout of anders zijn maar zo kijk ik er wel naar en het hangt er maar net vanaf wat er met de prijzen gebeurd van de 900 en 1000 serie.
Ik zeg ook niet dat je hoeft te balen van een 970/980 in je kast, ik zou 'm ook wel willen hebben. Ik zeg enkel dat deze door de introductie van de 1070 wel ineens een stuk minder waard is op de tweedehandsmarkt.
De 970 in mijn kast is voor mij nog steeds evenveel waard. Hij draait nog steeds hetzelfde als vorig jaar en de games die ik speel draaien nog steeds vloeiend op max.
Met die redenering is je Pentium 100MHz met 16MiB EDO-RAM en 540MB Quantum Fireball uit 1995 ook nog €2500 waard, want die kan ook nog steeds hetzelfde als in het begin.
Hij geeft niet aan dat die games die hij speelt van vorig jaar zijn. Dus een game van vandaag zou niet draaien op die Pentium 100 en is dus verouderd. Een nieuwe game van nu draait goed op de kaart dus is hij nog niet verouderd.

[Reactie gewijzigd door Kura op 22 juli 2024 22:17]

Een nieuwe game van nu draait *niet* goed op een 970 'op max', wat hij ook mag beweren.

Dat is het hele punt dat ik wil maken. Hij legt ergens een willekeurige grens, en ik verleg die met een absurd voorbeeld om aan te tonen dat het niet klopt.

Helaas zijn de kaarten van de 900-reeks onderhevig aan de inflatie die de introductie van de 1000-reeks heeft teweeggebracht. Niets aan te doen, zelfs niet ontkennen. ;)
Sorry hoo rmaar nu kraam je onzin uit. Ik ben de afgelopen maanden maar 1 game tegengekomen die niet op max settings draait op 60FPS en dat is the Division maar een paar settingsop high zetten zorgt wel voor een steady 60FPS en het verschil is nauwelijks zichtbaar. Doom bijvoorbeeld vliegt erdoorheen met alles op fhd op zijn hoogst met max settings. Ik ben de laatste 2 jaar maar welgeteld 2 games tegengekomen waarbij je een paar settings terug moest schroeven van ultra naar high en dat zijn The Division en Witcher 3.

Vergeet niet dat je de gemiddelde 970GTX met gemak een 20% overclock kan geven. Heb zelf vanaf referentie snelheden zelfs een 40% boost. (zit rond de 1500mhz op de core).
fhd
Je kan FHD bezwaarlijk 'max' noemen. Die noemer lijkt mij weggelegd voor UHD(-1), oftewel Quad-FHD.
Mwah, het overgrote deel (check steamsurvey) gamed op een 1080p scherm.
De 1080 kan ook geen geen 60fps op UHD vasthouden anders. Moet je toch wel ergens settings terug gaan schroeven.
Hangt natuurlijk volledig af van de resolutie waarop hij wil spelen.
Op 3440x1440 draaien met mijn 970 SLI configuratie slechts een minderheid van de recente games aan 60fps.

(ben dus aan't twijfelen of ik ga voor een 1070 SLI systeem of wacht op de onvermijdelijke 1080Ti :) )
Ik weet niet wat de rest van je specs zijn maar ik heb ook een 970 en ik kan echt niet alles op max draaien op 60 fps (stabiel dus geen drops). Ik speel nu syndicate en ik draai die op minimaal 45 fps met schaduw op high (Nvidia schaduw uit).

Ligt er ook aan welk spel natuurlijk. Overwatch draai ik wel max met 60 fps.

[Reactie gewijzigd door MissMe NL op 22 juli 2024 22:17]

Maar je probeert een punt te maken van een persoonlijke mening. En daar ga je de fout in.
De kaart voldoet aan mijn wensen. Dus is de kaart voor mij nog steeds evenveel waard als vorig jaar.
De fout die je maakt is dat jij het perse in geld wil uitdrukken zoals de kaart op de markt zich zou uitdrukken. En ja.. daar is ie flink gedaald.
Maar ik heb de kaart vorig jaar gekocht voor een paar specifieke games.. en die games draaien nu nog precies hetzelfde als dat ze vorige jaar deden.. en dus is voor mij de kaart nog steeds evenveel waard en heb ik nog geen behoefte aan een nieuwe kaart.

Zeker is de nieuwe generatie beter.. maar mij persoonlijk maakt dat dus nog niet zoveel uit. Totdat ik straks nieuwere games ga spelen die de 970 niet trekt. Dan ga ik eens verder kijken. Dat is alles wat ik probeerde te vertellen. Niets geen prijzen.. alleen eigen gevoel.
Overwatch draait met gemak 90+ FPS op max settings @1080p. :+
Ideale verkoopspraat als hij zijn videokaart tweedehands wil verpatsen haha :)
Maar dat is het punt wat ik probeer te maken. Ik wil hem dus niet tweedehands verpatsen.. want hij doet nog prima wat ik wil. Het ding is net een jaar oud. Ik hoef niet elke jaar een nieuwe kaart als de kaart die ik nu heb nog doet wat ik wil.
Wat jammer deze reactie weer..

Ik schrijf dat de games die ik speel nog steeds zo goed draaien als dat ze vorig jaar deden. En dat klopt toch gewoon?
De games die ik vorig jaar speelde op deze GPU draaien nog steeds hetzelfde.
Ik begrijp ook wel dat nieuwere games die uitkomen dat die zwaarder zijn en dus minder zullen draaien op deze GPU.

Ik spreek ook expres niet over prijzen, omdat wat de kaart voor mij persoonlijk waard is.. (het feit dat hij nog prima draait dus) niet gelijk is aan wat de kaart op de markt in geld waard is.
Anoniem: 668692 @DonJunior30 mei 2016 10:01
Dat je zelf er een hogere waarde aan bind, is totaal irrelevant voor de daadwerkelijke waarde...

Ik kan mijn geerfte Tak ook wel een hoge waarde toeschrijven en dat is ook voor niemand buiten mij relevant.
Dat klopt.. dat schrijf ik toch ook zelf in de laatste alinea?
De combinatie van architectuur en procédé.
Anoniem: 298195 @Emgeebee30 mei 2016 10:26
Het is vooral de die shrinks, clock voor clock is er niet veel verschil met Maxwell.
Kijk maar naar de specs in de tabel, en daarna naar de base clock, dat vertelt je alles wat je moet weten :)
nV komt tegen wordig niet meer direct met godzilla chip.
Die gaat eerst los in de pro markt. Waar consumenten met sub high- end moeten doen dus eerst
Performance klasse ?70 ?80
Later de pro kaarten. En ?60 midrange.
Dan Titan en later ?80Ti.

Dat is meer een reactie op AMD beleid de begint ook in midden ipv direct met godzillachips.

Vroeger was eerste komen met elk hun godzilla chip met soms grote problem de winnaar is die wat minder problemen heeft. Hoe groter chip hoe groter risiko is.
Ik vind het zo bizar dat die oude kaarten zo duur blijven. Die GTX 970 is nooit onder de 300 euro gekomen, sterker nog, hij is lange tijd duurder geweest dan de adviesprijs.

Zelfs nu de GTX 1070 en 1080 voor de deur staan blijven de oude kaarten zo duur. Waarom verlagen ze de prijs van de Titan X niet naar 500-600 euro?

Ik vrees dat de GTX1070 net als de 970 lange tijd slecht verkrijgbaar zullen zijn, dit zal er wederom voor zorgen dat deze kaart flink aan de prijs blijft.
Je zegt het zelf: de beschikbaarheid is niet goed, dus hoge prijs.
Het gaat om de combinatie beschikbaarheid + vraag. Lage beschikbaarheid zonder vraag, laat de prijs ook zakken, zij het minder snel dan hoge beschikbaarheid, zonder vraag. ;)

[Reactie gewijzigd door CH4OS op 22 juli 2024 22:17]

Beschikbaarheid != aanbod. In beschikbaarheid zit de vraag al meegerekend.
Lage beschikbaarheid = Vraag > aanbod
Hoge beschikbaarheid = Aanbod > vraag

Al telt het aanbod slechts 1 unit, als de vraag 0 is, is die nog steeds vlot beschikbaar.
nVidia zet de nieuwe kaarten bewust duur in de markt om z'n oude stock kwijt te geraken en dat is ook goed voor de 2de hands markt
(mensen kopen sneller een dure kaart als ze weten dat die na 1-2 jaar nog voor een mooi bedrag kunnen verkopen)

het gebrek aan concurrentie helpt uiteraard ook niet echt
Ik denk dat de 1070 eind Juni gewoon volop verkrijgbaar is - net zoals de gtx970 2-3 weken na de release ;)
Wederom wordt dit de meest verkochte GPU van deze generatie denk ik, net zoals de 970 volgens Steam. Ik ben echt benieuwd naar de uiteindelijke prijsverschillen tussen de 1070 en 1080, pas dan kan ik een keuze maken en mijn GTX 670 vervangen.
Hoe kan je dat nou in godsnaam zeggen zonder details van 'de andere kant' van deze generatie te weten? Echt heel voorbarig.
Ik weet de details wel, namelijk dat Polaris focust op effectief stroomverbruik, dus ik verwacht geen concurrent van de 1080, maar goed, 100% zeker weten we het pas in juni als het goed is.
Anoniem: 349463 @Ulas30 mei 2016 09:56
Een concurrent van de 1080 moeten we inderdaad niet verwachten.

Maar dit is de 1070, en niet de 1080. En de 980 is niet de meest verkochte kaart, dat is de 970.

Ik moet zeggen dat ik AMD-biased ben, ik hoop heel erg op wat meer concurrentie in de komende jaren, maar nu al durven zeggen dat deze 1070 kaart de best verkopende kaart gaat worden in de komende paar jaar is extreem ongefundeerd.

Bijvoorbeeld, Je weet niet wat de markt wil. Iedereen die een 970 heeft gekocht hoeft niet nu per se een nieuwe kaart. Misschien zijn het juist de mensen die nog op een 660 ti zitten o.i.d. die nu een nieuwe kaart willen.

In dat geval gaat een goedkoper marktsegment nu een nieuwe kaart kopen, hét marktsegment waar AMD zometeen (hopelijk) de beste waardepropositie hebben.

kortom, niemand kan op dit moment zeggen wat er gaat gebeuren. Waarschijnlijk kan niemand zelfs voorspellen wat er gaat gebeuren als we wél alle informatie krijgen in de komende maanden.
Alleen zijn heel veel mensen Nvidia-minded, zie de markt verdeling, en misschien zal dat ook een reden hebben, maar buiten dat, het kan ook goed zijn dat er nu heel veel mensen de hele tijd hebben zitten wachten totdat Nvidia met een waardige "28nm" GPU opvolger kwam, wat nu dus gebeurd, voordat ze weer eens wilden upgraden, want niet iedereen zit te wachten om een upgrade uit te voeren als de snelheid maar marginaal toeneemt.

Misschien is relatief gezien de prijs/prestatie nog steeds zo netjes als dat van de 970, echter de basis prijs is hoe dan ook hoger, en dus ook de drempel tot kopen, dus het kan goed zijn dat het minder een succes wordt dan de 970.
Maar aangezien Nvidia zo'n grote markt beheert zullen ze daar denk ik weinig van aan trekken.
Dat is één heel grof punt wat benoemd is door de marketing van AMD. Niet eens een detail, laat staan details. Het is gewoon even wachten tot benchmarks, verbruik en prijzen en dan kan je wat zinnigs zeggen over een 'winnaar'.
Anoniem: 159816 @Ulas30 mei 2016 09:23
Zodra een fabrikant van performance hardware zegt te gaan inzetten op energiezuinigheid krijg ik gelijk de kriebels. Tussen de regels door moet je dan gewoon lezen dat ze qua prestaties ver achterlopen. Zelfs als de AMD kaarten zuiniger zijn dan hun eigen huidige generatie hebben ze nog een flinke stap te zetten om de groene jongens te matchen.
Denk ook dat dat marketing is, de procede stappen maakt deze gen stuk zuiniger aks je voor kleinere chip gaat met behoud van performance.
Daar zullen ze niet direct mee concureren aangezien ze beide vlinke procede stap maken. En beide twee nieuwe gen geheugen supporten.
Daarnaast als AMD iets minder presteerd dan kaart A van de concurent dat presteerd de boven kaart B van de concurrent en is de prijs onder die van kaart A en dichter bij kaart B.
Dus ook goeie koop. En als de performance redelijk mee komt. Dan zeker goede alternatief voor nV.
Ik zou hooguit gaan voor GTX1060.
AMD Vega met HBM
Ondertussen is Zen er ook
En mogelijk is dat begin volgend jaar.
Moet toch eerst sparen.
Ik hoop het toch van ganzer harte wel. Zonder AMD met hun Mantle project, was er allicht in het direct X van Microsoft veel minder beweging geweest. Ik heb zelf gezien wat Mantle voor verschil kan maken in performance, en gratis extra performance (door korter/efficienter op de hardware te gaan zitten qua programmeren) slaat denk ik niemand af. Van wat ik zo gelezen heb, was dit er zonder Mantle/AMD niet geweest.

Zonder concurrentie verwacht ik om heel eerlijk te zijn ook niet heel veel innovatie. Eigenlijk is de markt ook al dun bezaaid als je er over nadenkt, maar 2 grote spelers op grafisch vlak.
Dat prijsverschil zal uiteindelijk meer als €200 zijn en ja dit zal idd net zoals de 970 de meest verkochte kaart van dit jaar gaan worden - zeker omdat amd geen antwoord heeft op deze kaart ;)
Op welke feiten baseer je dat? Geen een dus want polaris is nog een grote onbekende.
Dit geeft al een goede indicatie ;)
http://videocardz.com/597...0-11-directx12-benchmarks

[Reactie gewijzigd door calsonic op 22 juli 2024 22:17]

Lijkt me sterk dat polaris 10 standaard 1/3 langzamer is dan hun vorige generatie. Dat zou knap zijn.
Bedenk wel dat het geen high-end kaarten zijn die amd uit gaat brengen - want die komen pas later dit jaar net zoals de echte high-end van Nvidia.
Maar dit is de 67DF:C4, je hebt ook nog de 67DF:C7
Deze nieuwe generatie GPU's lijkt eindelijk weer echt een sprong vooruit te zijn in performance, na jaren van stapjes. Mooie tijd! Ik hoop dat AMD ook de verwachtingen waar kan maken en dat er lekker hard geconcurreerd moet worden, dat is alleen maar goed voor ons. Ik denk dat het zo eind van het jaar nog best interessant kan worden op de GPU markt.
Van een 770 naar een 970 was ook al een flinke stap hoor ;)
http://www.anandtech.com/bench/product/1355?vs=1037
Ik zit zelf ook nog op een 770.Ik vindt het nu echter ook tijd voor mij om maar eens te gaan upgraden. :D
Ik heb in mijn 2e game pc ook nog een 770(lightning) zitten die vervangen wordt door mijn 970 nadat ik een nieuwe 1070 heb gekocht ;)
Ik denk dat ga kijken naar een 1070 FTW van evga aangezien die erg stabiel zijn door met thermals. Of anders die van ASUS.
Bij mij begint het nu ook te kriebelen! Ik heb nu een GTX 770 en die voldoet nog steeds wel bij de meeste games. Maar iets beters is ook niet erg! Als ik de mogelijke prijs zie van een GTX 1070, dan denk ik wel dat ik de overstap ga wagen! :9~

[Reactie gewijzigd door Mausthemighty op 22 juli 2024 22:17]

Ik ben nog wel tevreden met mijn 770 maar ik wil nog wel de nieuwste Triple A games kunnen spelen op de hoogst mogelijke instellingen en nog steeds redelijke FPS halen. Ik speel nog steeds op full HD maar ik overweeg de stap om te gaan upgraden naar een 1440p monitor aangezien dit nu wel steeds meer mainstream wordt vooral als PC enthousiast.
Zelf heb ik 2 pc's 1 met een 970 en 1 met een 760 maar ik verbaas me toch elke keer weer over de perfomance van de 760. Wat een beest is dat ding geweest, gisteren nog even battlefield 4 gedaan op high en daar haal ik gemakkelijk 60 fps mee. Ook borderlands 2 (misschien oud maar toch) haalt ie gewoon 120 fps mee. Ik laat deze toch nog ff erin zitten
Ik heb nog een 770 en ben van plan een 1070 te komen. Ik ben benieuwd hoe groot die stap is. Overigens zo'n beetje alle spellen die ik heb draaien op hoge settings op HD. Is het verstandig om met de 1070 voor 4K te gaan?
Ik denk dat je van een 770 naar een 1070 2x de hoeveelheid performance gaat krijgen :)
En 4K kan wel (op medium settings)maar de 1070 is zoals het ernaar uitziet meer een 1440p kaart ;)
Van 970 naar 1070 is er al sprake van dubbele performance. Laat staan met de vergelijking die jij maakt.. :)
Nee dat is geen dubbele performance kijk maar naar alle reviews eerder iets van 60-70%
Het is even de vraag wat voor invloed die nieuwe VR optimalisatie heeft op de performance.
Voor mensen met een VR bril kan de 1070 wellicht wel 2x zoveel FPS opleveren ipv een 60-70% toename.

Ik heb helaas nog geen vergelijkende VR benchmarks gevonden...
Voor VR is het idd wel een hoger percentage alleen het aantal mensen die hem daar daadwerkelijk voor gaat gebruiken is nog klein.
Ik wacht met smart (op de Rift en op de GTX1070...).
Als GTX960 4Gb gebruiker zou deze 1070 een enorme boost betekenen maar ik wil er geen 450€ voor betalen, 400€ is mijn max dat ik wil betalen.
Daarom hoop ik dat AMD toch met iets interessants komt tegen september zodat de 1070 onder de 400€ komt te staan, dan koop ik meteen een Msi gaming kaartje.
De 1080 heb ik niet nodig want ik blijf het komende jaar toch op Full HD werken/gamen.

Voor de 980 Ti/ X gebruikers is dit wel rot, vooral voor de X gebruikers want deze kaart presteert even goed / paar % beter voor nog niet de helft van de prijs.

Maar ik denk niet dat de 1070/1080 een kaart is voor het 980 Ti/X publiek , ik denk vooral dat ze wachten op de 1080 Ti/X.

Anyway een dikke kaart voor weinig geld (al ben ik zoals boven vermeld niet bereid om meer dan 400 euro te betalen hiervoor).
De 1060 zal een no-go worden voor mij want die zal waarschijnlijk op niveau van 970 en misschien 980 presteren.

Ik wil liever opeens een grote sprong maken zodat ik toch een 2 jaar gerust ben.
Dan haal je voor 350 euro een 980 Ti van V&A?
Ik heb eigenlijk geen haast, ik wacht mooi september af en dan zien welke prijzen ze hanteren :)
Dan zit je weer met enorme hitte, stroom verbruik en een kaart die kwa drivers geen performance updates meer krijgt.

1070 is toch echt wel de betere keus. Daarnaast komt er de komende maanden nog wel 10 tot 20% performance bij door Driver updates.
Heb zelf een R9 290 van Sapphire en bij de release van de GTX1080 had ik de gedachte om de 290 nog maar even te gebruiken. (kan alles nog redelijk aan)

Met de GTX1070 wordt het me toch een stuk aantrekkelijker om te upgraden. Als de prijs rond de 430 euro ligt dan sta ik zeker open voor een mooie upgrade. Al helemaal als deze kaart de Titan X verslaat!
Zou dan zeker de AMD release van Polaris nog afwachten als ik jou was, qua prijs/performance doen ze het vaak beter dan Nvidia.
Hangt ook van andere factoren af. Denk hierbij aan de volgende dingen:
  • Energieverbruik
  • Geluidsproductie
  • Software
Onder andere deze punten zijn bij Nvidia toch echt beter. Met name het energieverbruik en daarom dus ook de geluidsproductie. Omdat het stroomverbruik lager ligt, is het overklokken bij Nvidia kaarten ook makkelijker.

De software vind ik bij Nvidia veel makkelijker (overzichtelijker en stabielere drivers).
Uiteraard, maar dat zijn zaken die we pas weten na introductie. Gezien hij nu ook al in het AMD kamp zit en geen negatieve punten vermeld, verwacht ik niet dat #1 en #3 een issue zijn. #2 is afhankelijk van het gekozen model en van welke fabrikant je die koopt, zowel bij nVidia als AMD.
Daar zit wat in. Echter zijn drivers een feit, en de software een mening.
Drivers zijn ook afhankelijk van welke spellen je speelt, besturingssysteem je hebt en kaart dat je bezit.

Ik speel bijv. vrij veel AMD-geoptimaliseerde spellen zoals Planetside 2 en profiteer dus nog steeds rijkelijk van mijn keuze om voor een HD7850 te gaan 3 jaar geleden.

Ook Linux <> Windows maakt een groot verschil (in het voordeel van AMD vanwege hun open drivers, waardoor zelfs als hun drivers ruk zijn je nog iets kan installeren wat wel werkt).

Dus ik vind dat je niet in z'n algemeenheid kan zeggen dat Nvidia > AMD is in dat onderdeel. Het is een samenhangend geheel.
Ik bedoel dat AMD vaak minder stabiele drivers heeft dan Nvidia. AMD brengt eigenlijk alleen maar bèta's uit.

Klopt, dan heb je er inderdaad voordeel bij. Met die geoptimaliseerde games.
Nog nooit iets gemerkt van ''beta drivers''. Ik heb eigenlijk ook nooit meer dan één update per 6 maanden gehad. Ook Crimson (nieuwe management suite) pas redelijk lange tijd na introductie ontvangen en is nog nooit gecrasht.
Kijk hier maar eens: downloads: AMD Radeon Software Crimson Edition 16.5.3 Hotfix

Kijk maar eens naar "Updategeschiedenis", rechts. Bijna alleen maar hotfixes.
Crimson software is een nieuw softwarepakket. Dat er meer fixes nodig zullen zijn dan nVidia die alweer een tijdje dezelfde software gebruikt, lijkt me evident. Daarnaast staat er ''hotfix'' maar als ik de patch notes lees is er nooit een game dat niet gespeeld kan worden.

Punt is echter: Bugs != beta drivers

[Reactie gewijzigd door Chrotenise op 22 juli 2024 22:17]

Hoe "groot" is de specifieke meerwaarde van het gddr5x geheugen tov gddr5? Is dit iets wat beduidend merkbaar is/zal zijn in de toekomst wat betreft hogere resoluties?

Ik lees veel dat 4k nog net te ver weg ligt om alles soepel te laten draaien, zelfs met een 1080. Maar wat betreft 1440p en de 1070?

[Reactie gewijzigd door Tuttel op 22 juli 2024 22:17]

De resolutie van 4k is net zoveel als 4x 1080p, waar een GTX 970 al prima voor is. Je kunt er dus van uit gaan, dat je met een GTX 1070 een stuk verder komt (zeker op 1080p), ik denk daarom dat de GTX 1070 de kaart is voor 1440p op het moment. :)

[Reactie gewijzigd door CH4OS op 22 juli 2024 22:17]

Dit klopt. Op het youtube kanaal van Linus Tech tips hebben ze al een bencharking test gedaan, waaruit blijkt dat de GTX 1070 "the sweetspot" is voor 1440p resolutie, en gamen op 1080p met deze kaart voor de fps-lovers is.

(Weet niet of ik hier de link mag zetten, maar je kan het zelf wel makkelijk vinden :-))

Op dit item kan niet meer gereageerd worden.