Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Lenovo noemt komst GeForce GTX 1180-videokaart

Lenovo maakt in een interview melding van de komst van een 'GeForce 11-serie' en de 'GTX 1180-videokaart' van Nvidia. Daarmee lijkt de fabrikant de naam te hebben onthuld waaronder Nvidia de komende generatie kaarten gaat uitbrengen.

Over de komende generatie videokaarten van Nvidia verschenen al de nodige geruchten, maar zowel Nvidia als fabrikanten lieten nog niets los. In een interview met Brainbean op de E3-gamebeurs in Los Angeles, liet een medewerker van Lenovo zich echter ontvallen dat de Legion-gamesystemen van de fabrikant aanvankelijk met de GTX 1060 geleverd gaan worden, maar op termijn ook met de 11-series van GeForce-kaarten, tot aan de GTX 1180. Hoewel de medewerker de naam twee keer noemt, bestaat nog steeds de kans dat ook hij zich baseert op de naam zoals die in de geruchten al naar voren kwam. Ook de GTX 2080 werd genoemd als naam voor de opvolger van de GTX 1080.

Lenovo rust de desktop-pc's vanaf de herfst van dit jaar met de nieuwe generatie kaarten uit. De aankondiging is daarmee eerder te verwachten. PCGamesHardware speculeert dat deze op de Gamescom in Keulen, eind augustus zal plaatsvinden.

Volgens geruchten krijgen de kaarten die dan waarschijnlijk als GTX 1170 en 1180 verschijnen gpu's van de Turing-generatie. Recent verscheen een foto van een Nvidia-pcb met 12GB gddr6-geheugen, maar niet bekend is of het hierbij om een testmodel van een komende desktopkaart ging.

Door Olaf van Miltenburg

Nieuwscoördinator

29-06-2018 • 10:05

170 Linkedin Google+

Submitter: glennoo

Reacties (170)

Wijzig sortering
Hoe verschillen de Turing GPU's tov de huidige (Pascal)? Is daar al wat van bekend? Los van de mogelijke foto met 12GB GDDR6 natuurlijk.

[Reactie gewijzigd door CH4OS op 29 juni 2018 10:10]

Iedereen die daar iets over weet staat onder NDA vrees ik.

We kunnen wel even kijken naar de beschikbare technologieën:
  • Process: TSMC's 12nm FFN. Dit is vrijwel zeker, hier is de GV100 (big Volta) ook op geproduceerd. Ietsje efficiënter maar voor de rest niks bijzonders. Het is te vroeg voor grote chips op 7nm.
  • Architectuur: Een groot raadsel. De laatste grote verandering was Maxwell, dus het zou wel weer eens een leuke sprong kunnen worden.
  • Technieken: Real-time ray-tracing wordt waarschijnlijk een belangrijke feature. Verder dingen als foveated rendering voor VR.
  • Display: Misschien HDMI 2.1. Het zou erg vroeg zijn, maar videokaarten zijn wel vaak als eerst. Daarmee kunnen we eindelijk 4k 120Hz HDR schermen aansturen zonder compressie. DisplayPort is nog geen nieuwe versie van, dus gewoon 1.4.
  • Interface: Waarschijnlijk gewoon PCIe 3.0, maar wellicht toch PCIe 4.0. De standaard is al even uit en de GV100 beschikt ook over 4.0. Aan de andere kaart maken moederborden en processoren er nog geen gebruik van.
  • Geheugen: GDDR6, waarschijnlijk 12 tot 14 Gb/s. Dus ongeveer 50% meer bandbreedte bij een gelijk formaat bus.

[Reactie gewijzigd door Balance op 29 juni 2018 10:33]

PCIe 3.0 naar 4.0 is een complexe stap, aangezien de bus van PAM2 (pulse amplitude modulation met 2 levels) naar PAM4 gaat. Het is niet als met de vorige generaties dat alleen de snelheid omhoog gaat, maar de transmitter en receiver elektronica wordt ook een stuk complexer. Je hebt ADC en DACs nodig, ipv 'redelijk simpele' schakelaars en level detectors.
Ik zie veel fabrikanten nog worstelen met deze nieuwe technologie.

p.s. waar zie jij dat de GV100 beschikt over PCIe4.0? Ik lees PCIe3.0 en NVlink2.0. op de site van nVidia.

[Reactie gewijzigd door MeMoRy op 29 juni 2018 13:18]

Real-time ray-tracing wordt natuurlijk niets anders dan een mooie marketing term. Bij Kepler hebben ze dat ook al laten zien.
Waarschijnlijk gewoon PCIe 3.0, maar wellicht toch PCIe 4.0
Waarschijnlijk A, maar wellicht B... Wat wil dat zeggen? :+
"waarschijnlijk" is aannemelijker dan "wellicht". "waarschijnlijk" tegenover "wellicht" is naar mijn interpretatie 2/3e kans onder "waarschijnlijk" en 1/3e kans onder "wellicht"

[Reactie gewijzigd door Gamebuster op 29 juni 2018 11:12]

Maar, jouw “maar” ontkracht de “waarschijnlijk” voor nog is 1/3.. dus zal het wellicht toch wel 2/3 kans PCIe 4.0 worden.
haha ik dacht hetzelfde, vaag of vager ?
Kijk, hier was ik benieuwd naar, bedankt!
Turing heb ik nog niet waargenomen, maar hier een vergelijking tussen 1080 en Pascal.
http://gpu.userbenchmark....ia-GTX-1080/m158352vs3603

Ik denk dat het voor VR beleving met een Pimax 8K het erg belangrijk is dat je voor een 200 graden beleving gaat voor een 1180. Niet de huidige standaard van 1080, omdat die echt het minimum is daarvoor.
tussen 1080 en Pascal
Pascal is de naam van de architectuur, de 1080 maakt daar ook gebruik van.
Dat zegt niet zoveel toch?

Van Apple staat ook alles onder NDA en toch staat de geruchtenmodel er vol mee.

Helaas is het spul van nVidia wat minder algemeen populair dus is er minder te halen met geruchten, maar het zou me niettemin niets verbazen als er wat uitlekt.

[Reactie gewijzigd door GekkePrutser op 29 juni 2018 19:00]

Ik gok: ietsje sneller, ietsje duurder?
ik gok ietsje sneller, veel duurder?
Veel duurder ten opzicht van?

Elke nieuwe generatie high end GPU's kost meestal ongeveer hetzelfde als de high end GPU's van de vorige generatie bij de lancering waren. Kan me niet voorstellen waarom dat bij deze generatie ineens anders zou zijn.
Niet helemaal waar, als je 10 jaar terug zou gaan en je zou toendertijd de beste grafische kaart gekocht hebben voor gaming (dus niet voor de businessmarkt) dan was je echt geen 1000 euro kwijt geweest zoals nu. Natuurlijk is er ook sprake van inflatie maar er is zeker wel een trend dat over de lange termijn de kaarten bij release steeds ietstje duurder worden, misschien is het maar 1 a 2 tientjes per release maar de trend is er zeker.
Ik was benieuwd dus ik ben eens wat gaan rondzoeken. Hier de prijzen van nVidia's top modellen met een enkele GPU van de afgelopen 10 jaar. Er zitten een paar hele rare prijzen in. Maar ik vermoed (ondanks wat ik eerst dacht) dat inderdaad de prijzen iets hoger zijn geworden de laatste jaren. Rare uitschieters daar gelaten.

Geforce GTX 1080
Prijs in 2017: $699,-
Na inflatie nu: $717,-

Geforce GTX 980 Ti
Prijs in 2015: $650,-
Na inflatie nu: $689,-

Geforce GTX 780 TI
Prijs in 2013: $699,-
Na inflatie nu: $754,-

Geforce GTX 680
Prijs in 2012: $499,-
Na inflatie nu: $546,-

Geforce GTX 580
Prijs in 2011: $499,-
Na inflatie nu: $558,-

Geforce GTX 480
Prijs in 2010: $499,-
Na inflatie nu: $575,0

(De 300 serie was alleen voor OEMs)

Geforce GTX 285
Prijs in 2009: $400,-
Na inflatie nu: $469,-

Gefore GTX 9800
Prijs in 2008: $299,-
Na inflatie nu: $349,-

Gefore 8800Ultra
Prijs in 2007: $830,-
Na inflatie nu: $1007,-

Gefore 8800GTX
Prijs in 2007: $700,-
Na inflatie nu: $849,-

Je ziet hierin ook goed het effect van concurrentie. De jaren dat AMD/Radeon een hele sterk tegenhanger had (HD4870 bijvoorbeeld) heeft NVIDIA flink haar prijzen moeten laten zakken.

[Reactie gewijzigd door roy-t op 29 juni 2018 12:22]

Helemaal mee eens, laten we zeer realistisch zijn de prijzen gaan natuurlijk nergens meer over.
Sommige kaarten zijn inmiddels 4 jaar oud en betaal je nog meer dan ¤500,-
Daar heb je twee Microsoft Xbox One S 1Tb voor of twee Playstations 4 ....
Door crypto mining zijn de prijzen buitensporig hoog,
Begin het nu langzamerhand een beetje zat te worden en zit meer achter mijn PS 4 pro dan achter de Pc te gamen. Ook door het feit dat vrienden zijn overgestapt naar PS 4.
Op een gegeven moment is de lol er simpelweg af.
Aan de andere kant: Je doet er nu wel veel langer mee. Dat was 10 jaar geleden toch echt wel anders. Als je bij release een 1080 gekocht hebt, dan zit je nu nog steeds (2 jaar later!!!) op rozen, en je kunt er vanuit gaan dat je er echt nog wel even mee door kunt...
We hebben het gewoon over een GPU en wat memory he, laten we het vooral niet groter maken dan het in werkelijkheid is. Feit is dat de innovatie van videokaarten en ook van moederborden al een tijd stil staat.
Het is allemaal niet zo spannend meer, Nvidia is gewoon te gretig aan het worden $$$.
Ze buiten de markt gewoon uit en er is geen concurrentie. Wat kost een 1080 nu werkelijk als hij de band afrolt? (laten we zeggen) ¤60,- dan wordt hier toch onaangenaam extreem veel aan verdient.
Kijk een naar een PS4 Pro of Xbox, daar kun je ook een toetsenbord en muis aan hangen hoor, zo ingewikkeld is dat niet. En dan nog kun je hier twee exemplaren voor kopen tegen 1 videokaart.
Is dat niet een enorme scheve verhouding. Ik vind dat Tweakers en Hardwareinfo hier een extra aandacht aan moet geven puur om het feit dat dit bijna uitbuiting is, anders kan ik het niet noemen.
Bovendien, een PS4 of Xbox gaan ook jaren mee :9
Helemaal met je eens.
Ze zijn werkelijk veeeeeeel duurder dan 60¤, zelfs als je de ontwikkelingskosten vergeet. Uiteraard maakt NV winst, en hun kaarten zijn niet goedkoop, maar jij overdrijft het wel erg.
Het onbewerkte silicium, plastic en metaal op een GeForce-kaart kost hoogstens een paar dollars, en dat zal hetzelfde zijn, of het nu een 1060, 1070 of 1080 is (lagere eindkaarten zoals de 1050 zullen een beetje goedkoper zijn) in grondstoffen omdat ze in kleinere vormfactoren worden verzonden). Het harde deel verandert dat silicium in miljarden transistors, die miljarden dollars aan onderzoek en ontwikkeling en gespecialiseerde apparatuur kosten. De brutomarge voor nVidia als geheel is ongeveer 60%, wat erop wijst dat de productiekosten voor nVidia ongeveer 40% bedragen van de prijs waarvoor ze de grafische chips verkopen. Houd er rekening mee dat nVidia deze chips ook verkoopt aan grafische kaartfabrikanten zoals EVGA, die ze vervolgens moeten verkopen aan retailers. Gezien het feit dat de 1080 Ti waarschijnlijk de hoogste marge-chip van nVidia is, zou ik zeggen dat het ongeveer $ 50 kost voor nVidia om de chip te maken.
Je kunt beter naar de MSRP kijken, de amerikaanse advies prijs. Dat was voor de 1080 bijvoorbeeld $549. De effectieve prijzen zijn na launch, afhankelijk van de populairiteit, een stuk hoger.

Voorbeeldje:
1080: $549 (later $499)
980: $549
780: $649
680: $499
580: $499
480: $499
285: $400 / 295: $500
280: $649 (later $499)
Eigenlijk is de advies prijs dus al jaren stabiel, met uitzondering van de 780. Dit is tevens een vreemde eet in de bijt want meestal is een refresh een net wat snellere kaart op dezelfde chip. Dit was een simpele versie van een veel duurdere titan kaart:
Whereas GTX 680 was based on a fully-enabled GK104 GPU, GTX 780 is based on a cut-down GK110 GPU, NVIDIA’s monster GPU first launched into the prosumer space with GTX Titan earlier this year
Aan onze kant resulteren die advies prijzen overigens in enorme schommelingen omdat de dollar ergens tussen de 5% en 40% korting heeft gegeven in de afgelopen 10 jaar.

[Reactie gewijzigd door sdk1985 op 30 juni 2018 02:54]

Was de 280 niet het topmodel bij de release? De 285 kwam pas later uit en was goedkoper dan de 280 was op de release van de 200 serie.

Ik heb nog gtx280 in sli gehad. Tjonge wat een ellende was dat haha.

Ik heb ook AMD 280X in CF gehad, misschien was daar een 285 variant van en vergis ik me

[Reactie gewijzigd door Gamebuster op 29 juni 2018 18:36]

Yes, heb niet de hele historie opgezocht. Ik heb hem er even voor je bijgezet met $649.
Bovendien is de inflatie van 5 jaar boven op 500 euro ook gewoon 552,04 euro. Dus niet gek dat de prijs van de 980 en 1080 50 euro hoger ligt.
Ah, een prijsstijging door het opkopen van kaarten door miners noemen we tegenwoordig 'inflatie'
10 jaar geleden was de euro minder waard. Als je dat geld zou omrekenen naar het geld van vandaag, is het verschil opeens een stuk kleiner.

Vroeger kon je ook een huis kopen voor 100 gulden, maar dat was niet bepaald goedkoop.
Zelfs dat in overweging genomen blijft er een trend zichtbaar. Daar komt overigens bij dat een complete pc kopen de in die periode juist goedkoper is geworden. Waar je voorheen een complete pc kocht voor niet minder dan 1500 gulden heb je nu al een all round pc voor rond de 600 euro.
Dat is ongeveer even duur toch, rekening houdend met inflatie?
De afgelopen 10 jaar was de inflatie buitensporig klein. In ieder geval ruim onder het streef% van 2%. (er waren jaren met bijna 0%, maar over de hele linie blijf je echt onder de 1,5%)
Niet helemaal waar, als je 10 jaar terug zou gaan en je zou toendertijd de beste grafische kaart gekocht hebben voor gaming (dus niet voor de businessmarkt) dan was je echt geen 1000 euro kwijt geweest zoals nu. Natuurlijk is er ook sprake van inflatie maar er is zeker wel een trend dat over de lange termijn de kaarten bij release steeds ietstje duurder worden, misschien is het maar 1 a 2 tientjes per release maar de trend is er zeker.
Ehh de Geforce GTX 1080 waren NIET ¤1000,- toen ze uitkwamen, ze waren rond de ¤725,- toen ze uit kwamen, weet er alles van want ik kocht een Geforce GTX 1080 toen ze net uitkwamen, en snel daarna waren ze al rond de ¤600,- wat de prijs ongeveer was van de Geforce GTX 980 toen hij net uit kwam.

En de Geforce GTX 1080 waren duren dan de vorige high-end Nvidia grafische kaarten omdat AMD niks had, en nog meer dan een jaar ging duren tot ze eindelijks met iets uitkwamen wat net zo snel was als de Geforce GTX 1080, maar de probleem was dat ze meer dan ¤100,- duurder waren, en net zo snel waren als de Geforce GTX 1080, en nu al weer veel later zijn de goedkoopste Radeon RX VEGA 64 VEEL duurder dan de goedkoopste Geforce GTX 1080.

Je hebt een Geforce GTX 1080 al voor ¤519,50 en de goedkoopste Radeon RX VEGA 64 kost je ¤699,95, wat een enorme verschil is, dat is een verschil van ¤180,-

En voor ¤751,42 heb je de veel snellere Geforce GTX 1080 Ti, dan ben je haast gek als je dan de Radeon RX VEGA 64 koop die maar ¤51,47 goedkoper is.

[Reactie gewijzigd door AmigaWolf op 29 juni 2018 16:54]

GDDR6 is 20% duurder dan GDDR5 dus me dunkt dat de nieuwe GPU's duurder zullen zijn. Ik vrees dat 800 EUR voor een GTX1180/2080 de norm gaat worden.
De GTX980 en GTX1080 waren ook 800 toen ze net uit waren.
De GTX 980 kocht ik een maand na de release voor 549 euro. Dat was ongeveer dezelfde prijs als ten tijde van de release. De GTX 1080 was ook geen 800 euro toen hij uit kwam.
De GTX1080 was wel 800 euro toen hij uitkwam. Ik heb die van mij enkele maanden na release gekocht en toen was hij ¤769,-. Daarvoor was hij nog duurder.

De GTX980 was ook 800 euro bij release, check bijvoorbeeld de pricewatch.
Ja, net uit. Maar een paar maanden na release waren de prijzen gezakt. Wat ik bedoel is dat we een paar maanden na release niet verbaast moeten zijn dat de prijs nog steeds niet onder de 800 EUR zal komen bij de 1180/2080.

[Reactie gewijzigd door Tim2010 op 29 juni 2018 10:47]

Persoonlijk zie ik geen reden waarom de GTX1180 niet op dezelfde manier in prijs zal zakken als vrijwel elke generatie daarvoor. Het is niet alsof de hele GPU markt ineens anders in elkaar zit in 1 generatie :P

We zullen het wel zien.
Nou we zagen dat deze generatie vanwege miners en hoge memory prijzen toch weer in prijs is gaan stijgen en boven launch prijzen soms kwam en dat 2 jaar na release. Ik ben toch wat pessimistischer over de prijzen van de volgende generatie.
Ik ben het met je eens dat deze nieuwe technologie er wel voor gaat zorgen dat deze kaarten een stuk waardevaster blijven (althans voorlopig). Het is een flinke USP om een toekomstgerichte kaart in huis te hebben. Ja je betaalt de hoofdprijs, en wellicht zijn er in het begin driverissue's, maar de performance is top.
als vorig jaar een indicatie is van wat er gaat komen, zullen de kaarten alleen maar in prijs gaan stijgen.
De 1080 is nog steeds zoiets...
Ja maar dat komt door de cryptocoinmanie.
Dan hoop ik dat console meer muis ondersteuning krijgt ;)
als dat waar zou zijn, zouden de nieuwe kaarten goedkoper zijn dan de huidige generatie waaraan je ze nu kan kopen :D
Klopt niet, ze worden wel degelijk steeds duurder, een gtx680 heeft nooit 1000 gekost.
ik gok ietsje sneller, veel duurder?
Voordeel: de oude gpu's worden dan weer goedkoper, en zijn kwa prijs/snelheid verhouding dan weer een stuk interessanter.
met de huidige kaartenmarkt(miners) zie ik de prijzen alleen maar stijgen ipv zakken....
Zelfs van de tweedehands kaarten, die zijn ook heel duur geworden.
Met de val van cryptocurrencies zijn de prijzen van de meeste kaarten juist flink gezakt sinds januari. De prijzen van de meeste 1080's zaten rond januari-februari rond de ¤800-900, terwijl je nu weer een nieuwe 1080 kan krijgen voor iets meer dan ¤500
Of veel sneller en uitverkocht? (Mining?) 8)7
Veel duurder lijkt me sterk, want de huidige generatie is al veel te duur.. Ik ga geen 350+ euro uitgeven voor iets dat eigenlijk nog geen midrange kaart is (1060 6GB)..
Ik snap dat. Aan de andere kant: Omdat ik de bedragen niet over mijn hart kan verkrijgen, heb ik al 3 jaar niet meer kunnen gamen, omdat ik geen computer meer heb die daar toe in staat is. Ik heb het en niet meer voor over, al zou ik het nog steeds leuk vinden af en toe een spel te spelen. Het is prioriteiten stellen.
Nou, ik heb nog steeds maar een 760, en game nog regelmatig hoor.
Was al eerder een topic op deze website over de gddr versie 6 geheugen wat nieuw was.Daar worden deze kaarten dus met uitgevoerd.Ben dan tevens ook benieuwd hoe snel deze nieuwe generatie van Nvidia zal zijn.De toekomstige synthetische benchmarks moeten dat uit gaan maken, en vooral de acceleratie van de games.@hieronder type aanduiding moet inderdaad logisch zijn.

[Reactie gewijzigd door rjmno1 op 29 juni 2018 11:38]

-

[Reactie gewijzigd door XuPrX op 29 juni 2018 18:20]

Ik ben geen marketing specialist maar mijn gevoel zegt dat 1180 toch minder als upgrade gezien wordt dan 2080. Met 1180 zou je impliceren dat je doortelt op de iteraties van de 10 waarbij ik vind dat 2080 aangeeft dat het om een geheel nieuwe generatie gaat.

2080 ti, 2070, 2070 ti

Het ziet er wel lekker uit. Maar goed, complete non-informatie want logica in marketing termen bij nvidia? :+

Voor het gemak dan toch even gekeken naar de history:

https://de.wikipedia.org/..._Nvidia-Grafikprozessoren

Nvidia telt dus tot de 9 serie met hele getallen. Daarna via de 100 serie ook tot 900. Waarna de 10 komt. logischerwijs zou je dus zeggen dat de 2080 meer voor de hand ligt dan de 1180. gezien de geschiedenis met 1, of hondertallen te werken bij een generatie upgrade.

[Reactie gewijzigd door juggle op 29 juni 2018 10:33]

Het zou wel een beetje raar zijn. Tel je eerst 100 er bij op, maar als je bij de 1000 komt tel je telkens 1000 erbij op.
Er hoeft geen logica in te zitten als de het maar duidelijk is dat het sneller is dan de huidige generatie. Het is koffiedik kijken natuurlijk maar als je de geschiedenis erbij pakt zie je dat Nvidia steeds met 100 tallen de generatie aanduidt. Daarnaast stoppen ze bij de 9. Theoretisch zou je kunnen zeggen dat met de aanduiding 10 (in 1080) ze een nieuwe telling zijn begonnen met tientallen, beginnend dus bij 1. 2080 zou dus logische opvolging kunnen zijn. Dit doortellend tot aan de 9. Dus 2080, 3080 4080.

De tijd zal het leren :-)

[Reactie gewijzigd door juggle op 29 juni 2018 10:33]

Als ze met 100 rekenen is 1100 de eerst volgende, anders stappen ze over op iteraties van 1000. ;)

En dat is precies wat NiLSPACE zegt. ;)

Een andere optie is GTXI 100 serie. ;)

[Reactie gewijzigd door CH4OS op 29 juni 2018 16:42]

Dat kun je zo zien, maar je kunt het ook zien dat ze met duizendtallen nu werken. Dus dan is 2080 ook een logische gedachte :-)
Ze hadden ook niet veel keuze. Waar moesten ze anders naartoe gaan na de 900 serie.
Radeon 9800 -> Radeon X800. X is natuurlijk het Romeinse cijfer voor.... 10! jawel, wat een creativiteit daar :D :D

Geen enkele reden waarom nVidia zoiets ook niet zou kunnen.
Dat zeg ik toch in de eerste alinea van mijn reactie?
voor de 200 serie was er ook al de 6800 7800, 8800 en 9800 videokaart serie.. dus ze zijn al een keer met 1000 omhoog gegaan.
Met 1000 omhoog gaan is ook geen probleem, als je het maar consistent doet. Ik kan me voorstellen dat er verwarring was toen ze na de 9000 serie over gingen naar de 200 serie.
Toch niet zo gek?
Huawei deed hetzelfde (P9, P10 ... P20)
Zou wel grappig zijn als iedereen dat doet, en misschien verwarrend |:( :

Galaxy S10 > Galaxy S20
iPhone 10 > iPhone 20
Windows 10 > Windows 20
iPhone XX?
iPhone.... XXX? Jobs zou er blij mee geweest zijn 8)7 O-)
Haha, ja precies xD
Gaat leuk worden over 20 jaar:
We proud to announce the new iPhone. The iPhone xxxxxxxxxxxxxxxxxxxx 8)7
Ze noemen het de 11e serie dus dan is het getal 20 daar aan koppelen niet logisch.
Ze gaan van de GTX 970 naar 1070 en dan opeens naar 2070? :?

Nouja, Windows 9 heeft ook nooit bestaan. En de iPhone 9 ook niet. Misschien moeten ze gewoon voor de GTX 1.000.070 gaan ofzo.
Ze zijn van de gtx 8800 naar de gtx 9800 naar de gtx 280 gegaan, ik stel me zo voor dat het nu ook 1000 tallen worden omdat de 1180 net een upgrade lijkt van de 1080.
Er waren wel wat oem kaartjes gerebrand van 9xxx naar 1xx series bij Nvidia. Maar in grote lijnen heb je wel gelijk.
Maar de 1180 IS toch ook een upgrade van de 1080.... Net zoals de 2080 ook een upgrade is van de 1080, of een 9980 dat ook zou zijn….
Maar 780 -> 980 lijkt een geheel nieuwe lijn, 1180 lijkt een upgrade binnen de bestaande lijn.
Je vergeet alleen dat er wel een 880 was, deze lijn was alleen voor laptops, dus 1080 => 1180 is een logische benaming, en elke nieuwe lijn is toch ook altijd een upgrade ten opzichte van de vorige.
Niet op de feiten vooruit lopen, maar de iPhone 8 is van vorig jaar, dus het kan nog!
Ik vraag me af wanneer het het waard gaat zijn voor mijn GTX 1070 en I5 6500 te vervangen...

Ik hoop als ik een upgrade in de toekomst uitvoer dat het enkel de GPU, CPU en Mobo gaat zijn die vervangen moet worden. Heb als PSU een RM550X dus ik neem aan zolang ik niet voor SLI configurations ga of er een heleboel andere kaarten inprop die PSU wel voldoende blijft... Zelfde voor mijn 16 GB DDR4 2230 Mhz aan Ram...
Ik game nog met een i7 uit 2011 + een GTX 970 uit 2015 op 1440p met 144Hz. Dat gaat nog helemaal prima met games als Overwatch en The Witcher 3. Zit al tijden te overwegen te gaan upgraden naar hardware uit 2018 maar dat kost me 1000 euro en levert bar weinig op.

Dus ik zou zeggen: hou je geld en wacht nog een jaartje ;)
Ik game nog met een i7 uit 2011 + een GTX 970 uit 2015 op 1440p met 144Hz. Dat gaat nog helemaal prima met games als Overwatch en The Witcher 3. Zit al tijden te overwegen te gaan upgraden naar hardware uit 2018 maar dat kost me 1000 euro en levert bar weinig op.

Dus ik zou zeggen: hou je geld en wacht nog een jaartje ;)
Bar weinig zou ik niet durven stellen. Zo even natte vinger werk verwacht ik dat mijn 8700K + 1070 zowel aan de cpu als gpu kant twee keer zo snel is. Met een stock 1080 ben je in ieder geval zeker van een verdubbeling.
2x is een beetje overdreven als je naar benchmarks kijkt, de grootste stap is vooral gemaakt door de 2 extra cores van de 8700k, single core score van een 8700k op 5.2ghz in Cinebench ligt rond de 220, een overclockte 2600k uit 2011 scored op 4.7ghz rond de 170, dat is opzich een mooie increase, maar heeft wel 6 jaar gekost om zo een 25% increase in performance te krijgen.

Mooi filmpje over de Intel i7 930 ook: https://www.youtube.com/watch?v=8caCYb0G0ec

Een 970 heeft in passmark zo een score van rond de 9000 als ik kijk naar de laatste 5 metingen, met een uitschieter naar 10k, zal wel goede OC zijn geweest. Een 1070 zie ik bij de laatste 5 metingen ongeveer 12k avg en niet zulke hoge uitschieters. Mede dankzij GPU boost 3.0 scoren pascal kaarten out fo the box al erg goed tov overclockte kaarten.

Dus ja, er zijn verbeteringen, 2x is een beetje overdreven. De vraag is in hoeverre het het waard is om een setup dat nog prima 99% van de games aankan op 1440p, misschien medium/high settings voor de 144hz en meestal spelen mensen die 144hz hebben toch op lage settings, te vervangen naar een setup die je zo een 1500 euro kost.

[Reactie gewijzigd door Zuury op 29 juni 2018 14:23]

Kijk eens bij deze review uit 2016. Daar zie je een indexatie op full hd van 64 voor de 970, 100 voor de stock 1070 en 116 voor de stock 1080: https://www.techpowerup.c.../GeForce_GTX_1070/24.html Dus nee aan die kant is de x2 niet overdreven. Bovendien zitten er games tussen waarbij het verschil groter is, het blijft immers een gemiddelde.

Verder betreft een i7 uit 2011 natuurlijk een 2600(K). Zelf heb ik de 2500K @ 4.8 GHz bewaard en er zijn echt een aantal games waarbij die pijnlijk tekort schiet. Vreemd genoeg doet de G4560 het in die games beter. Ik gooide dat eigenlijk altijd op de AVX performance die verdubbeld is sinds sandy bridge, echter de Pentium heeft geen AVX dus tot heden is dat een raadsel.

Hoe dan ook : wanneer je bij passmark, dat jij aanhaalt, naar de cpu scores kijkt dan zie je 8455 vs 16006.

Verder zit ik zelf aan de gpu kant al een tijd aan de grens van genoeg kracht (2560x1080 dus net iets zwaarder dan full hd). Er zijn gewoon een aantal shooters waarbij je de 90-120 fps niet lekker haalt zonder de details te verlagen. Op 1440p is het echt huilen met de pet op ;).

Nee zo'n upgrade had Blue-eagle echt merkbare winst opgeleverd. Echter nu is de timing daarvoor niet goed. De juiste timing was GTX 1070 in 2016, 8700K in 2017. Nu zou ik iedereen aanraden te wachten aangezien zowel de Intel 8 core als de nieuwe Nvidia generatie voor de deur staan.

[Reactie gewijzigd door sdk1985 op 29 juni 2018 14:38]

Ik zit dus sterk te overwegen een systeemupgrade te doen, zónder mijn videokaart te upgraden :) Maar ik weet dus niet of mijn 2600K echt een bottleneck is of niet. Zie ook mijn topic op het forum.

Dus:
  • Van i7 2600k naar i7 8700K
  • Van 8GB 1,333GHz naar 16GB 3,2GHz
  • Van normale SATA6 SSD naar M.2 SSD
Die upgrade (+voeding, +moederbord, +koeling, +case) kost mij zo'n ¤1000 euro. Maar wat schiet ik er nou echt mee op? Het nieuwe systeem kan weer 8 jaar mee, maar ik heb 't idee dat mijn huidige systeem dat ook kan...
Tja als jij met een niet overgeclockte 2600K en 970 geen microstutter opmerkt dan zal je waarschijnlijk tot de groep mensen behoren die daar niet gevoelig voor is. Of je speelt toevallig games die niet zwaar zijn dan wel een goede engine hebben.

Ik ben daar zelf wel erg gevoelig voor en ik had reeds een GTX 1070 aan mijn 2500K gehangen (in 2016 ging dat nog prima). Echter ik voelde wel altijd de dips. Dit heb ik met FRAPS inzichtelijk kunnen maken. Het verschil tussen een 8700K en een 2500K op 4.8 GHz is dag en nacht. Niet alleen kon ik de FPS cap ophogen van 80 FPS naar 120 FPS bovendien was de laagste dip geen 29 maar 98 FPS. https://tweakers.net/ext/f/ymIsNSSHJcT8ABmnP1xmg7Cc/full.png

Dat is dus echter wel een dingetje. Het kan ook goed zijn dat jouw systeem nu net in balans is. Mijn 1070 was gewoon net te veel voor de 2500K waardoor die ondanks overclock vaak de 100% aan tikte met als gevolg framedips. Je wil op je cpu altijd wat headroom hebben. Hoe hoger je fps des te meer cpu kracht nodig is. Zeker in games als Rainbow Six Siege gaat bij een verhoging van de fps de cpu load ook enorm omhoog.

[Reactie gewijzigd door sdk1985 op 29 juni 2018 17:08]

Ik heb het gedaan, was nog geen 60+ hz schermen gewend dus heb gewoon 43 inch 4k met gtx1080ti gedaan. Witcher 3 ziet er uit zoals je nog nooit hebt gezien :). Alles ultra en hairworks off.
Zelfde bootje, en inderdaad weinig waar voor je geld.
Wanneer is iets het waard...

Zijn de kwaliteit en de framerate/prestaties op orde voor alles dat je wilt doen met je PC?
Zo ja, dan is het het nog niet waard.
Zo nee, welke verbetering in kwaliteit/prestaties brengt de upgrade teweeg (zie GPU benchmarks).
Is die verbetering de meerpijs van een upgrade waard?

Zo ja, dan is het het waard.
Zo nee, dan is het het niet waard.
Ja zolang ik alles maxed out op 1080p toch minstersn 60 fps kan aanhouden denk ik dat het nog niet waard is
Zolang je niet de 'insane' settings van sommige spellen hoeft maar hoog/ultra genoeg is, kan je met een 1070 nog wel een tijdje vooruit op 1080p.
Ja idd.. Ook zijn er soms echt bullshit settings bij games. Zoals bij Rainbow Six Siege; de AA setting moet je gwn op FXAA zetten of gwn af. Het hoger zetten maakt alles super smudgy en zorgt voor een verlies van wel 30 % aan performance.

Ik ga dus altijd voor de beste settings enkel wel als het geen bloated settings zijn. :) Anders heb ik wel vrede met een standje lager.
De GTX1070 gaat niet opeens minder mooie beeldjes renderen, of verlagen in FPS, ook niet als er nieuwe games of GPUs uitkomen. De GTX1070 is nog steeds een beest van een kaart, en staat gelijk aan de snelste GPUs van de vorige generatie (bijv. 980TI)

Voorlopig zit je nog prima met je 1070 dus. Als je een leuke upgrade wil kan je ook iets anders upgraden, zoals HiFi boekenplank speakers + dedicated versterker voor bij je PC voor super geluid, of een mooi scherm.

Je 550 watt voeding is ruim voldoende, zelfs voor een 1080TI. Videokaarten hebben historisch gezien zeer zelden boven de 300 watt verbruikt, en dat red je nog met een niet-overclock CPU ernaast.

[Reactie gewijzigd door Gamebuster op 29 juni 2018 11:20]

Dat is erg afhankelijk van je wensen, en tevens je monitor :P
Dat laatste is van belang want stel dat je nu op full-hd speelt en je wilt naar 4k of 1440p dan kan het inderdaad zo zijn dat je GPU dan sneller een bottleneck gaat worden.
Qua wensen : wil je altijd het laatste van het laatste op hoogst mogelijk niveau spelen ? Dan is een upgrade eerder nodig dan wanneer je kan leven met het detail-niveau op een standje lager.
Om eerlijk te zijn gaat het allemaal niet zo enorm snel, ik game nog steeds alles op hoog niveau en full-hd op mijn i5-2500k (overgeclockt dat wel) en GTX 970. Tuurlijk haal ik niet 60 fps op elke nieuwe game, maar 40-50 fps vind ik ook prima, zeker met RPG's, strategie-spellen en single-player/campagnes van FPS spellen...
De 2500k was een droomprocessor, wow wat ging die lang mee zeg. Dit jaar heb ik hem eindelijk vervangen door een i5 8400 en inderdaad de meeste games zie je het verschil echt niet.

De enige uitzondering daarop is Battlefield 1. Op de hoogste settings merk ik dat die duidelijk een stuk soepeler draait op mijn nieuwe processor.
Met een 1070 kan je makkelijk de komende twee generaties overslaan tot het upgraden weer een beetje interessant wordt.

Ik ben zelf ook recent van een GTX 570 naar een 1070ti gegaan. Werd gewoon tijd. De rest van de pc kan nog een paar jaar mee (i7 2600k + 16GB DDR3). Pas in 2020 zal ik waarschijnlijk de rest vervangen en de 1070ti zal het tot minimaal 2022 moeten volhouden tot ik weer zin heb om geld aan een nieuwe videokaart te besteden.
Tot dat je een 1440p 144hz monitor of 4k 60hz tv wilt halen. The way it's meant to be played.
4k draait redelijk goed op de 1070ti. Ik haal 50% van de tijd 60 fps en de rest schommelt tussen 50 en 60 fps. Met een GTX 1080 zou het mogelijk wel stabiel op 60 fps lopen. Ik ben ook tevens erg onder de indruk van 4k gaming. Toen ik het 1x probeerde wilde ik niet meer terug naar 1080p. :9
Ik heb precies dezelfde performance met mijn 980 sli dus ik begrijp wat je bedoelt :p. Maar het is toch fijn als je alles lekker op ultra kan draaien en rond de 144 fps kan krijgen. Of met bvb Cyberpunk 2077 4k rond de 60fps, en de nieuwe Halo, Gears, Doom etc
Ik vraag me af wanneer het het waard gaat zijn voor mijn GTX 1070 en I5 6500 te vervangen...
Aangezien je in het verleden een GTX 1070 en een i5 heb gekocht gaat een GTX1180 het niet 'waard' voor jou zijn. Natuurlijk is die overweging niet voor iedereen gelijk. Dat is afhankelijk hoeveel waarde je hecht aan je geld en tijd. Als je veel geld heb, dan zal de prijs van een GTX1180 geen hindernis zijn, echter de tijd die je moet besteden om de GPU zelf te vervangen zullen veel mensen met een hoop geld een hoop meer waarderen dan mensen met weinig geld. Je kan natuurlijk iemand inhuren die dat even voor je doet, maar dan ben je nog meer geld kwijt en mogelijk is je PC dan langer niet bruikbaar...
Je argument met betrekking tot geld volg ik helemaal, maar wat bedoel je met tijd in dit geval? Het vervangen van een videokaart is met een kwartiertje gepiept, inclusief herinstallatie van drivers.
Dat ligt er helemaal aan hoe handig je bent, hoe je cool setup eruit ziet en hoe makkelijk je bij je kast kan.

15min is imho wel heel erg rats boem, dat ben ik al kwijt aan alle kabels netjes loskoppelen en groeperen van waar ze er terug in moeten en de kast uit z'n plekkie krijgen (nee mijn PC gaat niet elke drie maanden open). Als ik er een custom cooler op zou hebben draaien of een watercooler setup zou het allemaal heel wat meer tijd kosten.

Waar ik op doel is dat mensen die niet moeilijk doen over even een nieuwe GPU aanschaffen (van ~¤900) over het algemeen of extreem veel per uur verdienen of heel veel werken, waardoor even een PCtje uit elkaar halen er niet bij zit. En als performance belangrijk zou zijn en geld geen issue dan had ik iemand een custom watercooler setup er in laten zetten. Tijd=geld over het algemeen.
Een gpu vervangen is een kwestie van erin en eruit. Dat lukt je binnen 5 minuten inclusief de kast openen. Blijf je bij hetzelfde merk dan hoef je ook niets aan je drivers te doen.
Afhankelijk van wat je eisen zijn kun je met de GTX 1070 nog wel een poosje door.
De i5-6500 zou ik misschien wel vervangen in de toekomst voor een cpu met meer cores.

Ik draai nu sinds kort een i5-8400 met mijn GTX 970. En AAA games vinden die meer cores toch echt heel erg leuk.
Als je op quad HD of full hd(icm 144hz scherm) zou ik als je tevreden bent met medium/high settings de 1070 lekker houden, die zijn straks niet veel meer waard, maar wel de i5 upgraden. Zelf onlangs mijn 3570 voor een 3770 gewisseld, geen framedrops meer of full load. Wil je nog iets vangen voor je 1070, dan moet je deze nu zo’n beetje gaan verkopen. Maar alleen als je daarna met de nieuwe generatie quad hd op 144 hz wil of meer
Met zo'n soort vraag liep ik ook rond. Heb een i5 Haswell processor uit 2013, 8GB ram en een GTX1060. Nooit gezeur en problemen, alles was soepel en kon alles doen wat ik wilde. Geen reden om te upgraden dus :)

Totdat ik een 4K monitor en 4K camera kocht. Premiere is niet vooruit te branden, überhaupt heeft zelfs Lightroom moeite en merk ik veel meer hiccups dan voorheen tijdens normale zaken als browsen, video kijken etc. Tijd dus om nu te gaan upgraden qua processor, geheugen en mobo.
GTX1060 is de "perfecte" Full-HD kaart. 1440p is al gelijk een 'grens'.
GTX1060 is de "perfecte" Full-HD kaart. 1440p is al gelijk een 'grens'.
Pak een game als Wildlands en het houdt echt niet over. Sterker nog de 1070 is flink sneller en ik zou graag wat meer frames zien in die game. Het liefste altijd 90+ voor een shooter.
Oh ja gelijk heb je. Ja ik heb de GTX1060 en ik probeer altijd een consistente 60 (liefste 70 zodat je 'drops' niet merk) fps aan te houden omdat de refresh rate van m'n monitor niet hoger is dan 60hz.
Wildlands werkt dan wel voldoende, maar dat is echt 1 van de weinig games waar de GTX1060 op stikt. Ik gok vanwege de slechte optimalisatie en het grote gebied.

Maar vrijwel alle games draaien op High en Ultra op een strake 60-100 fps (gemiddeld genomen dan), op full HD. Maar wanneer je ook maar even opschroeft naar 1440p of 2160p dan merk je METEEN enorme haperingen, moeite, enorme fps drops, etc.

Is ook een reden waarom ik tegen veel mensen adviseer dat als ze een 1440p of 4K scherm hebben, en ze er op willen gamen, ze voor minimaal de GTX1070 of GTX1080 moeten gaan.
Ik speel zelf met een 1070 op 2560x1080 wat een klein beetje zwaarder is dan full hd. Toch moet ik wildlands op very high zetten om te voorkomen dat ik regelmatig onder de 60 fps duik. Een flink snellere kaart voor een 'leuke' prijs zou ik direct aanschaffen (zeg 400 euro).

Overigens kun je in een shooter op een 60 Hz monitor het verschil merken tussen 30, 60 fps en 120 fps waarbij die laatste het soepelste aanvoelt. Vroegah speelden we op CRT monitoren games als Call of Duty, Soldier of Fortune (2) en Counterstrike ook echt niet met een 60 fps cap :). Het zal per persoon verschillen maar voor mijzelf voelt het soepel vanaf 90 fps en hoger. Onder de 45 haak ik echt af, dan kan ik iemand die van links naar rechts over het scherm beweegt niet goed 'tracken'.

Vergeet ook niet dat zonder v-sync je monitor gewoon de frame doorgeeft waar je computer mee komt aanzetten. Dus wanneer hij van boven naar beneden refreshed en op 30% komt er toevallig een nieuwe frame binnen dan is de rest van het scherm gevuld met de nieuwste data. Zou je sync aanzetten dan moet je wachten tot de cyclus is voltooid en heb je eventueel nog een frame buffer.

Wat dat betreft kan ik iedereen aanraden het eens te proberen. Pak eens een oudere game als Call of Duty Black ops en gebruik de console (~ ) om de fps te limiteren en probeer het gewoon. Dus dan pak je zo'n match tegen de AI en dan voer je in:

com_maxfps = 30
com_maxfps = 60
com_maxfps = 120

Daarna kijk je of je verschil merkt (wel checken of je de 120 haalt).

[Reactie gewijzigd door sdk1985 op 29 juni 2018 14:47]

Yup, Vsync staat over t algemeen uit, op sommige spellen na die kennelijk beter/lekkerder draaien met vsync. Waarschijnlijk iets met de engine...

En ja klopt, ik heb gemerkt dat die grens van mij echt op 70 fps ligt. Al zakt een spel onder de 50 fps dan wordt ik er niet goed van, het mag gewoon niet onder de 60 fps vallen!

Maar inderdaad, het was anders. Tegenwoordig kan ik geen race spel meer op 30 fps spelen...
Koop een 144 hz monitor en er zal snel wat waard zijn om te vervangen...
Hehe ik heb een 144 hz monitor (heeeerliiijjjjjk) en ik ben nogal gevoelig aan frame's. Ik merk altijd direct wanneer er een verschil is in framerate...

Vele games run ik nu maxed out 1080p over de 100 fps dus dat is nog wel voldoende. :)
Waarom? Het is niet dat games daar beter van worden, zit voor veel mensen toch echt tussen de oren hoor.
Haha, ja ik was ook een unbeliever maar met 144hz/144fps heb je toch een groot advantage in online shooters, je ziet veel meer en je reageerd ook butterly smooth vergeleken met 60 fps..
Dus wat je eigenlijk zegt is dat je net zo'n advantage hebt als iemand die mindere hardware heeft maar bv een aimbot gebruikt. Tja, is toch oneerlijk als jij betere hardware hebt en daardoor advantage....
Waarom ? Iemand anders kan ook gaan werken/sparen en diezelfde hardware kopen ?
Nee, wat pas oneerlijk is als iemand super hardware heeft en ook nog een aimbot gebruikt, dan ben je pas kansloos op 60hz.. je kent het wel je begint te schieten, diegene draait zich alsnog om en schiet jou neer...
Nu hebben dat soort ratten minder kans omdat jezelf ook snel kan reageren.
Kan een interessante kaart zijn voor de die hard gamer. Tot voor kort was 144+ Hz op 1440P (hoogst haalbare) goed te doen met een 1080Ti maar nu de eerste 4K 144Hz schermen uit zijn/komen (Acer Predator X27 en Asus ROG Swift PG27UQ) is er zeker markt voor. Voor de gewoon/casual game is dit voorlopig nog veel te duur helaas.

[Reactie gewijzigd door Jorissie87 op 29 juni 2018 10:24]

is er zeker markt voor.
De overgrote meerderheid zit op 1080p60. De kleien groep high-end gamers zitten verdeeld tussen 1440p60, 4k@60, en 1080p144 schermen. Je kan al ene tijdje 1440p op 144Hz krijgen, maar die groep is echt ENORM KLEIN, en als je dan nog kijkt naar de prijs van die 4k 144Hz schermen, dan denk ik dat stellen 'dat we zeker markt voor is' ene enorme overstatement is.

Ongetwijfeld kopen wel wat mensen het, maar niet voldoende om deze generatie er op af te stemmen.
Wellicht, ik heb ook nooit gezegd dat het de best verkopende kaart gaat worden maar kijk naar de 1080 en 1080ti, momenteel de beste kaarten die uit zijn. Het afgelopen jaar waren die nauwelijks verkrijgbaar door de grote vraag. Niet alleen vanwege de mining hype maar ook door het aantal gamers met een high end build, onderschat die groep niet! Er zijn zat mensen die in hun tienerjaren zijn begonnen met gamen en dat nu nog steeds met regelmaat doen, mensen die nu rond de 30 jaar oud zijn met een goed inkomen voor wie zo'n kaart prima te betalen is. Daarnaast hebben we nog de tieners die thuiswonen zonder grote kosten en met hun bijbaan sparen voor een dergelijke kaart en de verwende kinderen die zo'n pc gewoon van hun ouders krijgen. Ze zijn misschien niet in de meerderheid maar vormen een markt groot genoeg om een dergelijke kaart voor uit te brengen. Mensen hebben daarnaast de behoefte om de beste kaart in hun PC te proppen alhoewel dat ook gewoon overkill kan zijn voor hun situatie (als ze bijvoorbeeld geen zware grafische games spelen of hun monitor de bottleneck is).

[Reactie gewijzigd door Jorissie87 op 29 juni 2018 12:08]

Ik denk dat anno 2018 die groep groter is dan je denkt.
Steam stats zegt van niet.
Steam stats zijn leuk, maar dat gaat alleen over statistieken binnen Steam en mits gedeeld. Dat zegt niets over de gehele markt. Kijk je verder dan alleen Steam, zullen er alleen maar meer gebruikers zijn en is de markt het aandeel dus groter dan je denkt.

Edit:
Ik heb wat nuances aan mijn bericht toegevoegd.

[Reactie gewijzigd door CH4OS op 30 juni 2018 01:09]

Steam is de gamingmarkt. Buiten steam zal je alleen maar zien dat het aandeel HFR scheermen veel, veel lager ligt. Binnen steam ligt het aandeel van 1440p en 4K onder de 5%. Het aandeel HFR schermen daarbinnen is echt marginaal klein, dat zal onder de 0.05% liggen. Buiten de gamingmarkt, en dus buiten steam, zal je zo goed als geen HFR schermen zien: buiten gaming heeft het zo goed als geen nut en is er dus ook zo goed als helemaal geen vraag naar. In de totale markt spreken we dus over, wat, 0.01% van de schermen dat hoger dan 1080p, en meer dan 60Hz is?

Ik snap niet dat je blijft volhouden dat 4K 144Hz daadwerkelijk een significant marktaandeel kan halen binnen korte tijd, je zegt zelfs 2018. De schermen kosten verdorie 2000+ euro. Dat is een veelvoud van wat de gemiddelde gamer aan zijn PC uitgeeft.

[Reactie gewijzigd door kiang op 30 juni 2018 00:22]

Ik snap niet dat je blijft volhouden dat 4K 144Hz daadwerkelijk een significant marktaandeel kan halen binnen korte tijd, je zegt zelfs 2018. De schermen kosten verdorie 2000+ euro. Dat is een veelvoud van wat de gemiddelde gamer aan zijn PC uitgeeft.
Maar dat zeg ik dus niet, dat maak jij ervan of wil he dat ik ervan maak. ;) Ik zeg dat het aandeel groter is, dan dat jij denkt. Steam is niet 'de gamingmarkt', de markt is groter dan Steam alleen. Als je denkt dat Steam 'de gamingmarkt' is, moet je echt even goed rondkijken in de gamemarkt; er is in die markt meer dan Steam alleen en ook buiten gaming zullen vast wel praktijken te bedenken zijn dat hfr meerwaarde biedt.

In de community waar ik game zit toch al gauw een ~20% op voor 1440p 144Hz. Dat is weliswaar een gigantisch klein deel van de totale markt, maar toch. Niet iedereen deelt zijn gegevens. Steam doet dat alléén ná toestemming uiteraard. Je doet alsof Steam de gehele markt omvat en dat is gewoon niet waar, de markt en dus het aandeel 1440p / 2160p op 144Hz is groter dan je denkt.

Ook is 1440p al de nodige tijd op de markt icm hfr, zelfs 2160p schermen beginnen nu hfr te krijgen. Het scherm dat ik heb, de Asus IPS 144Hz 1440p RoG Swift, is uitgebracht in 2015, om een voorbeeld te geven en er zijn meer merken die hetzelfde paneel gebruiken.

[Reactie gewijzigd door CH4OS op 30 juni 2018 01:05]

Steam doet dat alléén ná toestemming uiteraard. Je doet alsof Steam de gehele markt omvat en dat is gewoon niet waar, de markt en dus het aandeel 1440p / 2160p op 144Hz is groter dan je denkt.
En het de paranoia gamers dat nee klikt op de hardware survey, is echt minstens hodnerd keer kleiner dan de groep niet-gamers, met 1080p60 schermen. Om maar wat te noemen: alle bedrijfscomputers.

Kortom: je bent je echt niet bewust in wat voor een verschrikkelijk minimaal uitzonderingsgroepje je bevindt als je denkt dat 20% 1440p@144Hz ook maar in de buurt komt van een relevant marktsegment. Zelfs binnen de gamingmarkt is dat echt een groep die kleiner is dan 1%.
En ook dat heb ik al gezegd, dat die 20% niet representatief is. Maar blijf vooral geloven dat Steam 'de gamemarkt' is. Ik zeg alleen dat de gebruikers die het wel hebben er meer zijn dan jij denkt (en dus ook wat Steam aangeeft), als je zo zwart-wit blijft denken. ;)

Ik geef nergens exact aan hoe groot of hoeveel het groter is. Maar dat het groter is dan wat Steam aangeeft, is eigenlijk evident.

[Reactie gewijzigd door CH4OS op 30 juni 2018 17:11]

Een 4K@60 scherm is niet echt high-end meer hoor. De mijne was maar 250 euro. En wat een beeld :9

Nu speel ik niet alles op die resolutie maar een heleboel games zijn prima speelbaar. Wolfenstein II bijvoorbeeld liep prima.

Ik snap eigenlijk niet dat de winkels nog zo volliggen met 1080p schermen. 4K is een kleine meerprijs en het ziet er zoveel beter uit, vooral met tekst. Terwijl op een telefoon neergekeken wordt als die minder dan 400dpi heeft. :?

[Reactie gewijzigd door GekkePrutser op 29 juni 2018 19:12]

Vooral ook voor de vliegeniers die meerdere schermen willen gebruiken. Drie 4k schermen op een 1080Ti geeft iets van 4fps in Xplane 11... Best dramatisch
Niet zo gek als je bedenkt dat dat 12x het aantal pixels van 1080p is, dus alsof je 12 normale schermen er aan hangt. 1080ti haalde over het algemeen ook maar 60fps op 4k ultra.
Iemand die serieus is over simulatie die schaft toch gewoon een VR headset aan…….
Toch nog dit jaar dus?

Nvidia, haar woordvoerders en de fabrikanten laten nu wel heel veel verschillende informatie los over wanneer de nieuwe generatie nou uit komt.

Eerst zegt Nvidia heel trots met dat de huidige GTX-10## generatie nog te goed is om te vervangen, dus dat ze pas 3e kwartaal 2019 waarschijnlijk een nieuwe generatie wilden aanslingeren. Dan verschijnt er een gelekte foto met test PCB van een 'vermoedelijk nieuwe Nvidia generatie kaart' en nu dit verhaal.

Dit maak de informatie dus totaal niet consequent! Ik vermoed dus gewoon een 2019 release. :P
Natuurlijk zegt NVIDIA dat, ze willen immers zo lang mogelijk hun huidige kaarten doen verkopen. Als ze nu al zouden zeggen dat er nieuwe kaart aankomt dan stort de verkoop in.
Wordt die wel lekker goedkoop van!
Maar ik gok dat je gelijk hebt. De verkoop zal dan pas weer 'aantrekken' (dus van de GTX10## serie) wanneer de eerste onafhankelijk benchmarks naar buiten treden zodat men weet wat de prijs/kwaliteit is en dan kunnen beslissen of de nieuwe serie de extra paar 100 euro waard is, of dat ze bij de 'oude serie' kunnen blijven.

[Reactie gewijzigd door LongTimeAgo op 29 juni 2018 14:22]

Je ziet wel dat een aantal kaarten opvallen in de aanbieding zijn. Eerst was er een uitzonderlijk voordelige 1060 en nu weer een 1070 voor 429. Dat lijkt toch op een spring cleanup.
Er is een enorme teruggave van grafische kaarten die voorheen gebruikt zijn voor Cryptomining. Veel bedrijven (Asus, Nvidia zelf, etc) maken deze weer schoon, nieuwe behuizing, soms ook nieuwe pcb en weer de verkoop in als ze het nog doen.

Echter... In hoeverre zal de chip het overleven wanneer het dagen, weken, maanden, jaren(?) lang 24/7 aan heeft gestaan... Zelfs na refurbishen...
De chip doet het niets, die heeft die 24/7 netjes undervolted staan draaien, makkelijker kun je het een stukje silicium niet maken. Het is altijd de fans die het probleem zijn, en die vervangen ze dan.
Zoals inderdaad al aangehaald, geef mij maar een ‘tried And tested’ gpu uit een mining rig.

Die dingen draaien constant op 80-90% van hun kunnen. Constante load dus, beetje undervolten.
Daarbij wil zeggen: constante load => weinig temperatuurschommelingen.

Wat doet materie bij temperatuursveranderingen? Uitzetten en inkrimpen. Wat op zijn beurt voor mechanische slijtage zorgt.

Gamen!! Dat is pas slecht voor een GPU.

Game opstarten, GPU gaat van 30 naar 50-60 graden. Heftige scène - 70 graden. Loading screen 45-50 graden. Game geladen, weer naar 55-60. Game afsluiten: onmiddellijke drop naar 30 graden. En een uurtje later weer.

Geef mij dus maar een mine-kaart boven een game-kaart.
Sorry hoor, maar ik noem dat echt niet 'in de aanbieding'.. Zolang de 1060 6GB's nog 300+ zijn, zijn ze wat mij betreft nog steeds veel te duur..
Dat zijn ze dus niet meer. Zie bijvoorbeeld deze voor 285, niet eens de aanbieding waar ik op doelde: pricewatch: MSI GeForce GTX 1060 6GT OC
Mogelijk een rebrand ipv een nieuwe GPU?
Wtf is die geilheid op nieuwste spul XD
Alleen als je toch het geld ervoor echt over hebt heeft het nut. En dat betekent dat het betreffende bedrag elke maand zou overblijven van je maandloon.
Toen de 970 uitkwam, draaide ik 99/100 systemen met die kaart er dikwijls uit. En dat met een 650SC-tje en een cpu van voor de tijd van i3 en verder.
Bouw gewoon een goed systeem XD

En dan nog: jippie met die 8K beelden...
Daar zit je dan te gamen met een verrekijker bij de hand. Niet alle games kun je het UI aanpassen op grootte.

Ze gaan gewoon veel te snel, straks maken ze fouten zoals samsung al jaren doet met mobiels.

[Reactie gewijzigd door Grandaelus op 1 juli 2018 10:10]

GTX 1180 klinkt in mijn oren meer als een Pascal refresh dan een nieuwe generatie.
Ik zie meer van dit soort reacties en ik snap daar helemaal niets van.

780, 880, 980, 1080, stuk voor stuk allemaal volwaardige opvolgers van elkander. En nu ineens is 1180 niet goed want ... redenen.
Is het omdat mensen de associatie trekken met 1080 als in 1080 beeldlijnen of zo?
1180 is een logisch vervolg op de gekozen naamvoering van de producten van Nvidia, mijns inziens.
Ik zie meer van dit soort reacties en ik snap daar helemaal niets van.

780, 880, 980, 1080, stuk voor stuk allemaal volwaardige opvolgers van elkander. En nu ineens is 1180 niet goed want ... redenen.
Is het omdat mensen de associatie trekken met 1080 als in 1080 beeldlijnen of zo?
1180 is een logisch vervolg op de gekozen naamvoering van de producten van Nvidia, mijns inziens.
Vooral de 880 was erg goed he? (Die bestaat dus niet :+ ).

Ik verwacht één van de de volgende opties:
1) Ze doen een ordinaire refresh en we praten over pak hem beet 15% geindexeerde winst (techpowerup figuur waarbij de nieuwe kaart 100 is en de oude topkaart 85)

2) Ze komen met een nieuwe architectuur en dan praten we over pak hem beet 35% geindexeerde winst (techpowerup figuur waarbij de nieuwe kaart 100 is en de oude topkaart 65).

Mocht het verschil groter worden dan is dat altijd mooi meegenomen maar gezien de beperkte concurrentie en de populariteit van Nvidia is daar weinig aanleiding voor.

[Reactie gewijzigd door sdk1985 op 29 juni 2018 13:57]

Er is wel een 8xx reeks geweest voor laptops waar onderandere de https://www.geforce.com/h...orce-gtx-880m/performance bij hoort
Van 0.85 naar 1 is geen stijging van 15%, maar een afgeronde 18%. Dat lijkt mij een aanzienlijke stijging voor een eenvoudige refresh.
Leugenaar. De GTX8x0 reeks was mobile only en was grotendeels een refresh/rebrand van de 700-reeks.
De logica hier is dat het 1e cijfer in het getal altijd omhoog is gegaan per generatie. Bij 3 cijfers gaat het met 100 omhoog. Bij 4 cijfers gaat het met 1000 omhoog. Dat is altijd al de conventie geweest, dus om daar vanaf te wijken lijkt me raar. Dit is zelfs de conventie bij AMD GPUs, CPUs en intel CPUs/GPUs en vele andere stukken hardware.

Ik sluit me dan ook aan bij de 2080 club en niet bij de 1180 club.

[Reactie gewijzigd door Gamebuster op 29 juni 2018 11:16]

Of jullie interpreteren het allemaal verkeerd omdat het al jaren een verhoging is van 100, en niet van het "eerste getal".
GeForce 5000
GeForce 6000
GeForce 7000
GeForce 8000
GeForce 9000

Lijkt op verhogingen van 1000 in mijn ogen... daarna zijn ze van 200 naar 900 gegaan.

AMD GPUs gingen ook 1000 omhoog, en daarna naar 100 omhoog.

Ik ken geen enkel product groot CPU/GPU lijn dat per generatie het 2e cijfer verhoogt ipv de 1e. Nieuwe generatie is altijd het 1e cijfer omhoog, ongeacht het aantal cijfers. 2e cijfer is vrijwel altijd soort-van performance-niveau (hoger = sneller)

Zie ook Intel:

c2d E6600
c2d E7400
c2d E8400
c2d Q9650

i7 4770k
i7 5870k
i7 6700k
i7 7700k
i7 8700k

AMD CPUs:

8000-series
9000-series

Ryzen 1800
Ryzen 2800

AMD GPUs

47X0
57X0
67X0
77X0
87X0

R7 370
RX 470
RX 570

[Reactie gewijzigd door Gamebuster op 29 juni 2018 11:35]

[b]R7 370 RX 470 RX 570/b]
Wel verwarrend, waar blijven r5 en r9?
Dus de R reeks maakt sprongen van 2K... :?
GTX xxxx whatever nummer is gewoon een getal voor marketing, persoonlijk vind ik 20xx veel beter staan dan 11xx, en doorgaand op die lijn zou ik ook als ze bij the 10k aankomen(wat dan weer lelijk staat) ze naar 20k 30k 40k, etc.. gaan
Ik ga alvast Vraag&Aanbod F5'en.. !
It's happening!

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True