Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 158 reacties

Een laadbrief uit India toont vermoedelijk het bestaan van een Nvidia-kaart met dezelfde gp102-gpu als de Titan X, maar dan met 10GB vram in plaats van de 12GB. Het gaat hier wellicht om de GeForce GTX 1080 Ti.

Nvidia logo 2d grootHet gerucht is het resultaat van graafwerk van Videocardz. Die ontdekten in een vervoersdocument een invoer met de aanduidingen 'PG611 SKU0010 GPU' en '699-G611-0010-000'. Deze nummers komen overeen met die van de Nvidia Titan X, die dezelfde bestempeling meekrijgt, maar dan met 'SKU 00'. 'PG611' moet de aanduiding zijn voor het pcb waar de gp102-gpu, tot nu toe de krachtigste van de Pascal-generatie, zich op bevindt. Verder zou deze kaart 10.240MB gddr-geheugen hebben, wat 2GB minder is dan de Titan X. De kaart heeft wel dezelfde 384bits-geheugenbus als de Titan X.

Volgens Videocardz heeft het model een prijs van 68.230 Indiase roepie, wat neerkomt op 930 euro. Daarmee belandt de prijs tussen die van de nieuwe Titan X van 1310 euro en die van de bestaande GeForce GTX 1080, die veelal voor ruim 700 euro over de toonbank gaat. Daarom gaat het vermoedelijk om de 1080 Ti. Bij de vorige generatie Nvidia-gpu's was de GTX 980 Ti ook de kaart die tussen de GTX 980 en de GTX Titan X in zat.

Importgegevens India vermoedelijke GeForce GTX 1080 Ti

Moderatie-faq Wijzig weergave

Reacties (158)

Poe wat een prijzen eigenlijk.

Ik weet nog dat mijn gtx780 "maar" 500 heeft gekost

En de 780ti was volgens mij 650 bij introductie?

Is dit gewoon de techniek die zoveel kost of is het het ontbreken van deugdelijke concurrentie?

Want ze kunnen nu toch meer chips per wafet produceren door het kleinere procédé?
De rest vd wereld wordt ook rijker, die willen ook deze spullen. De vraag stijgt daardoor, samen met totaal geen concurrentie. Hopelijk gaat Amd zijn high-end kaarten snel introduceren.
Hoop alleen dat ze een beetje rekening houden met de Volta generatie, aangezien ze hun kaarten een half jaar na Nvidia uitbrengen.
Blijf me afvragen of het onmogelijk zou zijn voor een derde speler om zich in de markt te wurmen.
Er is een 3de speler, matrox, maar deze heeft besloten om zich volledig op een niche markt te focussen (multi-monitor setups voor commercieel gebruik, reclameborden enzo bijvoorbeeld).
Daarom hoor je er dus bijna nooit iets over :p

In augustus hebben ze nog een nieuwe kaart aangekondigd.
http://www.matrox.com/gra...series/c900-now-shipping/

Op de grafische markt waar het interessant kan zijn voor de consument moet je ze niet meteen verwachten, het bedrijf bestaat maar uit een paar 100 man.
Matrox richt zich op de zakelijke markt en heeft divisies voor Graphics, Video en Machine Vision producten. Zo te zien zijn de C serie kaarten gebaseerd op AMD chips, dus lijkt het erop dat Matrox zelf geen high performance 3D grafische chips meer maakt. De andere producten lijken allemaal gericht op multi-screen desktop gebruik met maar lichte 3D processing.

Ik denk dus dat voor gaming en het serieuzere 3D werk je niet bij Matrox moet zijn.

[Reactie gewijzigd door CrazyJoe op 14 november 2016 09:47]

ik dacht dat PowerVR van Imagination ook een speler zou kunnen worden maar zover alleen voor mobiel (?)
Apple heeft die gekocht dus verwacht niks van hun.
Apple heeft een klein aandeel van Imagination gekocht. Ze bezitten een paar procent van het bedrijf, net als bijvoorbeeld Intel. Imagination Technologies is nog altijd een vrij verhandeld bedrijf op de London Stock Exchange.


Aan de ene kant verwacht ik IT niet snel op de desktopmarkt. Ze hebben dit in het verleden geprobeerd en hebben hier nooit echt succes mee gehad. Ze waren vooral erg slecht in drivers schrijven. Aan de andere kant is hun technologie wel schaalbaar, en met alleen Apple nog als grote klant moeten ze toch iets als ze willen overleven.

Andere die de technologie in huis hebben om in deze markt te stappen zijn Intel en ARM. Echter is het een harde business en ik zie geen van de drie er snel in stappen.

[Reactie gewijzigd door knirfie244 op 13 november 2016 22:13]

Ik dacht dat ze imagination hadden gekocht maar was maar een gerucht..
https://tweakers.net/nieu...er-zijn-vergevorderd.html
Dit gaat heel gek klinken, maar ik heb een vermoeden dat we over een paar jaar Intel als serieuze derde speler zien, zo stilletjes aan worden die interne gpu's steeds sneller steeds beter, vandaag de dag kun je al verrassend goed gamen op zon interne graphics chip, dat word alleen maar beter naarmate het productieprocedé steeds kleiner word (wat momenteel aan de gang is) waardoor er steeds meer 'ruimte' is voor een uitgebreidere interne gpu.
Nou ik noem bv. Tomb Raider op de laagste settings en 720p dat dan nog stotterend word afgespeeld niet bepaald goed.

Maar goed dit was getest met een i5 6600.
Heb toen mijn videokaart uit de running was, bf4 op 720p en low graphics anders aardig kunnen spelen. i7 4770k :)
Dat niet inderdaad, maar als je de interne gpu van skylake met die van haswell of met die van ivy bridge vergelijkt. Dan is de performance stijging in het eerste geval 30% tot 50% en in dat tweede geval ruim 100%. Binnenkort komt Kaby Lake uit en dan kunnen we zien of ze deze stijging doorzetten of dat die stijging alleen te maken heeft met de die size verkleining.
Overigens haalt hardware.info bij Tomb Raider op medium 1080p 30,6 fps met een i5 6600k.
geldt toch ook voor de gpu's van nvidea en co? hoe kleinder de procedé hoe meer theoretische kracht. dus hoe krachtiger die interne gpu's hoeveel extra krachtiger de externe
Intel is nu een serieuze derde speler, met 18% aandeel in de Steam HW survey (AMD: 24%). Niet in de high-end, nee, maar dat is sowieso een relatief kleine markt.
Intel zal niet snel toetreden tot deze arena. Als ze dat hadden gewild hadden ze dat jaren geleden al gedaan. Ik kan me althans niet voorstellen dat de grootste cpu fabrikant ter wereld geen goede gpu zou kunnen maken. Daarnaast zouden ze daarmee een monopolie kunnen creëeren.
Zijn er even geweest.
i740 ik had een iNtel Gkaart van Asus gehad.
Andere firma's
S3 Savage 2000
SGS Thompson etc.

Latere
Larrabee was ook poging maar een extreme poging. Wat het niet gehaald heeft.
Is Xeon Phi geworden.
Wat een onzin. Intel maakt al JAREN onboard grafische kaarten, wat voornamelijk wordt geleverd in vroegere moederborden en tegenwoordig in CPU's. Bijna 80% van alle PC's die op kantoor en thuis staan zijn voorzien van een "GPU" of gewoonweg "VGA Kaart" van intel.

Echter zijn ze helemaal niet geschikt natuurlijk voor gaming, maar wel 2D beeld en simpele hardware versnelling in o.a video en dergelijk.
Dat kan, zal wel moeilijk zijn, maar we hebben zoiets al meegemaakt met 3dfx. Dus wie weet is er bv een ontwikkeling die ervoor zorgt dat de games er " as real life" uitzien zoals een film op de TV zodat we afscheid kunnen nemen van die huidige cartoon achtige beelden.
Wat bedoel je precies met 3dfx? Toen zij hun kaarten uit brachten was 3d acceleratie een hele nieuwe markt (en het waren add on kaarten, de standalones kwamen later en zijn nooit zo succesvol geweest). Vervolgens zijn Nvidia en ATI (wat later opging in AMD) opgekomen met hun standalone 3d kaarten en kon 3dfx het al snel niet meer bijbenen (de voodoo 3 viel al wat tegen en daarna ging het alleen maar bergafwaarts). Ik zie dus eigenlijk niet zo hoe de situatie vergelijkbaar is... Naast dat het een opkomende markt was en niet een gevestigde orde zoals nu.
Je weet dat 3Dfx is opgekocht door nVidia? De eerste GeForce kaarten waren dan ook gebaseerd op 3Dfx technologie en patenten.
Nee dat wist ik niet, maar het klopt ook niet. Althans, Nvidia heeft wel delen van 3dfx gekocht toen dat laatste bedrijf uit elkaar viel, maar dat was in 2002. De eerste GeForce kaarten kwamen in 1999 uit.
Hmm, dan ben ik qua GeForce serie wat abuis idd. Ik weet wel dat er vanaf een bepaalde GeForce serie er technieken van 3Dfx in zitten. Ook de term SLI kwam bij 3Dfx vandaan. ;)
denk dat er word bedoeld dat 3dfx duidelijk niet de eerste was (powervr en zo was er al een tijdje) maar opeens werd het iets voor consumenten en gamers, terwijl het voor die tijd nog niet 'normaal' werd gevonden. Dus 3dfx was niet de bedenker, wel de trendsetter of de gene die het naar de massa-consumenten-wereld wist te brengen, en was heer en meester.

Los van wat toen de Voodoo3 deed, het was vooral de Voodoo banshee (de poging tot integrated kaart i.p.v. add-on kaart) die zo slecht was dat het in 1x bergaf ging en nvidia/amd konden inspringen. Het is niet dat nvidia/amd opeens heel bijzondere dingen hadden. Ze deden gewoon cyclus na cyclus een voorspelbare sprong vooruit (met de R128, R128pro, nvidia tnt, etc..).
Het was 3dfx (in my memory :P) die de bal heeft doen vallen en het duidelijk werd dat ze gewoon niet 'de beste' meer waren.

3dfx kwam met iets bijzonders, werd koning, deed niks om koning te blijven dus raakte het kwijt, dat is de samenvatting in my mind.

Daarom denk ik dat er ook weinig zal gebeuren aan de huidige rangorde tenzij er iemand komt die echt compleet andere en baanbrekende tech in het wereldje zet. En dan niet stug en koppig blijven en na 5 jaar niet meer meedoen :). Intel was de enige met de kennis en knowhow in my mind, en die doet niet echt z'n best meer.
Dus alleen als er een startup opeens met iets baanbrekends anders komt :).
Amd deed in die tijd alleen cpu's. ATi was het destijds, wat later door AMD werd overgenomen. ;)
ok ok ok ok.. details :)
Je hebt gelijk, ik haalde de 3 en de banshee door elkaar (al wist de 3 volgens mij ook al niet meer het briljante niveau, voor zijn tijd, van de 2 te halen).
3Dfx faalde omdat het geen T&L in hun hardware stak, en Nvidia / ATI namelijk wel. Daarom was 3dfx alleen op basis van Glide 'goed' maar laakte het de rest. Ook kon de Voodoo2 niet meer dan 16 bit aan kleur weergeven, en de TNT van nvidia bijv. 32 bits.
Ik vind de PBR technieken die we sinds crysis 3 hebben anders al n enorme stap in de goede richting!
Er zijn naast 3dfx verschillende derde spelers geweest maar die konden niet opboksen tegen het geweld van NVIDIA en ATI/AMD.

Zo had je meer dan een decennium geleden XGI Technology met hun Volari kaarten, mooie specificaties op papier maar helaas niet competitief door brakke drivers, slechte performance en slechte beeldkwaliteit.

En dan had je ook de Larrabee architectuur van Intel, welke ingezet zou worden voor een lijn van 3D kaarten voor consumenten. Intel heeft dit project opgegeven, het leeft nog voort in de Xeon Phi maar het plan om met NVIDIA te concurreren in de gaming markt was een grote flop.
Ik herinner me ook nog Rendition, die met de Vérité-reeks D3D-kaarten produceerde (ten tijde van de Voodoo 1, nVidia Riva TNT, etc.)
Mijn eerste videokaart ever met 3D-ondersteuning was een Diamond Stealth II S220 :)
Als er geen concurrentie is, is het dan niet gewoon een niche-markt die niet zo interessant is voor andere spelers?
Nee, het probleem is dat de twee spelers (Intel telt niet mee want on-board graphics zijn alleen goed voor browsen en Word) zoveel jaar ervaring hebben en zo'n goede producten neerzetten dat het als nieuwe partij praktisch onmogelijk is om je er tussen te wurmen.

Waarom zou je een bak geld uitgeven aan een grafische kaart van een nieuwe partij wanneer je niet weet hoe stabiel de hardware maar vooral hoe stabiel de drivers zijn?
Wat je nu zegt is echt hopeloos ouderwets, de onboard kaarten van intel hebben tegenwoordig serieuze power waardoor het hele lowend segment eigenlijk niet meer nodig is van amd of nvidia.
Wie koopt er low-end kaarten? Daarvoor gebruikte je altijd al on-board chipsets.
Nee, want een onboard van "vroeger" was inderdaad echt niets, kon je alleen mee werken, of heeeele oude games mee spelen. De huidige onboards hebben gewoon het hele lowend segment overbodig gemaakt en werken echt prima in hedendaagse games.
Hmmm mijn Intel HD Graphics 4600 van eind 2013 werkt nog niet eens fatsoenlijk in World of Tanks dus dan moeten ze in 3 jaar ineens super geworden zijn.
Om de zelfde omzet te halen met minder verkopen zal men de prijs wat moeten verhogen om toch de ontwikkel kosten eruit te halen, de aantallen die men jaren geleden haalden zitten er niet meer in.
Mijn vermoeden is dat daarom amd zich wat meer op het midden segment focust daar kan men
nog wat geld verdienen met betere marges.
Je ziet eigenlijk met alles dat de max prijzen opschuiven. 15 jaar terug was een moederbord van 120 euro duur. Nu kan je makkelijk over de 350 heen.
Zelfde met videokaarten voor het top model betaalde je 400 euro. Nu makkelijk 1500.
Bij CPU's hetzelfde beeld.

Er zijn mensen die het er voor betalen dus ze vragen het er voor. De meeste kaarten worden verkocht in het 100-300 euro segment. Maar als ze alles gewoon door schuiven maken ze veel meer winst. Aangezien die RX480's en 1060 kaarten veel kleinere chips hebben. Voorheen was dat een chip van 400-450mm2 nu nog maar 200-250. Dus ze houden er meer aan over.

Vervelend voor ons maar het is niet anders.
Wellicht als AMD Vega wat scherper prijst is nVidia ook genoodzaakt om de prijzen wat bij te stellen. Maar Vega komt waarschijnlijk pas begin volgend jaar.
Is niet waar. Ik betaalde voor mijn Gigabyte bordje met 440BX chipset ook ruim 400 gulden. Dat is dan 17-18 jaar geleden. De inflatie is ongeveer 50%. Minimumloon was toen ¤1050 tov ¤1537 nu. Ik weet niet meer wat ik voor mijn Voodoo kaart betaalde, maar de Geforce 256 die ik daarop kocht was fl.399. De videokaarten zijn flink duurder geworden, maar de moederborden en de CPU's zijn flink goedkoper geworden. Videokaarten zijn wel steeds geavanceerder geworden, waardoor je steeds meer modellen kreeg.

Toch denk ik dat de invloed van het ontbreken van concurrentie op de videokaartmarkt maakt dat Nvidia kan vragen wat het wil zodat ze de winst kunnen maximaliseren. Laten we hopen dat AMD eindelijk weer mee gaan doen, want de prijzen van de topmodellen zoals de 1080 en 1080 Ti versie kunnen een stuk lager terwijl Nvidia nog steeds een behoorlijke winst kan maken. Kaarten als de Titan X zijn een ander verhaal, die zullen altijd absurd hoog zijn. Maar dat zijn eigenlijk 2 kaarten op één PCB en derhalve producten voor de absolute freaks en overclockers.

[Reactie gewijzigd door ABD op 13 november 2016 23:49]

Moederborden goedkoper is niet echt waar. De instap borden ja. Maar de topmodellen zeker niet: categorie: Moederborden

Topmodellen die gewoon over de 700 euro kosten. En voor de "midrange" cpu's zoals de 6700K en de 7700K over de 500 euro.
Het probleem met vergelijken is, is dat er tegenwoordig enthousiast modellen gemaakt worden, die buiten dat ze meer componenten hebben, op kleine schaal geproduceerd worden, waardoor ze duurder zijn. Daarom maak ik vergelijkingen liever met standaard producten.

We betalen nu voor de top van de standaard CPU zo'n ¤350(6700K), terwijl ik voor mijn midrange CPU destijds (Pentium 200MHz) fl.700 betaalde.

[Reactie gewijzigd door ABD op 14 november 2016 00:54]

16 jaar geleden kostte een 3Dfx Voodoo 2 ook gewoon al 800 gulden hoor... Reken daar eens 16 jaar inflatie over. Die 1500,- euro die jij noemt is een hele hoge uitzondering op een paar niche kaarten. Die bijna niemand heeft.
Dat weet ik niet toen ik mijn Banshee kocht was deze lang niet zo duur. 300 gulden geloof ik. De 9700 Pro was 430 euro @ launch. En 800 gulden is "slechts" 363 euro.
Die 1500 is bv voor een Radeon Duo inderdaad Niche. Maar dat kan je van de Titan X ook zeggen dat is een top model voorheen waren de top modellen gewoon betaalbaar. Dat is nu wel een ander verhaal. Steeds minder mensen kunnen de top kaart betalen. En de inflatie is niet zo hoog geweest dat het prijs verschil helemaal daar vandaan komt.
Trust voodoo dragon 2 (Voodoo 2 12mb) voor 200 gulden nieuw gekocht destijds. De voodoo2 was er nog maar net. De Diamond variant was wel zo'n 300-400 gulden, maar niet sneller.

Voor de voodoo2 is dat met inflatie zo'n 150-200 euro. Best een groot verschil met de top van nu.

Gooi er 2 in voor SLI om 1024x768 te kunnen draaien (de 4k van toen :P) en een grafische kaart voor 2d en je komt maar net over de 400 euro voor het totale plaatje voor je grafische kaarten.

[Reactie gewijzigd door GromuhlDjun op 13 november 2016 21:35]

en de inflatie is ECHT over de top ....iedereen word genaaid waar je bij staat!!!
de discussie over inflatie is echt onzin { normaal gesproken is dat over 10 jaar 3 tot 8% }
3% over 10 jaar is slechts 0,296% per jaar. Ongeloofwaardig laag getal.
Inflatie is eerder 2% per jaar, dan is dat over 10 jaar ongeveer 22%...
Daar de Euro 1 januari 2002 als munt is ingevoerd zijn de 'ik heb x gulden betaald' dus zeg (minstens) 15 jaar geleden geweest. Inflatiefactor is dan bijna 35% bij 2% inflatie.
Zie https://nl.wikipedia.org/wiki/Inflatie
De hoeveelheid geld in omloop stijgt met 8% jaar. De ECB drukt namelijk grote hoeveelheden geld bij euro's in omloop.
De echte inflatie is dus 8%. Producten worden dankzij de vooruitgang echter elk jaar goedkoper en dit compenseert dit effect dan weer.

Hierdoor past de overheid een andere definitie van inflatie toe.
Stel bv dat producten 5%per jaar goedkoper worden, geld word 8% minder waard, dus dan hou je 3% inflatie over.
Deze alternatieve methode wordt bijna altijd door de overheid gebruikt, (omdat de overheid graag lage inflatie cijfers heeft). De overheid manipuleert deze cijfers echter nog verder, door bepaalde producten die langzaam dalen niet in hun berekening mee te nemen, valt de inflatie nog gunstiger uit.
En uiteindelijk krijg je dus inflatie claims van 1-2%, maar deze overheidscijfers hebben dus niks meer met echte inflatie te maken.

[Reactie gewijzigd door planet8 op 13 november 2016 19:40]

Bijgedrukte euro's zijn geen geld in omloop. Je haalt twee concepten door elkaar. Zo moeten banken veel meer euro's aan buffer aanhouden, en dat is expliciet geen geld in omloop.

En vooruitgang mag dan wel de prijzen van een GPU beïnvloeden, de prijzen van rijst en ijzer zijn niet zo aan vooruitgang onderhevig.

Sowieso is het een raar idee om te claimen dat de overheid de inflatie kunstmatig laag houdt, terwijl anderzijds de ECB probeert de inflatie te verhogen door staatsobligaties op te kopen.
Het gaat niet over gelijk hebben maar gelijk krijgen.
En de negatieve karma op mijn reactie zegt genoeg.

Om op u reactie terug te komen.

"Bijgedrukte euro's zijn geen geld in omloop."
De ECB houdt dus elke gedrukte euro bij. (dit wist ik niet, weer iets bijgeleerd)

"Zo moeten banken veel meer euro's aan buffer aanhouden"
Een bank kan per euro zeven euro uitlenen. Deze geldschepping zit niet in de m3 money-supply verekent. (dat geldschepping de hoeveelheid geld verkleint, en vervolgens een magische invloed heeft op de m3 money-supply, wist ik niet, bedankt voor de tip)

"De prijs van rijst en ijzer zijn niet onderhevig aan vooruitgang."
40 jaar geleden werd er in China nog geen kunstmest gebruikt, ggo's en grootschalige landbouwmachine's. In 40 jaar is de productie per hectare verdriedubbelt. En de productie per persoon met een factor 15 gestegen. (Dat dit de prijs van rijst niet beïnvloedt wist ik ook niet)

"Sowieso is het een raar idee om te claimen dat de overheid de inflatie kunstmatig laag houdt."
De overheid heeft graag een inflatie van 1-2%. Via een cirkelredenering valt te bewijzen dat dit wonderen doet voor de economie.

"terwijl anderzijds de ECB probeert de inflatie te verhogen door staatsobligaties op te kopen"
De eu methode werkt precies niet goed, misschien een fout in hun economisch model. (maar ja ik weet precies niks, misschien dat u het mij kan uitleggen).

edit:komma

[Reactie gewijzigd door planet8 op 14 november 2016 17:19]

Die redenatie is niet volledig juist. Het verruimde monetaire beleid van de ECB verhoogd inderdaad de totale hoeveelheid geld in omloop maar dit kun je niet gelijkstellen aan inflatie.

Inflatie is het prijsverschil van het gewogen gemiddelde van een 'mandje' aan producten van jaar op jaar. Inflatie zou hierdoor inderdaad gedrukt kunnen worden door efficiëntere productie. De notie dat producenten elk jaar hun kostprijs kunnen verlagen met 5% is voor mij volledig nieuw, bron?

Centrale banken verruimen de geldtoevoer ten einde inflatie aan te jagen. Hogere inflatie zou mensen moeten stimuleren om meer te consumeren en minder te sparen. De effectiviteit van QE is daarom ook betwist omdat het huidig beleid nog niet heeft geleid tot significante prijsstijgingen.
"Het verruimde monetaire beleid van de ECB verhoogd inderdaad de totale hoeveelheid geld in omloop maar dit kun je niet gelijkstellen aan inflatie."
Volgens het Oostenrijkse model wel volgens het Keynesiaanse niet.

"De notie dat producenten elk jaar hun kostprijs kunnen verlagen met 5% is voor mij volledig nieuw, bron?"
"Stel bv dat producten 5%per jaar goedkoper worden..."
Er zijn naar mijn weten geen publicatie's die de prijsverlaging van elk product hebben bestudeerd. Er worden wel selectie's gemaakt (mandje) maar dat zit je dus met een steekproef. En zoals gezien tijdens zovele verkiezingspolls, is statistiek gewoon onbetrouwbaar.

"Hogere inflatie zou mensen moeten stimuleren om meer te consumeren en minder te sparen."
Consumptie kost geld, productie brengt geld op.
(Dat de eu consumptie probeert te stimuleren, doet gewoon pijn aan mijn (gezond) verstand)
Ogenblikje, dan duik ik even in m'n bonnenstapel van 16 jaar terug :+
]het ontbreken van deugdelijke concurrentie?
Ik denk dat je al antwoord hebt gegeven op je eigen vraag.
En de rx 480 en gtx-1060 hebben een geweldige prijs? momenteel zijn de prijzen alles behalve mooi te noemen momenteel.
In de VS wel, hier niet.

Bij Newegg heb je vandaag een RX 470 4GB voor 169.99$ en een RX 480 8 GB voor 199.99$
Dat soort prijzen kunnen we hier alleen maar van dromen.
Hmmm waar dan?

http://www.newegg.com/Pro...aspx?item=N82E16814137032
$220 voor de RX 480 4GB (excl. belasting)
Dat is 202 euro ex btw, of 245 incl. btw.

pricewatch: MSI Radeon RX 480 Gaming X 4G
Hij is hier te koop voor 265 euro
Zijn US prijzen trouwens niet excl local state TAX?
Maar ook dichterbij, bv In Duitsland zijn de prijzen goedkoper, we worden hier gewoon ge...... Niet alleen nVidia heeft hoge winst marges ook de distributeurs in Nederland kunnen er wat van.
In Oregon en Montana heb je 0% sales tax. Daarbuiten wel tot 7.5% in California.
Oke das wel jammer.

Ik ging ook even van NL uit.
¤ 211,80 voor een RX470 4GB Strix:
pricewatch: Asus ROG STRIX-RX470-4G-GAMING

[Reactie gewijzigd door Koning Willy op 13 november 2016 14:45]

Ik vind het wel meevallen. De vorige Titan koste ook 1000 euro, maar dat moet je niet betalen. Gewoon een jaartje wachten en dan heb je een vergelijkbaar model voor 500 euro. Zo was de origineel Titan ook snel ingehaald voor de helft van de prijs als ik het goed herinner. Het ik gewoon een marketing stunt imo, ze verwachten niet dat veel mensen het gaan kopen, het laat gewoon zien dat zij de beste zijn.

En natuurlijk dat als je nu 70% van de performance kan kopen voor 50% van de prijs, denken mensen dat ze een goede deel hebben, dus het helpt de verkoop van hun andere kaarten.

[Reactie gewijzigd door jerkitout op 13 november 2016 13:58]

1000 tegen over 1310. Ach rond de 30% meer. Vind je dat meevallen?
Ik hoop dat de 1080Ti gewoon rond de 800 euro is en dat de 1080 naar 600 euro of minder verschuift.
Volgens mij heeft Nvidia zeer veel uitval in hun productieproces, tenzij ze die problemen recentelijk hebben opgelost.

Daarnaast denk ik wel dat de prijzen nog omlaag kunnen mocht er meer concurrentie zijn.
Volgens jouw misschien wel. In werkelijkheid hebben ze geen noemenswaardige productie problemen gehad met Pascal chip. Yields waren ook goed.
Zou ook kunnen dat nV zich zien als een
Audi , Honda , Lexus.
vs
Opel , Toyota , Volkwagen.

Dus kunnen ze meer vragen. En als er genoeg volk is dat meent duurder produkt beter is. Werkt dat wel.
Aangezien voor AMD goedkoper ook niet leid tot grotere volume omzet.

Dus mogelijk ook gewoon nV prijsbeleid .
Combinatie, aan de ene kant is het (zonder dat lullig te bedoelen richting AMD fans) momenteel zo dat Nvidia de snelste kaarten maakt, en de techniek is ook niet goedkoop (kleinere chips vertaald over het algemeen helaas niet naar goedkoper, eerder naar duurder) Aan de andere kant is het zo dat er behalve AMD (die niet meer zo de directe strijd aan lijkt te gaan als een paar jaar geleden) niet echt een andere speler is, dus Nvidia zit ook zeker wel de prijzen hoog te houden simpelweg omdat ze het kunnen.

Een 1080 ('standaard') is trouwens ruim meer dan genoeg voor 99% van de games vandaag de dag, dus voor 700 euro zit je weer een paar jaar goed. (en als je even wacht zal die prijs vast ook nog wat dalen als die 1080 Ti er is)

Persoonlijk vind ik de 740 euro ofzo die ik voor mijn 1080 heb moeten neerleggen het wel waard, ja het was even slikken (zoals wel vaker bij het kopen van de nieuwste hardware) maar inderdaad, 99% van de games blaast vervolgens ook ruim voorbij de 100 frames per seconde. Ik zat hiervoor op een 970, kijkend naar het verschil tussen Nvidia kaarten in het verleden en nu in dit geval, lijkt het wel alsof we van serie 9 naar serie 11 zijn gegaan, de sprong is aanzienlijk te noemen.

(Ik game trouwens op 2560x1600, dus geen 4k, die extra pixels zullen weer het nodige kosten, en misschien dat je daarvoor dan wel een 1080 Ti 'nodig' gaat hebben om 100+ fps te trekken in de meeste games, maar persoonlijk zie ik het nut niet zo van een hogere res dan wat ik al heb)

Lang verhaal kort, ja, dure grap, maar na 3-4 weken op een 1080 te hebben gezeten, damn dat ding is wel echt rete snel.
Ik denk ook eerder combinatie.
1 nV denkt A merk te zijn dus hoge prijs in elk segment
2 inflatie
3 dollar waarde.
4 nog geen concurentie in dat segment.
5 yield bin .
6 top end is meer prestige product. De omzet is meer de 1050 tot 1070. Voor wat de gek er voor geeft.

De ene factor kan wat grotere invloed hebben dan dan de andere.
De meeste mensen kopen niet de top modellen maar de lagere zoals de 1060 / 1070.

Omdat er bijna geen concurrentie is ( correctie, geen concurrentie ) op de top modellen, kunnen ze gewoon de prijzen omhoog duwen bij iedere generatie. Er zijn altijd mensen dat de hoogste / snelste willen.

Waarom een Ferrari kopen? Het is snel maar comfort? Prijs waar je een half dozijn goede auto's voor koopt. En toch kopen mensen Ferrari's.

Voor mensen dat op extreme resoluties willen draaien zijn die top modellen goed maar voor de rest is het niet zo nuttig. Hell, mijn "oude" 970's draait zowat alles wat ik wil boven de 60fps. Er zijn gewoon niet games dat grafische zo goed zijn, dat het investeren waard is voor zo een top modellen. Enkel de mensen dat op 4k of hogere resolutie of 120fps willen draaien is zo een kaart het investeren waard. En zelf dan nog... volgende jaar heb je dan weer de nieuwe generatie dat in de buurt komt kwa performantie tegen de helft van de prijs.

We mankeren idd concurrentie op de markt want je merkt dat afgelopen jaren dat er eigenlijk maar weinig veranderd is. In mijn persoonlijk mening vind ik dat de prijzen best duur geworden zijn voor alles boven de medium gpu niveau. ATI kan gewoon niet bijbenen met Nvidia. Ze draaien constant op verlies en hebben niet de hoeveelheid personeel zoals Nvidia.
Met één klein verschilletje.

Een Ferrari is redelijk waardevast (wordt misschien nog meer waard), terwijl een videokaart na 6 maanden al de helft minder waard is.
Dat gaat je niet lukken met een standaard Ferrari. Die zijn alles behalve waardevast.
Dan zal je al een klassieker moeten kopen wil die interessant zijn als investering.
Maar de prestaties zullen niet (of bijna niet) minder worden tov de concurrentie of het model dat de opvolger is. Dat is dan wel weer een voordeel van een Ferrari. Dat kun je van een videokaart niet zeggen.
Kijk top gear dan nog maar eens een keertje. De orestaties van een oud motorblok zijn wel degelijk een stuk lager dan die van dezelfde die net de fabriek uit komt. Je kan rustig to zo'n 50% minder paardjes in je motorruimte hebben liggen hoor.
Of je slaat je Ferrari op in een garage voor een jaar of 30 tot hij zelf een klassieker is geworden :p
Mee eens, en hij wordt niet ingehaald door een budget auto tzt.
hij kan ook geen budget auto inhalen in nederland :Y)
Dus niet! Kijk maar eens naar de nieuwprijs van een Ferrari 430 en waar ze voor te koop staan. Pas na 40 jaar, dan misschien ja. Maar dat geldt voor die videokaarten ook. :D
Nee, als je een Ferrari dagelijks gebruikt en veel kilometers maakt is hij absoluut niet waardevast.
Alle videokaarten zijn na een paar maanden minder waard, valt niet te vergelijken met auto's ;)

Ik weet nog dat ik 2x 850,- heb neer gelegd voor mijn Inno3D iChill GeForce GTX 1080 X4 kaartjes, dat zijn ze nu echt niet meer waard....
Ik weet nog dat ik 2x 850,- heb neer gelegd voor mijn Inno3D iChill GeForce GTX 1080 X4 kaartjes, dat zijn ze nu echt niet meer waard....
Aangeboden sinds mei 2016.. je geheugen is in elk geval niks mis mee ;)
Ik heb zelf vroeger ook ooit nog eens een RX480 gekocht.. mooie tijden :')

[Reactie gewijzigd door SiGNe op 14 november 2016 04:25]

Ik zie graag anders jouw oplossing om op 7680x1440 @144hz nog fatsoenlijk te kunnen gamen ;)
Want ze kunnen nu toch meer chips per wafet produceren door het kleinere procédé?
Dat hangt natuurlijk ook van de yield af. Er passen wel meer chips op een wafer, maar als een groter percentage niet door de test heen komt hou je er onder de streep minder over.
Simpel, de markt van videokaarten is groter geworden en kan er meer gevraagd worden en de concurrerend heeft geen concurrerende kaart.
Het voornaamste verschil komt door de zwakke koers van de Euro ten opzichte van de (Amerikaanse) Dollar.

De theoretische prijs van de GTX 980 was bij zijn introductie zo'n ¤515 gezien de BTW en de wisselkoers van toen, maar de theoretische prijs van de GTX 1080 was met diezelfde berekening zo'n ¤650. Een verschil van ¤135 dus, terwijl de theoretische prijs in Dollars van de 1080 maar $50 hoger ligt dan de theoretische prijs van de 980.

Daarbij komt het feit dat Nvidia eerst de $100 duurdere "founders edition" heeft uitgebracht. Ik vermoedt dat fabrikanten van deze verwarrende situatie misbruik hebben gemaakt om al hun producten net wat duurder te maken dan de theoretische prijs van de normale versie. Natuurlijk zijn veel modellen sowieso al duurder door gegarandeerde overclocks, mooiere koelblokken en zo verder, dus dat is moeilijk te bewijzen.

Hopelijk zorgt de introductie van de 1080 Ti ervoor dat de prijs van de 1080 eindelijk wat omlaag gaat. ¤700 is zo'n kaart mij gewoon niet waard, ook als de prijs niet de schuld van Nvidia is.
Er zijn twee redenen hiervoor. Eentje is inflatie, de tweede is dat er gewoon geen concurrentie meer is in de high-end markt. AMD loopt al jaren achter de feiten aan in dat segment.
Het is de markt; er zijn maar heel weinig mensen die deze kaarten kopen; 10% van de kopers misschien of nog minder. Dit zijn vrijwel zonder uitzondering mensen die niet op het geld moeten letten. NVidia melkt dit segment uit (zoals ze ook gewoon moeten trouwens, dat staat in hun overeenkomst met de aandeelhouders) door aan de bovenkant van het segment de prijzen extra te verhogen.
Zeker flinke prijzen maar ik ga deze keer, en voor de eerste keer, voor een topmodel.

Ondertussen alweer 32 jaar en heb altijd een 'uber' videokaart gewild sinds ik jong was en nu heb ik lekker gespaard en ga ik voor de 1080TI.

De vorige kaarten die me nog vers bijstaan die ik had was de 560TI en nu heb ik een 760 dus zal een mooie upgrade worden.

Ik game dan wel op 1080p dus een beetje overkill deze natuurlijk maar een beetje speelruimte is alleen maar lekker. EN er is altijd nog DSR.

Zolang de kaart onder de 1000 blijft ga ik hem pakken na het afwachten van de reviews natuurlijk.
980 was ook nog maar 500 euro.
De prijzen bij Nvidia zijn eigenlijk daarna met de 980 TI en eigenlijk al ervoor met de Titan de pan uit gerezen.
Het klopt ook dat er geen echte concurentie is.
Zij zijn het snelste op dit moment.
nee ze verdienen er gewoon dik aan.
Tja, op dit moment totaal geen concurrentie van AMD... dus ze kunnen doen wat ze willen
tja toen de gtx 280 net uit was heb ik daar 360 ofzo voor betaald en de 4800 ti tig jaar geleden was nog geen 300 euro.

prijzen zijn gewoon absurd hoog geworden net als telefoons en gaan door belastingen en andere gestoorde kosten alleen maar duurder worden.
Misschien omdat je nu langer met een kaart kunt doen en ze minden snel outdated worden? Omdat de ontwikkeling van 4k er nu is, en er waarschijnlijk de eerste paar jaren niks anders komt dan 4k schermen met 144Hz.
10 GB, maar wel met 384bit databus? Ik geloof er niets van. 320 bit zou daar namelijk precies bij passen.

256 bit > 4 GB/8GB op huidige technieken

384 bit > 12 GB op huidige technieken (6 gebruiken ze niet meer op deze high-end kaarten)

Dan is 10 GB dus gewoon 320 bit.

Of er zit 12 GB op en NVidia heeft in de bios de 10 GB limiet ingesteld (beetje zoals de RX480 4/8 GB review-kaarten.)

[Reactie gewijzigd door White Feather op 13 november 2016 14:01]

Om Videocardz verder te citeren: "The only thing that does not necessarily make sense is the 384-bit memory bus, but does it really? This not the first time NVIDIA would use more memory controllers than it is really necessary (examples: GTX 660 with 192b interface or GTX 970 with 256b interface)."
Het zou natuurlijk ook een indicatie kunnen zijn dat ze een paar controllers uitgezet hebben. Een reden zou kunnen zijn om de yields te verhogen.
Dat zou betekenen dat ze of het 970-marketing debacle gaan herhalen, of de kaart speccen zodat het aantal geheugenkanalen (12) de 10 GB aansturen. Omdat er maar per 32 bit gerekend kan worden (1geheugencontroller) en de geheugens 1 of 0,5 GB capaciteit per 32 bit bandbreedte hebben, dan zou het kunnen in de vorm:

8x1 + 4x0,5= 10.

Maar dan heb je dus niet een geheel 384bit memorybus en is het marketingtechnisch nog steeds iets grondig mis (als je dit 384 noemt). Je spreekt namelijk maar 12x 0,5 GB aan met 384 bit en de rest met 256.

Ik kan op dit moment niet geloven dat NVidia dit bij zo'n hoog gepositioneerde kaart zou doen. Het is zowel technisch slechter (minder consistente performance) als marketing technisch dubieus (want niet volledig 384 bit).

[Reactie gewijzigd door White Feather op 13 november 2016 14:25]

320 is niet ^2, 384 is gewoon 128 * 3
320 is niet ^2, 384 is gewoon 128 * 3
En dus?

De geheugencapaciteit is ^2, de geheugenbreedte niet. (Het is trouwens niet ^2, maar 2^.)

320 is gewoon 10x32bit. 32 bit is de bandbreedte van 1 geheugencontroller.

384 bit is gewoon 12 X 32 bit controllers.
Net zoals de 256 bit bestaat uit 8 32 bit controllers.
Zie voor plaatje/uitleg https://www.techpowerup.c...hics-card-spotted.223228/

[Reactie gewijzigd door White Feather op 13 november 2016 14:21]

Met andere woorden, noch 384 noch 320 is een macht van twee. Uitgesplitst in priemgetallen: 12 GB is 3 * 2^34; 10GB is 5* 2^33. 384 is 3*2^7, 320 = 5 * 2^6.
Het is al heel vaak gedaan hoor, alleen niet op de duurste SKU.

Nvidia gebruikt dan meestal een assymetrische setup voor het VRAM. De GTX 970 is er berucht om geworden, met 0.5 GB dat over een hele smalle bus liep waardoor die een stuk langzamer is dan de eerste 3.5GB, maar ook daarvoor al in de GTX 550ti, de GTX 660 / 660ti.

In het geval van deze 1080ti zou het dan waarschijnlijk 2x4GB over 128bit zijn en mogelijk de laatste 2 GB over 128bit. Dat is niet heel verkeerd, maar het is wel wrang om 930 euro neer te tellen voor een afgeknipte SKU. Geldklopperij eerste klas :P
Nvidia.......AMD.....!
neem een pauze -__-
sommige willen na het kopen van een video kaart nog even genieten van het feit dat ze een van de beste hebben. (Dat gevoel dat je een 1080 haalt en er een Xpascal uitkomt.)
Nee, laat AMD geen pauze nemen, ze hebben dringend iets competitiefs nodig.
neem een pauze -__-
Alsjeblieft niet zeg. Het is al sinds jaar en dag zo dat hardware die je koopt binnen de kortste tijd alweer achterhaald is. Dat is niets nieuws onder de zon. Laat de techniek zich maar lekker snel ontwikkelen, dan heb je tenminste iets om naar uit te kijken voor een volgende build of upgrade.

Het beste willen hebben betekent dat je elk jaar (of eens in de zoveel maanden) geld over de brug mag smijten. De meeste andere mensen kopen gewoon iets dat binnen een x budget optimale prestaties biedt. Hoe meer de techniek vooruit gaat, hoe beter de prestaties over de gehele linie worden.
Al dat gezaag over prijzen van nu is bullshit. In 2003 kocht ik een ATI Radeon 9800 Pro voor 499 dollar (geimporteerd). Dat is 13 jaar geleden. Nu heb ik een GTX 1070 voor 410 dollar gekocht wat toch ook een high end card is voor bijna 20% goedkoper dan 13 jaar geleden.

5 jaar ervoor had ik mij een 3DFX VooDoo 2 gekocht voor omgerekend 200 euro voor het basismodel (8mb) de 12mb versie was 300 euro (omgerekend). In die tijd was dat VEEL geld.

Dat de Staat veel geld verdient op import/export & belastingen daar kan Nvidia of AMD niets aan veranderen.
de 9800 pro was toen ultra high-end en de 1070 is nu mid tot high, dus die vergelijking loopt wat mank
Volgens mij was er ook nog de 9800 XT die nog duurder was maar ik kan mij vergissen.
De 9800 XT werd later uitgebracht, als refresh. De 9800 Pro was toen hij uitkwam de snelste kaart uit de lineup van Ati. De tegenhanger was de 5900 Ultra ($499) van nVidia volgens mij. De 5900 Ultra was de top van de nVidia lineup, wat nu de GTX Titan X ($1200) is dus.
Jij betaalde in 1998 al met euro's?
Je kan toch lezen?

Omgerekend, het was toen 8000 BEF en 12000 BEF ofwel 200 of 300 euro.
Het komt ook omdat de euro - dollarkoers niet zo gunstig is zoals paar jaar geleden omdat de EU heel veel euro's had bijgedrukt om de euro omlaag te drukken.

De euro was ( te ) veel waard wat problemen zorgde om te exporteren.

Maar nvidia heeft de prijzen ook wel steeds ietjes hoger gedaan hoewel bij de 7xx serie en 9xx serie er genoeg amd kaarten waren die tegen 980ti en lager opboksenden.

Kaarten als de r9 290x verslaan de 780ti en 970 en de r9 390(x) was tegenhanger van 980 de nano/fury(x) tegen de 980(ti)

Mensen zitten laatste tijd ook teveel te kijken als iets 30/40 wat meer nodig moet hebben dat het slecht is terwijl veelal ze goedkoper bij aanschaf zijn ( 30/40 watt over een jaar als je 6 uur per dag voluit gamed kun je geen eens van uit eten of je moet de MC Donalds uit eten noemen. )

Met veel nieuwe spellen zie je dat de kaarten van amd erg goed meekomen zelfs als ze al stuk ouder zijn de fury x komt vaak op de lijn van de 1070 te zitten soms close to 1080 voor zo'n '' oude '' kaart was dat dus een goede aankoop ( jammer genoeg ondanks hbm beter werkt dan gddr5 was de productie van de nieuwe technologie tegengevallen dus daarom eigenlijk te weinig vram )

Gaan ze wel oplossen met vega door er genoeg HBM in te proppen want de fury line up was eigenlijk meer een test phase.

Amd is een deugdelijke concurrent alleen word er laatste jaren door soms wat mensen nvidia de hemel in gepraat zoals soms wat mensen over apple praten dat het beste is.

En ik snap nog steeds niet waarom mensen met de 970 3.5 vram 0.5 waardeloos niet kritscher zijn gaan kijken naar nvidia.

Nvidia of amd zijn gewoon over het grote deel als je tegen elkaar drukt de pro's en con's en performance even goed.

Moet ook kijken dat gpu productie en verkoop nooit precies op de zelfde momenten is zijn twee verschillende bedrijven net zoals je mobieltjes hebt niet alle fabrikanten tegelijk in zelfde maand allemaal hun nieuwe mobiel uitgeven.

Zit grote kans in als vega uitkomt dat amd de top of de line is of gelijk of mischien 1-3% eronder maar kwa prijs weer beter is.

Het is wel een feit dat amd gpu's over de jaren heen '' beter oud '' worden dan nvidia niet omdat nvidia ze oude legacy ( 9xx series and under ) zit te gimpen met drivers, maar dat ze niet meer echt zoveel aan optimalisaties doen voor oudere ( 9xx and under ) doen.

Hoewel amd de basis architectuur heel erg het zelfde blijft waardoor driver optimalisaties voor nieuwere kaarten makelijker is en ook '' door te geven '' aan de oudere kaarten als de 3xx series 2xx etc.

Achja ik hoop gewoon dat mensen niet teveel naar 1 kamp gaan neigen maar gewoon elke gpu kamp bekijkt voordat ze iets kopen.

Marja moet dit wel zeggen amd heeft meer open standaarden en geeft technology vrij zoals free-sync wat nvidia makelijk in hun drivers wat kleine veranderingen zouden kunnen doen om het ook te kunnen gebruiken.

Maar ze hebben liever dat je g-sync monitor koopt kost duurder en dan moet je weer een nvidia kaart halen als je upgraded. Ik vind persoonlijke mening dat nvidia steeds meer op apple begint te lijken en dat is erg jammer met proberen alles dicht te timmeren en dat je hun producten dan maar moet kopen.

Marja wel benieuwdt hoe die nieuwe 1080TI zal performen denk een mooi kaartje voor 1440p 144hz of 4K 60hz screens toch zou ik wachten als je kunt want we spreken wel over een aardig prijskaartje dus het is of gewoon kopen kans op buyer's remorse of wachten op de tegenhanger van amd vega.

[Reactie gewijzigd door Scott91 op 13 november 2016 14:28]

30Watt, 6 uur per dag is 180 Watt-uur, en dat is 65 KWh/jaar, tegen 22 cent/KWh is dat EUR 14,30. Iets meer dan een Happy Meal, maar het houdt niet over.
Gewoon hoppen naar andere energie bedrijven dan kun je meestal makelijk 17/18 cent KWh hebben :)

Marja het blijft dus een macdonalds maaltijd als je dus elke dag 6 uur voluit gamed dan kan ik natuurlijk ook zeggen dat het wat helpt om je stookkosten te verlagen maar komt er natuurlijk iemand aan met '' maar me airco dan ''

Waarop ik zeg doe geen airco aan behalve als je huis echt boven de 25-26 graden en als je een airco gebruikt hoef je ook niet echt zorgen te maken om 30-40 watt van iets x]
Met dit soort prijzen vraag ik mij af hoeveel mensen hun ''gewone'' 1080 droppen voor een Ti versie. Ikzelf ben dat niet van plan in ieder geval.
Ik vraag me dan ook af of dergelijke hoeveelheid geheugen 10GB echt nodig gaat zijn voor gamers ik begrijp dat het erg voordeel gaat zijn bij 4K UHD resolutie en hoor dit van mijn vrienden.

Best prijzige kaarten rond de ¤1.000 vind ik als ik dat moest uitgeven zonde. Ik zelf zou dan eerder naar GTX 1070 of als je 4K doet de GTX 1080!

De bus is niet verder verhoogd en is op 384-bits gebleven, terwijl AMD Radeon R9 al naar 512-bits gingen bij de 290 en zelfs 1024-bits heeft het verhogen nog enige voordeel?

[Reactie gewijzigd door van der Berg op 13 november 2016 23:04]

Waarom duurt het zo lang voordat de 1080 Ti op de markt komt? Is het dan zo veel werk om wat Cuda Cores uit te schakelen en er een ander geheugenplaatje op te zetten?
Ja leuk, maar wanneer komen de kleine low profile pascal kaartjes nou die in hardware hevc kunnen decoden. De markt voor kleine zuinige gpu's lijkt me groter dan die van extreem dure videokaarten voor het (relatief) kleine groepje spelletjesspelers...
(relatief) kleine groepje spelletjesspelers...
Juist, meer dan 700 miljoen "spelletjesspelers".
Waarvoor heb je precies een kaart nodig voor HEVC?
Bijna alle 4K TV's kunnen HEVC 4K @ 60hz doen vanaf een USB stick of een harde schijf.
En volgens mij had Skylake IGPU al HEVC decoding

[Reactie gewijzigd door Koning Willy op 13 november 2016 14:41]

700 miljoen lieden die videokaarten van rond de duizend euro kopen? Dat maak je mij niet wijs. Sterker nog, da's klare onzin.

Waarom een gpu die hevc kan decoden? Wat een rare vraag... Omdat dat dat simpelweg de volgende generatie videocodec is welke spoedig breedverspreid gebruikt gaat worden, en nee deze wordt niet enkel voor 4k materiaal gebruikt. Sterker nog; een codec staat geheel los van de resolutie en framerate vd te encoderen content.

Dus nee, geen 4k tv, en je gelooft het niet, maar niet iedereen heeft een skylake cpu in zn htpc zitten. Ik draai op 1st gen Core platform, en heb geen enkele behoefte om hier in te upraden als het niet nodig is.
We zijn inmiddels bijna 4 jaar verder, en zelfs YouTube ondersteunt hevc/h.265 niet ;)
Trouwens ik wed dat jij je tijd heel goed besteedt als je zo negatief doet over gaming (een industrie van meer dan 100 biljoen dollar)

[Reactie gewijzigd door Koning Willy op 13 november 2016 21:51]

Jongeman, gaarne bronvermelding bij je wilde beweringen. Vier jaar verder dan wat?? Waarom de bewoording "zelfs" youtube?? Is dat ineens een wereldbepalend instituut wbt encoding normen? Youtube zet in op VP9, een codec van dezelfde generatie als hevc, zo zal vp9 altijd naast hevc blijven bestaan. En je 100 biljoen, kom daar ook maar eens met een bronvermelding van. Zal je wel een verkeerde vertaalde "billion" ergens gelezen hebben.Overigens gaat dit topic over een videokaart van ergens rond de duizend euro, wat niets met "gaming" in het algemeen te maken heeft! Graag op topic en inhoud reageren, en hou die wilde ononderbouwde beweringen graag voor je. Videokaarten van rond de duizend voor spelletjesspeler euro worden nauwelijks verkocht (relatief). Is een piepkleine markt.
De pc markt is "maar" 25 miljard dollar. En dat is nog steeds veel groter dan de HTPC markt. Kwestie van je cpu upgraden, losse videokaarten voor hevc is zo ouderwets.
Correctie, de PC Gaming hardware markt is in 2016 ruim 26 miljard.
De totale PC hardware markt inclusief servers etc. loopt waarschijnlijk op tot duizenden miljarden.
Kwestie van je cpu upgraden, losse videokaarten voor hevc is zo ouderwets.
Hij wilt een nieuwe videokaart voor zijn oude 1080P tv. 8)7

[Reactie gewijzigd door Koning Willy op 14 november 2016 16:42]

Sorry, ik bedoelde inderdaad de gaming markt. De complete markt is natuurlijk veel groter. Dank voor de correctie.
Videokaarten van rond de duizend voor spelletjesspeler euro worden nauwelijks verkocht (relatief). Is een piepkleine markt.
Videokaarten voor specifiek hevc/vp9 decoding nog veel minder. Daar kun je immers prima een geïntegreerde GPU voor gebruiken.

De "onderkant" van de markt die het segment bediende waar HTPC's in zitten is bijna geheel weggevallen aangezien de GPU's die Intel en AMD integreren tegenwoordig behoorlijk krachtig zijn en die GPU's qua features zoals hevc prima voorzien zijn.

[Reactie gewijzigd door houseparty op 14 november 2016 11:58]

Ook weer geweldige onzin. De low budget gpu's zijn uiteraard niet "specifiek" voor hevc decoding ontwikkeld. Het zijn simpelweg budget gpu's die veelvuldig gebruikt worden, bijv. in kleine sff systemen, eenvoudige instap pc's en ook in minipc's. Dat de pascal generatie gpu's hevc kunnen decoden is niets meer dan een logische stap in de ontwikkeling van gpu's. Zo groeit de purevideo featureset al jaren gestaag door; begon met met hardware mpeg2 decoding, later avchd/h264/vp8 en nu dan eindelijk hevc/(wellicht)vp9.

Dus ja, de markt voor kleine zuinige (en goedkope) gpu's is vele malen groter dan die van duizend euro kostende videokaarten voor spelletjesspelers.

Wbt. je andere onderbuik uitlatingen: 1st gen core is niet zomaar met een cpu te upgraden naar hevc decoding capable skylake, dan wordt het meteen een mainboard/cpu upgrade. Bovendien is de decoding featureset van nvidia en de output bij decoding vele malen mooier dan intel en is amd een ramp wbt linux support.
Ook weer geweldige onzin.
In het geheel niet.
Het zijn simpelweg budget gpu's die veelvuldig gebruikt worden, bijv. in kleine sff systemen, eenvoudige instap pc's en ook in minipc's.
In tegenstelling tot wat je misschien zelf gelooft wordt dat deel van de markt tegenwoordig dus compleet gedomineerd door geïntegreerde GPU's.

Vandaar dat je vanuit AMD en Nvidia nauwelijks nog discrete GPU's ziet om dat marktsegment te bedienen.
Dus ja, de markt voor kleine zuinige (en goedkope) gpu's is vele malen groter dan die van duizend euro kostende videokaarten voor spelletjesspelers.
Nee, voor discrete GPU's is dat tegenwoordig een niche segment.

En hoewel de markt voor extreme gaming-GPU's óók een niche segment is, is dat wel een niche waar enorme marges op zitten. In tegenstelling tot de tegenwoordig net zo kleine niche waar de door jou gezochte budget GPU in zit.
1st gen core is niet zomaar met een cpu te upgraden naar hevc decoding capable skylake, dan wordt het meteen een mainboard/cpu upgrade.
Wellicht wordt het daar eens tijd voor dan. ;)
Volgens mij heb je erg last van een midlife crisis.
Overigens gaat dit topic over een videokaart van ergens rond de duizend euro, wat niets met "gaming" in het algemeen te maken heeft!
Oke ,vertel eens ons wat de doelgroep voor deze videokaart is?
De 1080Ti is een videokaart voor gaming, net zoals alle andere GTX kaarten.
Graag op topic en inhoud reageren, en hou die wilde ononderbouwde beweringen graag voor je.
Er bestaat ook iets als Google, op Tweakers wordt verwacht dat je zelf eerst onderzoek doet. De globale gamesindustrie in 2016 is 99.6 miljard (billion in het Engels)
Videokaarten van rond de duizend voor spelletjesspeler euro worden nauwelijks verkocht (relatief). Is een piepkleine markt.
Nou volgens Steam Hardware Survey is de 1080 ruim 2 miljoen keer verkocht, dat noem ik geen piepklein markt.
Is een Iphone van 1000 euro ook een slecht verkopende product? Soms verkoopt een high-end kaart meer dan een low-end kaart. De 970 is veel meer verkocht dan de 960 en die is dan weer meer verkocht dan de 950.

[Reactie gewijzigd door Koning Willy op 14 november 2016 16:35]

10 GB, zijn er werkelijk gamers/renderers die dat vol krijgen?
Ach ja... waarom niet... van 640k dacht men vroeger ook dat dat meeeeer dan voldoende was. ;)


Om te kunnen reageren moet je ingelogd zijn



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True