Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties

Nvidia zou binnenkort met de GTX 950 komen. Dat meldt de doorgaans betrouwbare site Videocardz.com. De GTX 950 zou een iets goedkopere variant worden van de al bestaande GTX 960 met lagere kloksnelheid en minder cuda-cores.

In plaats van een Maxwell GM206-300-gpu uit de GTX 960 zou de GTX 950 een GM206-250 hebben. Bovendien zou het aantal cuda-cores lager liggen dan bij de GTX 960, meldt Videocardz.com. Er komen varianten met gddr5-geheugenhoeveelheden van 2GB of 4GB.

De GTX 950 zou drie displayports, een dvi-connector en hdmi-aansluiting hebben. De site denkt dat Nvidia de GTX 950 ergens in de komende weken gaat aankondigen. Hoewel er nog geen GTX 950 is, is er al wel een GTX 950M, maar dat is een mobiele kaart. Volgens VideoCardz komt de GTX 950 tegenover de AMD Radeon R7 370 te staan. De prijs zou rond 150 dollar moeten liggen.

Moderatie-faq Wijzig weergave

Reacties (85)

was is de bandbreedte/doorvoer bus van die kaart? vind dat meestal meest relevante spec
Uit de link in het artikel:
... Although unconfirmed, it looks like GTX 950 also has 128-bit interface (judging from memory capacities).
Te weinig dus om fatsoenlijk 4gb aan te sturen. 2 gb gaat wel goed.
4GB gaat ook wel goed, maar het voordeel zal waarschijnlijk erg klein zijn (maw: niet interessant).

Ik zou persoonlijk naar tests kijken ipv zo de focus op bus-bandbreedte leggen.
Ja, 128-bit is weinig vergeleken met high end kaarten van 512bit of zelfs AMD's HBM. Maar ik ben verrast dat de kaart zo onwijs goed meekomt. De bus-compressie lijkt goed te werken.

Onlangs de 384bit geheugenbus van HD7950 (R9 280) vergeleken met de 128bit GTX960. Tot mijn stomme verbazing was het onderlinge verschil nagenoeg gelijk op 4k resolutie! (Relative performance 38402160, 92% voor GTX960 vs 94% voor HD7950 op)
http://www.techpowerup.co...gabyte/GTX_960_OC/27.html

[Reactie gewijzigd door steff85 op 6 juli 2015 10:39]

Ik zou persoonlijk naar tests kijken ipv zo de focus op bus-bandbreedte leggen.
Ja, 128-bit is weinig vergeleken met high end kaarten van 512bit of zelfs AMD's HBM.
Bij nVidia zijn de ultra high-end kaarten (980Ti/Titan) ook 'maar' 384-bit, en de wat minder extreme high-end (970/980) zijn 'maar' 256-bit.
Dan vraag ik me af waarom de 780(ti) 384 bits heeft, en de 970/980 'maar' 256. Terwijl de 970/980 meer VRAM heeft.
Vooral omdat smallere bussen kleiner en goedkoper zijn qua productie (minder transistors, minder die-space), en ook minder stroom verbruiken.
nVidia heeft dus met Maxwell v2 geprobeerd om met 256-bit, hogere kloksnelheden en betere color compression toch ongeveer dezelfde performance te halen als met de 384-bit bus van de vorige generatie.

Ik snap verder het argument van 'meer VRAM' niet echt.
Bandbreedte gaat erom hoe snel je geheugen is. De hoeveelheid geheugen staat daar compleet los van.
Nou, omdat je met bijvoorbeeld een 128 bit busbreedte, moeilijk 4gb VRAM kan aansturen. Naja, het kan wel, maar je zal niet veel verschil merken met een 2gb versie.
Dat zeg ik dus:
De bandbreedte gaat om hoe SNEL het geheugen is.
Dat heeft niets te maken met de grootte. Het is helemaal niet zo dat iets 'moeilijk' of 'makkelijk' is.
Het is gewoon snel of langzaam.

De grootte van het geheugen heeft juist te maken met hoeveel je daadwerkelijk gebruikt.
Als je 2 kaarten hebt met gelijke bandbreedte, maar 1 heeft 2 GB en de ander heeft 4 GB, dan zijn beiden exact even snel, zolang je applicatie niet meer dan 2 GB gebruikt.

Zodra je over de 2 GB gaat, dan zal de 4 GB kaart op volle snelheid door kunnen blijven gaan, waar je bij de 2 GB-kaart dus moet gaan pagen naar systeemgeheugen etc.
Niet helemaal juist denk ik.
Bij de dubbele 4Gb wil je dat geheugen ook gebruiken, en moet er toch 2x zoveel data over dezelfde bus.
Niet helemaal juist denk ik.
Bij de dubbele 4Gb wil je dat geheugen ook gebruiken, en moet er toch 2x zoveel data over dezelfde bus.
Nee. Je gaat niet al je geheugen gebruiken/over de bus gooien 'omdat het er is'.
Geheugen is gewoon opslag. Met 4 GB kun je dus veel meer geometrie/textures in VRAM bewaren, zonder dat je hoeft in/uit te swappen.
Meer geheugen bij gelijke bandbreedte is NOOIT trager. Het is hooguit niet sneller, als je dat extra geheugen niet gebruikt.
Verder, zie hierboven, ik had het al uitgelegd.

[Reactie gewijzigd door Scalibq op 7 juli 2015 22:21]

Het verschil is dat je bijvoorbeeld in GTA 5 met 2 GB vram geen "ultra" textures kunt selecteren (iig niet zonder waarschuwing). In 4 GB gaat dit wel passen. Hoeft verder geen fps te kosten.
Er is geen verband tussen de busbreedte en de hoeveelheid RAM die kan aan gesproken worden
Volgens nvidia presteert de 256 bit bus hetzelfde als een normale 384 bit bus. Of dat in de praktijk is, weet ik niet :)
Als het GDDR5 is, is 128bit breed gewoon goed genoeg, en niet "te smal", of zo.
Dat is al weer een aantal jaartjes achterhaald.
De GTX 960 4GB doet het in AC: Unity anders een hl stuk beter dan de 2GB versie:
http://www.gamersnexus.ne...0-benchmark-vs-2gb/Page-2
0.1% low fps van 5 naar 30
1% low fps 19 naar 32
Dit is op 1080p ultra settings. 1080 ultra settings is op het 4GB exemplaar dus prima speelbaar, terwijl het op het 2GB exemplaar vreselijk stottert.

Zo zie je maar weer!
Over de GTX 960 4GB werd hier op tweakers en op Hardware.info alleen maar geschreeuwd dat het niets toevoegde. Er werden zelfs hele theorien op los gelaten, waarmee beweerd werd dat de 4GB onmogelijk nuttig gebruikt kon worden. Iets met grootte framebuffer en busbreedte etc. De mensen die het daar niet mee eens waren werden zelfs als verstandelijk beperkten behandeld.
Terwijl uit de meetresultaten blijkt dat het verschil in AC:Unity enorm groot is!
Geheugenbus van een GM206 is 128bit dus dat zal het bij deze kaart ook wel worden. Ze zullen vast niet nog iets uitschakelen want dan blijft er helemaal niks over.
dank je, kreeg deze info nog niet gevonden. Ga dan toch modelletje hoger pakken om huidige gtx660 mee te vervangen, wanneer bus slechts 128bit betreft. merci -The_Mask-
Staar je niet blind op 128-bit, want net als een gigahertz veranderd de snelheid daarvan ook over tijd.
  • GTX 660, 192/256 bit ~ 140 GB/s.
  • GTX 960, 128 bit ~ 110 GB/s.
Al is het wel zo dat de GTX 660 destijds al best wel een instap top model was waar de GTX 960 toch meer in het midden gebied blijft, zou hem er zelfs niet voor vervangen.
Als je nu van een GTX 660 overstapt naar een GTX 970 dan ga je er gigantisch op vooruit qua performance. Denk aan meer dan een verdubbeling van je framerates in de meeste spellen: http://www.anandtech.com/bench/product/1039?vs=1355

Een overstap naar een GTX 960 is minder interessant. Dan geef je iets minder geld uit, maar je krijgt er ook veel minder performance voor terug.
Zie hier voor wat benchmarks, GTX 960 vs GTX 660: https://www.youtube.com/watch?v=EQI8GZknfIQ
In de meeste gevallen is de GTX 960 zo'n 10 fps sneller, maar er zijn uitschieters waar de GTX 960 veel sneller is. Die uitschieters zijn wel vaak bij ultra settings, en als je dan test op high settings zijn de verschillen veel kleiner.
Bandbreedte/doorvoer is niet zo relevant, wat je wel aan deze twee dingen kan linken is de pixel/texture fill rates wat nu weer voor een redelijk verschil kan maken in performence.

[Reactie gewijzigd door LocK-NaH op 6 juli 2015 14:53]

Als dat de meest relevante spec is dan zou de Fury elke andere kaart moeten wegblazen.
De GTX 950 zou drie displayports, een dvi-connector en hdmi-aansluiting hebben. De site denkt dat Nvidia de GTX 950 ergens in de komende weken gaat aankondigen.
Vijf aansluitingen op een midrange kaart.
Ik vind dat best aardig veel.

Ook mooi dat nvidia de range onder de gtx960 vult.
GTX 950 is niet echt Midrange, eerder Low-End.

En met zulke kaarten gooi je eerder geld weg dan dat je er mee bespaard. Dan kun je beter een paar tientjes meer uit geven aan een GTX 960, en krijg je meer waar voor je geld.

Die Low-End meuk is best schadelijk voor consumenten die geen verstand hebben van Computer Hardware.

[Reactie gewijzigd door TheDeeGee op 6 juli 2015 09:35]

De 750(Ti) heb ik altijd een geweldige kaart gevonden voor goedkoop, compact en stil game pc'tje. Ik kan alleen meepraten over de Ti variant maar High settings zijn goed speelbaar. Ideaal voor een klein, koel systeempje voor naast de huiskamer TV die niet teveel verbruikt. Natuurlijk, elke nieuwe game zal gebruik kunnen maken van de laatste high-end chips door meer effecten toe te voegen maar ik merk toch vaak op het www dat er wordt overschat hoeveel je eigenlijk echt nodig hebt voor een prettige speel-ervaring.
Een kleinere GTX960, zonder extra PEG en met HDMI 2.0 en h.265 ondersteuning? Yes please.

[Reactie gewijzigd door martijn86 op 6 juli 2015 11:05]

Inderdaad ik heb pas geleden nog een GTX750Ti en 4gb extra ram bij iemand ingebouwd. Hij wou een nieuwe pc kopen om te gamen. Aangezien hij al een i5 3330 had met 1 reepje 4 gb ram heb ik gezegt koop gewoon wat extra ram en een videokaart is goedkoper en je hoeft niet je hele pc te vervangen. Ik stond verbaast te kijken hoe goed die 750ti wel niet was! Alles gewoon op high 1080p elk spel die we teste. Project Cars, Farcry 4, Nieuwe wolfenstein allemaal soepel speelbaar. Framerate heb ik geen idee maar daar zeur ik over (en hij al helemaal niet) 30fps min is prima.
Ik heb een HTPC draaien met een low-profile versie van de 750ti aangezien dat de snelste kaart Is in low profile en op 1080p kan ik aardig wat spellen op high spelen idd. Niet alles op 60 FPS maar ik speel dan ook geen shooters ;) mocht er een low-profile versie komen Is het weer een mooie upgrade! Verwacht het alleen niet als al die aansluitingen er op moeten....
Dat is waar mensen zich aan vast klampen de 60fps terwijl alles boven de 30 ook prima is. Het zijn meer de Die Hard Gamers of mensen die horen dan 60fps moet die geen genoege nemen met frames onder de 60fps. Het is mooi meegenomen maar niet noodzakelijk nooit geweest ook.
Aangezien hij al een i5 3330 had met 1 reepje 4 gb ram
Tjsa, je hebt ze erbij idd... Mensen die nog nooit van dual channel geheugen hebben gehoord :)
Ik heb het ook een tijdje terug meegemaakt, iemand die een systeem voor video-editing had gebouwd met 1 reepje geheugen.
Dat tweede reepje haalt waarschijnlijk de CPU-prestaties al behoorlijk omhoog omdat je ineens twee keer zoveel bandbreedte ter beschikking hebt.
En met zulke kaarten gooi je eerder geld weg dan dat je er mee bespaard. Dan kun je beter een paar tientjes meer uit geven aan een GTX 960, en krijg je meer waar voor je geld.
De prijs prestatie verhouding van de GTX _50 en GTX _60 zijn al jaren redelijk gelijk. De GTX _50 kaarten zijn altijd prima instappers waar de meeste games gewoon op medium gespeeld kunnen worden, en dat is voor veel mensen voldoende.
helemaal mee eens. Of je het nou mid of low end wil noemen. E 750 was ook een prima game kaart voor rond de 100 euro. Het zijn nog steeds game kaarten bedoeld voro gamers. Alles onder de .50 is dat niet meer. Zoals een 240gt oid. Op een 750gtx kun je prima battlefield 4 of hardline spelen. En dat is wat veel mensen genoeg vinden. Ik vind het juist mooie kaarten voor instap pc gamers die neit teveel geld kwijt willen zijn. Iedereen heeft het altijd over de high end kaarten van 250+ euro. Maar er zijn geneog mensen die wel willen gamen maar niet meer dan 500 euro uit willen geven voor een systeem. Voor zulke mnsen zijn dergelijke kaarten een hele mooie oplossing. Je zit met dergelijke kaarten vaak in de buurt van de ps4/xbox one consoles.
https://www.youtube.com/watch?v=9OE2iI7OLh8
Ik weet het niet hoor, veel mensen hebben geen boodschap aan de beste prestaties, maar willen nog wel een spelletje kunnen spelen. Met zo'n kaart krijg je dat in ieder geval voor elkaar en kun je veel schermen aansluiten. Een dure grafische kaart is volgens mij een investering die veel mensen niet zomaar maken.

Wat onhandig is voor consumenten is dat de gemiddelde kant-en-klare "gaming"-pc die low-end kaarten bevat waardoor de prestaties uiteindelijk altijd tegenvallen.

Dan nog, ja, de GTX 960 is dan misschien beter kwa prijs/kwliteit, maar 50 euro is ook een mooie besparing als je toch al een budget-systeem maakt.
Vraag me zelf altijd af wie de kopers zijn van dergelijke kaarten.

Het is een net niet kaart en de kans dat die los zal worden verkocht acht ik minimaal. Het zullen waarschijnlijk grotere partijen moeten zijn die het in een desktop stoppen, maar dan voel je je redelijk gepakt als die erg middelmatig presteert.
Deze kaarten vegen alsnog de vloer aan met iGPU's. Gamen op 1080p gaat gewoon prima als je minder hoge eisen hebt (geen ultra settings). Bij aankoopadvies lees je ook geregeld dat iemand zichzelf omschrijft als 'casual gamer'. Dit maakt het draaien van een game gewoon mogelijk en als het verder de HTPC output mag verzorgen is die helemaal in zn element.

De meeste mensen zijn digibeet op gebied van computerhardware en dat is de grootste groep klanten. Je zou je gepakt voelen wanneer je bijv. veel driverproblemen ervaart. De gebruikerservaring is erg subjectief en niet in FPS uit te drukken. Bovendien zou het naief van een klant zijn om te verwachten dat je met een fractie van een bedrag van een high end kaart dezelfde prestatie mag verwachten. ;)

[Reactie gewijzigd door steff85 op 6 juli 2015 10:20]

Mijn pa iig niet. Die speelt op een laptop met een gt240m of zoiets. Lijkt mij dat deze 950 sneller is en desondanks is mijn pa tevreden.

Wat is net niet en wat is net wel ? Wie bepaalt dat? jij? Als je de lat op ultra mode legt, heb je een punt. Maar wie bepaalt de hoogte van de lat? Ik niet iig. Het is uiteindelijk maar net wat je verwachtingen en wensen zijn. Dat kan speelbaar zijn met med settings en ja, dan heb je aan een veel mindere krachtige gpu zoals bijv. de GTX970 genoeg. Is Ultra de eis, dan moet je die GTX970 minimaal hebben.
Inderdaad, zit meer richting de low-end. Misschien een beetje tussen mid en low, maar zeker meer richting low-end.

Ben benieuwd wat het kaartje gaat doen, en hoe deze zich t.o.v. de 960 zal presteren.
Low-end serieus?
De mid range serie voor nvidea begint bij de gt .40 series.
Sinds de 8xx series heten ook de .50 series gtx, dat zegt genoeg denk ik.

Ik heb zelf een gtx850m in mijn laptop, ik kan alle spellen die ik speel op high 1080p draaien.
Toegegeven dat zijn geen witcher3 of gtaV.
Maar wel diablo3,grim dawn dat soort games.
De GTX950 is een desktop kaart en dus minimaal 2x zo snel als mijn mobiele variant.

Bijkomend voordeel is vaak het verminderde stroomgebruik en kleinere kaart.
Waardoor je vaak geen 6/8pins stekker nodig hebt en hij ik een kleine mediacenter behuizing past.

[Reactie gewijzigd door Sinned123 op 6 juli 2015 11:57]

het is niet meer zo dat mobiele Gpu's 2x zo snel zijn als een desktop kaart.

die tijd zit al achter de rug, vanaf de Gtx 600 serie werd het verschil alsmaar kleiner door de Maxwell Architectuur.
Als de 950 net zoals zijn voorganger geen extra stroomconnector heeft is dit de perfecte kaart om een OEM PCtje te upgraden. Die hebben vaak niet al te spectaculaire voedingen of PEG kabels aan boord.

Ik gebruik zelf een 2e hands via het werk overgenomen HP 8200 (i7 2600) systeempje met een GTX750 Ti. Hier kan ik prima The Witcher 3 of GTA5 op spelen mits ik de instellingen niet al te hoog opschroef.
Momenteel heb je nog niet al teveel keuze als je UHD schermen gebruikt, dan kom je al snel bij de high end kaarten uit.

Als je geen interesse hebt in games, maar wel die hoge resoluties nodig hebt is dit best interessant.
Er zijn ook mensen die een kaart puur voor zijn aansluitingen willen hebben en niet voor zijn grafische kracht.

Dan is het leuk voor die mensen dat er een extra optie is.
voor die mensen zijn er echt wel goedkopere betere opties. Kun je net zo goed een 610 gt kopen voor 30 euro ipv een kaart van 150 euro.... Deze kaart is meer bedoeld voor gamers met 1050/1080P schermen die medium/low prima vinden en vooral niet teveel geld uit willen geven. Met een dergelijke kaart kun je vaak prima de nieuwste games spelen. Natuurlijk niet high 60fps. Maar wel medium 40fps oid.
Kaarten zoals de GeForce 610 hebben toch meestal slechts twee of drie aansluitingen waarvan er een vaak ook nog een vga aansluiting is.

Uiteraard zal deze kaart vooral gekocht worden door mensen die willen gamen maar geen hoge eisen stellen.
Alhoewel je met deze kaart waarschijnlijk wel dicht tegen de dertig fps zal zitten bij 1080p met medium instellingen bij de nieuwere games.
Een Geforce GTX 610 heeft geen HDMI 2.0 en een Display Port, en als je dat wil, vooral als je een 4K scherm heb, wil je niet een Geforce GTX 610 kopen, en is alleen Nvidia GTX 900 kaart wat, want zelf de nieuwere goedkopere AMD radeon kaarten hebben het niet.

En bijna niemand koopt een Geforce GTX 610 als je ook wil gamen, die kopen dan wel een Geforce GTX 750 Ti of Radeon R7 260X.

[Reactie gewijzigd door AmigaWolf op 6 juli 2015 20:41]

De vraag met dit soort 'midrange'-end videokaarten is natuurlijk altijd: hoeveel nut hebben ze?
Zeker met de opkomst van de APU's van AMD, maar zeker ook die van Intel (en dan met name de Broadwell generatie). Is het nog wel verstandig (portemonnee wise) om een processor en een losse videokaart te kopen in het budget segment, of ben je goedkoper uit met een processor met ingebouwde GPU oplossing (APU)?

De vraag is dan natuurlijk wat het je gaat kosten en hoeveel frames je er voor terug gaat krijgen. (Iets met frames per dollar/euro?).
Al die grafische en rekenkracht kost wel het nodige geld. Je kunt weliswaar je Haswell-systeem behouden en alleen de processor vervangen, maar de 5775C kost momenteel 400 euro, terwijl de i5-versie, ook met Irirs Pro 6200, een iets aantrekkelijker 300 euro kost. Bovendien komt opvolger Skylake er al weer aan en kun je dan ook naar ddr4-geheugen overstappen.

Wie dus behoefte heeft aan krachtiger gpu-prestaties zonder videokaart zit goed met Broadwell, in andere gevallen kun je het beter bij Haswell houden of wachten op Skylake. Als het je puur om een goede gpu zonder videokaart gaat, kun je ook AMD's 7850K-apu overwegen. De gpu is iets sneller dan die van Haswell, terwijl de prijs zeer aantrekkelijk is. Je levert dan echter wel flink in op cpu-kracht.
Bron: Preview: Broadwell voor de desktop - De Core i7-5775C kort getest

Uit bovenstaande quote blijkt dus al dat processor met ingebouwde gpu's steeds krachtiger worden. Zeker als je ook kijkt naar benchmarks van de afgelopen generaties. Probleem is dan echter weer de prijs: voor een 300 euro kan je dan dus ook een GTX950 kopen i.c.m. een:
- pricewatch: Intel Core i5 4460 Tray / (zr degelijke cpu en 'bang for your buck', momenteel echter wel ~ 180,-..);
- pricewatch: Intel Core i3 4330 Boxed (ook een degelijke CPU, maar dan een i3, voor een ~ 132,-);
- pricewatch: AMD FX-8320 Black Edition (stevige CPU van AMD's kant, maar heeft wel de reputatie om warm te worden, zo'n 147,-);
- pricewatch: AMD A10-7850K Black Edition (degelijke APU van AMD"s kant, hier zit dus al een GPU in, kost zo'n 132,-).

'Probleem' is dat Intel geen processor van rond de 150,- heeft (op moment van schrijven). Waardoor je dus boven of onder de 300,- van de goedkopere i5-versie uit komt. Met een AMD processor kom je hier dichter in de buurt uit, maar heb je f een processor die redelijk wat warmte produceert, f een processor met een al ingebouwde GPU.


Vroeg of laat zal er een moment komen waarop de midrange videokaarten van AMD en Nvidia geen 'bestaansrecht' meer hebben, omdat je voor hetzelfde geldt een processor met ingebouwde GPU kan kopen die (nagenoeg) dezelfde prestaties leveren. De vraag is echter hoe lang dit nog gaat duren..
Deze race is voor de low-end videokaarten op het moment al volop aan de gang en Intel is de laatste jaren zich dan ook meer en meer gaan richten op het GPU gedeelte in videokaarten. Waar de rekenkracht van een processor soms met een 10% omhoog ging, verdubbelden de prestaties van de ingebouwde gpu. Summum van dit proces is de Broadwell generatie: een processor met een (zeer) sterke ingebouwde GPU die zich zker kan meten met de low-end videokaarten van zowel het rode als het groene kamp.

[Reactie gewijzigd door Vickiieee op 6 juli 2015 09:31]

En als ik een systeem zonder fatsoenlijke iGPU wil upgraden naar een HTPC? ;)
Dan hangt het er helemaal van af wat de ontwikkelingen op dat moment zijn, wat je budget is, wat voor HTPC het moet worden (al eens gekeken naar een RaspBerry Pi 2? Dat ding is ontzettend krachtig voor de 36,95 die het kost :D :Y Doet hier dienst als 'HTPC' ;)).
4K op je pi? Succes ;). Plus de mogelijkheid om nog fatsoenlijk een spelletje te spelen.

[Reactie gewijzigd door spNk op 6 juli 2015 09:42]

Dat zeg ik dus net: "wat voor HTPC het moet worden". Als jij niet zegt dat hij 4K af moet spelen, dan raadt ik je gewoon een RPi2 aan. Beetje je voorwaarden op orde hebben en duidelijk maken h :9

Als je op 4K films/series/Tv wilt gaan kijken, dan ontkom je gewoon niet aan een videokaart van de laatste generatie geloof ik. 4K vraagt op het moment namelijk zo veel 'resources' dat het met 'doorsnee' videokaarten niet te doen is, laat staan met een RPi2 :P.

Daarnaast: HTPC staat voor: 'HomeTheater-PC'. Als je er dan k nog een spelletje op wilt spelen dan kan je beter gewoon je PC achter je Tv hangen en zorgen dat je hardware op orde is. Dan heb je n 4K n kan je "fatsoenlijk een spelletje spelen" ;) :P.

[Reactie gewijzigd door Vickiieee op 6 juli 2015 09:46]

Volgens mij had ik het dan ook over het upgraden van een oudere pc ;) dat doe je niet d.m.v. een pi.
Klopt. Maar daarom vraag ik ook of je al gekeken hebt naar een RPi2, dat ding (met accessoires etc.) is namelijk vele malen goedkoper dan het upgraden van je PC ('zonder fatsoenlijke iGPU) naar een degelijke HTPC. (Voor FHD dan). Dus dan kan je net zo goed een RPi2 kopen.
Aangezien 4K content nog niet in grote hoeveelheden aangeboden wordt en de prijs van Tv's met 4K/UHD nog op een aantal duizend euro ligt, ging ik er dan ook van uit (mijn fout dus) dat je op FHD zou bedoelen, dan is een RPi2 een uitkomst! (Aangezien TV's ook op HD, FHD en 4K zitten en niets anders, geen WQHD voor zover ik weet).

Voor 4K zal je dan toch inderdaad een behoorlijke investering moeten doen geloof ik.. ;)
Want iedereen gamed? Want iedereen heeft meer dan mid-range nodig?
Wat ik trouwens mis in je gelinkte artikel van Tweakers is daar een vergelijking van CPU+losse GPU. Nu weten we nog niet goed hoe het zich verhoudt. Alleen dat de i7-5775C met zijn Iris Pro flinke stappen maakt t.o.v. de IGP's/APU's uit het verleden.

Daarbij, in dezelfde tekst staat overigens ook:
De Iris Pro 6200 in de geteste Core i7-5775C is in de beperkte benchmarkset die we erop konden draaien 50, 80 en 100 procent sneller dan de HD 4600-gpu die we tot dusver in desktopprocessors vonden.
Dat is leuk voor benchmarks, maar in de praktijk betekent dat dat je eenvoudige games op je Broadwell-systeem kunt spelen, zonder extra grafische kaart.
Daaruit volgend concludeer ik dan persoonlijk dat de Iris Pro wel flinke stappen heeft gemaakt, maar het nog steeds beperkt toepasbaar is. Naast eenvoudige games, lage resoluties en bovendien beperkte aansluitmogelijkheden is het ook maar de vraag hoe bijv. de renderkracht is als hardwarematige versnelling in bijv. Premiere Pro oid of dat het niet eens wil werken.

Het lijkt mij verder sterk dat er op korte termijn IGP's zo snel worden dat men hele linies grafische kaarten niet meer kan verkopen. IGP's worden sneller, maar grafische kaarten ook. Misschien dat de onderkant van de markt meer en meer voldoende gaat hebben aan een gentegreerde oplossing. Dat laatste verwacht ik wel en kan best tussen nu en bijv. 2 jaar al gebeuren. Daar zal de toekomst van de markt ook wel liggen als je nagaat dat in andere gadgets gebaat kunnen zijn met gentegreerd spul dat redelijke tot behoorlijke prestaties heeft bij een laag verbruik.

Maar goed, laten we eerst deze nog maar eens bekijken. De GTX750Ti was ook al een leuke kaart voor het geld, lijkt me dat de GTX950 en vooral misschien wel de GTX950Ti (mochten ze beide komen) fijne kaartjes worden. Overigens lagere kaartseries vond ik altijd al in onbalans, vaak teveel RAM, te langzaam RAM en/of te kleine bus. Wat mij betreft begint de markt voor losse GPU's bij de x50(Ti), zowel price als performancewise.

[Reactie gewijzigd door marcel87 op 6 juli 2015 10:37]

Het ligt er een beetje aan hoe de snelheid van de ontwikkelingen bij de CPU's en GPU's zijn. Als je na een jaar of 4 alleen het grafische deel wilt vervangen kan een APU het nadeel hebben dat je gelijk je APU, moederbord en geheugen moet vervangen omdat de socket niet meer wordt ondersteund.
Ik heb acht jaar geleden een Q6600 en 9600GT gekocht en 2 jaar geleden de GPU door een 650ti vervangen. Dat systeem voldoet nog aardig (beetje een stroomvreter) en zit wat 3d gaming betreft nog steeds in de buurt van de APU's? Het is dus ook niet compleet rampzalig om een wat ouder moederbord, cpu en geheugen te hebben als je de videokaart maar kunt upgraden. Maar dat kan in de toekomst natuurlijk anders zijn.
En de huidige APU's komen wat 3d prestaties niet in de buurt van de 150 euro videokaarten? Voor de echte low budget systemen is het misschien een oplossing, maar dan is er ook nog optie van een videokaart van de rond de 100 euro en een van de goedkopere intel cpu's te kopen, want dan zijn de moderne multi threaded games die meer cores nodig hebben toch al niet fijn speelbaar. (en dat zijn er maar enkele)
De 9600GT zit nu in een mint linux mediapctje met een goedkope intel cpu en voldoet daar prima voor. Flexibiliteit kan dus zeker op langer termijn euro's schelen.
(Edit : ik heb nog eens wat rondzitten browsen en de prestaties van Kaveri - APU's en de Intel 5100 lijken nauwelijks beter zijn dan de 9600GT... De 650ti , toch al weer een paar jaar oud, komen die APU's niet in de buurt)

[Reactie gewijzigd door AtariXLfanboy op 6 juli 2015 13:36]

Wat ik hoop, is als deze videokaart uitkomt, dat deze meteen over SLI beschikt, zou dan een lekker goedkope multi GPU setup kunnen worden.
Dan zou ik toch eerder gaan voor 1 sterkere kaart dan 2 mindere, je hebt toch nog steeds geen 100% schaling (als in 1 videokaart 30fps, en 2 60fps)

Dan hebben we het nog niet over eventuele extra warmte of ruimte in je kast.
Dat klopt zeker, maar als ik momenteel een krap budget heb en down the road er nog een bij zou kunnen doen, die mogelijkheid spreekt me aan, over die extra warmte hebben we het dan wel.
Dat zou geen al te beste keus zijn. Met twee maal GTX 950 in SLI zul je een zeer onstabiele fps hebben in die games waar SLI wel werkt, met hele lage minimale framerates.
En in de games waar SLI niet correct werkt (lees: zowat ieder nieuw spel, vaak wordt SLI pas na heel veel patches gefixt) zul je n van de twee kaarten moeten uitschakelen.
Alle problemen van SLI nemen voor wat ze zijn is eigenlijk alleen de moeite waard als je twee echte topkaarten met elkaar combineert. In plaats van twee GTX 950'en combineren ben je veel beter af met n GTX 970. In de prijsklasse van de GTX 950 moet je nooit aan SLI beginnen.
Directx 12 neemt een hoop sli/crossfire problemen weg.

[Reactie gewijzigd door LocK-NaH op 6 juli 2015 18:17]

Ja, maar alleen in games waar men gebruik maakt van DX12, en een goede implementatie ervoor heeft.
Voorlopig zullen de meeste games die je speelt nog DX11 of lager zijn, omdat die games nu al uit zijn, of nog gebruik maken van een verouderde engine.
Weer wat geleerd vandaag :D Ik wist niet dat het ook van de games afhankelijk was. Ik dacht eerder in de richting van dat als je directx12 kaarten/win10 hebt dat ze algemeen dan wel goed werken met elke game ondanks dat het dan directx 10 games waren. hardbaked in win10 maar dus niet :D Dus dan is het even wachten tot de meeste games over zijn op dx12.
Dat moet ik nog zien hoor. In het verleden is natuurlijk wel vaker aangekondigd dat de problemen met SLI nu toch echt tot het verleden zouden behoren. Ik neem het dus allemaal met een korreltje zout.

SLI/Crossfire kan in principe in Direct X 11 ook al prima werken. Het komt voornamelijk door fouten die de developers maken dat het niet goed werkt.

En waarom zouden we opeens perfecte developers krijgen die geen fouten meer maken zodra Direct X 12 arriveert? Kijk eens naar de zeer buggy implementatie van Mantle in Battlefield 4 (vr alle patches), zie: http://www.hardwarepal.co...k-performance-comparison/
Laten we hopen dat we nooit een Direct X 12 spel krijgen wat zodanig broken is bij release. Laten we hopen dat Mantle geen voorbode is van wat komen gaat.
SLI/Crossfire kan in principe in Direct X 11 ook al prima werken. Het komt voornamelijk door fouten die de developers maken dat het niet goed werkt.
Waarom geeft iedereen altijd de schuld aan developers?
SLI/Crossfire is gewoon een hack. In DX of OGL zit helemaal *niets* in de API om ook maar op enige manier iets te regelen met SLI/Crossfire.
Dit wordt allemaal door de drivers gedaan, en zou transparant moeten zijn voor de API, die 'ziet' maar 1 GPU, en maakt dus 1 device aan voor iets wat aan de driver-kant eigenlijk 2 of meer GPUs/devices zijn.

Dan zijn er ook nog verschillende technieken van SLI/Crossfire (waarbij de ontwikkelaar niet kan weten welke techniek de driver kiest, laat staan dat de ontwikkelaar daar invloed op heeft in de game), want je kunt beiden een deel van hetzelfde beeld laten renderen, maar populairder is 'alternate frame rendering': de GPUs renderen om-en-om. Dit namelijk omdat het het beste schaalt (vroeger met VooDoo-kaarten had je dat probleem niet, omdat de T&L nog aan de CPU-kant gedaan werd, en SLI zich alleen druk hoefde te maken over rasterization, wat vrij makkelijk op te delen is. Gewoon iedere GPU een deel van het scherm geven. Nu alles op de GPU gedaan wordt, zou dat betekenen dat er veel dubbel werk gedaan wordt, omdat beiden T&L moeten gaan doen op het hele frame, voordat ze kunnen bepalen welke polygons bij welke delen van het scherm horen, en dus bij welke GPU).

Het grote probleem met AFR is natuurlijk dat je dan niet zomaar data kunt uitwisselen tussen verschillende frames, want als GPU 2 data nodig heeft uit het 'vorige' frame (bv. reflection mapping of zo), dan is dat 'vorige' frame eigenlijk het huidige frame waar GPU 1 mee bezig is.

Leuk en aardig, maar met dat soort dingen gaat SLI/Crossfire dus niet zo goed om. Voor ontwikkelaars is het heel lastig om met al dat soort edge-cases rekening te houden, omdat SLI/Crossfire vanuit de API gezien gewoon een complete black box is.
Het is eigenlijk een wonder dat het nog in zo veel gevallen goed gaat.

Dat verandert nu dus met DX12/Vulkan/Mantle: je krijgt nu zelf ook de controle over de GPUs, en het is geen complete black box meer.

[Reactie gewijzigd door Scalibq op 7 juli 2015 09:38]

Bij nader inzien, heb je zeker gelijk, ik zal hier nog wel even een nachtje of twee over slapen en waarschijnlijk tot de conclusie komen dat een 950 SLI config erg dom is :P
Kan je inderdaad op hopen, maar heb geen idee. Sinds de 750(Ti) kon het opeens niet meer, daarvoor nog wel met de 450/550/650 (en Ti), dus het is best twijfelachtig of het weer kan met de nieuwe kaarten.
Wellicht wanneer niet dat het nog softwarematig via de SLI hack kan werken, maar dat zal ook zonder enige garanties zijn, plus de afhankelijkheid van een modded driver als de GPU standaard non-SLI is. Zie topic TechPowerUp over HyperSLI. Heb het zelf wel eens gebruikt met 2 GTX570 op een non-SLI bord, maar dat is totaal anders dan wanneer je bord wel SLI ondersteund maar je GPU's niet. :P
Daarbij, de performance is sowieso meestal slechter dan hardwarematige SLI. Dus wat dat betreft hoop ik dat het gewoon native hardmatige aanwezig is.
Als de kaarten geen SLI fingers hebben kom je ook nergens natuurlijk, en alle x50 kaarten hadden er ook maar 1, dus dan ben je ook gelimiteerd tot 2-Way.
Vraag me af waarom dat nu ineens niet meer supported is, waren de x50 kaarten niet interessant genoeg voor SLI?

De x50 kaarten zijn verder prima mid-end kaartjes, goed voor upgrades voor wat simpelere PC's en kunnen redelijk games afspelen, soms wel op high zonder AA met goede FPS in moderne spellen.

Vroeger met de GTS 250 1Gb redelijk kunnen gamen i.c.m Q9550/4Gb, voorbeeldjes zijn dan Bad Company 2 en DiRT2, liep allemaal vlekkeloos op 1680x1050 op hoge instellingen zonder AA, de FPS zat regelmatig boven de 60 als ik het me goed herinner.
CoD2 haalde ook gewoon vrij stabiel 333fps (voor glitches, zombie mod) zonder AA op Dx7.

De x50 kaarten worden vaak nog best onderschat voor wat ze kunnen, maar dan moet je wel redelijk zijn qua instellingen die je gebruikt in spellen, x40 en lager daarentegen is niet echt meer game-waardig tenzij je oude spellen speelt, maar dan zit je ook in de low-end.
Misschien mijn oude GTX 580 vervangen voor 950 weet iemand of dit een goed idee is of moet ik voor amd of GTX 750 gaan ik snap het verschil tussen GTX 750 en 950 niet.... :) :) :) :)
De GTX 950, als die uitkomt, is dan gewoon nieuwer, nieuwe architectuur. De GTX 750 was meer een refresh op de Kepler architectuur op de 600 series.
Yup, dat betekent oa dat je ook DirectX 12_1 featurelevel hebt, en HDMI 2.0.
Dat had de 750 nog niet. Qua features zijn de 580 en de 750 vrijwel gelijk, dus lijkt me dat geen logische stap.
Proest, wat? GTX750 en Ti zijn ook al Maxwell, geen Kepler, alleen dus Maxwell 1e generatie (GM107). De 950 is dus ook geen nieuwe architectuur, alleen een volgende generatie Maxwell (GM206) met bijbehorende nieuwe features.

@ onder: dat kan gebeuren soms. ;)

[Reactie gewijzigd door marcel87 op 6 juli 2015 13:12]

Nou, mijn excusus, was dat vergeten...
http://gpuboss.com/gpus/GeForce-GTX-950M-vs-GeForce-GTX-750

Wel de M versie, maar geeft al een aardig beeld. En de 950 zal er tussen staan zodra deze uit is.
Sowieso een makkelijke site om snel verschillen te zien tussen verschillende GPUs.
Zal deze kaart ook HDMI 2.0 ondersteuning krijgen?
Dat lijkt me wel en ik denk ook de HEVC/H265 decoder uit de 960 dus dit zal een uitstekende HTPC kaart zijn.
Klopt, GTX950 GTX950Ti en GTX960 zijn allemaal dezelfde familie en bezitten dezelfde technologische snufjes.

Kitguru bericht verder:
The GPU supports all modern graphics and GPU compute technologies, including DirectX 12.1, OpenGL 4.3, OpenCL 1.1 and others. The GM206 supports H.265 (HEVC) encoding and decoding and thus can be used to watch movies in Ultra HD resolution and on Ultra HD Blu-ray discs. The GM206 is also fully compatible with HDCP 2.2 content protection over HDMI 2.0.
http://www.kitguru.net/co...es-graphics-cards-report/
Hoop dat ze ook een GTX 960ti aankondigen, zelf vind ik de 960 net te mager voor mijn game setup, en de 970 is een overkill (ook qua prijs)
Ok, maar als er een 960Ti zou uitkomen en je die zou kopen dan heb je in totaal waarschijnlijk alsnog meer uitgegeven als aan een enkele 970 ;) Wellicht dat je de 960 nog met flink verlies kunt verkopen dan zul je onder de streep exact een 970 gekocht hebben, maar "enkel" een 960Ti hebben.

MAW: is dat het geld echt waard?
Ik was niet helemaal duidelijk: op het moment bezit ik nog geen 960. Ik overweeg deze aan te schaffen als vervanging van mijn kapotte Radeon 6870 HD.
nVidia zou beter het gat opvullen tussen de GTX960 en GTX 970, dat is namelijk gigantisch (qua prijs en performance)
de GTX960 vind ik ook te duur voor wat hij biedt en de sprong naar een GTX970 is toch best hoog
AMD biedt daar het enigste alternatief

een GTX950 mag, maar is zeker geen noodzaak
de GTX660 of GTX750ti is even snel (als ze de GTX950 sneller maken is de positie van de GTX960 problematisch)
Er is idd een gat tussen de GTX960 en GTX970 , maar onder de GTX960 is er sprake van een ravijn als je kijkt naar kaarten met de nieuwe features. Dit zal de eerste kaart van rond de 150 euro zijn die HDMI2.0 ondersteunt ? Ik had gehoopt op iets lagere prijs aangezien nou ook weer niet zo'n spectulaire verbetering tov 750(Ti) is. Nouja dit zijn geruchten... laten we hopen dat de prijs meevalt!

[Reactie gewijzigd door AtariXLfanboy op 7 juli 2015 01:47]

Zou er ook nog een 960Ti of een 970Ti komen of blijft het bij de 980Ti?
Ik vind het eigenlijk ook wel tijd worden. Nvidia heeft eigenlijk geen low/mid tier line-up. Je kan een verouderde kaart kopen (bijvoorbeeld de 750ti), maar dan krijg je een belabberde prijs/prestatie verhouding, voor een deel omdat de prijzen niet genoeg zijn gezakt. Eigenlijk is de GTX 960 de meest low end kaart die niet weggegooid geld is.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True