Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 154 reacties

Nvidia claimt dat de nieuwe DirectX 11-api er niet voor gaat zorgen dat er meer videokaarten verkocht worden. Gpgpu-mogelijkheden zouden volgens het bedrijf veel belangrijker voor consumenten zijn bij de keuze voor een nieuwe videokaart.

DirectX 11 zal niet de doorslaggevende reden zijn om een nieuwe videokaart te kopen, aldus Mike Hara, vice-president of investor relations bij Nvidia. DirectX 11 zal slechts één van de redenen zijn, terwijl general purpose-applicaties die werklast naar de gpu schuiven de belangrijkste reden zullen vormen voor consumenten om een nieuwe videokaart te kopen. Visuele verbeteringen en betere grafische prestaties zouden er tegenwoordig minder toe doen. Nvidia legt de nadruk op zijn gpgpu-taal Cuda, waarmee een aantal applicaties hardwarematig versneld kunnen worden. Opvallend genoeg beschikt DirectX 11 over een eigen gpgpu-taal, genaamd DirectCompute. Verder is er nog OpenCL en dit is een open standaard waar zowel ATI's als Nvidia's videokaarten mee overweg kunnen.

In plaats van het streven naar steeds meer frames per seconde op hogere resoluties, is Nvidia van mening dat vooral physics en artificial intelligence van belang gaan worden in spellen. Nvidia's eigen technologie, zoals PhysX en Stereo 3D, moeten voor extra immersie in spellen zorgen, waar hogere resoluties en simpelweg meer frames per seconden niet aan zouden kunnen tippen. Nvidia's volgende generatie van gpu's, waar tot op heden alleen nog over gespeculeerd is, zou zich dan ook vooral op de gpgpu-kant richten. De uitspraken van Hara komen niet zomaar uit de lucht vallen: AMD gaat binnenkort 's werelds eerste DirectX 11-videokaart op de markt brengen, terwijl Nvidia's DirectX 11-gpu nog alleen op het tekenbord lijkt te bestaan.

Moderatie-faq Wijzig weergave

Reacties (154)

@ Bulls

Het is helemaal niet te snel omdat,

Dat er voor DX 10 weinig echte games uitkwamen die hier gebruik van maakte had vooral te maken met het Vista verhaal, het was niet aangeslagen en dus was het ook niet interessant genoeg om er in veelvoud voor te ontwikkelen.
Tevens waren kwa echt grafische verschillen tov DX 9 en DX10 tja het was niet zo groot vind ik maar ook dat wijt ik aan dat men de ontwikkeling voor DX10 niet zo serieus heeft genomen

Nu Win 7 er aan zit te komen en we weten hier voor een groot deel wel hoe win 7 er uit gaat zien wat er aan getweaked is( minder frustraties) lijkt het me wel logisch dat mensen die toch bij XP bleven omdat ze vista maar niets vonden nu wel eerder een stap zullen zetten naar win7.

Met win 7 komt DX 11 en dat platform samen gaat verwacht ik het erg goed doen, ook de ontwikkeling van games voor deze DX versie zal sneller gaan lopen, zo ver ik weet gaan er al enkele games dit jaar nog compatible met DX 11 worden, en lijkt mij dat vanaf volgend jaar het erg snel zal gaan lopen tov vista met DX10 en de daar voor ontwikkelde games.

DX10 en vista was/is niet interessant genoeg gebleken voor gamers maar ook niet voor game makers vanwege dat zo'n grote groep toch op XP bleef, wat ik persoonlijk denk is dat men nu wel gaat overstappen, vista was gedoemd te mislukken terecht of niet terecht dat laat ik in het midden, de media en alle andere bladen en sites waren vanaf het begin al niet positief, en dan kan het snel rond gaan in de wereld dat een OS niet goed is.

Men is nu wel positief(er) over Win 7 wat dat betreft en dat is denk ik wat ik zelf tot nu toe heb ervaren wel terecht, wat mij betreft is het dus niet te snel dat men afstapt van DX10 en naar DX 11 toe gaat en vista en DX10 laat voor wat het is, al begrijp ik ook weer dat mensen balen dat nu al DX 11 er aan komt en ze bv net een systeem hebben gekocht met een DX 10 kaart en vista.

Nu het Nvidia verhaal,

Men deed denigrerend over ATI met hun DX 10.1 als in het was niet nodig men zag er niets in, achteraf kwam men er op terug en kwamen er kaarten die wel dx10.1 ondersteunden.
Ik denk dat het andere probleem is dat Nvidia weinig tot geen ervaring heeft met het 40NM proces en het toch harder tegen valt dan men heeft geanticipeerd.
De mindere ervaring met dit procede en met dx 10.1 dat zorgt deels denk ik zeker voor de vertraging, men heeft zich er misschien op verkeken.

Verder hoop ik wel dat het geen half jaar zal duren eer Nvidia kaarten klaar heeft want het zal de prijs tot dan enkel hoger houden( al kan men ook zeggen de prijzen zullen toch een stuk lager zijn) dan toen Nvidia als eerste met DX 10 kaarten naar buiten kwam dus gun ATI dat ze even wat meer willen verdienen op deze nieuwe serie.
Die geluiden lees en hoor ik ook en kan ik wel begrijpen

Dat Nvidia dit bericht uitgeeft lijkt me gewoon marketing en dat is zo gek niet
Wat moet men dan aan geven richting hun klanten? we zien dat we een achterstand hebben en dat ATI van ons zou kunnen weglopen omdat we nog geen antwoord klaar hebben voor de komende tijd.
Nvidia zit ongeveer in dezelfde positie als ATI toen der tijd met DX 10 kwa achterstand

Wat ik zelf heb ervaren toen ik nog in een niet te noemen pc winkel werkte is dat mensen afgaan op hogere getallen 11 klinkt weer beter dan 10 en mensen schaffen eerder dan de 11 aan dan de 10, zeker als de nieuwe windows er is en verkopers gaan aan geven( wat ze doen)

Vista was gewoon niet goed maar Win7 wel die is wat vista had moeten zijn en dat soort uitspraken, en deze videokaart is ook uit de nieuwste serie etc etc.. we kennen ze allemaal wel
Dan gaan ze verwacht ik wel zeker beter verkocht worden dan vista+dx10

Afijn al met al we have to wait and see, wie weet zitten we er allemaal naast en gaat Windows 7 een flop worden, worden de eerste generatie DX 11 kaarten amper verkocht en komt Nvidia binnen paar dagen alsnog met een geduchte linie kaarten tov ATI, het kan allemaal je weet maar nooit

[Reactie gewijzigd door pino85 op 18 september 2009 14:58]

Moet ik daar even aan toevoegen dat DX11 ook voor vista komt, en dit is ook wel een reden waarom het meer zal aan slaan dan DX10, waarvoor iedereen een nieuw OS nodig had. Nu gebruikt een groot deel van de mensen (zeker gamers met high-end spul) vista al, dus je hoeft helemaal geen w7 te gebruiken
Afijn al met al we have to wait and see, wie weet zitten we er allemaal naast en gaat Windows 7 een flop worden, worden de eerste generatie DX 11 kaarten amper verkocht en komt Nvidia binnen paar dagen alsnog met een geduchte linie kaarten tov ATI, het kan allemaal je weet maar nooit
Nee, dat kan niet :) Windows 7 is veel beter getest dan vista (vooral de gratis te dowloaden beta's hebben geholpen, hier was iedereen heel enthousiast over). Die werkte prima met alle drivers/spellen/wat dan ook. Dat de DX11 kaarten van Ati slecht verkocht worden lijkt me ook sterk als je de prestaties ziet (en de prijzen op salland). En dat NVidia dit jaar nog met nieuwe kaarten komt kan al helemaal niet, dan zouden ze dat wel van de daken schreeuwen en ze hebben het alleen maar over CUDA 8)7

[Reactie gewijzigd door bwerg op 18 september 2009 16:30]

Zo ver ik weet kan je met DX 11 op vista niet gebruik maken van alle functies?
Maar ik ben het stukje kwijt waar dat op een rijtje in stond, misschien dat iemand anders dat even verduidelijken?
Daarnaast echte High end gamers betalen wel +-100 euro aan Windows 7, dat lijkt me niet dat mensen als ze de beta hebben getest en hebben ervaren hoe dit OS draait en aanvoelt tov Vista daar een probleem van maken of ze komen er via andere wegen aan, die zullen dus voor een deel of een groot deel overstappen, des te meer omdat echte high end gamers met high end pc's van alle functies van DX 11 gebruik willen maken

Maar waar ik het ook over had is die hele grote groep die nog onder Xp bleef omdat men niet naar Vista wilde stappen vanwege allerlei bekende redenen die hier al zijn genoemd
Het laatste stukje wat je quote moest je een beetje sarcastisch nemen natuurlijk, nam aan dat mensen dat wel begrepen, maar misschien was het te onduidelijk, dus vandaar bij deze :)

[Reactie gewijzigd door pino85 op 18 september 2009 17:40]

Daar gaan ze aardig naast zitten bij Nvidia.

Mensen hebben Vista overgeslagen (massaal overgeslagen) nu is iedereen weer zo'n beetje aan een nieuwe PC toe. Intel en AMD hebben nieuwe CPU's er is sneller geheugen en een nieuwe WiFi standaard, een geheel nieuw OS dat aan alle kanten beter is dan Vista en mensen zijn toe aan een nieuwe PC crisis of niet.
Er zullen maar weinig mensen zijn die een nieuwe PC willen hebben die niet alle mogenlijkheden benut die al dit nieuws te beiden heeft. Een nieuwe PC zo als die binnenkort in de winkel schappen licht bij iedere grote en kleine retailer speciaal zaak en zelfs super markt zal minimaal de volgende configuratie hebben.
  • 1 Multi core CPU
  • 2 tot 6GB aan geheugen (al dan niet DDR3 single of tripple channel)
  • 500GB tot 1.5TB aan disk
  • WiFi n
  • 20" widescreen LCD
  • Windows 7
  • En een GPU die in ieder geval alles kan dat Windows 7 te bieden heeft
Mensen zouden gek zijn als ze iets anders zouden kopen dan dat. De overgrote meerderheid van de kopers van een nieuwe PC weet niet hoe ze een keuze moeten maken tussen alle verschillende opties of wat deze opties nu precies in houden. GPGPU zegt een gemiddelde gebruiker dan ook helemaal niets. Zij zullen echt niet in de rij staan om een 3-way SLI opstelling te kunnen kopen en dan... ja wat dan er zijn vrijwel geen toepassingen die hier echt gebruik van kunnen maken en nog minder mensen die ook echt behoefte hebben aan deze toepassingen.
Nvidia lijkt heel erg veel te gokken op GPGPU toepassingen en het lijkt er steeds meer op dat ze dat doen omdat ze niet instaat zijn hun huidige GPU's echt te verbeteren of de nieuwe DX11 mogenlijkheden te implementeeren. Het is jammer maar als Nvidia zo door gaat gaan ze echt een flink eind achterop raken in verhouding met AMD.
Over je "minimale pc" ben ik het niet eens! Als je ziet dat er nu soms nog celerons verkocht worden, denk ik niet dat er dalijk alleen minimaal mulitcores met een goede graka verkocht worden!

Ik denk eerder dat het gros naar de prijs kijkt, en dat al die vreemde combinaties van getalletjes en lettertjes niet echt meegenomen wordt aangezien ze dit niet herkennen. Ik heb al vaak zat gehoord: ik zoek een nieuwe pc van zo'n 300 euro...daar koop je echt geen pc voor zoals jij die hierboven voorschoteld.

Zelf help ik die mensen op weg door te zeggen dat je met een kleine extra uitgave (400-500) een veel betere pc bouwen die tenminste eventjes mee kan.
Waarom Ati zo bij is met DX 11 heeft enkel deels te maken met het feit dat ze de enige DX 11 producent zijn met werkende kaarten namelijk, als gevolg van het feit dat ze vroeg begonnen zijn hebben ze ook veel van hun eigen technieken in DX11 kunnen krijgen (dit heb ik afgeleid uit een artikel hier op tweakers, zal zo het linkje even zoeken, ah hier is de link
http://tweakers.net/nieuw...gpu-tijdens-computex.html, bekijk vooral het filmpje).

Nvidia is hier niet blij mee, omdat DX11 dus meer ATI gericht is dan de voorgaande DX en, dit betekend dus dat het voor hun lastiger wordt grote performance verschillen te halen.

[Reactie gewijzigd door Shal-Ziar op 18 september 2009 15:38]

Ik heb net even zitten kijken naar wat dingen over DX11 en game developers lijken ongelofelijk blij met de nieuwe api!

Hier is een filmpje waarin sommige van de top game developers uitleggen wat de voordelen zijn van DX 11.
Vooral dingen zoals compute shading en multithreading zullen een groot verschil maken wanneer je games speelt. En ook zullen de effecten van een multi-Gpu opstelling nu veel duidelijker zijn dan bij DX 10

Link naar filmpje : http://www.youtube.com/watch?v=ghazN5L7Ncw
En hier nog 1 : http://www.youtube.com/watch?v=6Wp4Y-u8-Qw

[Reactie gewijzigd door Senghir op 18 september 2009 15:49]

Ik wens ze bij Nvidia veel succes. Het gaat hard bergafwaarts met ze. Zo hebben ze nu zo goed als zeker geen console contract meer worden ze door vele notebook fabrikanten gemijt van wegen het vrij ernstige bumpgate probleem. En nu dreigen ze ook nog de high-end desktop markt uit handen te verliezen. Als je het mij vraagt zullen ze toch echt met iets revolutionairs moeten komen om de markt te laten zien dat ze nog wat pit hebben. Maar met 2% yields met hun GT300 zal het er niet echt beter op worden. http://www.semiaccurate.c...dia-gt300-yeilds-under-2/
Nu zal het wel een monster chip worden met geweldige prestaties maar de yields moeten beter worden anders zal hij nooit winst gevend worden.
Ik kan begrijpen dat ze graag andere mogelijkheden zoeken om interessant te kunnen blijven voor klanten. Alleen er zijn nou niet echt revolutionair veel titels die de Physix van nvidia ondersteunen en die dat wel doen zijn het eigenlijk naar mijn mening niet waard om daar speciaal een high-end nvidia kaart voor aan te schaffen. Ik zie meer succes in OpenCL
Ik hoop wel voor nvidia dat het ze toch lukt om het eind van het jaar goede verkoop cijfers te behalen of nog met een tegen antwoordt te komen voor de radeon 58xx serie. Ze hebben wel gelijk dat DX11 nog geen must is. Misschien dat ze er met een prijs verlaging or rebrand wel komen.
Kat, nauw, rare sprongen?
helemaal mee eens:

1) DX11 beschikt nou JUIST over nieuwe GPGPU functies met het grote verschil dat dit nou eindelijk goed werkt op zowel AMD als NVIDIA kaarten. OpenGL heeft ook een eigen variant, waardoor CUDA eigenlijk geen bestaansrecht meer heeft, dan wel inferieur is.
2) GPGPU is vooralsnog alleen interessant voor professioneele applicaties. Hoewel dit in de toekomst misschien verandert. Het lijkt mij niet dat de professionele markt de grote drijfveer is voor aanschaf van nieuwe kaarten.

Kortom, NVIDIA klets hier een beetje omdat ze hun troef (CUDA) verliezen aan AMD, die ook nog eens betere prestaties neer zet. PhysX is wel weer mooi, maar het is zo jammer dat alles NVIDIA only is. Die hele GPGPU 3rd party suite van NVIDIA lijkt mij sowiso wat nutteloos voor de meeste developers aangezien je er niet vanuit kan gaan dat gamers NVIDIA kaarten hebben. Zouden deze libraries DX11 compute shaders gebruiken, dan zouden ze veel meer waarden hebben.
GPGPU is vooralsnog alleen interessant voor professioneele applicaties. Hoewel dit in de toekomst misschien verandert.
het encoderen van video en audio noem ik toch geen professionele applicatie. dat is juist een van de dingen waar de gemiddelde thuis gebruiker nog wel eens tegenaan loopt en waar hij lang op moet wachten.
maar dat hebben zowel nvidia als ATI ook al beschikbaar, al moet er nog wel wat aan gesleuteld worden.
hopelijk met de komst van dx11 word dat beter, en krijgen we 3de party programma's die op beide werken.

[Reactie gewijzigd door Countess op 19 september 2009 01:09]

Dat is misschien iets overdreven, maar voorlopig kunnen ze er geen nieuwe chip tegenover stellen, in ieder geval niet een DX 11 chip. Dus deze opmerking is wel begrijpelijk.

Teleurstellende yields voor nVidia GT300?
Volgens SemiAccurate kampt nVidia met enorme productieproblemen bij de nieuwe GT300 chip. Zo zouden er van de 416 geproduceerde samples slechts 7 vrij zijn van productiefouten, een teleurstellend percentage van 1,7%. Als dit echt zo is loopt nVidia veel vertraging op, want deze samples zijn er juist voor om intensief getest te worden op mogelijke bugs en stabiliteitsproblemen. Als er maar zo weinig samples 'levend' van de band komen zal het dus ook langer gaan duren voordat de productieversie gereed. En als de chip gereed is voor productie is het nog maar de vraag of er dan wel acceptabele yields worden gehaald, aangezien een te lage yield alle winstmarge kan doen verdampen.
Toen nV DX10-kaartjes op de markt kwamen, was dat nog een belangrijk verkoopargument.
Het lijkt er dus op dat nVidia's antwoord op de HD5800 serie pas in 2010 komt, waardoor ze een flinke achterstand zullen oplopen als het gaat om marktaandeel in DirectX 11 hardware. Daarbij komt dat alle spelontwikkelaars hun DirectX 11 games kunnen programmeren voor de architectuur van AMD, een voordeel dat nVidia had toen zij in 2006 als eerste een DirectX 10 kaart op de markt brachten in de vorm van de GeForce 8800 GTX.

[Reactie gewijzigd door dirkjesdirk op 18 september 2009 14:03]

als ze een 3 respin nodig hebben zitten we tegen de zomer van volgen jaar aan te kijken, wat niet heel on waarschijnlijk is.

ATi kan met de 5xxx serie, bij elke NV kaart een tegenhanger lever die net zo snel is voor de zelfde prijs, maar wel DX11 heeft, en zelfs de grootste digebeet zal inzien dat DX11 beter is dan DX10.
En GPGPU is voor 90% van de mensen een non argument tegen over DX11

Als de meeste mensen een nieuwe PC kopen, doen ze dat voor 3~5 jaar, en dus zeker wel nut hebben van DX11

Het zou het zelfde zijn om een 10% goedkopere 720p TV te kopen ipv 1080p, als je weet dat je een BR speler er op gaat aansluiten volgend jaar.

maar ja ATi heeft ook veel meer tijd gestoken in het ontwerp proces, plus ATi heeft met AMD veel meer knowhow in huis als het om het ontwerpen van chips gaat dan NV.

Voor ATi was het samen gaan met AMD natuurlijk best goed, want ze kregen op eens alle AMD kennis van het chip ontwerpen er bij van een eigen bedrijfs foundery, naast de kenis die ze zelf al hadden, NV heeft deze luxe niet.

[Reactie gewijzigd door player-x op 18 september 2009 14:59]

maar ja ATi heeft ook veel meer tijd gestoken in het ontwerp proces
Waar baseer je dat nu weer op? Traditioneel zijn de ontwikkelteams bij ATI kleiner geweest dan die bij NVIDIA, die een veel grotere speler was in de GPU wereld.
plus ATi heeft met AMD veel meer knowhow in huis als het om het ontwerpen van chips gaat dan NV.
ATI heeft met AMD een heleboel ontwerpers in huis die ervaring hebben met het ontwerpen van CPU's op basis van een eigen procedee, dat in weinig lijkt op het general purpose TSMC 40nm procedee. Die ervaring helpt maar weinig. Bovendien heeft de CPU tak die ontwerpers hard genoeg nodig om Intel een beetje bij te kunnen blijven benen.
Waar baseer je dat nu weer op? Traditioneel zijn de ontwikkelteams bij ATI kleiner geweest dan die bij NVIDIA, die een veel grotere speler was in de GPU wereld.
ATi had de 4770 niet echt nodig maar had die voornamelijk nodig als proef run om de 40nm TSMC procedure te testen, want als die niet had gewerkt van af het begin was er en tweede of derde respin geweest.
De 5xxx serie is gebaseerd op wat men heeft geleerd van de 4770
ATI heeft met AMD een heleboel ontwerpers in huis die ervaring hebben met het ontwerpen van CPU's op basis van een eigen procedé, dat in weinig lijkt op het general purpose TSMC 40nm procedé. Die ervaring helpt maar weinig. Bovendien heeft de CPU tak die ontwerpers hard genoeg nodig om Intel een beetje bij te kunnen blijven benen.
Cross seminars tussen de verschillende divisies en uit wisselen van engineers helpt natuurlijk echt wel bij het vergroten van je kennis
En de ontwikkelings-database en tools zullen ook vast wel hier en daar zijn uit gewisseld wat vast ook geen negatieve uitwerking heeft gehad op het begrijpen an verschillende processen
En AMD heeft ook verschillende general purpose procedé in hun foundery.
Toen nV DX10-kaartjes op de markt kwamen, was dat nog een belangrijk verkoopargument.
verkoopargument? ja misschien om bepaalde gebruikers over te halen. directx 10 zat in vista, en de meeste menen die spellen spelen op de computer gebruiken xp (in ieder geval onder de mensen die ik ken) en maken dus geen gebruik van directx 10. ik heb nu mijn tweede directx10 kaart, en ik heb nu windows 7, waar het volgens mij in zit. en dat volgens mij slaat vooral op het feit dat ik er helemaal niets van merk. ik zie persoonlijk geen voordelen voor mijzelf om over te schakelen van directx9 naar directx10/11, en voor mij is dat dus ook geen reden om een nieuwe kaart te kopen. voor mij is de reden dat ik mooie spellen wil spelen op een hoge resolutie en met veel frames per seconde. dat ze dan directx, direct3d of opengl ondersteuning hebben maakt mij niet uit, het moet mooi en snel zijn.
DX10 is een schonere interface en bepaalde features zijn wel mogelijk of eerder rendable en dat maakt games mooier.
Crysis is een slecht DX10 voorbeeld. Dat is meer DX9 geport naar DX10.
De Call of Juras DX10 US edition. Is een grootschalige DX10 update. Waar er een veel groter verschil is tussen DX9 en DX10.

Dus dat Dev's er amper van gebruik maken heeft meer te maken dat de beperkte Vista DX10 target audience. De dev's meer 'n Dx9 game maken met optioneel een DX10 Path.
ipv een dX10 game met een DX9 noodloop.

Windows 7 en Vista aandeel kunnen samen DX10 mainstream maken en voor een sneller DX11 migratie. Dus veel interrestanter om als dev's te ondersteunen.
Zodra nV ook met hun volledige DX11 lijn oppakken.
Wordt DX10 mogelijk de mainstream target en DX11 vaker optioneel.
crysis slecht voorbeeld? ik vind dat crysis zéééér goed werkt onder DX10, veel mensen zagen over de lagere FPS, maar ik heb nog steeds geen enkel spel gezien dat zo een mooie beelden op mijn scherm tovert met dezelfde FPS.
Alles van semi -accurate is onzin. Kan ik evengoed fudzilla posten:
http://www.fudzilla.com/content/view/15535/34/
Nvidia confident that GT300 wins over HD 5870

[Reactie gewijzigd door aval0ne op 18 september 2009 14:21]

zowel semi accurate en fudzilla kunnen prima gelijk hebben. en sterker nog hebben ook aardig vaak gelijk.

bijvoorbeeld
Nvidia confident that GT300 wins over HD 5870
ik weet vrij zeker dat dat waar is. maar dat is alleen puur de performance van 1 chip gekeken.
haal je de kosten van de chip erbij dan word de hd5870 de duidelijke winnaar.
dat doet niks af aan het feit dat nvidia nu kan kampen met yield problemen bij de gt300.
(wat niet zo gek is want 40nm heeft wat problemen, en de gt300 is een gigantische chip, de hd5870 is al groot met 2miljard transistors maar de gt300 word nog eens een flinke stap groter)

daarbij dat fudzilla artikle gaat over de MENING van Nvidia. en word ook zo gepost.
de artikelen van semi-accurate gaat over geruchten en industriële geheimen in de 3de persoon.

[Reactie gewijzigd door Countess op 18 september 2009 16:22]

laten we hopen voor nVidia dat de GT300 sneller is dan de HD5870:
de chip komt waarschijnlijk 6 maand later op de markt, als die dan maar even snel/trager zou blijken te zijn, kunnen ze gewoon sluiten...
Nou nee ATI en nV doen het aardig goed in de OEM markt. Dat zhebben niet dat "sletten" gedrag dat asl het even mee of tegen zit ze meteen hoppen naar de ander. Wat in de retail markt de gang van zaken zijn.

De reden dat de AMD CPU branch het zo moeilijk heeft en had. Waarbij een OEM markt heerser zoals iNtel. Met een mindere produkt toch winst kan halen.

Bedrijven die puur of grotendeels afhankelijk waren van de retail markt zoals 3DFX die leggen dan het loodje.
Vraag mee af of Matrox een concurentie moker slag krijgt door ATI eyefinity. Aangezien AMDTI hiermee Matrox nich en profi markt hiermee toch enigzins aanvalt.

Maar ja bedrijven springen niet zo gretig over als in consuementen retail makten.
env ergeet de dual chip versie niet.
grote kans dat ati's 5870x2 sneller is dan een gtx380.
voor een vegelijkbare prijs.

maargoed dat merken we vanzelf
en als DX11 geen jump gaat veroorzaken.
dan doet de enorm goede dx9/10 performance dat wel.
deze kaarten zijn snel en betaalbaar.

aka deze kaarten gaan erg goed verkopen.
en NVIDIA weet dat zelf ook prima
nV zou dan de snelste single GPU kaart hebben.
Maar in x2 form, kan dat alleen in gereduceerde ULV form in X2 formaat. en misschien dat niet eens, wegen bepaalde Watt grens die men dan zou overschrijden. En indien het toch haalbaar is dan komt weer dicht bij 5870x2 performance.
Geen X2 voor nV dan zou ATI de snelste kaart hebben 5870x2
Ook al is dat zo, de GT200 komt drie kwart jaar later dan de 5800 serie...?
Dat is het zelfde als zeggen alles wat aval0ne schrijft onzin is, wat in deze context waarschijnlijker is.

De naam van zijn website is semi-accurate, waar mee hij al aangeeft dat niet alles wat hij schrijft 100% betrouwbaar is in vergelijk met bv T-net, en dat hij ook over geruchten schrijft.

Maar als je eens de moeite zou doen om zijn artikelen te lezen, zou je zien dat hij altijd aan geeft wanneer hij iets weet of wanneer hij iets vermoed.

Vooral op GPU nieuws komen bij hem de meeste rodel/leak nieuws vandaan, welke naar mijn ervaring voor zo een 80% ook kloppen.

Er is geen journalist in de GPU wereld die ook maar aan zijn connecties kan tippen.
Er is geen journalist in de GPU wereld die ook maar aan zijn connecties kan tippen.
Er zijn ook maar weinig journalisten in de GPU wereld die aan zijn afkeer van NVIDIA kunnen tippen.

Overigens zijn er sowieso maar weinig journalisten in de GPU wereld. Charlie is moeilijk een echte journalist te noemen, hij is eerder een veredelde blogger, en dat geldt voor veel te veel "jounalisten" in dit gebied.
... Semi-Accurate IS onzin.


Een klok die niet tikt staat ook 2 keer per dag juist.
Terwijl alle nieuws site over de wereld lagen te slapen, kwam hij al met de soldeer problemen (het later NV Bumbgate waar nog steeds veel laptops aan dood gaan zonder dat er garantie word geven op de productie fout), en later nog eens met artikelen waar pressies de problemen zaten.

En als je de moeite neemt om zijn oude artikelen te lezen, zal je zien dat het merendeel van zijn berichten is uitgekomen.

Maar ja er zijn wel een hele boel NV fanboys die hem het liefst tegen de muur zouden zien en in het NV hoofd kantoor zijn er zelf een aantal die graag zelf de de trekker zouden willen overhaal van wegen het wijzen op al hun fouten dat hij doet.
En als je de moeite neemt om zijn oude artikelen te lezen, zal je zien dat het merendeel van zijn berichten is uitgekomen.
Haha, laat me niet lachen. Er is zelfs een hele site gewijd aan de FUD die Charlie verkoopt. Hij loopt gewoon wat te verzinnen en is 99% verkeerd.

http://charliedemerjianisadouchebag.blogspot.com/
Je hebt ongeveer de zelfde gedachte gang als die van necon Republikeinen hebben en linkse Democraten in de USA.

Alles wat de ander zegt is fout, en wij heb gelijk.......

Laten we het hier maar op houden "time will tell"
Avalone is zo'n nV enthausiast.

De velen geruchten geven al een hint dat ATI voor een poos of poosje DX11 only zullen zijn. De geruchten geven aan dat nV begin 2010 of net op de valreep 2009.

Tja zijn geruchten maar het ziet er naar uit dat het waar wordt.

nV die altijd aggresief zich in de markt zet. Zou met deze PR en marketings blaad ook al hinten. Anders stonden ze ook helemaal achter DX11.

Daarnaast zijn er ook de geruchten dat GT300 weer een godzilla size chip wordt. Net zoals GT200A was.
Dit houd in, meer diespace dat op dezelfde dieshrink 40nm dus veel meer transistoren te benutten dan de concurrent. en dus meer potentie voor meer performance.

Dus die GTX380 zal wel een stuk sneller zijn maar zal ook een stuk later zijn.
Een ook een duur te produceren chip. En dus ook duurdere Gkaart.
DX11 is ideaal voor marketing en OEM zullen daar al snel mee pareren en voor hun is hogere featureset belangrijk. Dus AMDTI zal het in de OEM markt beter doen.

DX11 praktisch valt bij een DX11 killer game. Een game die dX11 vol en zinvol benut.

Tja Dat is het probleem.

Dat nV de nadruk op AI en PhysX zet geld eigenlijk hetzelfde verhaal. Games moeten dit eerst zinvol en daadwerkelijk toepassen.


Als je budged €300 is dan zal je in de toekomst niet om ATI heen komen. Ze bieden de performance voor midrange prijsje.
nV zal later ook met alternatieven komen. Maar de GTX380 is voor diegene die groot budged heeft en gaat voor absolute performance.

DX11 AI en PhysX GPPGU zal er voorlopig niet zoveel toedoen.
Als je de markt splits houd dat devs eerder tegen. Dus met DX11 Compute shaders en openCL support is dit niet nV troef. Hooguit dat als je veel Euries hebt met nV de hoogste performance haald.

Maar devs richten zich niet op dé snelste want dat is maar een fractie van de markt en dus oninterressant om een game daarop te targetten.
Het is maar net hoe je het wil lezen. DirectX 11 opzich is ook weinig reden om gelijk een nieuwe kaart te halen. Er moet wel software zijn die er ook goed gebruik van maakt. Hoe lang heeft het wel niet geduurd voordat Dx10 een beetje zinnig werd gebruikt?
Daarnaast is er een grote groep mensen die helemaal geen games spelen. Die hebben misschien wel iets aan het gpgpu gebeuren. Hoe die percentages liggen durf ik niet te zeggen maar op die manier kun je de volgende opmerking verklaren:
DirectX 11 zal slechts één van de redenen zijn, terwijl general purpose-applicaties die werklast naar de gpu schuiven de belangrijkste reden zullen vormen voor consumenten om een nieuwe videokaart te kopen.
De trage aanname van DX10 is grotendeels te wijten aan het feit dat de Vista launch zo ontzettend slecht was.
Met DX11 is dit anders aangezien Vista DX11 functionaliteit krijgt (dus veel mensen hoeven niet eens van OS te veranderen) en daarbovenop lijkt het erop dat 7 een stuk beter ontvangen zal worden.
Omdat meer mensen dus ook al DX11 capable OS hebben zullen meer bedrijven ook DX11 games maken, en als er DX11 games zijn koopt de consument ook wel DX11 grafische kaarten.
Verder zit ATI op dit moment DX11 aardig te pushen bij de game developers wat ook zal helpen. :)
De grootste reden waarom DX10 niet van de grond komt is consoles, het heeft allemaal niks met Vista te maken. Gamedevelopers ontwikkelen nou eenmaal liever voor consoles dan voor PC's ivm piraterij.

De huidige consoles ondersteunen niet meer dan DX9 (hoogstens DX9 extended) en dat zijn de eerste targets waarvoor wordt ontwikkeld. Daarnaast wordt voor shaders voor multiplatform titels vrijwel exclusief gebruik gemaakt van CG en SM3.0 vergelijkbare instructies.

Zelfs Crytek heeft op de E3 gezegd dat hun volgende engine voornamelijk gericht is op de huidige consoles en niet meer op high end PC's. Dit is een van de weinige ontwikkelaars die daadwerkelijk DX10 ondersteunden.

[Reactie gewijzigd door NC83 op 18 september 2009 17:26]

Gamedevelopers ontwikkelen nou eenmaal liever voor consoles dan voor PC's ivm piraterij.
Net zozeer de piraterij maar simpelweg omdat je alles wel kan verkopen op consoles (b titels die op de pc in de budget bak belanden kun je als AA titel wegzetten op consoles), en development zal ook wel goedkoper zijn door de hardware beperkingen op consoles
Development is echt niet goedkoper hoor, de moeilijkheidsgraad maakt niet uit voor de kosten van development. Reclame, sponsoring voor merken en de mensen die er aan werken bepalen de development kosten meer.
Vergeet niet dat DirectX 10 titels pas vanaf laat 2007 uitkwamen, een heel jaar nadat Vista uit kwam.
Dit waren titels die niet veel verkocht werden, relatief gezien.

DirectX 11 titels zoals Dirt 2 word al 10 dagen verkocht, terwijl Windows 7 nergens te bekennen is in winkelrekken.
In dit geval zijn de spellen er al voordat de rest er omheen verkrijgbaar is.
Ook is het aantal aangekondigde DirectX 11 titels een flinke meervoud t.o.v. DirectX 10 launch titels.
Correctie de console versies worden al verkocht de PC versie komt pas in December en die heeft DX11.
Van de andere kant... Hoe lang heeft het geduurt totdat er van DX9 zinnig gebruik werd gemaakt? Dat was slechts een kwestie van maanden!!! En DX11 heeft met zaken als continuous tesselation minstens zulke grote grafische voordelen als DX9. Ik durf de gok wel aan dat DX11 heel snel heel populair wordt.

DX10 was hoofdzakelijk een interne architectuur aangelegenheid, die weliswaar hoogst noodzakelijk was, maar waar de consument weinig van merkte. Daarom dat de consument daar geen belang bij had. Dat het ook nog eens tegelijk met een OS upgrade kwam, maakte het nog een graadje erger. DX10 is wat dat betreft totaal onvergelijkbaar met DX11!

Dat NVidia DX11 wil bagataliseren is duidelijk... ze lopen op dat punt mijlenver achter op AMD.
Inderdaad, ik ben bang dat de gewone consument zich eerder vergaapt op DX11 dan dat men weet wat gpgpu inhoud. Mensen die deze kaarten zullen kopen zullen over het algemeen games spelen, dus zal dx11 meer toevoegen.
Inderdaad.

Doet me denken aan 3DFX.

3DFX: 32 Bit kleur geen impuls voor verkoop videokaarten.
Hadden ze ook een punt ten tijde van de Voodoo 3. Die moest tegen de TNT2, en ondanks dat ik zelf de laatste kaart had speelde ik toch wel in 16bit aangezien de framerate ineen stortte. Eigenlijk wel vergelijkbaar met DX10, aangezien dat in den beginne ook de framerate flink lager deed zijn tegen minimale beeldverbetering.

DX11 is een andere kwestie, maar goed, nVidia probeert wederom hetzelfde. Eerst DX10.1 nutteloos verklaren, terwijl blijkt dat AA gewoon vele male snellen kan worden toegepast en het daarnaast vele andere voordelen biedt. Je moet wat, als je zelf al geruime tijd achter de feiten aan loopt en ondertussen niet veel meer doet dan oude wijn in nieuwe zakken verkopen.
Haha, geniaal gebracht +2! :+

Maar inderdaad wel verdacht, als NVidia nu met DX11 kaarten kwam was DX11 de toekomst. Achja, ze hebben nog altijd veel marktaandeel en macht. Menig mens zal NVidia achterna lopen 8)7
Microsoft has learned its lesson, and the situation is very different with DirectX 11. It is essentially a superset of DirectX 10.1, itself a superset of DirectX 10. This means that game developers will be able to design their games for DirectX 11, but the Direct3D 11 runtime will scale back graphics features that are not supported by the hardware. This also means that Windows Vista users will be able to install DirectX 11, which means a bigger market for game developers.

Bron Dailytech.com

Misschien begrijp ik het verkeerd maar bovenstaande zou dan ook inhouden dat er van DX10 verwacht werd dat het een impuls aan de aanschaf van nieuwe videokaarten zou geven juist omdat het exclusiever van aard was dan DX11 wordt? Met andere woorden DX11 geeft vergelijking met DX10 in mindere mate een impuls aan de GPU verkoop...
Ik snap niet helemaal wat je bedoelt, maar om een poging te wagen:
Natuurlijk werd gedacht dat DX10 omarmt werd door iedereen die gamed. Probleem was alleen dat het Vista exclusive was en als iets een slechte reputatie had (en nog steeds wel heeft), is het Vista.
Ook moesten developers een aparte DX10 engine schrijven. Daarom moet je bij de meeste (zo niet alle) games een aparte .exe gebruiken als je DX10 wilt. DX11 is in feite (dat wordt in het artikel gezegd) DX10 met heel veel leuke nieuwe (handige, goede) snufjes. En die extra's kunnen worden uitgezet. Dezelfde engine zal dus ook werken met DX10 kaarten, maar dan zul je niet alle opties kunnen gebruiken (zoals tesselation).

En Ati heeft ervoor gezorgd dat developers goed voor DX11 konden programmeren. Uit eigenbelang natuurlijk, want op het moment hebben zij er baat bij dat er snel DX11 games komen. Bij DX10 was dit veel minder dacht ik, waardoor het langer duurde voordat er games uitkwamen met DX10 (naast het feit dat niet veel mensen het zouden gebruiken).
Dat bedoelde ik idd ;)
Dus de verwachtingen stellen ze nu naar beneden bij tenopzichte van de hoempapa die we aan moesten horen bij de introductie van dx10/vista....
Tuurlijk promoot nvidia hun eigen spul :z
PhysX is nog steeds niet echt doorgebroken en van cuda zie ik ook vrijwel niks. Hoop overigens dat standaarden als OpenCL veel gebruikt gaan worden.

Ben benieuwd wat hun antwoord wordt op de nieuwe AMD kaarten!

[Reactie gewijzigd door cpt.skydiver op 18 september 2009 13:52]

PhysX niet door gebroken? Het word in 100+ commerciele spellen gebruikt op zowel PC, XBox360 en PS3.
Of verwar je PhysX met hardware accelerated physics computation van PhysX? PhysX is middleware, net zoals Intel's Havok. De voornaamste reden waarom je geen hardware acceleration voor AMD kaarten hebt is omdat dit voor nVidia een belangrijk verkoop argument is voor hun kaarten. Maar dit gaat wel veranderen met OpenCL.
PhysX word te vaak verkeerd gebruikt. Een leuk recentelijk voorbeeld hiervan is de recentelijke Batman game. Het gebruikt PhysX op alle platformen voor de physics. Maar alleen op de PC kan je nog extra physics objecten toevoegen.

[Reactie gewijzigd door elmuerte op 18 september 2009 14:29]

Je hebt gebruikt en gebruikt. 99% van de implementaties is ergens een nutteloos bankje dat in elkaar stort waardoor ze de sticker PhysX dragen en NVIDIA hun de vette premie geeft. De andere gevallen zijn games waar het gewoon over-the-top gebruikt maakt en waar je moet braken door de saaiheid van steeds alles kapot te schieten.
Je praat echt onzin. Physics simulaties worden op veel meer plekken gebruikt dan allen "in elkaar stortende" dingen. Bijna alle voertuigen in spellen zijn volledige physics gestuurd.
Klopt, PhysX is niets anders dan marketing foefje...
Nee dat is het ook niet, het gebrek zit hem in het gebruik dat we zien. Je kan zeggen dat er +100games gebruik van maken maar bijna allemaal gebruiken ze het in iets waar je niets aan hebt. Is zoals de Wiimote. Leuk ding maar in zoveel games is het gewoon om een labeltje te krijgen en werkt het vaak enerverend.
Je moet wel onderscheid maken tussen CPU PhysX, wat inderdaad in veel titels wordt gebruikt, en GPU PhysX. GPU PhysX is in potentie veel krachtiger, omdat de GPU beter geschikt is voor de berekeningen, maar het is nog maar zeer weinig geimplementeerd, mede doordat het alleen op NVidia hardware werkt.
*Dit* is het antwoord op de 58XX serie van Ati?

maw, hun next gen is nog niet af en proberen je nu af te houden een nieuwe kaart te kopen.
Wacht nog maar even want je wil toch geen Dx11.

[Reactie gewijzigd door Cyberia404 op 18 september 2009 13:54]

Dit dus. 'Wie geeft er nou om mooie plaatjes en hoge fps, terwijl je ook zoiets triviaals als PhysX kunt hebben?!'
Ging DX11 niet ook de kant van de phyisics op? Zoiets dacht ik gelezen te hebben, maar het kan ook zijn dat het over iets anders ging.

Ik kan het alleen maar met Noel eens zijn.


En ik ga toch echt een nieuwe GPU kopen voor DX11.
Het lijkt wel of nvidia ligt te slapen?
Tuurlijk gaat er dan meer videokaarten verkocht worden. Mensen willen met de tijd mee. Dus die nemen Windows 7 en een nieuwe videokaart. Als mijn videokaart wordt vervangen ga ik over op Windows 7 en ik wacht op een Direct x 11 kaart.
Inderdaad, geloof me, net als bij Vista kopen de mensen het soms ook uit onwetendheid: "Vista komt tot zijn recht met DX10" en "Er komt een nieuwe DX uit, iets voor het visuele mooier te maken!" en hopla, die dingen worden gekocht. Ik denk dat er veel meer zware gpu's in de pc's steken bij de mensen thuis, dan nodig is.

Waar ik meteen aan moet denken bij een nieuwe DX, is de overgang naar DX10. Best veel mensen kochten al gauw een DX10-kaart (mede door Vista, bij aanschaf nieuwe PC elke 4 jaar oid), maar die functionaliteit werd nauwelijks gebruikt. Ik iig niet; de drop in framerate was te groot. De nieuwe DX10 leek enkel weggelegd voor de echt zware gpu's en gamers. Ondertussen zit ik op een (nieuwe) gpu met 10.1 en kan ik er wel volop gebruik van maken, maar wat blijkt, DX11 maakt zijn opwachting...

Toch een beetje zwak van nVidia om zo'n uitspraak te doen imho, ze zouden moeten meegaan met DX11, als wereld- en toonaangevend bedrijf. Wat gaan ze nu doen, DX12 ontwikkelen voor AMD dat doet? Gaan we een kat-en-muis-spelletje krijgen? Waarom zou die dan wel beter zijn?
Als microsoft in de windows 7 marketing campagne DX11 prominent gaat lopen verkopen, dan kan nVidia het wel vergeten met hun GPGPU toekomst. De nieuwe ATi chips zullen dan als een trein verkopen, vooral ook omdat PC bouwers natuurlijk wel de features willen kunnen verkopen die Windows 7 ook etaleert, ook al is het maar DX11 in een budget videochip.
Hoho! Niet alle mensen willen met de tijd mee. Deze jongen wil alleen met de tijd mee, als de tijd me ook daadwerkelijk wat te bieden heeft!

Als mijn videokaart wordt vervangen ga ik over omdat mijn nieuwe videokaart kan wat ik nodig heb.

Als je toch je geld kwijt wilt: PM me even! :)

En dan nog mijn gouden tip: verplaats je eens in de gedachten c.q. behoeften van een ander. Ik heb nieuws voor je: er zijn meer mensen op deze planeet dan jij!
Wat je zegt klopt wel maar ik denk dat er toch aardig wat mensen, sowieso in mijn directe omgeving die nog met een wat ouder systeem zitten die speciaal wachten tot Windows 7 en zo mogelijk DirectX 11 kaart, dat laatste ligt meer aan het gebruik van het systeem maar veel mensen wachten nu tot 22 Oktober. ;)
Het lijkt wel of nvidia ligt te slapen?
Tuurlijk gaat er dan meer videokaarten verkocht worden. Mensen willen met de tijd mee. Dus die nemen Windows 7 en een nieuwe videokaart. Als mijn videokaart wordt vervangen ga ik over op Windows 7 en ik wacht op een Direct x 11 kaart.
Begrijp je wel wat er gezegd wordt?
DirectX 11 zal niet de doorslaggevende reden zijn om een nieuwe videokaart te kopen ... DirectX 11 zal slechts één van de redenen zijn,
Ja, en hij zegt wat anders... Oftewel hij heeft er een andere visie op. Je ziet toch wel dat dat een slecht excuses is om die DX11 kaart nog ff te laten wachten. Ze hebben gewoon nog niks dus dit is hun ''verdediging' oftewel marketing ;)

Geloof me achter de schermen hebben ze heus wel haast hoor ;) (mag ik toch hopen)

[Reactie gewijzigd door watercoolertje op 18 september 2009 14:19]

Er zijn nog te weinig DX10 supported games, en het is imho al veel te snel dat ze weer met een opvolger komen. Laten ze dan eerst de boel beter uitwerken en had de features van DX11 gelijk in DX10 gestopt maar een jaar later uitgebracht.

Ik ben er onderhand zat van om als betalende consument een beetje de beta tester uit te hangen. OK je hoeft het niet te kopen, maar je moet toch eens een keer een nieuwe videokaart hebben mocht je meer willen gaan met de ontwikkeling.

Tis eigenlijk het zelfde als dat HD ready en Full HD gedoe.
DX10 was half mislukt bij de introductie (niemand wilde naar vista) en krijgt vaak de kritiek dat het verschil met DX9 bijna niet te zien is. Geen wonder dat er te weinig DX10-games zijn waren (DX10 is nu echt wel standaard hoor). Veel features die in DX11 zitten zouden ook in DX10 komen, maar dat is geannuleerd (ik geloof door een klacht van NVidia, die net als nu hun zaakjes niet op orde had). Ati had hun spul echter al klaar, en dat is toen DX10.1 geworden.

En zoals je zegt: Je hoeft niet te kopen. Als je dit allemaal niks vind, koop je toch lekker een DX10 kaart (of DX9 zelfs)? Werkt ook prima, voor ieder wat wils. Ja, dan mis je wat features maar dat is niet gek als je niet altijd het nieuwste van het nieuwste hoeft. (Als we het dan over TV's hebben: je hoeft toch ook niet bepaald Blu-ray, DVD werkt toch ook prima? We gaan toch ook niet klagen dat een DVD-speler nu weer oud is, terwijl we net een nieuwe DVD-speler hebben gekocht.)

DX10 is trouwens al uit 2006... in de wereld van hardware is dat echt niet meer nieuw hoor...
Ik heb ook een ATi HD4870, en een duur waterblock erop, hij doet het echter prima, maar ik zie het niet zitten om straks alweer een nieuwe te moeten kopen (en wachten tot er weer een redelijk waterblok ervoor te krijgen is) Maargoed voordat DX11 een beetje ingeburgerd is...

Trouwens vind ik het aanbod DX10 games wel erg laag.
Wat is daar hetzelfde aan?

Vanuit mijn optiek heeft het feit dat er überhaupt twee standaarden zijn (HD-ready en FullHD) gewoon te maken met de productiekosten. Destijds bij de introductie van de LCD tv's had je gewoon nog geen 1920*1080p resolutie tv's en als ze er al waren geweest waren ze ongelofelijk duur. Nu wordt je doodgegooid met FullHD tv's met een vanaf prijs van rond de 5 a 600 euro.

Het argument om op dit moment een HD-ready tv te verkiezen boven een FullHD tv kan puur en alleen van estetische aard zijn.

On-topic: nVidia kan dat wel roepen zoals ze dat ook met DX10.1 deden maar feit is dat stilstaan achteruitgang is. DX 10, 10.1, en 11 zijn allen met een bepaald doel voor ogen ontworpen en als er geen vooruitgang geboekt zou zijn in de diverse versies wat is dan het punt van het releasen van een nieuwe, zonder hier verder al te diep op in te gaan.

Ik vind het gewoon nogal kortzichtig, de techniek is er en als je hier geen gebruik van wenst te maken op deze toch al moordende competitie van AMD/ATI vraag ik me wel af of je genoeg visie hebt om deze periode te boven te komen.

En als ik een kaart moet kopen die DX 10, 10.1 of 11 aan boord heeft maar voor de rest identieke specs heeft en het verschil tussen een DX10 en DX11 kaart is 2 tientjes dan zal ik het niet nalaten voor DX11 te kiezen.

Want a: je wil als tweaker toch zeker het nieuwste van het nieuwste b: weer een mooie lange-penis-specificatie: "Ik heb een kaart met DX11 en jij?" en ten slotte c: het zal je zomaar gebeuren dat ineens out of the blue iets alleen nog maar DX11 ondersteund (waarschijnlijkheid is zeer klein maar dan nog).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True