Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 68 reacties

De RV770-gpu van AMD zal eind mei gereed zijn en de eerste kaarten met de nieuwe generatie grafische chips zullen in juni verschijnen, meldt de site Nordic Hardware. Waarschijnlijk worden de eerste modellen met gddr3-geheugen uitgerust.

In februari kon uit een uitgelekte productpresentatie nog opgemaakt worden dat AMD zijn RV770-chip ging combineren met gddr5-geheugen, maar volgens de laatste berichten is dit in ieder geval in eerste instantie niet het geval. De reden dat de eerste kaarten op basis van de nieuwe chip nog gddr3-geheugen meekrijgen, is dat ze hierdoor met een aantrekkelijke prijs uitgebracht kunnen worden. Bovendien is dit type geheugen volop beschikbaar, stelt Nordic Hardware.

Over de komende kaarten is nog veel onduidelijk maar over het aantal van 32 texture mapping-units lijkt iedereen het wel eens te zijn. Verder zou de kloksnelheid niet boven de 900MHZ uitkomen, wat nog altijd een snelheidswinst van 50 procent ten opzichte van de huidige RV670 moet opleveren. Ook wordt er gesuggereerd dat de grafische chip over maar liefst 800 unified shaders gaat beschikken. AMD's RV770 moet dit jaar de concurrentie aangaan met Nvidia's GT200-core.

AMD RV770-kaart
Moderatie-faq Wijzig weergave

Reacties (68)

Er komen stuk of 6 tot 7 varianten van de RV770.
Welke de eerste wordt zien we dan wel.

800SP is meer een gerucht, neem eerder aan dat het 480SP's worden. De RV670 heeft 320SP's.
Eigenlijk zijn het 64 stream processors die 5d berekeningen doen. Dit gaat dan omhoog naar 96 stream processors.

Dit worden zeeeeeer interessante kaarten, ook omdat ze goed betaalbaar gaan worden.
Wat is je bron?
Als er zoveel varianten zijn, wat is dan 'goed betaalbaar'?

Een marktknaller lijkt het niet te worden op het eerste zicht omdat het geheugen geen nieuwe standaard is (daarentegen is gDDR4 natuurlijk duurder, maar dat heeft niets met marketing te maken) en de clocksnelheden zoals ze in het artikel worden gepresenteerd achter blijven om een 'big-boom' the veroorzaken onder de consumenten.

Mijns inziens is het beter om wél een gDDR4 dan wel gDDR5 kaart op de markt te brengen omdat dit een nieuwe technologie zou betekenen welke veel harder in de markt inslaat dan een gepimpte RV670 chip. (vgl. NVIDIA 8000 naar 9000-series).

Als er geen nieuwe technologie wordt gepresenteerd en de performancewinst laag is, lijkt het erop dat ATI/AMD steeds meer de naam van valule/budget en 'achteraanloper' zal krijgen, ook als je bijvoorbeeld de Phenom series vergelijkt (nog niet te spreken van de bugs die er in zaten door overhaaste release).

My 2 cents
NVIDIA had al besloten om GDDR4 over te slaan en AMD gaat het gewoon ook doen waarschijnlijk.
de r600 ondersteund wel Gddr4. de r700 zal die ook ondersteunen waarschijnlijk maar de meeste fabricanten zullen er gewoon gddr3 op zetten
Als er geen nieuwe technologie wordt gepresenteerd en de performancewinst laag is, lijkt het erop dat ATI/AMD steeds meer de naam van valule/budget en 'achteraanloper' zal krijgen, ook als je bijvoorbeeld de Phenom series vergelijkt (nog niet te spreken van de bugs die er in zaten door overhaaste release).
1) De naam 'achteraanloper' zul je alleen binnen tweakers-kringen horen (niet direct doelend op de t.net achterban), iedere normale consument begrijpt dat je aan price/performance meer hebt... gelukkig begrijpen bedrijven als Dell en HP dat ook prima :)

2) Als je het over Phenom hebt, zorg dan in ieder geval dat je ingelicht bent. De bug is geen oorzaak van een overhaaste release, de bug zat namenlijk al in de K6-III architectuur. De Phenom heeft een 9-jaar oude bug 'ge-erft' zullen we maar zeggen. bron
5d? Bedoel je 5 dimensionaal?
Of ik heb liggen slapen, maar ik heb hier nog nooit van gehoord.
betekend dat ATI's 64 shaders 4 simple en 1 gecompliceerde berekening tegelijk kan doen. je zou die 64 dus keer 5 kunnen doen. kom je op de meeste gequote 320 shaders uit.
En dit houdt in dat Nvidia dus bijvoorbeeld 128 complexe shaders heeft, welke dan op de dubbele clocksnelheid draaien als de rest van de chip?!
Nee, de zogenaamde "special functions" worden op de G80 uitgevoerd door de interpolatiehardware (of beter gezegd, er is hardware voor zowel de interpolatie als de special functions). De 128 ALU's die NVIDIA zo graag Stream Processors noemt zijn ook relatief simpel, en kunnen alleen gewone operaties uitvoeren, net als 4 van de 5 ALUs van R600's 5D "ALU-groep" (is daar een fatsoenlijke term voor?)
Dus als ik het goed begrijp, zeg jij dat Nvidia's 128 "unified shaders" evensnel, zo niet sneller zijn werk doet dan de 320 5d-unified shaders van ATI, terwijl die 128 eigenlijk niet meer zijn dan die simpele alu's van die shaders van ati?
Dan vind ik dat Nvidia wel goed werk aflevert als ze in game-benches de kaarten van ati in het stof kunnen laten bijten.
Dus als ik het goed begrijp, zeg jij dat Nvidia's 128 "unified shaders" evensnel, zo niet sneller zijn werk doet dan de 320 5d-unified shaders van ATI, terwijl die 128 eigenlijk niet meer zijn dan die simpele alu's van die shaders van ati?
Ontwerpen vergelijken is altijd lastig, zeker als de ontwerpen zoveel van elkaar verschillen als bij AMD en NVIDIA het geval is. Een van de belangrijkste verschillen is al de clocksnelheid. Waar bij R600 de hele chip dezelfde clocksnelheid lijkt te hebben is deze bij G80 opgedeeld, en de "stream processors" van G80 lopen op anderhalf tot twee keer de snelheid van R600 (afhankelijk van welk model je bekijkt).
Daarnaast is AMD nogal makkelijk met de term "stream processor". Sowieso is het al verkeerd om de ALU's in G80 of R600 stream processors te noemen, maar goed, NVIDIA begon er mee, dus AMD heeft wat dat betreft het recht om er op verder te gaan. R600 bestaat gewoon uit 64 blokken van elk 5 ALU's. 4 van deze ALU's zijn ongeveer vergelijkbaar met die uit G80. De vijfde ALU voert "special functions" uit. Met die gegevens kom je al snel uit op 5 * 64 = 320, en dus roept AMD graag dat ze 320 stream processors hebben ]small](want dat klinkt nu eenmaal beter dan "4 SIMD clusters of 16 5-wide-superscalar VLIW ALU blocks", of iets dergelijks)[/small] Het probleem in de 320 vs 128 vergelijking is dus dat AMD ook de 5e special functions ALU van elk ALU blok meerekent bij z'n SP's, terwijl NVIDIA daarvoor de interpolatiehardware gebruikt, en deze wordt niet meegeteld.
Tot slot heeft R600 een behoorlijk nadeel ten opzichte van G80, vanwege de VLIW (very long instruction word) opzet van elke 5D eenheid. VLIW betekent dat elke eenheid een instructie"word" krijgt, met daarin een opdracht voor elk van de 5 ALU's. eenheden 1,2,3 en 4 gaan bijvoorbeeld een vector vermenigvuldigen, terwijl 5 een sinus gaat uitrekenen. Dit is in theorie een prima manier om de ALU's aan het werk te zetten, maar het bevat behoorlijk veel kans op problemen. Wat als er bijvoorbeeld geen special function operatie uitgevoerd hoeft te worden? Dan doet de 5de eenheid niets. Of, wat als er een enkele simpele operatie uitgevoerd moet worden, en de rest van je shadercode is afhankelijk van die functie? Dat betekent dat er een hele clockcycle opgeofferd wordt om 1 enkele operatie uit te voeren, en pas in de volgende cycles kunnen meerdere operaties uitgevoerd worden met het resultaat. Met andere woorden, het is heel goed mogelijk, zeker in shadercode met veel afhankelijkheden, dat maar een deel van de 5 ALU's in een blok effectief wordt gebruikt. (Dit is overigens ook waarom AMD drivers veel verschil kunnen maken in performance. De drivers moeten namelijk zo efficient mogelijk alle 5 ALU's in een blok aan het werk zetten).
In schril contrast daarmee staat de G80 architectuur. Waar R600 64 superscalar eenheden heeft heeft G80 gewoon 128 scalar ALU's. Elke R600 eenheid voert maximaal 5 operaties per clock uit, G80 gewoon 1. Dit betekent dat een vectoroperatie 4 keer langer kan duren op G80 (elke cycle 1 getal uit de vector), maar het betekent ook dat in situaties met veel afhankelijkheden G80 toch altijd aan het werk zal blijven. Er kan namelijk maar 1 opdracht per cycle worden uitgevoerd, dus afhankelijkheden zijn geen probleem.

Als we dit alles combineren kom je op een interessante vergelijking uit tussen de GPU's. G80 doet vier keer langer over een vector operatie, maar heeft wel twee keer zoveel eenheden, en draait op bijna dubbele clocksnelheid. R600 is wellicht iets sneller in vectoren dus, maar bij operaties op 1 element (a+b) kan het zijn dat R600 maar 1 operatie uit kan voeren. Hier voert NVIDIA ook maar 1 operatie uit, maar dan wel weer met de dubbele hoeveelheid ALU's en dubbele clocksnelheid.

Uiteraard is het te simpel om een hele GPU te gaan vergelijken op alleen de hoeveelheid uitgevoerde operaties per seconde, we krijgen daarbij ook te maken met efficiente thread scheduling, slimme caching, genoeg bandbreedte, enzovoort.
Toch is het wel duidelijk dat NVIDIA een slimmere route heeft genomen met G80's 'scalar' architectuur, omdat deze altijd aan het werk kan zijn, en minder van de driverschrijvers eist.
Damn man, bedankt voor de uitleg. Nu begrijp ik er ietsje meer van...
Toch blijft mij de nare nasmaak in gedachten achter dat de nieuwe kaarten van Ati dus beter als supercomputer kunnen functioneren (met hun Tera-flops) dan dat ze in games aan het werk gezet worden, omdat daar niet al hun potentie tot hun recht komt.
Terwijl de meeste mensen toch meestal een grafische kaart kopen om te gamen.
Vandaar de insteek van AMD op Fusion ;)
Denk dat dit vooral positief gaat worden voor de mensen met een iets lager budget. Dit zal de onlangs gereleasde HD38XX-modellen in prijs laten zakken, maar ook de Nvidia-kaarten zullen goedkoper worden. Zo komt HD-gaming in het bereik van meer mensen, ook die met een kleinere portemonnee.

Overigens vind ik dat er de laatste tijd wel erg veel nieuwe kaarten worden uitgepoept door ATI en Nvidia. Ik kan me nog herinneren dat er jaarlijks misschien één nieuw type kaart uit kwam. We zitten in april, hebben net de afgelopen 5 maanden een hele reeks aan nieuwe modellen de revue zien passeren en in juni zullen we de volgende generatie al weer te zien krijgen. Ongetwijfeld met veel betere specs dan de huidige generatie.

Je zult maar on-top willen zijn, net je HD3870 X2 OC hebben aangeschafd voor honderden euries en een maand later komt de nieuwe uit die nog meer kost. Daar word je niet happy van. Wat het beestje op het scherm gaat toveren, daar word ik vast wél happy van.

Ben in ieder geval blij dat ik me de afgelopen maanden niet gek heb laten maken en lekker door ben gegaan met m'n 7950 GT.. :)
ik ben blij dat ik mij al 4 jaar niet gek laat maken en nog steeds game op mijn X800VE (evensnel als de 9800se die hij verving door de garantie). ;)
Over een jaartje sla ik gewoon 3 hele generaties kaarten over :9

[Reactie gewijzigd door DeArmeStudent op 12 april 2008 02:07]

Ik wacht lekker op de G200. Ik ben er heilig van overtuigd dat die deze RV770 laat verbleken :)
Tot die tijd vemaak ik me nog wel met mijn 8800GT. Zeg nou zelf, welke games draaien daar niet goed op (op Crysis na dan)?

[Reactie gewijzigd door Janssen op 11 april 2008 10:07]

Ik denk het toch echt niet.

Ten eerste is RV770 een chip en niet de kaart zelf.
De snelste op deze chip gebaseerde kaarten halen 2 TeraFlops, wel theoretisch natuurlijk.
Het volgende lijstje geeft aan welke richting de nieuwe ATI producten ingaan:
http://www.nordichardware.com/news,7356.html

Denk dat sommige producten er anders uit gaan zien en verwacht dat er met hun A11 silicon (ATI brengt normaal A12 silicon uit wat beter presteert) een vervanging van de huidige HD38xx gaat komen en dus eerst met GDDR3. Denk ik althans.
Eerst komen de A12 silicon spins van de huidige HD38xx uit welke beter gaan presteren en hoger te klokken zijn. Alle gereleasde HD38xx zijn gebaseerd op A11.

ATI loopt voor op het fabricageproces en design op 55nm, terwijl nVidia niet alleen de achterstand moet inhalen maar ook nog eens de hitteproblemen in hun chips moet gaan oplossen (de GT200 heeft hier ook al last van). Dit brengt extra kosten met zich mee en wordt lekker verhaald naar de eindklanten. Daarnaast lopen ze ook achter met SM hardware implementatie waarbij hun producten een nog veel slechtere investering opleveren dan de laatste generatie ATI kaarten.
Daarnaast heeft ATI met hun bijna uitontwikkelde nieuwe generatie mobile GPU's heel veel design overwinningen binnengesleept wat betekent dat hun GPU's in de notebooks komen en niet die van nVidia. Dit is het PUMA platform.
Vervolgens is nVidia ruimschoots ingehaald met de integrated graphics op het gebied van ruwe performance en stroomverbruik, door ATI en zelfs Intel zet nVidia op achterstand.
Met andere woorden, nVidia heeft intern heel wat goed te maken willen ze de succesvolle keiharde come-back van ATI het hoofd bieden.
Dat nVidia zoveel geld heeft, heeft meer te maken met het feit dat hun kaarten slechte investeringen zijn, veel te duur zijn en hun eigen direkte klanten en eindgebruikers financieel uitknijpen.
Dankjewel nVidia.

Het is jammer dat de gamesdevelopers "omgekocht" worden door nVidia om alleen hun engines te optimaliseren voor nVidia. 3DMark06 heeft een veel betere engine en dan zie je dat de verschillen tussen de 2 fabrikanten heel dichtbij elkaar liggen.
Ik denk het toch echt niet.

Ten eerste is RV770 een chip en niet de kaart zelf.
De snelste op deze chip gebaseerde kaarten halen 2 TeraFlops, wel theoretisch natuurlijk.
Het volgende lijstje geeft aan welke richting de nieuwe ATI producten ingaan:
http://www.nordichardware.com/news,7356.html
Dus op basis van wat geruchten trek jij die conclusie. We weten helemaal niet wat de nieuwe NVIDIA kaart gaat worden dus je kan het ook niet weten.
Denk dat sommige producten er anders uit gaan zien en verwacht dat er met hun A11 silicon (ATI brengt normaal A12 silicon uit wat beter presteert) een vervanging van de huidige HD38xx gaat komen en dus eerst met GDDR3. Denk ik althans.
Eerst komen de A12 silicon spins van de huidige HD38xx uit welke beter gaan presteren en hoger te klokken zijn. Alle gereleasde HD38xx zijn gebaseerd op A11.
Je bedoelt dat de tragere HD38xx reeks een marginale prestatieverbetering ondergaat. Wat is het nu? Ze waren al trager dan de NVIDIA concurrenten en wordt ze iets minder traag.
ATI loopt voor op het fabricageproces en design op 55nm, terwijl nVidia niet alleen de achterstand moet inhalen maar ook nog eens de hitteproblemen in hun chips moet gaan oplossen (de GT200 heeft hier ook al last van). Dit brengt extra kosten met zich mee en wordt lekker verhaald naar de eindklanten. Daarnaast lopen ze ook achter met SM hardware implementatie waarbij hun producten een nog veel slechtere investering opleveren dan de laatste generatie ATI kaarten.
Dit is onwaar. ATi draait op een kleiner proces van NVIDIA, niet omdat ze voorsprong hebben wel omdat hun kaarten zo warm werden. NVIDIA kan ATI beconcurreren met GPU's die op een groter proces gebakken zijn en toch niet meer warmte produceren maar wel veel sneller zijn. Wie loopt dan voor? NVIDIA kan nog shrinken, ATI niet meer.
De hitteproblemen zijn geruchten van Fudzilla, dus wacht maar tot de kaart er is voor je blaat.
En over welke slechte investering heb je het? Het feit dat ATI dx10.1 is en NVIDIA slechts dx10? Ken jij DX10.1 games? Ken jij games die daardoor niet op NVIDIA hardware zullen werken? Nee, want ze bestaan niet. Je argumenten zijn gewoon niet correct.
Daarnaast heeft ATI met hun bijna uitontwikkelde nieuwe generatie mobile GPU's heel veel design overwinningen binnengesleept wat betekent dat hun GPU's in de notebooks komen en niet die van nVidia. Dit is het PUMA platform.
En wat is de relevantie van dit (als het al waar is)? Wil je de ATI goed nieuws show brengen ofzo? De nieuwe Dell laptops gaan nochtans NVIDIA video chips gebruiken.
Vervolgens is nVidia ruimschoots ingehaald met de integrated graphics op het gebied van ruwe performance en stroomverbruik, door ATI en zelfs Intel zet nVidia op achterstand.
Wat zit je te blaten? NVIDIA heeft helemaal geen achterstand, het dicteert wat er in de grafische markt gebeurt. Ze hebben de beste performance waar al 1.5 jaar geen ATI kaart aan toekomt? Zeg me 1 kaart van ATI die meer performance biedt dan de NVIDIA concurrent.
Met andere woorden, nVidia heeft intern heel wat goed te maken willen ze de succesvolle keiharde come-back van ATI het hoofd bieden.
Dat nVidia zoveel geld heeft, heeft meer te maken met het feit dat hun kaarten slechte investeringen zijn, veel te duur zijn en hun eigen direkte klanten en eindgebruikers financieel uitknijpen.
Dankjewel nVidia.
Je bent echt wel elke realiteitszin kwijt. Welke comeback van ATI? Die op basis van deze geruchten? Geruchten die niets bewijzen? Ik verwijs naar vroegere geruchten, de R520 ging een NVIDIA killer worden, de R580 dan maar, en dan R600. Ze hebben allemaal gefaald. Er is niets dat er op wijst dat het deze keer wel zal lukken. NVIDIA staat met de G80 al jaren onbedreigd aan de top. Nog steeds heeft ATI nog geen antwoord op deze bijna prehistorische kaart. Intussen heeft NVIDIA wel tijd genoeg gehad om te werken aan een nieuwe kaart. Dus heel wat meer tijd dan ATI. En geeft toch heel wat meer vertrouwen dan deze geruchten wat meer op de zoveelste haastklus van ATI lijkt te worden.
Het is jammer dat de gamesdevelopers "omgekocht" worden door nVidia om alleen hun engines te optimaliseren voor nVidia. 3DMark06 heeft een veel betere engine en dan zie je dat de verschillen tussen de 2 fabrikanten heel dichtbij elkaar liggen.
Wat een domme uitspraak. Het is droevig dat ATI fans het zwak presteren van de ATI kaarten wijten aan het omgekocht zijn van gamedevs. Is dat je enige verweer? Is het misschien al in je opgekomen dat ATI kaarten misschien gewoon niet goed genoeg zijn?
Is de 3dmark engine een engine die wel representatief is? Ik denk dat iedereen het er wel over eens is dat dit niet het geval is. 3dmark sores zijn niet te relateren aan echte ingame prestaties. Blijf jij maar mooi 3dmark spelen dan, toch iets wat sneller gaat op een ATI kaart.
jij bent aval0n dus dit is vrij zinloos maar ok
Je bent echt wel elke realiteitszin kwijt. Welke comeback van ATI? Die op basis van deze geruchten? Geruchten die niets bewijzen? Ik verwijs naar vroegere geruchten, de R520 ging een NVIDIA killer worden, de R580 dan maar, en dan R600. Ze hebben allemaal gefaald.
de r520 en de r580 deden het goed en waren goedkoper als nvidia en doen het huidige games beter als de nvidia concurrenten toendertijd.
http://www.techspot.com/a...3/bench/DX9_Medium_00.png
1950pro vs 7900gt. de 1950 was toen der tijd goedkoper maar scoort nu hoger, dat zie je in meerdere games terug. en meerdere generaties trouwens. ATI gaat voor de 150FPS in oudere games en goede performance in toekomstige games terwijl nvidia gaat voor de 200FPS en minder performance in toekomstige games.
zie bv aantal shaders (nieuwe games) vs het aantal texture units (oude game) en het verschil daartussen tussen nvidia en ATI.
NVIDIA staat met de G80 al jaren onbedreigd aan de top.
hij is nog geen 2 jaar uit.... dus hoe is het met jouw realiteitszin?
Dit is onwaar. ATi draait op een kleiner proces van NVIDIA, niet omdat ze voorsprong hebben wel omdat hun kaarten zo warm werden.
ze hebben dus wel een voorsprong :p.
en daar zal de process kennis van AMD ook zeker aan bijgedragen hebben.
maar wat de reden voor die voorsprong ook is het zorgt er wel voor dat ze steeds vaker in notebooks te vinden zijn... een markt die voor iedereen steeds belangrijker word.
afgelopen kwartaal hebben ze al flink meer verkocht als nvidia in de noteboek markt en als je kijkt naar alle toekomstige geplande laptops is het moeilijk om er een nvidia tussen te vinden (design wins)
Wat een domme uitspraak. Het is droevig dat ATI fans het zwak presteren van de ATI kaarten wijten aan het omgekocht zijn van gamedevs
je zit het regelmatig terug. nieuwe game, snelle FPS op een nvidia kaart. minder op een ATI, 4 maanden later scores liggen gelijk met nieuwe drivers.
door dat omkopen kan nvidia eerder aan de driver optimalisaties werken als ATI.
verander je de naam van de .exe van een game zie je vaak een heel ander beeld met nieuwe games. vergelijkbaar met wat je krijgt een paar maanden later.

edit @ snoitkever.
Je zou ook kunnen zeggen dat ATI verkeerde inschattingen blijft maken over (het tempo van) de veranderingen in de realtime graphics.
Ik vind het persoonlijk in ieder geval een vrij zwak argument, zeker omdat er geen bronnen zijn die beweren dat dit ATI's strategie zou zijn. Dat duidt eerder op slechte inschattingen, verkeerd management of misschien zelfs wel gewoon toeval.
het toont aan dat ze door hebben wat klanten nodig hebben en dus niet voor de overkill gaan en kaarten hebben die op de toekomst gericht zijn terwijl ze nu genoeg perfomance leveren.
ze hebben dus juist een vele betere inschatting gemaakt.
want 150 of 200FPS maakt echt geen ruk uit behalve voor mensen die de hele dag benchmarks draaien.
Het is juist een teken dat ATI ergens fouten maakt, en daar mogen ze gewoon op worden afgestraft, net zoals ze hard worden afgestraft als een nieuwe GPU niet naar verwachting presteert.
geen fouten, alleen nog geen optimalisatie voor bepaalde games.
nvidia kan daar gewoon eerder aan beginnen door hun programma.
verander de exe file maar is van bepaalde programma's in het begin zal er bij ATI meestal geen verschil zijn maar bij nvidia wel.
zoals devilsprophet al zegt, ATI's driver team is niet slechter, ze kunnen alleen later aan de slag met nieuwe games.

en
http://www.elitebastards....ati/cat68/prey-1600aa.png
http://www.tweaktown.com/...is_x1k_edition/index.html
die optimalisaties komen er dus echt wel, maar dus niet altijd gelijk met de eerste driver release.
en dat is zeker interestante informatie voor slimme mensen die een nieuwe kaart niet gelijk de eerste dag kopen maar fff wachten en er een stuk minder aan kwijt zijn.

[Reactie gewijzigd door Countess op 11 april 2008 16:21]

ATI gaat voor de 150FPS in oudere games en goede performance in toekomstige games terwijl nvidia gaat voor de 200FPS en minder performance in toekomstige games.
Je zou ook kunnen zeggen dat ATI verkeerde inschattingen blijft maken over (het tempo van) de veranderingen in de realtime graphics.
Ik vind het persoonlijk in ieder geval een vrij zwak argument, zeker omdat er geen bronnen zijn die beweren dat dit ATI's strategie zou zijn. Dat duidt eerder op slechte inschattingen, verkeerd management of misschien zelfs wel gewoon toeval.
je zit het regelmatig terug. nieuwe game, snelle FPS op een nvidia kaart. minder op een ATI, 4 maanden later scores liggen gelijk met nieuwe drivers.
Een vaak gehoord argument, vrijwel altijd ter verdediging van AMD kaarten. Er zijn een aantal problemen mee:

1) Ten eerste heb ik nog geen bronnen gezien waaruit blijkt dat dit argument ook echt waar is. ATI fans roepen graag "wacht maar tot de drivers beter zijn", maar komen daar nooit op terug met harde feiten.
2) Als drivers zo'n grote factor spelen bij de performance van ATI's kaarten, waarom zorgt ATI er dan niet voor dat ze goede programmeurs in dienst nemen? Als latere drivers betere performance geven betekent dat dus eigenlijk dat het driver team niet in staat is om fatsoenlijke drivers op te leveren bij de lancering van een product.
3) Een vaak gehoorde reactie op punt 2 is dat R600 nu eenmaal een complexe architectuur is, wardoor het lastig is om er drivers voor te schrijven. Dat lijkt me ook nogal een zwak argument, want dat zou betekenen dat niet het driver team slecht is, maar het ontwerpteam gewoon slecht bezig is.

Met andere woorden, ik zou de situatie graag eens om willen draaien. Als het verschil tussen driverversies zo groot zou zijn als ATI fans graag beweren snap ik niet waarom dat een verdediging zou zijn. Het is juist een teken dat ATI ergens fouten maakt, en daar mogen ze gewoon op worden afgestraft, net zoals ze hard worden afgestraft als een nieuwe GPU niet naar verwachting presteert.
door dat omkopen kan nvidia eerder aan de driver optimalisaties werken als ATI.
Het is bijzonder zwak om TWIMTBP als omkoping af te doen. Het is gewoon een enorm slim programma dat voordelen heeft voor NVIDIA, maar voornamelijk voor de ontwikkelaars zelf. Meer hierover bij een ingezonden stuk in The Inquirer.
Daarnaast staat het ATI natuurlijk helemaal vrij zelf een soortgelijk programma op te zetten, dus ik zie het hele probleem niet.
1) Ten eerste heb ik nog geen bronnen gezien waaruit blijkt dat dit argument ook echt waar is. ATI fans roepen graag "wacht maar tot de drivers beter zijn", maar komen daar nooit op terug met harde feiten.
2) Als drivers zo'n grote factor spelen bij de performance van ATI's kaarten, waarom zorgt ATI er dan niet voor dat ze goede programmeurs in dienst nemen? Als latere drivers betere performance geven betekent dat dus eigenlijk dat het driver team niet in staat is om fatsoenlijke drivers op te leveren bij de lancering van een product.
3) Een vaak gehoorde reactie op punt 2 is dat R600 nu eenmaal een complexe architectuur is, wardoor het lastig is om er drivers voor te schrijven. Dat lijkt me ook nogal een zwak argument, want dat zou betekenen dat niet het driver team slecht is, maar het ontwerpteam gewoon slecht bezig is.
Oh ja, ik hoorde net iemand anders zeggen dat het aanhalen van sites waarop jou gelijk bewezen word niet helemaal van toepassing is. Dit valt voor mij net zo hard onder de categorie "geruchten" dan het goede AMD nieuws op de fudzilla site.
Inquirer staat ook bekend om zijn subjectieve manier van verslaggeven, sarcasme, etc.. Ook zijn het ook vaak geruchten die worden gepubliceerd. Bovendien bewijst dat stuk helemaal niets. Het zou zelfs een publiciteitsstunt van Nvidia kunnen zijn. Dus wat je daar precies mee wil zeggen is me dan onduidelijk.

Dat jij het management, de strategie en ook nog de inschattingen van een redelijk succesvolle multinational in je eigen kleine geest durft te tegenspreken, vind ik ook al een reden om je post niet al te serieus te nemen. Hoeveel grote bedrijven heb jij geleid?
Oh ja, ik hoorde net iemand anders zeggen dat het aanhalen van sites waarop jou gelijk bewezen word niet helemaal van toepassing is.
Dus omdat iemand anders geen waarde hecht aan argumenten zou ik het ook niet moeten?
Inquirer staat ook bekend om zijn subjectieve manier van verslaggeven, sarcasme, etc.. Ook zijn het ook vaak geruchten die worden gepubliceerd.
Natuurlijk, dat maakt de site zo leuk. Maar wat heeft dat te maken met een ingezonden stuk?
Bovendien bewijst dat stuk helemaal niets. Het zou zelfs een publiciteitsstunt van Nvidia kunnen zijn.
Tja, dat kunnen we van elk bericht van wat voor bedrijf dan ook zeggen. Maar als we even Ockham's Razor toepassen lijkt het me toch echt een stuk logischer verhaal dan een of andere "omkoping" van bedrijven, waar zowel NVIDIA als de bedrijven zelf een stuk minder aan hebben dan aan de faciliteiten en diensten die in het artikel worden beschreven.

En tot slot ga je niet in op mijn belangrijkste punt: waarom zit iedereen zo te zeuren op TWIMTBP, terwijl AMD gewoon precies hetzelfde kan doen? Zelfs als er sprake zou zijn van "omkoping" is dat niet iets wat AMD niet zou kunnen doen.
Dat jij het management, de strategie en ook nog de inschattingen van een redelijk succesvolle multinational in je eigen kleine geest durft te tegenspreken, vind ik ook al een reden om je post niet al te serieus te nemen. Hoeveel grote bedrijven heb jij geleid?
Kleine geest? Als ik reageer op een AMD fan zal ik altijd kritiek hebben op AMD. Als ik reageer op een NVIDIA fan zal ik altijd kritiek hebben op NVIDIA. Waarom zou die kritiek mij direct een fanboy maken? En waarom mag ik niet mijn mening geven over de manier waarop AMD geleid wordt? Je kan toch moeilijk zeggen dat ze het de laatste tijd goed hebben gedaan...
Oh ja, ik hoorde net iemand anders zeggen dat het aanhalen van sites waarop jou gelijk bewezen word niet helemaal van toepassing is.
Dus omdat iemand anders geen waarde hecht aan argumenten zou ik het ook niet moeten?
Inquirer staat ook bekend om zijn subjectieve manier van verslaggeven, sarcasme, etc.. Ook zijn het ook vaak geruchten die worden gepubliceerd.
Natuurlijk, dat maakt de site zo leuk. Maar wat heeft dat te maken met een ingezonden stuk?
Wat dat ermee te maken heeft? Dat het twijfelachtig is natuurlijk. Als het echt zon goed gratis porgramma is is het toch verdacht dat het door een ex werknemer word gemeld? En niet door Nvidia zelf als verkoopstrategie. Waarom zou Nvidia zelf niet de moeite nemen om dat mysterie te ontrafelen maar laten ze dit door een ex werknemer doen? Of heb jij daar geen twijfels bij?

Bovendien bewijst dat stuk helemaal niets. Het zou zelfs een publiciteitsstunt van Nvidia kunnen zijn.
Tja, dat kunnen we van elk bericht van wat voor bedrijf dan ook zeggen. Maar als we even Ockham's Razor toepassen lijkt het me toch echt een stuk logischer verhaal dan een of andere "omkoping" van bedrijven, waar zowel NVIDIA als de bedrijven zelf een stuk minder aan hebben dan aan de faciliteiten en diensten die in het artikel worden beschreven.

Bij Occam's razor gaat het niet om het meest logische, maar gaat het om het meest eenvoudige en simpel te verklaren standpunt. Vind jij het logischer dat een ex Nvidia medewerker dit nieuws verteld ipv Nvidia zelf? Daar kunnen we over discussieren.
En tot slot ga je niet in op mijn belangrijkste punt: waarom zit iedereen zo te zeuren op TWIMTBP, terwijl AMD gewoon precies hetzelfde kan doen? Zelfs als er sprake zou zijn van "omkoping" is dat niet iets wat AMD niet zou kunnen doen.
Tuurlijk! Daar komt de bekrompen geest weer naar voren. Zou het niet zo kunnen zijn dat er exclusieve deals met softwaremaatschappijen worden gesloten door Nvidia? Ik zeg neit DAT het zo is, maar waarom zou Nvidia een hoop geld betalen voor exclusiviteit als AMD vervolgens voor niks vrolijk mee kan doen?
Dat jij het management, de strategie en ook nog de inschattingen van een redelijk succesvolle multinational in je eigen kleine geest durft te tegenspreken, vind ik ook al een reden om je post niet al te serieus te nemen. Hoeveel grote bedrijven heb jij geleid?
Kleine geest? Als ik reageer op een AMD fan zal ik altijd kritiek hebben op AMD. Als ik reageer op een NVIDIA fan zal ik altijd kritiek hebben op NVIDIA. Waarom zou die kritiek mij direct een fanboy maken? En waarom mag ik niet mijn mening geven over de manier waarop AMD geleid wordt? Je kan toch moeilijk zeggen dat ze het de laatste tijd goed hebben gedaan...
Je mag rustig een mening geven, maar kom dan met duidelijke goede argumenten. Dat jij, als jarenlange voorzitter van de raad van bestuur van een groot bedrijf, deze opmerking maakt, maakt veel meer indruk dan HBO informatica student van begin 20, vind je niet? Als je toch zo van een leuke theorie houd, dan wist je dat AMD juist goed terugkomt met de ATI branche. Als je dan nog gaat zeggen dat er sprake kan zijn van mismanagement, inschattingsfouten e.d. moet je toch echt eerst even verder kijken dan je neus lang is.

[Reactie gewijzigd door D2Freak op 11 april 2008 16:45]

Wat dat ermee te maken heeft? Dat het twijfelachtig is natuurlijk. Als het echt zon goed gratis porgramma is is het toch verdacht dat het door een ex werknemer word gemeld? En niet door Nvidia zelf als verkoopstrategie. Waarom zou Nvidia zelf niet de moeite nemen om dat mysterie te ontrafelen maar laten ze dit door een ex werknemer doen? Of heb jij daar geen twijfels bij?
Omdat NVIDIA nooit over wat dan ook iets naar buiten brengt. NVIDIA is zo ontzettend gesloten dat niemand een maand van te voren wist hoe revolutionair G80 ging worden, terwijl die architectuur vier jaar in ontwikkeling was en wel gewoon een "hard launch" had. Op dezelfde manier weet ook niemand nu ook maar iets van de nieuwe kaarten van NVIDIA, of waarom hun voor Q4 2007 aangekondigde terraflop monster niet uitgebracht is (en dit is niet zoals in het artikel geopperd werd G92, want die haalt maximaal 650Gigaflops).

Het punt is dat niemand hoeft te weten wat TWIMTBP inhoudt. Dat is van belang voor alle studio's die er aan mee werken, niet voor het algemene publiek. NVIDIA heeft er helemaal niks aan om het publiek in te lichten over hun developer relations.

Waarom zou NVIDIA meteen niet-competitieve, misschien wel illegale activiteiten aan het plegen zijn, zonder enig nut? Ze hebben er toch veel meer aan om goede testfaciliteiten te hebben? Dit geeft beide bedrijven een voordeel. Voor NVIDIA betekent het dat ze kunnen ontdekken waar problemen bestaan in hun drivers en in hun hardware. Daarnaast hebben ze de kans om hun drivers te optimaliseren (en natuurlijk ontken ik dat niet, maar dat heeft niks met wat voor omkoping dan ook te maken).
Voor de bedrijven geeft het de geweldige mogelijkheid om hun software te testen op een enorme hoeveelheid verschillende testplatformen en om daar te ontdekken waar problemen en oplossingen liggen voor betere performance. Daarnaast krijgen ze vast ook hulp van NVIDIA om hun games beter te laten draaien op die hardware.

Dus ja, NVIDIA heeft hier een voordeel over AMD, maar dat is natuurlijk de hele bedoeling van TWIMTBP. De naam is echter niet voor niets gekozen, want het is tegelijk goed voor de consument. Die heeft namelijk een beter presterende game met minder kans op fouten.
Aan de andere kant heeft TWIMTBP helemaal niets te maken met omkoping, concurrentievervalsing of wat dan ook. De voordelen zijn ook zonder omkoping overduidelijk. Daaarnaast blijf ik er bij dat AMD gewoon precies hetzelfde op kan zetten. Sterker nog, ze hebben er zelf baat bij, dus ik zie niet in waarom ze het niet zouden doen, maar goed, dat is niet mijn beslissing.
Zou het niet zo kunnen zijn dat er exclusieve deals met softwaremaatschappijen worden gesloten door Nvidia? Ik zeg neit DAT het zo is, maar waarom zou Nvidia een hoop geld betalen voor exclusiviteit als AMD vervolgens voor niks vrolijk mee kan doen?
Ik zie niet wat exclusiviteit er mee te maken heeft. De bedrijven zijn immers op geen enkele manier afhankelijk van NVIDIA. Als een ander bedrijf (bijvoorbeeld ATI) een betere deal heeft kunnen ze daar voor gaan. Zelfs als NVIDIA heel veel geld biedt voor exclusiviteit kan AMD precies hetzelfde doen.
Het is niet zoals bij bijvoorbeeld Windows waar Microsoft hogere OEM prijzen kan eisen aan fabrikanten, of lagere prijzen bij meer afname. Het enige dat NVIDIA zou kunnen doen is de drivers "deoptimaliseren" voor een game, maar daar schieten ze zichzelf weer mee in de voet, zeker als zoiets uit zou lekken.
Als je toch zo van een leuke theorie houd, dan wist je dat AMD juist goed terugkomt met de ATI branche. Als je dan nog gaat zeggen dat er sprake kan zijn van mismanagement, inschattingsfouten e.d. moet je toch echt eerst even verder kijken dan je neus lang is.
Gelukkig lijkt ATI inderdaad weer terug te komen. Ik hoop dan ook dat R700 het succes gaat worden dat het lijkt te (kunnen) worden. Dat neemt echter niet weg dat R600 een ramp was, die welliswaar gelukkig wat gered is door R670, maar nog steeds weinig competitie (alleen op prijsvlak) biedt tegen NVIDIA.

[Reactie gewijzigd door Snoitkever op 11 april 2008 17:24]

2) Als drivers zo'n grote factor spelen bij de performance van ATI's kaarten, waarom zorgt ATI er dan niet voor dat ze goede programmeurs in dienst nemen? Als latere drivers betere performance geven betekent dat dus eigenlijk dat het driver team niet in staat is om fatsoenlijke drivers op te leveren bij de lancering van een product.
Ik dacht net gelezen te hebben in Countess zijn post dat de voorsprong van nVidia ivm ("in verband met", niet "in vergelijking met") sneller goeie drivers hebben voor bepaalde games net kwam doordat nVidia wegens omkoperij vroeger aan de drivers kon beginnen werken dan Ati waardoor ze zo een voorsprong hadden, niet omdat hun driverontwikkeling superieur is.

Ik vind het dus raar dat je over Ati begint in deze kwestie en niet over nVidia.

Ofwel ga je er van uit dat wij merken dat je de aantijgingen aan nVidia's adres impliciet ontkent en direct overgaat op het bashen van AMD's "inferieure" driverontwikkeling. Wat is het nu? ;)

[Reactie gewijzigd door IveGotARuddyGun op 11 april 2008 15:45]

Ja leuk DevilsProphet, maar als je dat artikel dus leest van de inquirer uit de post van Snotkever, zonder direct te gaan posten, had je gelezen dat daarin een ex medewerker van Nvidia even aangeeft dat er slechts voor 1 spel is betaald om drivers te mogen optimaliseren, en dan ook nog in een uitzonderlijke situatie. Daar baseert hij dit hele verhaal op.
Verder vind ik de Runs best on Nvidia reclame tijdens het opstarten van een spel ook minimaal twijfelachtig.

[Reactie gewijzigd door D2Freak op 11 april 2008 16:24]

Ik dacht net gelezen te hebben in Countess zijn post dat de voorsprong van nVidia ivm ("in verband met", niet "in vergelijking met") sneller goeie drivers hebben voor bepaalde games net kwam doordat nVidia wegens omkoperij vroeger aan de drivers kon beginnen werken dan Ati waardoor ze zo een voorsprong hadden, niet omdat hun driverontwikkeling superieur is.

Ik vind het dus raar dat je over Ati begint in deze kwestie en niet over nVidia.
Ik begin over ATI omdat ik niet denk dat TWIMTBP op wat voor manier dan ook anticompetitief is, en ik denk dat AMD precies hetzelfde kan doen (zie ook mijn onderstaande reactie op D2Freak.
Ofwel ga je er van uit dat wij merken dat je de aantijgingen aan nVidia's adres impliciet ontkent en direct overgaat op het bashen van AMD's "inferieure" driverontwikkeling. Wat is het nu?
Ik bash niemand. Ik vraag me af waarom AMD fans het driver argument als excuus gebruiken en niet in plaats daarvan bij AMD gaan klagen over slechte drivers. Ik vind het allemaal prima hoor, als AMD met non-optimale drivers lanceert moeten ze dat helemaal zelf weten, alleen zie ik het "drivers worden wel beter dus is het product beter dan het nu uit de test komt" verhaal twijfelachtig.
Leuk, een Nvidia fanboy. Ik ben, in deze, puur objectief. Ik heb snoep altijd van beide walletjes. Overigens, die benchmarks zijn allemaal leuk en aardig, maar de verschillen merk je imho nauwelijk. Als jij met je Nvidia 120 fps haalt bij F.E.A.R. bijv. en met je ATI haal je 110 fps (wat feitelijk de verschillen zijn tussen de 'high-end'-kaarten, 9800 GT X2 niet meegerekend), dan merk jij dat niet op je monitor. Het feit dat overblijft is dat de ATI-kaarten dan vaak toch wel héél wat goedkoper zijn en kwalitatief (qua materiaalgebruik) niets onderdoen voor die van Nvidia.

Overigens, hoewel die financiële situatie van AMD niet echt overhoudt, heeft ATI weldegelijk een comeback gemaakt. De vorige generatie liep hopeloos achter op de Nvidia-modellen. De HD38xx-serie heeft echter aansluiting met Nvidia (nog niet gelijke tred, toegegeven), maar ATI is uit een diep dal gekropen.

Het feit dat je als Nvidia-fanboy ATI als droevig en zwak bestempeld, is niet in je voordeel. Betere kaarten van ATI houden alleen maar in dat de overall kwaliteit beter gaat worden. Een betere kaart van ATI heeft tot gevolg dat Nvidia moet verbeteren, waarop ATI weer kan reageren met een nieuwe innovatie, etc.

Overigens, er zijn genoeg objectieve benchmarks van games waarin de HD38xx beter zijn werk doet dan hun Nvidia-counterparts.
Je bedoelt dat de tragere HD38xx reeks een marginale prestatieverbetering ondergaat. Wat is het nu? Ze waren al trager dan de NVIDIA concurrenten en wordt ze iets minder traag.
Als ik deze bron bekijk dan zie ik niet zo'n gigantische voorsprong van Nvidia hoor :)
De 9600GT presteerd:
- 0,6% meer op 1280x1024, 0,6% minder op 1680x1050...
- 4,6% minder zonder AA, 5,5% meer mèt AA...

Qua prijs zijn de kaarten gemiddeld even duur (+- ¤140,- met uitschieters naar boven en naar beneden) dus zoveel scheelt het helemaal niet.

Een marginale prestatieverbetering van de 3870, mits deze op dezelfde prijs blijft zitten is dan ook zeker in het voordeel van ATI...

En daarnaast.... who needs AA? Zoek de verschillen

edit:
En nee, ik heb niet een specifieke bron gezocht waar de 9600GT er beter uitkwam, ik gebruik altijd tomshardware omdat ze in mijn ogen een objectieve test hebben met een duidelijk verhaal + onderbouwing van standpunten.


@Sm0k3r:
Sorry, maar ik zie even niet waar je naar mijn post verwijst en waarom het dus een reactie op mijn post is... kun je dit voor me uitleggen?

Wat je verder zegt ben ik het mee eens, ik vind dat je je mening grotendeels op cijfers/feiten moet baseren, en dat men 2-3% performancewinst wel mag relativeren tot 'gelijke prestaties' :)

[Reactie gewijzigd door Huppie op 11 april 2008 13:57]

Wat een woede bespeur ik altijd als er wat te lezen valt over ATI of NVIDIA, wat mij meteen opvalt is dat men andere sites gebruiken waar ze ook al speculeren om hun eigen argumenten te ondersteunen.

Een zinvol argument is te ondersteunen dmv feiten, bijvoorbeeld NVIDIA logo is groen ATI is rood.

Op verscheidene fora's gaat het precies zo als hierboven en dan click ik op de bron en kom je in een andere thread terecht waar mensen Jantjes speculaties in hun ogen reeel vinden en die van Pietje niet en verder niks concreets.

Net als op de AEX fora waar vermeldt wordt dat je nu KPN moet kopen want Jantje komt met reeele speculaties maar daar zet ik mijn geld niet voor op het spel.

In ieder geval laten we gewoon kat uit de boom kijk en kijken wat zowel NVIDIA, ATI en Intel kan laten zien.

Ja, ik heb net een 9800GTX gekocht vanwege prijs prestatie en overclock mogelijkheden, puur gebaseerd op wat andere mensen al hebben gedaan met die kaart, dus wachte de feiten af.

[Reactie gewijzigd door Sm0k3r op 11 april 2008 12:19]

En daarnaast.... who needs AA? Zoek de verschillen
Iets zegt me dat je niet op de plaatjes hebt geklikt en ze op volledige grootte hebt bekeken. De verschillen zijn overduidelijk. Overal kartelrandjes zonder AA, die gladgestreken zijn in de plaatjes met AA.
@Bonez0r
Ik heb erop geklikt en vond het echt maar zo'n klein verschil dat ik liever de AA uit laat staan voor een betere framerate :)
Iets zegt me dat je niet op de plaatjes hebt geklikt en ze op volledige grootte hebt bekeken. De verschillen zijn overduidelijk. Overal kartelrandjes zonder AA, die gladgestreken zijn in de plaatjes met AA.
http://www.nordichardware...ws/?page=18&skrivelse=530
Additionally, the pictures were saved with only 8x AA, I.e. neither the highest nor the lowest possible setting. If you don't like the edges, or "steps" along the lines, you can always turn on 2x, 4x or 6x AA, which is most likely a lot more kind to the AMD cards.
Moest 2x AA nu al de meeste kartels wegwerken én moest 2x AA amper een impact hebben op de prestaties van de AMD kaarten heb je een non-argument.

[Reactie gewijzigd door IveGotARuddyGun op 11 april 2008 16:00]

@DevilsProphet:
Moest 2x AA nu al de meeste kartels wegwerken én moest 2x AA amper een impact hebben op de prestaties van de AMD kaarten heb je een non-argument.Moest 2x AA nu al de meeste kartels wegwerken én moest 2x AA amper een impact hebben op de prestaties van de AMD kaarten heb je een non-argument.
Dat is dan toch juist géén non-argument? Ik probeer duidelijk te maken dat de 9600GT +- 4% trager is dan de 3870 zonder AA, het zelfde zal ongeveer opgaan voor 2x AA.

Nu valt 4% i.m.o. te verwaarlozen... maar toch ;)
@DevilsProphet hieronder: Ahh, ok vond 't al zo raar :P

[Reactie gewijzigd door Huppie op 11 april 2008 17:09]

Ik had het eigenlijk op de door mij gequote reactie van Bonez0r, en tevens beweer ik volgens mij hetzelfde als wat jij beweert. ;)
Weet je uberhaupt wat af van hardware/software?

3DMark06 is technologisch een goede test-engine om onafhankelijk de potentie van de GPU bloot te stellen. En hiermee blijkt dat het een gelijkopgaande "strijd" is tussen de twee fabrikanten.
Heel simpel.
Een aantal spellen zijn alleen geoptimaliseerd voor nVidia hardware en ja dan zullen de ATI kaartjes minder presteren. En dat komt alleen door de drivers. En ik heb zeer het vermoeden dat jij dat niet wilt zien of niet kunt bekroppen? Net zoals met bijna al jouw opmerkingen
  • Wat een domme uitspraak. Het is droevig dat ATI fans het zwak presteren van de ATI kaarten wijten aan het omgekocht zijn van gamedevs. Is dat je enige verweer? Is het misschien al in je opgekomen dat ATI kaarten misschien gewoon niet goed genoeg zijn? Is de 3dmark engine een engine die wel representatief is? Ik denk dat iedereen het er wel over eens is dat dit niet het geval is. 3dmark sores zijn niet te relateren aan echte ingame prestaties. Blijf jij maar mooi 3dmark spelen dan, toch iets wat sneller gaat op een ATI kaart.
FACT: een bedrijf weer ik gesolliciteerd heb naar een stage heeft mij verteld dat zij support krijgen van nvidia in de vorm van CUSTOM MADE code zonder daar voor te hoeven betalen, maar alleen zij hun software optimaliseerde uitsluitend voor Nvidia kaarten. Mijn opleiding? Multimedia, specialisatie gamedesign.

[Reactie gewijzigd door ThePiratemaster op 11 april 2008 18:54]

Dat nVidia custom code levert zodat een programma of spel beter samenwerkt met hun hardware is toch niet zo raar? Dat heet het leveren van "support" en natuurlijk gaat nVidia niet ook die code optimaliseren voor AMD kaarten. Dit doen veel bedrijven die een goede relatie hebben met hun klanten. Het zou pas oneerlijk zijn als ze in ruil voor deze support van de klant zouden eisen dat hun software niet goed zou moeten kunnen samenwerken met de hardware van de concurrent. Dus heb je bewijs dat nVidia dit bedrijf verhindert om zelf optimalisaties voor AMD hardware door te voeren?

Voor dat ik dit soort beschuldigingen overigens geloof zal je wel met een beter bewijs komen dan: "ik heb van horen zeggen" en dan claimen dat het een FACT is. Het zou ook kunnen dat ik je niet goed begrepen heb en dat je wel degelijk bewijs hebt dat je hier nog niet heb overlegd, maar daar tijwel ik sterk aan.
Als ik het goed heb stond er op fudzilla.com een artikel waarin stond dat de eerste producten op 55nm al op silicon 11 werd geproduceerd en dat ze daar zeer tevreden over zijn. M.a.w. de HD3XXX serie is op silicon 11 gemaakt ipv silicon 12
alles wat op je gt goed draait doet het ook op een 3870 maar dan voor net iets minder.
en de geruchten over de gt200 zijn niet erg hoopgevend en je kan er nog wel even op zitten wachten, de huidige geruchten spreken er zelfs over dat nvidia nog een tussenkaart gepland heeft omdat de gt200 nog even duurt.
ook 1miljard+ transistors op 65nm met een verbruik van 250watt klinkt mij niet erg hoopgevend in de oren.
de r770 daar in tegen is al in productie, heeft blijkbaar een laag verbruik en met een 900mhz aan streef clocksnelheid kunnen de yields ook niet slecht zijn.

per chip gaat de GT200 sneller zijn ja, maar daar is de R770 niet voor bedoeld. per 2 is hij waarschijnlijk nog steeds zuiniger en goedkoper als 1 gt200.

edit : die geruchten komen niet van diverse forums maar van fudzilla.
dat is geen garantie dat ze waar zijn, maar ik heb ze nog niet op veel onwaarheden kunnen betrappen. meestal hebben ze goed geïnformeerde bronnen.

[Reactie gewijzigd door Countess op 11 april 2008 16:15]

per chip gaat de GT200 sneller zijn ja, maar daar is de R770 niet voor bedoeld. per 2 is hij waarschijnlijk nog steeds zuiniger en goedkoper als 1 gt200.
Ik vind dat je wel heel veel conclusies trekt uit niets meer dan geruchten op diverse forums. Zolang NVIDIA zelf niets bekend maakt zou ik niks van de geruchten geloven. Wie herinnert zich nog de geruchten dat de Geforce 8 serie geen unified shaders pipelines zou hebben?
FF al die Ati of Nvidia-fanboys ten spijt die roepen: de volgende kaart wordt een concurrentieKiller!!!, let maar op:
dan zeg ik: we wachten gewoon de benchmarks af: de 7800GTX en G80 was als launch gewoon top omdat het ongeveer 2x zo snel was als de high-end kaart van toen...en dat willen we zo vaak mogelijk zien, zowel van ati als van nvidia...
Maar ga geen onzin schrijven die na een jaar weer niet waar blijkt te zijn.
Dat denk ik niet, de meeste mensen zullen eerst de benchmarks afwachten, en als het verschil maar miniem is, wat wel aannemelijk is, zullen maar weinigen een overstap doen naar een kaart die goedkoper is dan de kaart die ze in hun PC hebben, zou financieel helemaal absurd zijn. Tenzij de kaart daadwerkelijk echt veel beter presteert dan een 8800.

En zelfs dan zulen veel mensen eerst de bekende "kat uit de boom kijken"

Het wordt wel langzaam tijd dat AMD een fianaciele boost krijgt door het ontwikkelen en dan goede verkoop van hun spullen, ze hebben het hard nodig!

Het zou jammer zijn als Intels enige echt concurrent als een zinkend schip ten onder gaat, dat is niet goed voor de prijzenmarkt.
De klapper van de RV770 is het idioot lage idle verbruik.
Dat zal een hit zijn voor het Media Center segment. Niet iedereen heeft elite prestaties nodig, maar er zijn er genoeg die een zuiniger en stiller systeem erg op prijs stellen, terwijl er toch zeer aardige prestaties worden neergezet.
Ik vind het nog steeds banaal dat mijn 8800 zoveel verstookt met niks doen.
Zal voor het eerst sinds tijden zijn dat ATi de eerste is die een nieuwe generatie kaarten op de markt brengt, ik ben dessalnietemin erg benieuwd naar de prestaties.
Opvallend:
Ik weet niet of de afgebeelde kaart een high-end model is maar het heeft maar één PEG6 molex connector, dus wordt deze kaart een stuk zuiniger?

[Reactie gewijzigd door bokkow op 11 april 2008 09:39]

Ik denk zomaar dat die een HD3870 is zonder koeler. Voor zover ik weet zijn er namelijk nog geen foto's te vinden van de RV770.

EDIT: Hij lijkt er iig wel erg op

[Reactie gewijzigd door omgwtfbbq op 11 april 2008 09:49]

Leuk. Reference kaartje van de X3850 :)
Laten we wel wezen, dit is een gerucht en er wordt niet eens gehint naar de bron van dit gerucht. Soms staat er nog iets bij zoals “Van een medewerker van AMD/ATI…”. Hier wordt uitsluitend gesproken van “We’ve been hearing stories…”.

Persoonlijk vind ik het een vreemd moment om een videokaart te lanceren. In het rijke westen begint dan net de zomer en mensen zitten dan minder achter de computer en besteden hun geld aan een vakantie. Maar goed klaar is klaar en je gaat dan niet vele maanden wachten om in een gunstiger jaargetijde te kunnen lanceren. Ze zullen ook wel de eerste willen zijn die een echte “next generation” videokaart zal uitbrengen. Ik ga in ieder geval niet meer mijn geld uitgeven aan technologie die al meer dan een jaar op de markt is. Ik zit dus met smart te wachten op de nieuwe generatie.
De GTX staat nu al meer dan 1,5 jaar aan de top.(Als single GPU kaart) Het is al 6 maanden het "moment" om een nieuwe kaart te lanceren.
de beste investering in een videokaart ooit zou ik zo zeggen...
Met een GTX gekocht op de release date kan je inderdaad in tegenstelling tot de meeste andere kaarten uit die tijd jaren mee..
Ik denk dat het voor het geld een intressante kaart zal worden. als hij iniedergeval 32 texture units heeft en meer shaders dan heeft ati iniedergeval de zwakste punten van de R600 aangepakt. moet denk ik vooral met antialiasing aan een flinke prestatie winst opleveren of iniedergeval de framerate drops als AA aanstond die we met de r600 serie kaarten zagen beperken bij benchmarking. hoop dat hij niet lang hier na ook uitkomt met gddr5
Als dit een interessante kaart wordt voor het geld verwacht ik een redelijke upgradegolf, van de 8800 serie naar deze kaart. Tenzij Nvidia natuurlijk killer specs voor de GT200 bekend maakt. :) Als dit een mooie kaart wordt kan ik eind v/d zomer, wanneer hij dan goed beschikbaar zou moeten zijn, upgraden.
Ik denk eerder dat menig tweaker zal wachten op de komst van de GT200 (als de specs natuurlijk hoog liggen). Als je sowieso een fanatiek gamer bent weet je dat games die dit jaar nog uitkomen zeer goed speelbaar zullen zijn op de huidige high-end kaarten, tenzij FarCry 2 roet in het eten gooit :D
De huidige high-end kaarten zijn poor-man's-solutions als je het mij vraagt. De X2 en de GX2 zijn niet ideaal met hun multi gpu oplossing, wat de 8800GTS als enige high-end single gpu kaart houdt... Dar valt echt nog veel in te verbeteren. Ik vraag me wel af waarom jij zegt dat tweakers toch wel op de GT200 wachten... we weten niets van die kaart, maar omdat het NV is zal het wel goed zijn?
Waarom hoor ik nooit wat over de potentie van dergelijke nieuw uit te brengen kaarten voor onze koetjes?
800 unified shaders geven thuis-koetjes wel heel veel magen om al dat G.R.A.S.S. te verwerken. ;)
Goed punt over de release-date.

Maarja, we weten ook dat als de kaart in Mei wordt gefabriceerd pas eind-Juni af is. En als we dan mazzel hebben hebben in Augustus goed verkrijgbaar is.

Officiele release-dates? Nee.
van dat model zijn ze al een tijdje afgestapt.
ze zijn nu meestal vanaf het begin goed verkrijgbaar, als je het zakken van de prijs bedoeld heb je wel gelijk.
eeuh..het is toch goed dat er geld van amd en nvidia naar de game-industrie gaat..zonder de industrie kunnen ze zelf ook inpakken..Misschien zou Kroes wel een soort van belasting kunnen verzinnen voor de 2 grootmachten..zodat ze allebei betalen om optimalisaties verwezenlijkt te zien... geen nadeel voor 1 van de 2, ze betalen allebei evenveel.. ( een beetje utopisch )

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True