Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties
Bron: The Inquirer, submitter: Skyline GT-R

The Inquirer bericht dat de nieuwste generatie Radeon-chips, bekend onder de codenaam “R520”, een kloksnelheid zullen krijgen van 600MHz of meer. Tevens bericht de site dat ATi eindelijk een ontwerp heeft dat succesvol geproduceerd kan worden. De eerste revisie van de R520 werkte al succesvol, maar de yields waren dermate laag dat de chip commercieel gezien niet geproduceerd kon worden. Ook bij de tweede revisie waren de yields nog niet naar wens, maar driemaal was scheepsrecht voor ATi.

ATi logo (kleiner)The Inquirer vermoedt dat ATi, evenals nVidia, ditmaal geen papieren lancering zal doen van de chip en zal wachten totdat videokaarten gebaseerd op de chip in grote getale geproduceerd zijn. Dit betekent dat Radeon X900-videokaarten niet voor september in de winkels komen te liggen. Verwacht wordt dat de Radeon X900 betere prestaties neer zal zetten dan de GeForce 7800 GTX die loopt op een kloksnelheid van 430MHz, maar nVidia heeft al een antwoord in de startblokken staan in de vorm van de GeForce 7800 Ultra. Hoe deze kaarten ten opzichte van elkaar zullen presteren is nog onbekend.

Moderatie-faq Wijzig weergave

Reacties (84)

Wel, voorlopig gaat het erom dat Nvidia reeds duizenden potentiële klanten van de nieuwste generatie heeft afgesnoept van Ati... En dat is niet leuk voor Ati.

Goed wel dat ze beseffen dat een papieren launch not done is.
Maar dat maakt in de high-end markt geen bal uit, als ATI binnen 2 maand met een beter, sneller product op de markt komt, dan kopen al die rijke, op performance beluste kerels toch een X900.

Kijk maar ff terug in de tijd, toen nVidia met de GeForce 4 Ti reeks uitkwam, was er in het kamp van ATI ook niets dat daar tegen op kon, een paar maanden later kwamen zij met hun 9700 en die reeks heeft hun ook geen windeieren gelegd zou ik zo denken...
tijd geleden stond wel al op theinquirer enz dat Nvidia reeds een paar OEM contracten had voor de 7800GTX.
contracten die ATI op dit moment niet kan krijgen met hun x900.

winst bij oem contracten is laag maar je dekt er veel kosten mee.
daarnaast zullen OEMs alleen met ATi en de x900 in zee willen gaan als ATI echt genoeg kan leveren.

begrijp me niet verkeerd ik ben er zeker van dat de X900 de 7800GTX verslaat.
maar het gaat niet om speed alleen.
de bedrijven willen OEMs om kosten te dekken, OEMs willen zekerheid hebben dat er grote aantallen geleverd kunnen worden.
levertijd is ook voor klanten belangrijk.
maarja in een paar maanden als de x900 er is zal wel een bericht over een 7800Ultra komen en begint dit weer opnieuw.
De 7800GT is te duur voor woorden, dus ik twijfel er werkelijk aan of die door OEMs gebruikt gaat worden.
In principe maakt het niet zoveel uit, want in de high-end wordt het grote geld niet verdiend. Het grote geld zit hem in de mainstream-GPU's.

De high-end kaarten zijn eerder marketing-tools en PR-trucjes om naamsbekendheid te genereren.

Als Jan-met-de-pet van z'n nerd-neefje hoort dat de Ati of nVidia de allersnelste is, en Jan koopt een computer, dan kiest-ie voor dat merk. Ondanks dat het een 5200 is ipv een 7800 Ultra.
Ik heb toch een beetje het gevoel dat de klok zo hoog is omdat ze anders de kaart van nVidia niet voldoende verslaan... Vind het dan ook niet vreemd dat de productie drie revisies nodig heeft met zulke snelheden.
Dat is toch logisch Kloksnelheid = snelheid.... :Y)

Maar de truck zit hem in de technoligie die Ati gebruikt. nVidia gebruik op hun kaarten nu hoge kloksnelheid alleen omdat ze achter zijn gebleven qua techniek. Om hogere kloksnelheden te behalen gaat zo'n kaart meer energie verbruiken. Kijk maar naar nVidia dat ding heeft een 450watt (uit mijn hoofd) psu nodig minimaal.....

Ati daartegenover heeft een techniek waarbij ze rond dezelfde kloksnelheid blijven maar telkens met nieuwe technieken komen. En meestal niet zoveel extra gaan verbruiken.

Natuurlijk zal de kloksnelheid omhoog gaan naarmate de tijd vordert kijk maar naar processors.
jouw uitleg zit er toch wat naast hoor, de 7800GTX is net lager geklokt dan z'n voorganger en verbruikt minder stroom en wordt minder warm

als Ati echt 600MHz gaat gebruiken en 32 pipes gaat gebruiken, begin dan maar te sparen voor een nieuwe PSU, 90nm of niet
Nvidia achterblijven qua techniek? Zegt SM3, HDR, SLi je iets? Of denk je dat een hogere kloksnelheid wil zeggen dat ze een betere techniek hebben? Dan loopt AMD ook achter qua techniek?
En stel dat ATI een betere techniek heeft, als je het enkel paper kan launchen ben je er niks mee.
450Wat is niet waar btw, je hebt voor een GTX maar een 350W voeding nodig.
http://www.nvidia.com/page/geforce_7800_faq.html
Beter informeren misschien?
het doel heiligt de middelen
de hoogte van de kloksnelheden was toch al minder belangrijk? want de 7800gtx is met zn 420 sneller dan de x850xt op 540

hoeveel pipelines zou de x900 hebben? ook 32 mag ik hopen
wow, je gaat een beetje ver hier...
de 7800GTX met de x80XTPE vergelijken is appels met peren, aangezien de 7800 24 pipelines heeft, en de x850 maar 16..
daarom is de GTX onder andere sneller dan de x850 bij lagere clocksnelheden...
daarnaast is het hierbij wel van belang, aangezien van de r520 verwacht wordt dat ie minstens 24 pipes krijgt...
en met je laatste opmerking: de 7800 GTX heeft 24 pipes, een 32 pipe kaart zou een industry first zijn.... niet ook dus...

maar je hebt opzich wel een punt, een 6800ultra op 400 MHz houdt ook soms een x850 op 540 MHz bij...
maar een verschil van +- 200 MHz is wel heel veel om te overbruggen
Hmmm deze is toch 90nm? Amd en Intel halen veel hogere kloksnelheden vergeleken hiermee, het lijkt me dat het einde voor de gpu nog lang niet in zicht is.....
Dat is natuurlijk wel een beetje appels met peren vergelijken.
GPU's hebben een andere architectuur dan CPU's.
Een GPU heeft veel meer dedicated onderdelen, zoals vertex en shader units. Een verschil in Mhz zegt niet zo heel veel.
De opbouw van een CPU is compleet anders dan die van een GPU/VPU. De kloksnelheden zijn dus ook totaal niet te vergelijken.
En daarnaast gaat er veel meer tijd in een CPU zitten, waardoor de transistors met de hand geoptimaliseerd kunnen worden....
GPUs komen een stuk sneller achter elkaar, waardoor het optimaliseren vaak aan programma's overgelaten wordt, wat een mindere optimalisatie tot gevolg heeft
Dat is niet echt de oorzaak. De winst die met handmatig optimaliseren behaald kan worden is erg gering. Het verschil in kloksnelheid heeft meer te maken met de architectuur. Videokaarten zijn super parallel en hebben dus niet een hoge kloksnelheid nodig voor goede prestaties. Het verdubbelen van het aantal pipelines is veel effectiver dan moeilijk doen om een hogere kloksnelheid te halen (wat wordt gedaan bij x86-processors door lange pipelines te maken e.d.). Dit is echter niet nodig bij videokaarten, de transistors die nodig zijn om lange pipelines te maken kunnen namelijk veel effectiever ingezet worden door het gewoon nog meer parallel te doen.
ons pap ontwerpt bij philips ook nogsteeds chips met de hand.
ok, iets andere schaal maar hand ontworpen chips zijn nogaltijd de meeste efficiente met hogere haalbare clocksnelheden en beter yeilds.

het is niet voor niks dat AMD er zo veel jaar over heeft gedaan om van de k7 naar de k8 te gaan.
zelfs intel heeft maar eens in de 2-3 jaar een compleet nieuwe chip per afdeling.
GPU's daarintegen worden ongeveer elke 6 maanden kompleet nieuwe ontworpen.
er is gewoon geen tijd voor (veel) hand optimalizatie.

@hielko :
als hand optimalizatie echt maar zo weinig winst op zou leveren zouden intel en AMD ook wel vaker grote revisies van hun processors door voeren ipv er jaren over te doen.

verder hoeft het mogenlijk maken van hogere clock snelheden niet meteen te beteken een langere pipeline.
juist hier kunnen hand optimalizaties veel betekenen.
als je bv AMD's winchester core vergelijkt met de venice core dan zie je dat de pipeline gelijk is gebleven maar dat de venice core wel een stuk makelijker te overclocken is.
hand ontworpen optimalizaties hebben hierin een grote rol gespeeld.
Ja ok, het is natuurlijk wel zo...
maar ik blijft drbij dat t ook wel iets met het optimaliseren te maken heeft! :P
dus jij stelt voor dat mensen op een chip met honderden miljoenen transistors gaan zoeken naar een betere combinatie??

lijkt me een een feestje waard voor de werkgelegenheid die dat oplevert! ;)
AMD en Intel hebben jaren lang hun design op maximale kloksnelheid moeten baseren, om marketing redenen. ATI en Nvidia worden "gelukkig" puur op prestatie afgerekend.
Wat weer goed nieuws is voor nVidia, dat betekent dat zij waarschijnlijk nog voldoende speling zullen hebben met hun topmodel. Geslaagde tactiek mag je het noemen denk ik.

***Hmpf dat was dus een reactie op jprommen***
Onzin. Als de marge zo groot was dan had Nvidia 'm meteen wel sneller gemaakt.

Zowel Intel, AMD, Nvidia en ATI maken geen chips waar ze grote marges over hebben.
De concurentie zorgt er voor dat ze allemaal aan de limiet zitten van wat commercieel mogelijk is.

Als de frequentie van de ATI chip zoveel hoger is, dan betekent dat niks anders dan dat het ontwerp flink zal afwijken van de Nvidia chip.
net omgekeerd: intel en AMD (zeker in het verleden) hebben altijd de snelste cpu's zo laat mogelijk uitgebracht (enkel om de concurrent af te troeven) omdat elke launch van een sneller cpu extra reclame en verkoop geeft!
het zou dus dom zijn van nVidia om direct de Ultra op de markt te zetten als het nog niet nodig is

als nVidia de Ultra pas op de markt zet als de X900 uitkomt EN hij blijkt evensnel, hebben ze 2x gescoort:
- hebben nog steeds de snelste kaart
- de aandacht voor de Ati launch is verzwakt
De praktijk bewijst je ongelijk.
Volgens jouw theorie zou ATI de 9700Pro rustig een jaar later hebben kunnen uitbrengen. Het ding was immers veel en veel te snel tov de concurrentie. Toch is dat niet gedaan.

Dat Intel en AMD de snelste cpu's zo laat mogelijk uitbrengen is ook niet waar.
Intel en AMD brengen de cpu's uit waar ze een goede yield op kunnen halen. Ze hebben dan wellicht wel een sneller cpu, maar de yields zijn daarbij dan nog zo slecht dat het niet realistisch is om 'm al uit te brengen.

Je ziet dat ook duidelijk bij de cpu race die Intel en AMD een tijdje geldeen gehad hebben. Daarbij kwamen ze zo ongeveer elke maand met een model om de ander te overtroeven, maar de beschikbaarheid werd steeds slechter. Gewoon omdat de yields te slecht waren.
Vervolgens hadden ze zelfs de modellen met slechte yields niet meer achter de hand en duurde het ineens ontzettend lang voor er weer een nieuw model op de markt kwam.
(uiteraard denken sommigen op zo'n moment dat ze weer snelle cpu's achter houden, ipv dat ze ze simpelweg niet hebben)

Overigens heeft Nvidia al een aantal keer aangegeven dat er helemaal geen Ultra komt. (en zeker niet op zo'n korte termijn) Dat zou ze ook niet in dank worden afgenomen door hun grootste fans, want die hebben dan immers al juist een GTX gekocht.
Een hogere snelheid betekent meer stroomverbruik en meer warmte ontwikkeling.

Dan heb je aan een kaart die even 'snel' is en een lagere kloksnelheid heeft, meer dan de X900.
Ook beter te overklokken over het algemeen, met de juiste koeling.
Vergeet niet dat de "x900" op 90nm wordt gebakken, in tegenstelling van de 130/110 nm van deze generatie...
en kijk naar de 7800GTX: van 130 naar 110 nm, snellere kloksnelheden en nog koeler ook
dan moet het met een sprong van 130 naar 90nm zeker lukken om m op 600MHz te laten lopen en hem nog koeler te laten zijn ook
ja maar je zegt het zelf al de GF7800 is op 110nm gebakken en heeft een snelheid van 430+ (die is meer want hij kan van zich zelf al lopen op 470 met een eigen dynamsiche overklock finctie) en de ultra zou standaard misschien al op 470 lopen.

De ATi is op 90nm gebakken dan is het toch al bijna van zelf sprekend dat de snelheid hoger ligt. ik denk als Nvidia ook een chip op 90nm gaat bakken dan kan ATi het helaas wel schudden.

Denkd at Nvidia nu weer de betere kaarten in handen heeft als je het mij vraagd. Ati wil en 90nm op de markt brengen hoe dan ook en Nvidia kan er nu nog even mee testen om zo strx een betere op de markt te brengen.
? waarom denk je dat? alleen omdat ati hun chip waarschijnlijk hoog gaat klokken?
niemand weet welke chip er klok-vor-klok wint, dus niemand weet ook of ati de chip nou zo hoog klokt omdat ie anders langzamer is dan de 7800, of omdat ze t doen zodat ze nvidia meteen goed te pakken hebben...

en voordat nvidia gaat overstappen op een ander productieproces zijn we wel weer een tijdje verder denk ik, misschien pas bij de refresh, misschien pas later....
Alleen maar een heeeeeeel klein deeltje van de gpu loopt op een hogere frequentie. (en dat loopt ie altijd)
Het is gewoon een gpu waar verschillende delen op verschillende frequenties lopen. Het belangrijkste deel: VS, PS, ROP loopt gewoon op 430. Vandaar ook dat Nvidia die 430 aangeeft in de specificaties. Een klein deel (waarvan totaal onduidelijk is wat het nou precies doet) loopt op 470.

Het is dus absoluut niet zo dat de gpu standaard op 430 loopt en dat die gehele gpu af en toe naar 470 loopt met een dynamische overklok.

Het dynamische gedeelte is dat die 430/470 allebei op twee lagere freqenties kunnen lopen. (Net zoals een 6800 dat ook al kan)
Dat is natuurlijk niet helemaal waar. Extra snelheid moet altijd ergens weg kunnen. Een hogere kloksnelheid is mogelijk, maar anders heb je al snel meer pipelines nodig of andere stukjes hardware om de kaart sneller te maken. Meer transistors en dus net zo goed meer warmte productie. It ain't that simple.
je kan iig zeggen dat de rekenkracht over een groter oppervlak is verdeeld, dus meer warmteoverdracht.

dat zou makkelijker te koelen moeten zijn.

en het is geloof ik nog zo dat de weerstand toeneemt met de hitte waardoor er nog meer warmte ontstaat.
dus het zou kunnen dat je al minder warmte genereert door de capaciteit te spreiden.
en het is geloof ik nog zo dat de weerstand toeneemt met de hitte waardoor er nog meer warmte ontstaat.
dus het zou kunnen dat je al minder warmte genereert door de capaciteit te spreiden.
P=I^2*R, stijging in de weerstand is niet zo'n ramp, maar als de stroom toeneemt gaat het vermogen heel hard omhoog, en bij een hoge temperatuur beginnen de elektronen steeds meer de verkeerde kant op te gaan = meer (lek)stroom.

Verder was het bij halfgeleiders volgens mij niet zo dat de weerstand toeneemt bij een hogere temperatuur maar dit weet ik niet zeker...
The Inquirer vermoed dat ATi, evenals nVidia, ditmaal geen papieren lancering zal doen van de chip en zal wachten totdat videokaarten gebaseerd op de chip in grote getale geproduceerd zijn.
Omdat Nvidia de 7800 direct beschikbaar had hoeft Ati dat van mij nou ook niet persé te doen, een week of 4 tot 6 na de paperlaunch is ook prima. Wil namelijk zo snel mogelijk de benchmarks & specs zien. :)
Als ATI nog 1 keer een paper launch doet gaan ze echt finaal onderuit. Teveel is gewoon teveel.
goede tacktiek van Nvidia als eerste hun nieuw top model uitgeven. blijkt dat die nog meer aankan wachten totdat ati hun topmodel uitgeeft, dat duurt dan nog 4 maanden. en ondertussen lopen de 7800gtx'jes als zoetebroodjes de winkel uit. en dan later een nog beter model uitgeven moet zeggen dat het zeer slim is
Dat niet alleen, maar op dat moment zal Nvidia ook met de multithreading abilities komen zodat de overige pipelines unlockt worden, met een nieuwe forceware driver.
Bereid je dan maar vast voor op een teleurstelling.
Multithreading drivers hebben namelijk niets, maar dan ook helemaal niets te maken met pipelines. (en al helemaal niets met het unlocken van pipelines)
Wordt tijd dat er nog meer producenten bij komen om de prijs te drukken.
Tot nu toe heeft elke nieuwe grote speler de prijs enkel opgedreven :P

In het 3dfx tijdperk koste een top 3d kaart iets van een 100-150EUR en dat was toen enorm veel voor een grafische kaart.
Sorry hoor, maar dat is flauwekul. Voor zover ik weet heb ik ruim 550 - 650 gulden moeten neertellen voor een gloednieuwe 3dfx Voodoo 2 8 MB kaart toen ie net uit was in Nederland. Dus het fabeltje wat ik vaak hoor terugkomen van mensen over dat het vroeger spotgoedkoop was is volgens mij dus ook daadwerkelijk een fabeltje.
Volgens mij is het toch echt veel goedkoper geworden.

Tegenwoordig heb je al voor ¤ 10,- een Voodoo 2 kaartje.

Bovendien zijn er tegenwoordig véél snellere kaarten te krijgen.

Voor ¤ 50,- heb je al een kaart die 100x zo snel is als een Voodoo2, meer geheugen heeft en vele malen meer functionaliteit.

De prijs van het brood is dus gigantisch gezakt.
Meer brood kost uiteraard wel meer.
Iets voor mythbusters.
Het is ook een fabeltje, want ik heb indertijd ook iets van 600-700 gulden betaald voor een 3Dfx Voodoo 1 4MB kaart toen ie net uit was.. Dat was absolute top toen, 1e 3D kaart ooit zelfs volgens mij, en dus ook duur..

Zelfs games kostten toen al rond de 89-99 gulden, nu 45 euro.. Het is dus met de inflatie etc meegerekend echt niet zoveel duurder geworden allemaal..
In die tijd was ik nog niet zo geinteresseerd in het hele 3D kaart gebeuren maar ik kan me toch nog iets herinneren uit een computermagazine van een goeie 6000BEF (ongeveer 150EUR). Maar dat zal dan waarschijnlijk de Banshee geweest zijn.

De prijs van de Voodoo 2 zal dan idd rond de 300EUR gelegen hebben.

Ik heb me dus op foute cijfers gebaseerd, sorry ;)
Een brood koste toen ook maar de helft. Zegt inflatie je iets?
Ik snap even niet waarom dit als +2 inzichtsvol wordt beoordeeld...

als er meerdere producenten komen zal de prijs misschien worden gedrukt... maar dat geld ook over mogelijke kwaliteit... tenslotte, iedereen wil als eerste de snelste kaart hebben waardoor er steken vallen.

neuh... 2/3 chipbakkers is meer dan genoeg...
Ik heb zo'n idee dat de X900 een 16 pixel pipeline architectuur is.
Vandaar de hoge kloksnelheden.
Ongefundeerde roddels :z

De hogere clocksnelheid kan ook verklaard worden door het 90nm productieproces
Juist. En net zo ongefundeerd als 32 pipelines en zelfs 24 pipelines.

Dus waarom zou je daar dan wel in geloven?

Uiteindelijk lopen Nvidia en ATI tegen dezelfde natuurwetten op. Alleen 90nm productieproces kan niet zo'n hoge frequentie verklaren. Er moet dus ook iets in het design zitten waardoor ATI makkelijker de frequentie omhoog kan gooien dan Nvidia.

Minder pipelines zou een goede reden kunnen zijn. Dan moet je je wel afvragen waar de extra transistors dan voor gebruikt worden. Maar een 16 pipeline kaart op hoge frequentie met een daugherdie zoals bij de X360 gpu zou een hele interessante kaart kunnen zijn.

In ieder geval zou het me verbazen als het gewoon een X800 met extra pipelines en SM3 zou zijn, want dan zou het wel heel knap zijn om die frequenties te halen.
(kan natuurlijk ook best zijn dat dat gerucht over die frequenties gewoon nergens op gebaseerd is. De bron is immers maar The Inquirer....)
ik zou het raar vinden moest de kaart effectief X900 gaan heten. Ik verwacht dat ATi niet van hun benamingsschema zal afwijken.
X staat voor 10, dus de volgende kaart wordt een XI.
Ik denk van niet.
De X-serie is relatief nieuw... als je kijkt dat de 9xx0 serie toch flink wat jaartjes er is (geweest).

Na de 9700 kwam ook eerst de 9800 nog.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True