Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Bron: The Register

XElDiablo vond een interessant nieuwsberichtje op The Register waarin uitgelekte specificaties van de R200 en R300 videochips van ATi te vinden zijn. Volgens een Franse site draait R200, de core van de Radeon 2, op een kloksnelheid van maar liefst 350MHz en heeft deze chip zes pixel-pipelines. De productie ervan moet op 0,15 micron plaatsvinden en de T&L engine zou zijn uitgebreid om de programmable pixel- en vertexshaders van DirectX 8.1 te ondersteunen. De kaarten zouden eind volgende maand beschikbaar moeten zijn en ongeveer 300 dollar gaan kosten. Deze getallen liggen een stuk hoger dan die uit eerdere berichten, maar dat komt volgens de bron omdat een deel van de eigenschappen van R300 vooruit geschoven zijn op de roadmap, waardoor ze al in R200 terecht zijn gekomen. Dat zou tevens de oorzaak van de vertraging zijn:

ATi Radeon logo (klein)Our specs match quite closely with those published over at Rage3D, and HydraVision support and 0.15 micron process technology are consistent across all three sets of specs.

We wonder if Puces 3D's data is a mixture of R200 and R300 - the Radeon 3? - specs. R300 is believed to have eight pipelines and will run at 300MHz or above. R300 is at least a year away, however.

And Rage3D notes that "many of the features that were previously for the R300 core were bumped up to the R200 core, thus delaying it from it's initial expected Q1 2001 launch date".
Moderatie-faq Wijzig weergave

Reacties (43)

uitgelekte specificaties van de R200 en R300 videochips van ATi te vinden zijn

..

De kaarten zouden eind volgende maand beschikbaar moeten zijn
zou het marketing-technisch niet veel slimmer zijn om nu al wat officiele specs te geven, ik bedoel dadelijk is dat ding op de markt en moeten ze het DAN nog eens gaan promoten. Als ze nu al specs gaan geven denken mensen misschien goh, ik stel mijn GF3 uit een haal zoon ding bv.
'marketing-technisch' lijkt het mij eerlijk gezegd nog erg gevaarlijk, want als er iets gevaarlijk is voor een bedrijf dan is het wel de computerwereld laten kwijlen om retehoge kloksnelheden en features, terwijl het uiteindelijke product altijd anders uit kan pakken, omdat de cores b.v. maar tot de 250 MHz kunnen...Dit probleem is namelijk bij de TNT gebeurd...
maar als jij je product over een maand in de schappen wil hebben, zou je nu toch wel onderhand gaan denken dat ze weleens zouden weten wat het product nu uiteindelijk gaat worden
:)
Uiteraard, daar geef ik je gelijk in, maar ze moeten natuurlijk wel op passen met wat ze zeggen! Dat wil zeggen dat ze niet te veel gaan beloven, wat ze vervolgens om het een of ander niet waar kunnen maken. Het zal namelijk niet de eerste keer zijn dat zoiets gebeurd. Het beste is misschien om dan gewoon op safe te gaan spelen en voorzichtig te zijn met de specs.
Uiteraard, daar geef ik je gelijk in, maar ze moeten natuurlijk wel op passen met wat ze zeggen
zeggen doen ze niet echt.. het zijn UITGELEKTE en dus minder betrouwbare bronnen !
Ja, maar dat ze uitgelekt zijn bewijst maar eens dat ze voorzichtig zijn ;) :z

/edit moet reactie op whiteguy zijn :(
ZO dat zijn mooie specs. Maar die 350 MHZ die moest toch ook omdat het geheugen synchroon loopt met de core op de radeon en dat ze 3.8ns geheugen gebruiken. Ik vindt trouwens die prijs van 300 dollar das ongeveer 750 gulden een mooie prijs voor een kaart. Als deze specs kloppen en de drivers een beetje goed zijn wordt het misschien wel een geforce killer.
Maar die 350 MHZ die moest toch ook omdat het geheugen synchroon loopt met de core op de radeon en dat ze 3.8ns geheugen gebruiken.

Dit is echt weer eens totale onzin. 3,8 ns geheugen = 1/(0,0000000038 = 260 mHz (met DDR het dubbele, maar dat is ook wel nodig vor die 6 pipelines), de Radeon DDR gebruikt ook gewoon 6 ns (=166*2=333 mHz) voor de 166 mHz core (precieze snelheid van geheugen en core verschillen bij de aparte modellen(retail, bulk, all-in-wonder enz))

Voor 350 mHz geheugen zou je 2,85 ns geheugen nodig hebben, en dat gaat echt niet. Het spijt me enorm, maar ik kan echt helemaal niks geloven van deze specs. De enige manier om deze killercore van geheugenbandbreedte te voorzien, is eDRAM (maar dan haal je nooit 350 mHz), of DDR-SDRAM (waat een afkorting he!) met een 256 bits brede bus, en dat wordt HEEL duur.

Ik neem dus niet aan dat deze specs kloppen, ook gezien de hitteproductie die je bij 60 M of meer transistoren op 0,15 u met 350 mHz krijgt en de 'betrouwbaarheid' van The Register. Maar het zal toch wel een goede chip worden.
Ik vind deze specs niet ongeloofwaardig: Om met hun topkaart tegen de GF3 op te kunnen boksen, moet ATi hele vette specs neerleggen. En bij vette specs horen o.a. hoge kloksnelheden. Deze core is heel anders dan die van de GF3, dus wellicht is 350MHz best mogelijk. De overige vette specs halen ze dus vast van de Radeon3, voor zover bruikbaar. Dat de release dan wat langer duurt, vind ik best acceptabel.

Je hebt gelijk dat er geen geheugen te vinden is wat op deze 350MHz mee wil lopen. Dat zou een reden kunnen zijn om van de synchrone core/mem-snelheid van de Radeon1 af te stappen en beiden een eigen snelheid mee te geven. Ik zie in bovenstaande post namelijk niets staan over synchrone core/mem.

MetalStef
Dan zou het inderdaad mogelijk zijn om de chip op 350 mHz te lopen (ook al blijft het erg veel), maar zoals gezegd heb je dan niets aan die 6 pipelines. Bovendien is nVidia bij mijn weten het enige merk dat asynchrone snelheden gebruikt.
Buiten de videoplanken-industrie gebruikt VIA tegenwoordig ook asynchrone snelheden voor FSB/mem. Ook al ligt dat wat anders (mem hoger dan FSB), het doel is hetzelfde: De prestaties zoveel mogelijk verhogen.

Als ATi (of welke fabrikant dan ook) een GPU kan maken die op 350MHz loopt, of in de toekomst zelfs op pak-m-beet 500MHz en de mogelijke snelheden van het geheugen blijft daarbij achter, zal men moeten uitwijken naar asynchrone snelheden.
Om dan toch voldoende geheugenbandbreedte te houden, zal het datapad verbreed moeten worden.

Ik verwacht dat binnen enkele jaren bijna elke videokaartenboetseerder gebruik maakt van asynchrone core/mem-snelheden.

MetalStef
Reken maar dat het in Nederland veel duurder wordt :r
ok het zal wel duurder worden..

maar dan lijkt mij het max iets van 1000,-.... die van de geforce 3 was rond de 1500,- dacht ik.... en de GF3 prijsjes zijn nu ook al een eind gedaald.. dus wie weet wat er met ATi prijsjes gebeurd....

ik zag ook ooit een bericht dat ATi chips gaat leveren aan asus, elsa, etc...??? dat zou wel goed zijn voor concurrentie met nVidia... want mensen die kopen soms gewoon ASUS omdat het goed is... dus dat zou ook beter voor ATi zijn.... maar gaat Ati dit wel doen?

verder klinken die specs best lekker, en als het waar is zou ATi een goede strijd met nVidia kunnen leveren.... nu maar hopen dat de drivers ook een beetje goed zijn of snel goed worden....

zelf heb ik echter meer interesse in de R300... dit meer omdat ik de R200 toch neit koop aangezien ik nu een Radeon 64MB DDR heb die prima werkt en dat nog wel een lange tijd vol kan houden... voorlopig kijk ik eerst naar een nieuwe mammaplank en een nieuwe processor (Tualatin)


[OT]

veel mensen schrijven vaak nvidea terwijl het nVidia is geloof ik? of is het nou NVIDIA??

nou in ieder geval..
is het ATI of ATi?? ik dacht ATi...?
Of het nVidia is of nvidia is, vind ik een beetje bit neukerig, wat maakt dat nou uit?
Zelfde geld uiteraard voor ATi of ati.

Maar als het je gerust steld ga ik het alvast bij mij wijzigen.

*no flaim intended, al klinkt het misschien wel zo, ik weet gewoon even niet hoe ik het moet verwoorden.
ie van de geforce 3 was rond de 1500,- dacht ik.
nee, 1200, je bent denk ik in de war met de v5 6000, die zou 1800 zijn gaan kosten..
als 1200,- werd die verkocht ja, maar daarvoor was het toch ook zo dat iedereen dacht dat die 1500,- werd? of ben ik nou echt in de war met iets anders?
het maakt mij ook niks uit alleen op GoT als er zo'n topic staat van "nvidea kaart doet niks" dan zijn meestal de eerste reacties van het is NVIDIA!! en dan iemand anders die zegt van het is toch nVidia? :)

bij ATi/ATI/ati weet ik het ook niet... maar op mijn radeon en op mijn rage fury pro staat trouwens ATi.. dus zou wel ATi zijn :)
Prijs is zeker mooi, das de prijd dat de GF2 had toen hij uitkwam. Als je hem vergelijkt met de GF3 dan kan je 2 PC's vullen met een Radeon II i.p.v. 1 pc met een GF3.
Eeuh, hij gaat net zoveel kosten als de gf 3....en bovendien is ie nog niet op de markt, dus kun je er ook weinig pc's mee vullen :)
Helaas zal de Nederlandse prijs niet simpelweg de dollarprijs * 2.5 zijn. Denk aan BTW EN aan het feit dat al dit soort moois hier simpelweg duurder is dan is de US of A

edit:

Gizzah was mij voor.. :)
Die $300,- is aan adviesprijs. Wij zitten daar bijna altijd onder in nederland ;)

Komt mede door de pricewatch..!!
de geforce 3 kost in de VS tussen de 300-350 piek, dus ik denk dat deze kaart net zoveel gaat kosten als de gf3, die is nu in nederland zwaar overprijst (dankzij de importeurs) en dat zal bij de nieuwe ATI ook wel het geval zijn, bovendien ben ik benieuwd of ze hem op tijd af hebben en of hij werkelijk veel bter gaat worden dan de concurrentie...
Rare marketing? Marketing technisch niet slim?? Moet je kijken op hoeveel sites er al over gespeculeerd wordt!
Wie zegt niet dat dit juist marketing is? Uitgelekt? Neuh.. doen alsof ;)
voor ons (tweakers en andere hardwarefanaten) is al die gelekte info wel al een soort reklame, maar voor kees de consument niet! die lezen op z'n hoogst de computer totaal of zo, maar daar houdt het op. daar is echt wel serieuze reklame voor nodig!
Alsof de gewone comsument een reclame van ATi met daarop:

-6 pipelines
-350 MHz core
-Programmable vertex- and pixelshaders!

wat zal interesseren. Die denken dan pfff, mijn P3 loopt op 800 MHz, dus deze videokaart hoef ik niet, want mijn buurman heeft een Geforce2 MX 400 en daarvan is het cijfertje lekker hoger en die heeft zo'n lekker lange naam, dus dat zal wel top of the bill zijn.
Het interesseert ze wel, maar
ze snappen er niks van!!!

(SpAnKy; ik heb je reactie
omhoog gemod... inzicht!! :D)
ook waar, maar hoevaak zie je wel niet dat uitgelekte specificaties hoger uitvallen dan ze in werkelijkheid zijn. En als jij moet beslissen tussen een kaart waar de specs van vast staan, en 1 die over een maand uitkomt en waar niets van officieel bekend is denk ik dat de keuze toch wel sneller gemaakt is
Als deze specs kloppen, wat mij erg sterk lijkt, dan veegt ATI de vloer aan met de concurrentie.

IK kan me haast niet voorstellen dat ATI een kaart uit gaat brengen met een fillrate van 2200 mp/sec, ( maar bid tot de goden dat ze kloppen).

Dat zou een ongewone sprong zijn, zoiets heb ik in hardwareland nog nooit gezien, de Bitboys kunnen wel inpakken ;)

ATI houd er in mijn ogen een rare marketing politiek op na, de stille intocht van de Radeon SE, misschien moeten ze nog wennen aan het feit dat ze high end leverancier zijn geworden ;)
nou ja, een tijd geleden was er een gerucht dat nVidia best wel "bang" was voor de nieuwe ATI kaart. Dus ik sta er niet helemaal van te kijken.
Waar ik wel bang voor ben is dat de drivers niet echt op nVidia niveau zullen zitten...
Ik hoop ook dat ze ook nog een hoop mpeg2 decoding en encoding functionaliteit erop gooien...
Het is te hopen, maar 350 mhz met 6 pipelines, het zou me echt een monster worden hoor :9~

De drivers voor de Radeon zijn nu goed, er waren in het begin wat compatibiliteits probjes, wat dat beterft is ATI een andere koers gaan varen, redelijk veel driverupdates.

De Radeon zit nu dicht tegen z'n theoretische fillrate aan.

Verder gaat ATI het unified driverconcept hanteren, net als nVidia, zodat de drivers voor de Radeon2, niet helemaal vanaf de grond opgebouwd hoeven te worden.
Ik heb moeite om te geloven dat deze specs echt waar zijn. Het gebruik van 6 !!! pipelines is niet altijd even gunstig. Het is zeer zeker niet hoe meer hoe beter. Wanneer een pipe niet helemaal gebruikt kan worden dan doet ie verder helemaal niks. Bij de GF3 werken de 4 pipes in 2x2. Het is dan handiger om net als IMGtech gewoon veel TMU's in een pipe te stoppen.
Waar ik wel bang voor ben is dat de drivers
niet echt op nVidia niveau zullen zitten...
Dat is dus echt weer een NVIDIA-bezitter-uitspraak
Er zijn alleen maar zovvel detonators omdat ze
UITLEKKEN, bovendien zijn er maar zelden grote ver-
scillen.
Ik heb tijdje terug weer nieuwste ATI-drivers
gedownd, alles werkte, en werkt nog steeds perfect.
Dat Nvidia nou eerst brakke drivers uitbrengt...
hmmm ik ben vooral benieuwd naar de thruform implementatie in de radon 2 derest kan me niet zo zeer schelen omdat ik al bijna zeker weet dat het niet goed uit zal werken... je moet eens raden de geforce 2 gts heeft een theoretische fillrate van i gigapixel.... maar door het gehuegen zit hij vast op realworld 350 megapixel filrate.... dus de radon 2 zal dan wel haast op rdram moeten werken wil het die 2200 megapixel bereiken zelfs al zouden ze de hyperz technology gebruiken dan zouden ze alsnog met een maximum filrate van 350/100*140=490 megapixels (hyperz technology bespaart 40% memory bandwith dus de cijfers kloppen niet helemaal ;)) dat is niet eens dicht in de buurt van de 2200 megapixel die de gpu theoretisch aankan
<laat maar, ik heb er al geen zin meer in. Hier staat niks>
Was het niet zo dat vroeger (ik spreek over de tijd van de TNT en de TNT2) de specificatie van Ati altijd tegenvielen?
Ik doel hier mee niet op het hardware gedeelte maar op de "werkelijke" snelheid in bv. spellen
(dus het aantal fps)
In theorie was het er wel, maar in de prakijk viel wat Ati beweerde te kunnen altijd wat tegen.

Hopelijk geld dat niet voor de Radeon:
concurentie is nooit verkeerd

edit:

typo's
Dacht dat in die tijd het ging tussen 3dfx en nVidia.
ATi is meer 'n OEM leverancier.
En je moet wel 'n genie met fotografisch geheugen hebben om spec differentaties van toen uit je hoofd te kennen

Natuurlijk halen somige meer uit die spect door implementatie methoden zie FPU implementatie bij P4, Athlon, Alfa, K6

zo is nu de ATI Radeon slecht in 16bit rendering omdat ie intern het op 32bit doet Geforce werkt met 'n pure 16bits implementatie waardoor er een groot verschil is tussen 16bit en 32bit rendering

in het begin werd er vooral met 16bit gebenched toen leek ie minderwaardig maar bij 32bit en hoge resoos was ie sneller na 'n paar detonator releases van NVidia is de 32bit iets minder snel en in 16bit kan ie de GF niet meer bijbenen.
Ergens heb ik best wel vertrouwen in deze specificaties. Ik kan niet echt zeggen waarom, maar ATi heeft een hoop markt aandeel goed te maken. Waar ze eerst de standaard leverancier van een hoop laptops waren en uiteraard van Apple, die ook op nVidia onderhand is overgestapt. Ik vraag mij echt af wat ATi gaat doen. Het kan wel eens behoorlijk interessant worden. Ik weet nog wel hoe sceptish de Radeon1 werd onthaald, maar hoeveel mensen hebben die kaart onderhand in hun pc zitten en de hemel in geprezen?
Apple is helemaal niet overgestapt op nVidia, ze gebruiken nog steeds voor 90-95% ATi kaarten, alleen de G4 in duurtste spec heeft een GF3 aan boord, de rest een Radeon, rage128 Pro of zelfs nog een rage pro van ATi. Neemt niet weg dat ze er inderdaad een leverancier bij hebben genomen. En je leest op Rage3d.com nog elke dag dat er rage128 M mobiele kaartjes in Laptops komen, en dat terwijl er ook een Radeon M is.

De specs zullen inderdaad wel wat gehyped zijn, dat word ook al vermoed op de voorpagina van Rage3d.com waar een aantal andere zeggen dat ze uit andere bronnen lagere getallen hebben vernomen.
Maar ik zal de laatste zijn die het erg vind als dit de echte getallen zijn :)

De Radeon SE is geen apart product net als de Rage 128 Ultra is het iets wat ze gewoon doorvoeren zonder veel bombarie, je betaald gewoon het zelde, alleen het product word wat geupdate om het bij de tijd te houden, service van de zaak
Wel een realaxed dingetje maar zal ie er ook zo mooi uit zien als die GF 3 Golden sample :9
:9 whehe :9
Ik denk dat deze specs toch echt te mooi zijn om waar te zijn ;(

[edit]
Wil de mod die dit flamebait modereerd dat eens aan mij uitleggen?
350Mhz en 6 pipes whauw :9

hopelijk ook nog 3 textures per pipe

Dat vereist nogal geheugen bandbreedte hoop dat ze dat ook opgelost hebben met speciale efficientie trukjes zoals de G3 nu ook heeft zodat ze de huidige DDR geheugen kunnen gebruiken of gaan ze naar 256bits membus

zou toch graag meer willen weten over de geheugen toepassing op die R200 / R300
Als deze specs waar zijn, verkoop ik mijn GeForce 3 die ik vanavond op ga halen over een maandje :z :z :z

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True