Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties
Bron: X-bit labs

De introductie van de nieuwe ATi Radeon 2 zal wel niet lang meer op zich laten wachten, aangezien er steeds meer foto's en gegevens van samplekaartjes op het net 'lekken'. Waren er onlangs foto's te zien van de samples in de Chinese fabriek van ATi, inmiddels heeft de Koreaanse site Brainbox ook een aantal duidelijke foto's en wat interessante gegevens van Radeon 2 samples gepubliceerd, inclusief driverscreenies. X-bit labs heeft de info deels overgenomen en voorzien van engelstalig (en voor ons beter leesbaar) commentaar. De afgebeelde kaart heeft 64MB 4ns DDR SDRAM, wat in principe op 500MHz geklokt zou kunnen worden, al zal ATi dat af fabriek misschien niet direct doen. Het kan wel mooi synchroon lopen met de core die op 250MHz zou werken. Interessant is de schematische lay-out van de kaart, die X-bit becommentarieert:

You can see a couple of curious things if you take a closer look at it. First of all, we should point out the dual-channel 128bit memory interface. We believe that it doesn’t at all imply that the memory bus will be 256bit wide. The memory chips on the card are arranges as 4M x 16, i.e. the memory bus can be only 128bit wide (since there are 8 chips on the card). In other words, ATI can boast some tricky memory access technology, maybe something like a cross-bar controller used in GeForce3. Moreover, there will be a HyperZ II technology aimed at unloading the memory bus. We expect ATI to have improved it compared to the ordinary HyperZ used in regular RADEON cards.

3D engine part shows that there are 4 rendering pipelines in the chip, just as we have expected before. Each pipeline has 2 TMUs. The chart shows clearly that R200 is DirectX 8.1 compliant due to Charisma Engine II and Pixel Tapestry II technologies including programmable vertex and pixel shaders. Besides, R200 3D Engine will also include a well-known N-Patch engine.

Flexible Display Engine shown on the chart allows connecting all sorts of DVI and CRT monitors and well as TV. The same thing can be seen on the photos: the card is equipped with D-sub, DVI-Out and TV-Out. The card photographed also features ATI Rage Theater chip, i.e. some RADEON 2 cards will also have a Video-In. besides, we should also say that the Display Engine allows connecting an optional external DAC. In other words, dual-monitor support can be implemented on R200 based cards, unlike GeForce3, which can’t boast any dual-monitor support.
ATi Radeon 2 64MB DDR sample
Moderatie-faq Wijzig weergave

Reacties (62)

ik weet niet hoe hij gaat presteren, maar van mij mag er wat meer serieuze concurrentie voor nVidia komen... De prijzen van videokaarten zijn gewoon absurd hoog, en ze blijven hoog. En dat laatste is het ergste...

Maar als het gerucht waar is dat nVidia deze kaart "vreesde", dan kan het nog leuk worden dit jaar...
Ik kan me niet echt voorstellen dat nVidia iets te vrezen heeft. De GForces worden zowat overal verkocht, terwijl je voor de Radeon echt moet gaan zoeken. Als dit bij de Radeon II weer het geval is, lijkt me niet dat nVidia er voor moet vrezen.

En mensen die niet zo thuis zijn in videokaarten kopen waarschijnlijk toch een GForce omdat dit gewoon veel bekender is en omdat ze dus overal te koop zijn.
Ik kan me niet echt voorstellen dat nVidia iets te vrezen heeft. De GForces worden zowat overal verkocht, terwijl je voor de Radeon echt moet gaan zoeken. Als dit bij de Radeon II weer het geval is, lijkt me niet dat nVidia er voor moet vrezen.
ATI is nog steeds een van de grootste bedrijven in de videokaarten branche. Zeker in het OEM gedeelte van de markt is ATI nog steeds groter als nVidia. Je moet ATI dus zeker niet uitvlakken, al neemt nVidia steeds meer over van de OEM markt (Apple pc's worden steeds meer uitgerust met nVidia net zoals de grote OEM producenten als Packerd Bell, DELL en Compaq.
Indeed, tenzij ook andere merken met deze chipset gaan werken (daar was toch sprake van ?). Je kunt wel een goede kaart op de markt brengen, maar wanneer ie te moeilijk te verkrijgen is, zijn mensen snel geneigd om iets anders te kopen.

http://www.tweakers.net/nieuws/17365
Het zou best eens kunnen zijn dat nVidia wel benauwd is dat een deel van de high-performance gamers van de GeForce 2 GTS/PRO overstappen naar de Radeon II (in plaats van de GeForce 3).

Uit het artikel:
All in all, we would like to say that RADEON 2 specs look really competitive and if ATI manages to stick to the schedule and launches its newcomer in the fall, as it has been initially planned, NVIDIA?s reputation as the supplier of fastest graphics accelerators can get fly-blown. In fact, the info coming from NVIDIA?s insiders proves that the company is quite concerned about R200 launching. So, they are trying to think of some other high-performance solutions faster than GeForce3.
Het zou natuurlijk ook onverstandig van nVidia zijn als ze zelfgenoegzaam achterover gaan zitten en niets doen om hun voorsprong te behouden. (Dit schijnt een ander merk in de 3D-videokaarten markt overkomen te zijn), innovatie blijft heel erg belangrijk in deze industrie.

Uit eigen ervaring kan ik zeggen dat de Radeon I al een erg concurrerende kaart is, omdat allerlei 3D features goed, mooi en snel geïmplementeerd zijn. De Radeon II is dezelfde basis met sowieso de extra dingen van de GeForce 3 maar met nog meer mogelijkheden (DirectX 8.1; TruForm, DH, etc.) waardoor het feature voor feature een prima upgrade van de GF2 serie zal zijn.
Ik weet niet hoe de beschikbaarheid van de ATi kaartjes is of was, maar het lijkt erop of Nvidia redelijke klappen heeft uitgedeeld: vroeger kocht je bij de Vobis, Paradigit, ESCOM, DES, en dergelijke een kant en klare PC: daar zat vrijwel ALTIJD een ATi videokaart in: Ze hadden namelijk een goede prijs/kwaliteit/performance verhouding. Als je nu wat winkels doorloopt op t web zie je dat alle instap systemen, maar ook de iets meer High end systemen een Nvidia kaart erin hebben zitten: van de TNT via de MX tot de GF3 :( Dit heeft Nvidia goed gedaan (kwa marketing) ATi moet zich gewoon weer nestelen op de prijs/kwaliteit/performance markt, zodat de vele Kloonbouwers hun kaartjes weer standaard in hun PC's duwen. :7

Ik heb zelf gekozen voor een ATi Radeon SDR :) : ik ben er zeer tevreden over en is zeker te vergelijken met een MX (had ik eerst maar was niet aan de praat te krijgen, CARDExpert he :r ). Toch zie je de Radeon SDR + V0 vrijwel nergens in basissystemen zitten. Ik denk dat ATi maar eens een paar Marketeers van Microsoft moeten overkopen: Die gasten weten tenminste hoe je een product als vanzelfsprekend kunt verkopen bij een computer.
Iedereen die al langer 3d kaafrten koopt (vanaf de v1) kan zien dat de prijzen gedaald zijn, vroeger had je minder keus en de keus die je had was vaak erg duur voor weinig, nu heb je veel keus, waardonder dure topkaarten, maar ook supergoedkope (en goed presterende) budgetkaarten

De v2 kostte destijds +/- 600 piek en de sli setup het dubbele, de enige kaart die daar nu overheen zijn gegaan kwa prijs (gecorrigeerd voor inflatie) is de v5 6000 (1700-1800 piek) en sommige (hercules) geforce 2 ultra kaartjes)

Je heb t dus tegenwoordig relatief meer power voor minder geld en je hebt enorm veel keus...

Vroeger was het dus absoluut niet veel beter...

Deze radeon ziet er iig zeer interessant uit, maar als ie niet beter presteert dan de gf3 en als ie niet goedkoper wordt dan zijn ze bij ati alleen afhankelijk van de mensen die perse voor ati gaan, omgeacht wat ze verkopen...
Mjah, een kaart die dezelfde performance heeft als de GeForce 3, maar dan met dualhead... Das toch wel intressant.

Ik ben benieuwd of er games komen die speciale features in gaan bouwen voor dualhead videokaarten.

\[OFF-TOPIC]
Waar kan ik een lijst vinden van mensen die een hoge score hebben bij 3D-Mark2001, en wat hun systeem is?
\[/OFF-TOPIC]

/off topic
http://www.madonion.com, in de compare sectie, moet je wel zelf eerst een 3dmark gedraaid hebben. Ook in het forum http://gathering.tweakers.net komen er regelmatig 3d mark topics voorbij zeilen, als je ff de search daar gebruikt kom je ze vanzelf tegen
/off topic

/edit
typo's
/edit
Ik ben benieuwd of er games komen die speciale features in gaan bouwen voor dualhead videokaarten.
Games met dualhead functies zijn er al genoeg, deze zijn ontwikkeld voor de dualhead kaarten van Martrox.

Of deze spellen ook de dualhead functie van de Radeon 2 ondersteunen weet ik niet, maar er is dus wel duidelijk een markt voor, anders hadden de spelfabrikanten de moeite waarschijnlijk niet genomen om het te implementeren voor de Matrox kaarten die er "niet echt" bekend staan als top 3D-kaarten.
Croteam, de makers van Serious Sam (dat DH ondersteunt), zeiden dat het verrassend weinig moeite kostte om support in te bouwen (je krijgt dan één scherm om op te spelen, een één voor statistieken of om de teammates te volgen).

We zouden dit in de toekomst dus wel eens vaker in spellen kunnen gaan zien.
Het is geen dual head volgen mij hoor, die tweede aansluiting is een digitale aansluiting voor OA TTF monitoren!
Als je eerst eens het hele verhaaltje leest voordat je wat post.....
besides, we should also say that the Display Engine allows connecting an optional external DAC. In other words, dual-monitor support can be implemented on R200 based cards, unlike GeForce3, which can’t boast any dual-monitor support.
Best wel een kleine heatsink in vergelijking met de Gforce3. Helemaal geen vinnetjes voor het geheugen blijkbaar.
En wat de verkoop betreft: Vroeger kocht iedereen een "Voodoo", want een TNT2 dat kenden ze niet. Nu koopt iedereen een Gforce. En 3dfx is dood.
Wie weet wat de toekomst ons brengt? Ik durf het niet te voorspellen
Nvidia zal echt wel oppassen dezelfde fouten te maken als 3dfx (te dure producten met matige prestaties)
de enigste fout die 3dfx gemaakt heeft is dat ze
zelfgenoegzaam zijn geworden, en dat heeft ze de kop gekost.
4 ns geheugen?
de geforce 3 heeft 3.5 ns, dus dat is niet eens zo heel snel!
Nou, op een GF3 zit echt 3.8ns geheugen dus dat verschilt niet echt zoveel. Kans is groot dat 4ns geheugen net zo snel loopt. Zo loopt bij mij bijv. 5ns geheugen (400Mhz) op 475. En ik denk dat 4ns geheugen net weer even wat goedkoper is dan 3.8ns geheugen.

Jammer net te laat.
De GF3 loopt met zijn 3,8 ns geheugen toch op 460 mHz, ook al zou het ca. 525 kunnnen zijn. Het schijnt dat nVidia persé niet wou dat het hoger liep. Ik neem aan dat dit is om de performance van de GF3U/GF4 niet verder tegen te laten vallen. Die zou anders nouwelijks hoger liggen dan de GF3. Het enige voordeel zijn dan de 2 t+l pipelines, maar echt geweldg veel maakt dat bij de huidige spellen ook niet uit. Het lijkt er op dat nVidia met haar huidige techniek wel een beetje is uitgepoept, zeker omdat ze geen sli-configuraties wil gebruiken. Het enige wat zou kunnen helpen is de GP-technologie, maar het zal nog wel even duren eer daar wat mee te doen is.

Al met al ziet het er goed uit voor de Kyro's in de nabije toekomst, tenminste als de K3 min of meer op tijd verschijnt.

p.s: Modereer Marteltor niet onder de 0 s.v.p., want dan kan nietmand dit lezen, en het was best wat typewerk. :)
Hoop echt dat deze kaart beter of net zo goed presteerd als de gforce3 :P Als ie niet goedkoper is dan is ie wel stabieler. :+ Heb nu ook een ati kaartje en nog nooit problemen mee gehad. :)
Ik heb nu een nvidia kaartje en daar heb ik ook nog nooit problemen mee gehad...dus dat zegt niets.

Ik heb pas interesse in ati als ze goede linux drivers maken en een beter kaart dan de gf3 tegen minder geld gaan aanbieden


//ff offtopic flamen:
Ati noemt zn site unsupported in netscape6 (en dus ook mozilla), dat zegt wel wat over de kans dat ze linux drivers gaan (of kunnen) uitbrengen als ze al niet eens een fatsoenlijke site kunnen maken
Gebruik dan 'n OS die door de meeste hardware komponenten bouwers ondersteunt wordt bij release van hun hardware,dus dan kom je toch op MS uit

anders moet je bij die hardware makers blijven die dat wel doen en is je hardware keuze beperkt

* 786562 SG
Ik ga juist alleen voor hardwarebouwers die mijn OS ondersteunen...de reden dat ik nu alleen voor matrox/nvidia en (wijlen) 3dfx ga en dan nog het liefst voor nvidia omdat hun drivers bij mij met gemak hun windows equivalent voorbij trekken..

Mijn hardware keuze wordt dus al flink beperkt en zolang ik met ati geen spellen kan spelen in linux heb ik geen reet aan hun hardware, en dat zou ik wel jammer vinden wanneer zou blijken dat de r200 goed en goedkoop zal worden (dat laaste betwijfel ik overigens)
Ik heb pas interesse in ati als ze goede linux drivers maken en een beter kaart dan de gf3 tegen minder geld gaan aanbieden
Voorheen konden ze niet eens goede windows drivers leveren. Ik heb zelf twee ATI kaarten gehad (Rage Pro en Xpert@play) Over de kwaliteit van de kaarten zelf was ik wel tevreden maar de drivers waren altijd even brak. Dat was voor mij de voornaamste reden om naar Nvidia over te stappen. Voordat ik een Radeon 2 zou aanschaffen zou ik eerst zeker willen weten dat de drivers wel deugen.
Misschien is het nog niet bekend hoor, maar wanneer zouden deze kaarten echt moeten verschijnen en zijn er al prijsindicaties gegeven?

voor onder de 1000 gulden is deze kaart natuurlijk erg interresant
De GeForce 3's van Taiwanese en Koreaanse makelijk zijn ook al goedkoop hoor. Voor f700,- kun je al grijsimport GeForce 3's met 64Mb geheugen krijgen. Even de advertenties her en der in de gaten houden, laatst stond er eentje in nl.markt.comp. Grijsimport betekent wel meestal garantie tot aan de deur, dus dat moet je durven.

Alleen Asus en Hercules zijn duur, maar van hen krijg je in ieder geval een gegarandeerde kwaliteit (en anders wel een gegarandeerde service).

ATI zal in ieder geval onder de prijs van NVIDIA moeten zitten om marktaandeel weg te stelen. Als ze de chip ook nog eens goedkoper kunnen produceren, dan zal de GeForce 3 het nog moeilijk krijgen :-))).

Grappig dat de ATI eigenlijk alles heeft wat de GeForce 3 ook heeft (pixelshader etc.). Ik wil wel eens de NVIDIA demo's op de ATI zien draaien :-). Als je ziet wat er met die pixelshader voor realisme opgewekt kan worden, dan gooi je je oude videokaart zo snel mogelijk weg :-)))).
Ik hoop niet dat dit kaartje een stuk beter gaat presteren dan de GF3 wat ik sta op het punt een asus8200 deluxe te kopen
Ik zou 2 maanden wachten, maar ja wie ben ik :-)
brainbox is niet kroatisch maar koreaans :P
een asus v8200 deluxe heet geheugen op 3,8 ns. Maar dat geheugen is geklokt op 4,3 ns. IN theorie zou de kaart dus bij maximale overclocking tot 3,8 ns voor het geheugen een data doorvoer van 8,2 GB/sec in plaats van 7,4 GB/sec kunnen hebben.

0,8 GB lijkt gigantisch veel, maar vergeet niet dat dit het maximale is wat er uit te persen valt als alle stukjes geheugen het meest efficient gebruikt worden. En die situatie komt in een spel zelden voor, en als wel, dan duurt het zokort dat de performance verbetinge van 3,8 t.o.v. 4,3 niet of nauwelijks methet blote oog te zien is.
Nou, als hier ook een mooie VIVO versie van komt, dan koop je hiermee een erg leuk allroundkaartje.

Zelfs een GF fanaat als ik, zou dan zo'n aanschaf kunnen overwegen, mits betaalbaar.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True