Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Bron: Reactor critical

Mensen van de Chinese site PCPOP hebben een bezoekje gebracht aan ATi's fabriek aldaar en hebben een leuke serie foto's geschoten en gepubliceerd. Het lijkt er verdacht veel op dat ze ook nieuwe ATi Radeon 2 (R200?) videokaarten op de digitale korrel genomen hebben. Zo te zien is men al druk bezig met de productie ervan. Een aantal game developers hebben zich inmiddels zijdelings laten ontvallen, dat ze al R200 samples in hun bezit hebben om een en ander uit te proberen. Reactor Critical heeft de plaatjes ook eens goed bekeken en van wat commentaar voorzien:

Liggen hier twee ATi Radeon2 kaartjes gebroederlijk naast elkaar te wachten?
Onder die 2e rode streep lijkt 'R200' verscholen te staan
Guys from chinese site PCPOP has been to ATI factory in China and published a lot of interesting photos from there. For example, this picture of card with unknown PCB design based on a chip, which name is crossed with red pen. If we look at the photo carefully, we will probably notice a name of four symbols. And why is it crossed? Maybe it is something secret? And what secret does ATI have at the moment? Surely, R200. If we examine the chip, actually, the first string, which is printed on the top of it, we will be able to notice some pretty interesting mark: "215R7". Keeping in mind that "215R6" means RADEON, we conclude that "215R7" is the mark for R200 or RADEON 2.

[...] Unfortunately, we are not able to determine the revision of this chip, simply because ATI don`t provide such information and basically there are no leaks of such kind of data. By the way, we assume that R200 has finaly gone to mass production - China factory does not produce sample boards, but the cards for China market. So, if there are commercial cards based GPU, we have to wait a couple of weeks till this GPU is announced

Bedankt iefje, voor de tip.

Moderatie-faq Wijzig weergave

Reacties (71)

Voor de duidelijkheid: de R200-chip is de Radeon2.

Deze kaart lijkt mij zeer interessant vanwege zijn perfecte beeldkwaliteit en zijn snelheid zou de GeForce3 moeten evenaren. Nu hopen dat er geen driver-issues zijn, want dat ging met de Radeon1 even mis.

Zijn er trouwens al specs. bekend over de core en memory kloksnelheden?
R200 (Radeon2) series:

* 4 Renderingpipelines
* 250 MHz Chip
* 0.15µ
* DirectX 8.1 ondersteuning
* HydraVision
* Dual-Chip

RV200:

* 2 Renderingpipelines
* 250 MHz Chip
* 0.15µ
* HydraVision

De R200 zou dus beter moeten zijn dan de GeForce3 qua specificaties. Beide chip's zijn 200Mhz
De Ati ondersteund DirectX8.1 ipv de 8.0 van de GeForce3
Beide 800Mega pixel.
Texure pixels zijn 2400M pixel van de Radeon2 tegen 1600 van de GeForce3.
Aantal redering pipelines zijn 4x3 tegen 4x2 van de GeForce.
Beide een 128 Bit bus en 7,4GB/s geheugenbandbreedte.

Het beloofd dus veel moois te worden :)
De R200 zou dus beter moeten zijn dan de GeForce3 qua specificaties. Beide chip's zijn 200Mhz
Nou, in jouw specs staat toch echt 250Mhz :)
Zijn er trouwens al specs. bekend over de core en memory kloksnelheden?
Check "Gerelateerde nieuwspostings" in rolvenstertje. Dan vind je daar wat speculaties over.
Wat een geblaat weer zeg.
OK onder Win2K is de performance wat minder met de Radeon1, maar Win2K is ook GEEN gameplatform. Dat is nog altijd win98/winme (your choice)
Onder Win98/WinMe zijn er juist weinig problemen geweest met de drivers. De meeste nieuwe versies werden alleen maar beter (sommige daargelaten), maarja dat heb je ook met de detonator drivers van Nvidia.

De enigste opmerking die wel gemogen had washet feit dat ATI zelf wat meer met officiele drivers mogen komen.
Ik weet niet of je het weet maar win2000 heeft na de sp2 installatie een betere performance dan win 9x of me.
Windows 2000 is een perfect game-platform. Weet je waarom? Omdat alle spelletjes het bij mij zonder problemen doen. Sim-Pel!
Nou, sorry, maar games en W2000 is tegenwoordig geen probleem meer, althans ik kom ze niet tegen :) Het hangt er gewoon vanaf met wat voor kaart je werkt. Vooral de nVidia kaarten doen het prima onder W2000.
kwou net zeggen, mijn geforceje doet het perfect onder windows 2000, ik heb zelfs betere framerates dan in windows 98, en problemen met spellekes heb ik ook nog niet gehad B-) (met uitzondering van een 6 jaar oud spel)
Leuke foto's van mijn volgende videokaart.. :)
Ik kan nauwelijks wachten op de eerste benchmarks, ben hard aan het duimen...
Ook dat de prijs niet al te hoog is, en dat 3rd party producenten kaarten gaan maken met de ATI chip, om de concurrentie op peil te brengen.
In het ergste geval (kwa prijs van de R200 serie) kunnen we ons erop verheugen dat de Radeon I goedkoper zal worden.

BTW ik las op Slashdot al dat de R200 intro binnen 2 weken zou moeten zijn, dus in dat geval klopt het wel dat dit productie modellen zijn, en geen preprod samples.

Overigens, is dat een aansluiting voor een digitale monitor, die ik daar naast de gewone monitor aansluiting zie?
Overigens, is dat een aansluiting voor een digitale monitor, die ik daar naast de gewone monitor aansluiting zie?
Yep, dat is een DVI (Digital Video Interface geloof ik) aansluiting om TFT schermen op aan te sluiten.
Ach ja, nvidea blijft roeleren
Geforce 3 is gegarandeerd sneller, ik zeg het je, zeker de hardocp versie.
En dan nog extra overgeklokt.... dat zie ik nog geen ati doen..
t is nVidia
tja.. en er zijn ook mensen die GEEN 150 fps hoeven in <vul hier je game in> maar hogere beeldkwaliteit, en meer mogelijkheden met je kaart (vivo :*)) en niet hoeven te patsen met "ik heb lekker snelste duurste videokaart"
i dont get it why you all ppl write NVIDIA like this "nVidia"

download this and read good

http://www.nvidia.com/docs/lo/241/SUPP/nvidia _logo_g uidelines.pdf
[Reaktie gewijzigd door -Z-]
Ze zijn lekker met de rode stift zijn bezig geweest en willen in ieder geval niet dat je ziet welke GPU er wordt gebruikt. Ze hadden dit makkelijker kunnen doen dooe een heatsink/fan combo op de GPU te plaatsen.

Moet er geen heatsink/fan combo op de GPU worden gezet of heeft de ATI geen last van warmte ontwikkeling?
Als de technologie klein genoeg is (0,18µ misschien?!), dan zou dat wel eens kunnen lukken zonder extra koeling...

Misschien hebben ze ook de kloksnelheid verlaagd en het aantal rendering pipelines verhoogd he... Dat helpt ook met de warmte-ontwikkeling zonder dat de snelheid er te veel onder lijdt.

P.S.: Ik ben maar aan het gokken he, dat zijn een aantal mogelijkheden en 't kan goed zijn dat er geen van waar zijn.
Dan nog is het handig om het ding gewoon te koelen met een blok en koeler en de kloksnelheden gewoon te verhogen... :)
Allicht wel; en ik vermoed ook dat de Radion2 in verschillende versies zal komen (net zoals dat bij de GF het geval is)... Wellicht een low-end versie (MX-achtig) die liefst geen koelsysteem heeft, een mid-range versie (GTS-achtig) die completer is uitgerust maar met goedkopere (lees: nog net betaalbare) onderdelen en een pro/ultra versie die duur is en de hoogst mogelijke prestaties neerzet.
Als de technologie klein genoeg is (0,18µ misschien?!), dan zou dat wel eens kunnen lukken zonder extra koeling...
Als de technologie klein genoeg is, MOET je juist koelen met een extra heatsink!

De grafische core zal dan wel kleiner zijn, maar loopt ook harder. Er komt dus evenveel (of ietje minder) warmte-energie uit een kleiner oppervlak. Dan moet dat oppervlak wel gekoeld worden, want een kleiner oppervlak raakt zijn warmte moeilijker kwijt dan een grote.
verkleinen = lager energieverbruik bij zelfde snelheid=> minder warmte productie
voor de rest, heatspreader is natuurlijk genoeg om koeloppervlak te vergroten
mvt:

Verkleinen = hogere snelheid mogelijk => meer warmte per mm2

Voor de rest: Het hele concept van een heatsink is het 'vergroten van het koeloppervlak'

Een lager energieverbruik is in theorie wel mogelijk, maar in de praktijk is het een fabeltje omdat de snelheid bij een die-shrink ook bijna altijd verhoogd wordt: Hoe zou het toch komen dat een oude 486 geen actieve koeling nodig heeft, en een T-bird met zijn veel kleinere core aan een straaljager nog maar net genoeg heeft?

Als je de core verkleint, verlaagt (bij het gelijk blijven van de snelheid) inderdaad het energieverbruik. Maar hoewel je minder warmte produceert, heb je ook minder oppervlak om het kwijt te raken.
Als je daarbij ook nog eens de snelheid omhoog gooit, dus weer meer warmte produceert, moet je eenzelfde hoeveleheid warmte kwijtraken met een kleiner oppervlak. Dan heb je toch gewoon een extra heatsink nodig?
't is waar dat een 0,15µ chip sneller kan lopen dan een 0,18µ chip... maar wie beweert dat het altijd de bedoeling is de chip sneller te laten lopen wanneer men kiest om de die te verkleinen? Je kan toch gewoon verkleinen net om het geheel koeler te houden bij dezelfde snelheid?
nee je snapt het niet, waarom denk je dat intel naar een 0,13µ wil, juist omdat ze als ze een 0,18µ erop zouden zetten de temperatuur te hoog zou worden op die clocksnelheden, de grap is nou juist dat er minder energie nodig is en er dus minder warmte vrij komt, en die vergelijking van een 486 met een t-bird, is net zoiets als een auto als 1940 die niet gekoeld was met een mooie ferari, die zijn ook gekoeld B-)
GF3 wordt toch al op 18 micron gemaakt ? of 15 zelfs misschien ?
Toch wel weer even de kat uit de boom kijken. Je weet nooit wat voor een buggies er in zitten.

Bovendien zal de prijs in het begin wel verschrikkelijk hoog liggen.
Toch wel weer even de kat uit de boom kijken. Je weet nooit wat voor een buggies er in zitten.
Die mogelijkheid bestaat met elk product, of het nou ATI of NVIDIA is, herinder je nog de stepping van de Geforce3 die terug gehaald is door NVIDIA? Ik denk dat bedrijven zoals ATI echt wel hun producten testen voordat ze de chip in massaproductie nemen. Dat wil natuurlijk niet zeggen dat er geen bugs in zitten want die zitten er altijd in.
Bovendien zal de prijs in het begin wel verschrikkelijk hoog liggen.
Ik denk dat de prijs niet boven die van een Geforce3 uit komt, dat was met de eerste Radeon ook niet zo. (En ze willen natuurlijk concureren met NVIDIA, die zo langzamer hand net zo bekend is bij de normale consument als Intel, waardoor die dus eerder voor een NVIDIA kaart gaan).
"Bovendien zal de prijs in het begin wel verschrikkelijk hoog liggen."

De prijs van de G-Force is toch vooral zo hoog vanwege het dure geheugen? ATI's HyperZ zorgt ervoor dat ze daar iets op kunnen bezuinigen.
Volgens mij houdt nVidia de prijs lekker kunstmatig hoog. Als je kijkt naar het prijsverloop de laatste paar jaar, zie je dat nVidia de prijzen steeds langzamer laat zakken naar een betaalbaar niveau. Ze hopen op de hype mee te kunnen liften met de GeForce 3.

Met de nieuwe ATI zal ze dat wel flink tegen gaan vallen zo te zien. Een nieuwe prijsoorlog is precies wat wij als consument nodig hebben :-))).

ATI is precies het bedrijf dat dat kan.
De prijs van de G-Force is toch vooral zo hoog vanwege het dure geheugen? ATI's HyperZ zorgt ervoor dat ze daar iets op kunnen bezuinigen.
De Geforce 3 heeft dezelfde truukjes als in HyperZ verwerkt zitten, namelijk:
- Z buffer compressie.
- Early Z-occlusion.

Dus die vlieger gaat niet geheel op dat de Radeon minder snel geheugen nodig zou hebben. ;)
Nvidia=Intel
ATi=AMD


Kwil niet lulig doen maar het is JUIST NVIDIA die met AMD werkt, en intel???? Die werkt niet echt met een bepaald iemand mee. Leer je feiten en post dan pas :Z
ati drivers = via
ATi en Intel schijnen nogal dikke maatjes te zijn. Intel gebruikt ook ATi core's in hun geďntegreerde kaartjes. Het is nu wachten op ATi's "Crush-Crusher" ;); een chipset met RV200 graphics core, maar dan niet zo duur als de nForce chipsets.
Dat ding barst van de Elco's, zoveel heb ik nog nooit gezien op een videokaart :? :?

Ze zeggen dat die fabriek voor de chineze markt produceert, zou het niet kunnen dat dit gewoon een lowbudget kaart is. (daarom ook die grote elco's?) Maar dat ze om de concurrentie (en de klanten) het gevoel te geven dat ze snel met wat nieuws komen deze foto's hebben gegeven en het type hebben doorgekrast?

Het hoeft niet zo te zijn dat een opvolgend typenummer ook een verbeterde versie is (ook al is het wel vaak zo). Kan ook gewoon ene gestripte versie zijn die men een nieuw, hoger, serienummer geeft.
Dat kan zeker... Maar van ATI wordt nu niets speciaals verwacht behalve de Radion2 dan... Daarom dat als er nieuws komt van ATI's kant, dat men snel denkt dat het om de Radion2 gaat.

Ik vind ook dat er nogal veel elco's op steken... Laat ATI de reference-boards nu dan maken door een concurrent (zoals nVidia dat doet)? Misschien ligt het daar dan aan?! Anyway, we zullen nu wel een pak meer varianten hebben in de design van ATI-based borden aangezien ook derden ATI chips mogen incorporeren nu.
Jongens, hoe meer elco's, hoe stabieler de signalen op het kaartje, hoe beter de beeldkwaliteit en de stabiliteit. Dus ook goed voor overclocken of in ieder geval hoge schakelfrequenties.

Natuurlijk is er een sweet-spot, als je te veel elco's gebruikt, dan worden de signaal-flanken niet steil genoeg.
Als je goed kijkt zie je onder het doorgestreepte duidelijk R200 staan
JA ik zie het ook!!! Onder het onderste rode streepje zie je duidelijk de contouren van een "R" een "2" en 2 "nullen"

HA HA dit is hem mensen :P

Niet goed gekleurd en wij zijn weer lekker blij :) Ik heb er een woord voor HALEELOELJA
Zie ik daar naast de vga & dvi poort ook nog een TV out ?
ja ja een svhs en dvi uitgang... jummie :P
Wat ik me afvraag is waar de cijfertjes 0128ss voor staan? Zou er stiekum 128 meg geheugen in deze babies zitten? Zo ja, dan zal de prijs hiervan behoorlijk stevig zijn denk ik zo. Hoewel geheugen goedkoper is dan een tijd terug is het nog niet echt lekker goedkoop, tenminste het geheugen dat in graphische kaarten zit (128bits).
0128 wil zeggen dat de chip gemaakt is in de 28-ste week van 2001... redelijk vers dus...
zou toch eens tijd worden voor wat concurrentie.....Als je bekijkt wat de specs voor bv doom 3 gaan worden ,moet je een geforce 3 of hoger hebben........Dan is het leuk als die prijzen eens dalen.

Zelf ga ik deze kaart overwegen, binnen 2 maanden toch een nieuwe comp :) dus we zullen zien.

Alleen wanneer die echt gaat komen?
Het duurt nog zeker een jaar voordat Doom3 uitkomt... tegen die tijd is de geforce3 alweer waar de geforce1 nu zit qua prestaties.

Wat is dat voor rood, van een krijtje ofzo? het is wel heel fel... bijna MSpaint-fel.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True