Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties
Bron: Rage3D

Rage3D heeft van ATi's Brian Hentschel de bevestiging gekregen dat de Radeon II in het vierde kwartaal op de markt wordt gebracht. Volgens vroege speculaties heeft de Radeon II vier rendering pipelines en een core-snelheid van 300MHz, tesamen goed voor een pixel fillrate van 1200Mpix/s. De ontwikkeling van de R200, codenaam van de Radeon II videochip, loopt op schema en deze zomer zullen de eerste samples aan OEMs geleverd worden. In de tussentijd volgt de release van de Radeon SE, een snellere op 250MHz geklokte Radeon naar het idee van de GeForce2 Ultra. De Radeon SE wordt volgens Rage3D in april of mei geïntroduceerd.

Moderatie-faq Wijzig weergave

Reacties (33)

Die RadeonSE zou volgens de mannen van ATI (op CeBit) onzin zijn:

http://www.ati-news.de/cebit2001.html (ff zoeken naar de inhoud van het "interview".

/quote

Nun kommen wir mal zur Radeon SE .Vor einigen Wochen kursierte das Gerücht, dass ATI noch vor dem Radeon 2 eine Ultra Version des Radeon ausliefern würde. Dieses wird aber definitiv nicht der Fall sein.Wörtlich wurde uns gesagt: Glauben sie 10 MHz verändern den 3D Grafikkartenbereich? Nein ,natürlich nicht. Bei ATI konzentriert man sich lieber voll und ganz auf den Radeon 2,was auch logisch erscheint.

/quote

Hoewel het een hardnekkig gerucht is, lijkt het me niet helemaal (of helemaal niet) waar.
Deze releasedatum laat NVIDIA nog zeker een half jaar performance leider zijn in het 3d segment. De vraag is echter wat NVIDIA aan deze dure GF3 kaarten uiteindelijk verdient. Ik denk dat deze alleen veel verkocht gaan worden in de USA, waar de dollars als guldens gerekend worden.

Wat ik een groter probleem van ATI vind is dat deze kaarten niet overal in Nederland te verkrijgen zijn. Bij de gemiddelde computerzaak in Nederland is het alleen NVIDA Geforce 2 / MX wat de klok slaat.

Ati zal naar mijn mening meer moeite moeten doen om haar kaarten in deze winkels te krijgen. NVIDIA heeft zeker zwakke punten, zoals de beeldkwaliteit en de relatief hoge prijs. Tevens zouden ze ASUS en andere derde partijen moeten benaderen om kaarten te maken op de radeon chip. Dit omdat steeds meer winkels via deze bedrijven inkopen doen.

Tevens zou ATI meer effort moeten steken in goede drivers voor Linux. Als zij actief de ontwikkeling van (open source) 3d drivers steunen, dan kan ATI de positie van Matrox in de linux scene overnemen.

Hoewel de linux community niet groot is (ongeveer 10 %) van alle computers, kan ATI een groot marktaandeel in deze markt krijgen door het uitbrengen van open source 3d Radeon drivers.

Dit brengt het uiteindelijke marktaandeel op een gemakkelijke manier met ongeveer 3-5 % omhoog en is een goed target voor een marketeer.
Denk dat ATI er erg verstandig aan doet alles op de volgende generatie te zetten. En niet zoals de andere Chip-fabrikanten in de val van Nvidia te lopen. Hieronder volgt een korte beschrijving van wat naar mijn mening te strategie van Nvidia rond de GF2 was.

Tot nu toe heeft Nvidia er alles aan gedaan, inclusief OC'en (in mijn ogen dan), om de snelste grafische kaart te hebben. Het idee erachter was dat de andere fabrikanten dat dan zullen proberen te verbeteren. Hetgeen eigenlijk alleen lukt door (heel erg) duur geheugen te gebruiken.

Het punt is. Het is niet GF2U en GF2Pro waar Nvidia's geld vandaan is gekomen. Het gros van hun inkomsten ligt bij de MX en de GTS. De andere Fabrikanten hadden zich ook gewoon op dit segment moeten richten. Tot nu toe heeft alleen ATI dat gedaan. En met succes moet ik zeggen.

De volgende deden het in ieder geval niet:

Matrox: Superieure beeldkwaliteit doen een leek niet zoveel, het is immers niet te meten en dus kun je de gemiddelde leek niet met getalletjes om de oren slaan.

3Dfx: De VSA100 serie was eigenlijk een goede zet, maar door zich te profileren als "echte" perfomance kaart loop je het risico dat als "dat" niet het geval is je je geloofwaardigheid verliest. Dit samen met wat pech met het ontwikkelen en de eigenwijsheid hebben 3Dfx de das om gedaan. Het concept was immers gewoon goed. Immers een GF2U levert Nvidia misschien maar 10% meer op als een GF2GTS. Terwijl een V5 3Dfx meer als 2x zoveel op zou leveren als een V4. (Immers 2 proc's). Jammer maar helaas.

Nog een voorbeeld is de "product-refreshrate". De gemiddelde leek koop eerder een 1,2 Ghz proc met 64 Meg ram en een GF2MX als dat hij een 1,0Ghz koopt met 128 Meg en een GTS. Dit omdat de leek in "families en MHzen" denkt. Dus een GF2 is de snelste grafische kaart van het moment. "Dus ik koop een GF2."

Ook al is een MX niet de snelste. Wie moet hem dat uitleggen? Een verkoper doet het niet tenzij hij het idee heeft dat ie er ook nog een GF2U bij kan lappen. De klant zelf weet het niet. Hetzelfde geld voor een 1,2 GHz. De leek denkt: "Hey 20% beter als 1,0". Terwijl de kenners wel beter weten. die weten dat een 1,0 met GTS een 1,2 met MX voorbij fietst. Maar dat weet die leek niet.

En laat nou net 80% van alle gebruikers op gebied van aanschaf een leek zijn.

Wat ik met dit lange voorbeeld bedoel is dat door continue nieuwe producten uit te brengen je in de ogen van de leek niet 1x maar Nx de snelste bent.

Nl. eerst GF1, GFDDR GF2GTS, dan met GF2U en dan weer met GF3. Een leek let alleen op het GF1 GF2 en GF3 gedeelte dus denkt van hey een GF is gewoon het snelste. Terwijl niet alle dat zijn. Dus samengevat. Een hoge "product-refreshrate" is ook erg belangrijk.

Dus in het geheel samengevat. ATI moet die SE wel uitbrengen, maar dan wel door simpelweg bestaande techniek te OC'en, er veel meer geld voor te vragen als nodig is en te zorgen dat mensen niet een ATI kopen maar "een Radeon" net zoals je bij NVidia niet een GF2U koopt maar een GF2. Althans in de ogen van de leek.

"My 2 Cents"
oh ja, het is meer dan en niet meer als, analfabeetje.


* _Pussycat_ heeft wél op school gezeten.
jij is triest.
Mmmmh... tegen die tijd heeft ons aller Nvidia alweer de beefed-up version van de GeForce3 in de markt gebracht. Wat niet wegneemt dat de Radeon II zeker een interessante kaart zal zijn. Ik las iets (weet niet meer waar) van DX8 in hardware? Wie kan dit bevestigen? En ook MPEG4-decoding in hardware? :)

In ieder geval is het mooi dat ATI de strijd nog niet heeft opgegeven, unlike Matrox... :(
In ieder geval is het mooi dat ATI de strijd nog niet heeft opgegeven, unlike Matrox...
Matrox richt zich op een ander segment van de markt, namelijk het gebruik van computers in bedrijven en universiteiten bijvoorbeeld. Zij richten zich meer op 2D gebied. Simpelweg gezegd, ATI en nVidia richten zich voor het meerendeel op 3D, en een klein beetje 2D, Matrox richt zich voor het meerendeel op 2D, en een klein beetje op 3D. Voor ieder wat wils, en dat is in mijn ogen een goede ontwikkeling.
ATI en nVidia richten zich voor het meerendeel op 3D, en een klein beetje 2D
ATI richt zich voornamelijk op de OEM markt (voornamelijk 2d en multimedia gebruik), pas sinds kort ook op de 3d-gaming markt en waarschijnlijk in de nabij toekomst op de high-end 3d markt (aankoop FireGL)
Het zou heel leuk zijn als een bikkel-OpenGL driver (geleend van FireGL) en goede DX8 ondersteuning, gekoppeld zouden worden aan die Radeon-II :). Dan heb je een alleskunner: 2d-, 3d- én video/multimedia-kwaliteit :9.
Dat is marketing technische niet interessant. De prijs van de kaart zou dan erg hoog worden en de beoogde doelgroep van de professionele OpenGL'ers heeft helemaal niets aan die gamezut.
Op zich mee eens. Maar de geruchten van een G800 zijn erg hardnekkig :) Iets zegt me that not all is lost...

Matrox profileert zich de laatste tijd wel erg opvallend als zijnde een "non-player" op het gebied van 3D. Misschien om de concurrentie zand in de ogen te strooien?
Matrox is veel key-engineers kwijtgeraakt aan ik dacht nvidia. Sinds die tijd houdt niemand echt meer rekening met een groundbraking kaart vanuit de matrox hoek. Is ook niet zo belangrijk, er zijn zoals Rick al zegt, meer toepassingen voor een videokaart dan de pc van een quake3 spelende puber
Het grote geld ligt ook in het OEM segment... Matrox is flink aan het verdienen, en ik vind het logisch dat ze geen produktiecapaciteit aan een eventuele G800 besteden, nu er veel vraag is naar de G450. Dat neemt natuurlijk niet weg dat ik graag een G800/G550 zou willen zien :)
Ik denk dat ze dat eerder doen om er voor te zorgen dat hun klanten geen teleurstelling te wachten staat als blijkt dat de performance in games het niet haalt in vergelijking met nvidia, die zich vornamelijk op die markt richten. Begrijp me niet verkeerd, matrox maakt hele goede kaarten, alleen niet gericht op gaming, zoals ze ook zelf aangeven.Matrox richt zich nu eenmaal meer op beeldkwaliteit, functionaliteit (oa multihead) en professioneel (3d) gebruik.
professioneel (3d) gebruik.
Dat 3d (professioneel) zie ik nog niet. Ik hoop wel dat dat ooit gaat gebeuren. De laatste G4XX kaarten-reeks blonk in 3d (bijv. OpenGL) niet echt uit en al helemaal niet qua performance, tot mijn spijt overigens.
Euhm, daar ben ik het niet helemaal mee eens.... de g400 max was een pracht van een kaart, niet de snelste, maar wel degene met de beste beeld kwaliteit op dat moment... dus ze blonken wel degelijk uit....
Lees dit artikel eens (staan alle fabrikanten in , zelfs Bitboys :) ):
http://www.penstarsys.com/editor/SO3D/SO3D.htm

Hier staat in welke kaarten we nog kunnen verwachten van alle fabrikanten (gebaseerd op de laatste geruchten dat wel). Ik zelf prefereer oook een betere beeldkwaliteit en een kaart dat licht is voor mijn portemonnaie. Daarom wacht ik nu op de Kyro (mid april). Lekker goedkoop, goede drivers (lees mijn reactie op de Hercules review maar, daar staan wat links) en een hele goede beeldkwaliteit. Zoals al gezegd boeit de framerate toch niet zo meer (100 of 120 fps, who cares?) NVidia moet maar eens wat aan hun beeldkwaliteit (en prijsbeleid) doen ipv snelheid. Maar ze zullen vanzelf ook wel eens wakker worden ;
4e kwartaal?? dan mag hij alweer concureren met de NV25.... ik ben benieuwd of ATi het grafisch geweld van Nvidia bij kan houden! laten we hopen van wel uiteraard.
Alsjeblief mensen, neem eens een volledig beeld van de prestaties van een videokaart. ATI mag dan met z'n radeon wel wat minder FPS op je scherm toveren IMO is het beeld héél wat mooier kwa kleuren en scherpheid.

En dan spreken we nog niet eens over de 2D performance van de Nvidia serie.

Ter illustratie:

Toen ik enkele weken geleden een DVD keek op de pc van m'n broertje in het gezelschap van m'n vriendin. (mijn pioneer DVD had de geest gegeven) Zij ze spontaan : "is er iets mis met die film, hij ziet er helemaal niet zo knap uit als beneden"(daar bedoelde ze dus mijn pc mee). In mijn bak zit een G400 en in die van m'n broer een Geforce 256 SDR.

Een Radeon komt kwa 2D en 3D zuiverheid dicht bij een G400 dus ik denk wel dat het hiermee vrij duidelijk is. Nvidea maakt zalige kaartjes (al wordt ik ziek van hun 10-tal verschillende modellen (normaal, pro, ultra, mx, go, mx200, mx 400, en dan nog es met en zonder twin-view) en hun snelle opvolging van andere modellen). op 3D vlak, maar op 2D vlak moeten ze nog héééél wat verbeteren eer ik er zelf maar aan denk om een Nvidia chip in m'n pc te proppen.

Euh, wat ik dus eigenlijk wil zeggen is dat niet iedereen zich moet blindstaren op de rauwe performance, een videokaart is meer dan louter FPS.

En nu echt on-topic.

Ik vind dat er maar een weirde koeler op de core zit, lijkt me namelijk hellemaal niet zo efficiënt. Dat zou natuurlijk kunnen wijzen op een fake.
>hun 10-tal verschillende modellen (normaal, pro, ultra, mx, go, mx200, mx 400...

Hmmm ...
Je hebt Mx, Gewoon(aka pro aka gts), Ultra ... and thats it ... 3 namen ...

Die verschillende namen die bij de Gewone versie toegepast worden komen van de manufacturers zelf, de ene noemt zijn kaarten Pro, andere Gts etc..

De mx200, mx400 bestaan nog niet (aangekondigt maar aangekondigde namen hebben de gewoonte te veranderen)...

Zo zie ik het toch ...
Daarbij, 10 namen zoals je het zelf zegt, is toch niet slecht, betekend meer keuze he ;)
de pro en de GTS zijn wel verschillend flupke, GTS=333/200 mHz, pro=400/225 mHz, ultra=460/250 mHz
ik wordt er gek van! komt die Radeon SE nou wel of niet?? :? :? :?
of kan ik van een Radeon 64MB ViVo zelf mijn eigen SE van maken?? :? :?

die Radeon II klinkt goed! hopelijk is de kwaliteit weer zo goed, ik heb nu een Geforce 2 MX maar die kwaliteit is om te :r!!!!!!! ik heb zelf ook nog een Voodoo 4 en een ATi Rage Fury Pro en die geven beter beeld dan die GF2MX!!
of kan ik van een Radeon 64MB ViVo zelf mijn eigen SE van maken??

overclocken en extra koeling? tis maar een wilde gok, maar misschien helpt het. |:(
of kan ik van een Radeon 64MB ViVo zelf mijn eigen SE van maken??

Ja dat kan, er was laatst op Rage3d een link naar iemand die dus de geheugen modules op zijn Radeon had vervangen door 5ns (of 4.5ns) geheugen modulles. Is natuurlijk wel een zeer secuur soldeer klusje en erg moeilijk, maar in principe kan het dus.
Dat plaatje dat erbij staat, is toch geen officieel plaatje? :?

Duidelijk fake, en dat werdt ook bewezen in een eerdere nieuwspost.. Dan vind ik het een beetje vreemd als dat plaatje wéér bij een post zit.
Misschien (als dit uberhaupt waar is) gaan ze eindelijk eens wat doen aan die klote ventilator die erop zit. Over pokke herrie gesproken.
Verder denk ik dat ze beter eerst eens wat aan hun eigen drivers mogen doen.
Niels, die Linux support is juist een van de argumenten VOOR de Radeon t.o.v. van de nVidia kaarten. Hoewel de 3d performance van de Geforce onder Linux momenteel (op dit moment nog) beter is dan de Radeon, kan of mag nVidia de specs van hun chipsets niet vrijgeven, zodat we voor Linux support zijn aangewezen op de binary only drivers van nVidia. Toegegeven: die drivers zijn momenteel snel en van goede kwaliteit, maar hoe zit dat met de toekomst? Als later nieuwe linux- of x-server-versies uitkomen die incompatible zijn met de huidige drivers nadat nVidia de support ervan heeft stilgelegd, wat dan?

Omdat ATI de specs van de Radeon heeft vrijgegeven, schijnt hij nu al een zeer redelijke performance te geven onder Linux als je de nieuwste CVS versie van XFree86 downloadt. Het voordeel met open source drivers is dat die continu door iedereen verbeterd kunnen worden, ook lang nadat ATI de ondersteuning van de Radeon kaarten heeft stopgezet.

Een kanttekening zover ik weet: als ik het goed had gelezen waren de specs voor het T&L gedeelte van de Radeon (nogal cruciaal, ja) nog niet beschikbaar, maar was ATI bezig om die ook vrij te geven.

Ik vind het vrij beschikbaar zijn van hardware-specs een ZEER BELANGRIJK voordeel van ATI boven nVidia, naast het al bekende argument van het (aanzienlijke) verschil in beeldkwaliteit in het voordeel van ATI.

Recente benchmarks van de ATI Radeon onder linux met een recente CVS (dus nog zeer experimentele) snapshot van XFree86 4.x:

http://www.linuxgames.com/articles/msessions-radeon_ benchmarks.txt

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True