Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: Beyond3D

Op Beyond3D staat te lezen dat mensen van ATi na afloop van de recente presentatie over het sterk gegroeide marktaandeel van hun werkgever wat informatie hebben losgelaten over de volgende generatie videochips, die in de eerste helft van 2005 op de markt zou moeten komen. De R5xx-serie zal net als de huidige R4xx-generatie grotendeels gebaseerd zijn op de R300-architectuur, maar voegt als voornaamste extra feature ondersteuning voor pixel- en vertexshader 3.0 toe. Verder zou de chip vooral qua bus en geheugeninterface onder handen genomen zijn, maar wat hiermee bedoeld wordt is onduidelijk. De speculaties op het forum van de bron lopen uiteen van een 512-bits interface of een stuk eDRAM op de chip tot een implementatie van QBM of GDDR4. ATi zou in ieder geval gebruik gaan maken van het 90nm low-k-procédé van TSMC voor de productie van de R5xx-GPU's. Een opvallende zet, want het bedrijf heeft de reputatie om nooit voor de allernieuwste productietechnologie te kiezen bij het ontwerpen van high-end producten. Wel komt het overeen met de eerdere uitspraak van het bedrijf dat het sceptisch was over de haalbaarheid van SM 3.0 met 130nm-technologie.

ATi Radeon X700 chip
Moderatie-faq Wijzig weergave

Reacties (59)

512-bits interface lijkt mij sterk. Men gaat op het moment niet hoger dan 256-bits omdat het ontwerp van de pcb te comlex wordt. Bij een 512-bits interface zou je al minimaal 8 gewone ddr geheugen chips moeten plaatsen om een 512-bits kanaal te krijgen. Maar dan heb je wel wat snelheid :Y)

Is FB-DIMM niet een oplossing voor video kaarten. www.tweakers.net/nieuws/34252/?highlight=fb-dimm hoewel ik me afvraag of het halen van een hoge bandbreedte dan nog makkelijk is, je zit wel met een seriele architectuur, dus een hoge kloksnelheid, helemaal als het voor een video kaart is.

Hopelijk implenteerd ATI hier ook hun multi-gpu technologie wat meer. Want iedereen die wat van pc's afweet vindt een SLI opstelling toch wel cool ;) Zoals een paar dagen terug al stond gemeld is de radeon 9700 al een keer met zijn vieren bij elkaar gestopt door simFusion. Ik kan me ook nog herinneren dat er ooit iets in het nieuws was over een mogelijke kaart met 2 radeon 9700 gpu's voor de consument, maar ik heb er nooit meer iets over gehoord. (kan de link ff niet vinden)

@4VAlien:
Idd is een goed ontwerp altijd het beste, maar zolang dat beter ontwerp er niet is, is een multi GPU opstelling toch het beste om de consument wat extra geld afhandig te maken :7
En vergeet niet dat professionele gebruikers deze extra prestaties soms wel degelijk 'hard' nodig hebben of goed kunnen gebruiken. De Quadro is tenslotte ook met SLI uitgerust en de ES simFusion gebruikt ook multi GPU opstellingen.
die dual opstelling zijn inderdaad 'wel cool' maar een degelijk ontwerp levert meer snelheidswinst op dan gewoon wat chips naast elkaar prakken (zie ook voodoo)
De 512-bits interface is fout, die komt er niet in (het was voorgesteld door een bende n00bs en snel ontkent, zelf door DB)
Tja...snelheid moet ergens vandaan komen dus als men een 512-bits interface nodig heeft, zeker met de steeds grotere FSAA settings en AF is het wel lekker veel geheugen te hebben en een flinke bandbreedte. Kijk bv naar Doom3, daar heb je een instelling waarbij 512mb videogeheugen vereist is (oke, het blijkt ook zonder die hoeveelheid te werken...), dat is nog op geen enkele kaart te vinden. Zo is theoretisch al mogelijk op de 6800 serie 512mb geheugen te plaatsen, alleen jammergenoeg doet geen enkele fabrikant dat. PCB gaat zeker wel complex worden met een 512-bits geheugen interface maar het zal er zeker een keer komen, de stap moet een keer gemaakt worden. Misschien in eerste instantie alleen als 'Extreme' model ofzo, maar later wordt het gewoon mainstream. Als het halverwege 2005 uitkomt, zou ik het zo gek niet vinden dat men het introduceert.

Btw: R500? oftewel: XI800 serie?
Wat ook wel revolutionair zou zijn: koele chips :9

Als ik nou al die videokaarten zie met die etra blok koeling erop, verbaas ik mij erover dat er maar weinig goede kaarten zijn die zo'n ding niet nodig hebben om goed te werken.
Wanneer gaan ze deze stap maken :?
Hier ben ik het nou helemaal mee eens.
Dat testen ze nou nooit: wat is de beste/snelste kaart met passieve koeling?

Inmiddels zijn er varianten van de 9600 met passieve koeling verkrijgbaar, maar ik denk dat ik nog even wacht op een 9800 variant.
Ik heb een jaar geleden al een Sapphire 9800pro Ultimate gekocht, waar een zalman passieve koeling opgezet is. Dus: wait no more ;)
ow, dat was een videokaart, ik dacht een broodje hamburger :D
waarom horen we van ati en nvidia nooit iets over silicon on insulator of strained silicon of een combinatie van beide? gaat dit langs ons heen of kijken zij er niet naar?
Omdat ATi al enkele jaren met TSMC werkt die voor .13µ geen SOI heeft ontwikkeld. TSMC ontwikkelde wel low-k voor .13µ & ATi heeft het in de RV360 & de R420 gebruikt.

Voor het 90nm proces worden zowel SOI en low-k ontwikkeld.
't kan aan mij liggen, maar SOI lijkt me zo ontzettend makkelijk te implementeren..

echt veel verandert het niet aan 't proces, alleen de wafer is anders, en die koop je toch ergens in..

als ik 't mis heb, graag toelichting van iemand, maar wat ik er van weet heeft 't niet echt invloed op 't productieproces in 't algemeen (als dat wel zo is, ik ben er erg naar geinteresseerd, dus dan hoor ik 't graag van iemand :))
Je hebt het mis.

By Strained Silicon zit de complexiteit niet in het basis wafer-silicium, maar in de diverse laagjes (van bijvoorbeeld silicium-nitride en silicium/germanium) die op ingewikkelde wijze worden aangebracht tijdens het produktieproces van de processor of GPU.

Deze verschillende materialen beinvloeden het omliggende silicium waardoor dit bv iets wordt 'vastgehouden' dan wel ingedrukt, waardoor er dus een iets opgerekt of samengedrukt silicium ontstaat. Door deze 'straining' veranderen de geleidende eigenschappen.

Ook SOI gaat niet om de basis-laag maar om de opbouw van de verschillende laagjes waarmee de transistors woren geconstrueerd.

Alleen door een complex samenspel van verschillende technieken weten de chipsbakkers steeds hogere snelheden te bereiken.

Het produktie-proces wordt dus echt wel ingewikkelder, en ook het samenspel van alle materialen kost flink wat wetenschap en ge-experimenteer. Er zijn dan ook verschillende technieken om e.e.a. te realiseren.
Voor zover ik het begrepen heb, heeft het vooral een invloed op de architectuur van de chip zelf: hoe de transistoren t.o.v. elkaar geschikt worden. Als ik zo de schema's bekijk, dan zou ik daaruit durven afleiden dat er wat meer ruimte nodig is om een transistor te plaatsen op een productieproces met SOI dan op een klassieke proces... Als dit klopt, dan betekent het dat de plannen van een chip op zijn minst grondig nagekeken moeten worden bij de overstap naar een SOI-procédé.

Zo veel ken ik er eigenlijk zelf ook niet van, maar ik dacht dat dit zowat de reden is dat niet iedereen zomaar op SOI overschakelt.
whitebunny:
ik had 't over SOI, en daar geef je nou juist geen concrete info over.. ik ken het strained silicon principe en zei ook niet dat dat in de waferproductie te vinden is.

maar bij SOI wordt naar mijn weten de wafer opgebouwd uit silicium, met daarop siliciumdioxide, met daarop weer silicium, met daarop wederom siliciumdioxide... waardoor onder de siliciumlaag een isolerende siliciumdioxide laag zit die geen stroom door laat lekken.

als de bovenste siliciumdioxide laag wordt wegge-etst, en de silicium gaat geleiden, kan deze dus alleen horizontaal zijn stroom kwijt, en niet naar onderen waar de isolerende siliciumdioxide zich bevindt.
gaat dit langs ons heen of kijken zij er niet naar?
Of houden ze zorgvuldig hun mond dicht om de concurrentie geen hints te geven?
Ik heb ook nog wel een hint voor ATi:

Zorg eerst maar eens dat de huidige generatie kaarten verkrijgbaar wordt voor het eerste kwartaal van 2005 (8>

Te belachelijk voor woorden natuurlijk. De X800 serie is 5 maanden (?) geleden gelanceerd en nog steeds niet tot slecht verkrijgbaar en dan staat er al weer een nieuwe generatie voor de deur.
Volgens mij wil ATi de R420 zo snel als mogelijk de deur uit. Iedereen ontkent natuurlijk maar de yields zijn gewoonweg SLECHT. Ik geloof dat de nieuwe .11µ R480(?) beter zal renderen. Als ik het zo zie wordt de R420 bij de lancering van de R520 de mainstream aanbieding terwijl de R410 (Radeon X700) de low-end gaat worden.

Met andere woorden, het is nu een heel slecht moment om een nieuwe videokaart te kopen.
Heb je ook nog enige onderbouwing voor die belachelijke complottheorie?
Ik sluit me hier bij aan!
Ik sluit mij hier ook bij aan, maar er zijn meerdere redenen waarom de X800 zo slecht leverbaar is, ATi is altijd al een grote leverancier van OEM's geweest, en deze krijgen voorsprong op de retail markt, en aangezien de hoeveelheid beschikbare cores beperkt is door een tekort aan water in Taiwan, moet ATi alle beschikbare cores dus voor die OEM's gebruike.
Nvidia integendeel heeft hier vele minder last van omdat zei minder veel aan OEM's leveren en zij laten hun chips ook bij IBM prduceren, zodat zij de problemen van TSMC minder voelt.
offtopic:
(toch ben ik blij dat ik redelijk goedkoop,429.90¤, mijn Albatron 6800GT al 2 maand geleden heb kunnen kopen :Y))
Bedenk ook even dat ATI een gigantische omzetgroei doormaakt.

Wie had dat van tevoren voorspeld? Ik denk dat ze ook de gigantische vraag gewoon niet aan kunnen, omdat ze die groei niet zo hoog voorzien hadden.

Nvidia is zo ongeveer al zijn OEM contracten aan ATI kwijtgeraakt.
Dat geldt ook voor de Geforce 6800GT en 6800
Ook moeilijk te verkrijgen
ppfff allemaal praatjes.. Zolang Ati en andere videochip(danwel)kaartkoekenbakkers nog steeds afhankelijk zijn van het aanbod van derden is het nog maar de vraag of ze wat ze zeggen ook echt kunnen waar maken.
Welk aanbod van derden?
De enige "derde" waar ATI mee te maken heeft is TSMC, en daar zijn geen problemen mee.

Waarom jij in godsnaam op +4 interessant bent gemod is me dan ook een raadsel.

Of bedoel je wellicht die problemen na die wateroverlast? Denk je dan echt dat er 1 bedrijf ter wereld is dat geen enkele toeleverancier heeft voor hun producten?
Ook Intel is van externe toeleveranciers afhankelijk, ook AMD, ook Microsoft, Nvidia, Albert Heijn en ga zo maar door.

Dan wordt het tijd dat je eens met beide benen op de grond gaat staan.
Jongens jongens jongens,

dit is toch niet meer bij te houden, ik ben nu al een jaar aan het rondzoeken voor een nieuwe videokaart.
Maar ik durf niets te kopen, ben bang dat er dan weer een vette kaart net uitkomt als ik de mijne heb gekocht.

ik weet het niet meer, advies ? en kom dan niet met ja maar de kaart die je nu koopt kan nog jaren mee...... dat snap ik ook wel maar ik wil het beste voor mijn duur verdiende centjes en natuurlijk het meest nieuwste.
maar iedere keer komt er weer iets nieuws uit.
Geen nut om te wachten. NVIDIA heeft nu reeds shaders 3.0 ondersteuning. Het zal nog minstens een jaar duren eer R500 uit is. Afhankelijk van uw budget is een Geforce 6600 GT of 6800 GT het beste wat je kan krijgen voor een zeer lange tijd.
En geen spel die nu (en hoogst waarschijnlijk ook niet binnen een jaar) gebruik maakt van de functionaliteiten die shaders 3.0 meer bied dan de shaders 2.0b (variant van ATI).

Branching-Programming is een van de speerpunten van 3.0 shaders tov 2.0b. Maar als je met de huidige Nvidea kaarten gebruik zou maken van branching-programming zouden de prestaties zeeeeer bedroevend zijn. Oftewel je wordt zoet gehouden met een marketing dode mus...

IMHO:
Nvidia = streepje voor met Opengl Games (zoals oa Doom3)
Ati = streepje voor met Directx Games (zoals oa HL2)
Leuk wat je zegt maar totaal onwaar.

Pacific Fighters van Ubisoft. Het spel heeft net als Far Cry dat ook op PS 3.0 draait de mogelijkheid om op PS 2.0B te daaien. Maar je kunt een duidelijk verschil zien in bijv de golven die met PS 3.0 gerenderd zijn of die met PS 2.0 gerenderd zijn.

En er volgen er geheid nog meer.
Dus in een zekere zin is het niet verstandig als je een high end kaart zoekt om nog wat jaartjes mee door te kunnen om dan een Radeon kaart te nemen van de huidige generatie simpelweg vanwege het gebrek van Pixel Shader 3.0
@tankeriv dit hoor ik werkelijk waar voor het eerst, ik vast ben niet de enige heb hier toevallig screenshots van ?
@tankeriv
Leuk wat jij zegt, maar dat is pas echt onwaar!!

Pacific Fighters bevestigt precies wat a.prinsen vertelt. Je kan PS 3.0 aanzetten voor de golven, maar dan keldert de prestatie zodanig hard naar beneden dat het in de praktijk zelfs voor 6800Ultra eigenaren een totaal onbruikbare feature is!!

Je suggestie dat het een PS3 spel is dat ook op PS2 draait is volslagen belachelijk. Het enige dat in PS3 werkt zijn die experimentele golven, die je dus in de praktijk niet kunt gebruiken. Al het andere is gewoon PS2.

Bij FarCry weten we ook al lang dat PS3 geen enkel voordeel oplevert, omdat achteraf bleek dat de PS3 voordelen van de patch net zo makkelijk voor PS2 te implementeren waren.

En ja, er volgen geheid nog meer spellen met zeer beperkte PS3 functionaliteit waar je niets aan hebt.

Wanneer spellen echt PS3 gaan gebruiken, dan is de NV4x serie gewoon te traag en moet je R5xx en NV5xx serie kaarten hebben.
Wat je ook koopt, als je de winkel uitloopt is je spul al weer verouderd. Dat is altijd zo geweest, en voorlopig zal dat nog wel zo blijven. Over drie jaar koop je toch weer wat nieuws.
Dat is niet altijd al geweest. In de markt voor grafische kaarten woed sinds een jaar of 2 een gigiantische concurrentie strijd. En dan niet om de prijs maar om de snelheid. Opzich is dat leuk voor fanatieke gamers maar voor mensen die af en toe een spelletje willen spelen is het eigenlijk niet leuk om 200 tot 300 euro neer te moeten leggen voor een grafische kaart. Waarschijnlijk zullen deze dus naar de markt voor 2e hand kaarten gaan kijken, alleen jammer dat koelers op VGA kaarten maar een jaar meegaan...
Die strijd was er al vanaf het moment toen 3dfx heer en meester was. Wat dacht je van destrijd tussen voodoo2/3 en de Riva TNT(1/2)
Niet te vergeten de S3 Virge, Voodoo Rush, en natúúrlijk de chips van Rendition.
Specs PC en grafische kaart gaan een beetje hand in hand. In een hele dure machine zet je geen bagger kaart, en omgekeerd ook niet. Ik raad je aan om zeker niet het nieuwste van het nieuwste te kopen, je betaald dan altijd te veel. Binnen 1 jaar na introductie zijn de meeste kaarten gehalveerd tov de introductieprijs. Ik zou t/m kerst gewoon nog naar een 5900 of 9800 klasse kijken, erg aardig geprijst en kan in een een 2GHz+ PC nog heel aardig mee. Als het over 1 jaar toch te langzaam is verpats je die kaart weer, vang je dan nog wel de helft voor, kijk maar wat nu nog op oude kaartjes wordt geboden op marktplaats. En met die inkomsten samen met de vele euro's die je nu in je zak houdt koop je dan weer mainstream. Deze taktiek werkt prima maar werkt alleen als je de spullen wel verkoopt als je upgrade. Daarnaast is het een hobby, en een hobby mag geld kosten. Geld weggooien moet je nooit doen, en dat is het naar mijn inziens als je het nieuwste van het nieuwste koopt. Een leuke leidraad in de pricewatch is, naast de tip van shaDoze, om te kijken naar het aantal vermeldingen van een produkt, produkt met de meeste vermeldingen is het populairst, dus mid-stream, dus meestal aantrekkelijkst geprijst.

Just my 2 cents...

edit:
O ja, als Tom bijv. een test met meerdere kaarten doet deel dan simpelweg fps door prijs, kaart met hoogste uitkomst is (beste) kandidaat om te kopen.
Offtopic @ Waarden:
Liggend aan je budget kan je het beste nu een Nvidia 6800GT of Ati 9800 pro kopen.

Ontopic:
Hmm eerste helft 2005, nja tegen de tijd dat eindelijk betaalbaar is (lees onder de 450 euro), dan zijn we al weer een ruim half jaar verder.
Qua prestatie kun je het beste een nForce4 SLI moederbord kopen met een GeForce 6800GT; als deze verouderd is koop je voor een habbekrats een GeForce 6800GT erbij en je bent weer helemaal up-to-date!
Let je meer op je budget doe dan dezelfde truc met GeForce 6600GT's. Dan begin je met een hedendaagse mid-end videokaart en na upgrade is het (tegen die tijd) wéér een mooie mid-end setup.
Neem je budget in gedachten, sorteer bij tweakers op prijs en pak 5 kaarten die rond die prijs liggen en vergelijk ze in een review/test artikel.

Maak je vooral geen zorgen over dat er net een nieuwe kaart kan uitkomen nadat je je kaart hebt gekocht. Dit gebeurt namelijk toch wel :). Voor advies over het beste van het beste moet je toch echt de review artikelen lezen.
ATi zou in ieder geval gebruik gaan maken van het 90nm low-k-procédé van TSMC voor de productie van de R5xx-GPU's. Een opvallende zet, want het bedrijf heeft de reputatie om nooit voor de allernieuwste productietechnologie te kiezen bij het ontwerpen van high-end producten. Wel komt het overeen met de eerdere uitspraak van het bedrijf dat het sceptisch was over de haalbaarheid van SM 3.0 met 130nm-technologie
Misschien ligt het aan mij maar volgens mij was 65nm het kleinste productie procede.
Er is geen 'kleinste' productieprocede in feite. Want het kan altijd kleiner :). 65nm wordt eigenlijk nog nergens gebruikt en de techniek wordt nog volop ontwikkeld. Daarbij liggen videochips qua productietechnologie en productieprocede's altijd achter en gebruiken andere stappen (vraag me niet waarom). Zo is het 110nm procede in de processorwereld nooit gebruikt, en is men van 130nm naar 90nm gegaan. Voor videochips kan men voor het 110nm procede alleen bij TSMC terecht (omdat IBM alleen 130nm bakt), dus waarschijnlijk zal de reden zijn voor de mindere vooruitgang in procede's komen omdat Nvidia en Ati het uitbesteden, en niet in eigen beheer hebben zoals bv Intel.
512bit memory interface is het meest logische wat ze nu kunnen doen, Ati kan de clocks van de core niet nog veel verder verhogen, ook de clocks van het memory is vrij hoog. Nvdia heeft al laten zien dat het mogelijk zal moeten zijn 512bit te maken, door alle ram dingetjes aan een kant van het bord te zetten. Op het moment gebruiken ze een Quad Channel interface voor die 256bit, mijn gok is dat ze op 8 channel overstappen, om van hetzelfde soort ram gebruik te kunnen maken, het heeft een flinke upgrade van de interface en crossswitchbar nodig, maar het is denk ik makkelijker dan bijvoorbeeld 32 pixel redering pipelines. En om het dubbel GPU wat makkelijker te maken, mettuhm.....2 9800pins sockets en 16 dimm sloten ofzow......
misschien wel opengl 2.0 ondersteuning }>
snappen jullie deze technobabbel nou ook allemaal?
Welkom bij Tweakers.net. :7

Je hebt je witte labojas toch aan met dito drie-gekleurde pennen in je borstzakje ? Mooi zo. :)
Ja, dat snap ik. Heb jij je T.net labjas al ontvangen? Ik zie bij .plans staan dat jij binnenkort je experiment moet laten zien

offtopic:
Oeh! Dubbelpost!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True