Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: DigiTimes, submitter: Phuncz

Volgens DigiTimes heeft ATi bekend gemaakt dat ze het aankomende geweld van de nVidia NV30 gaan bestrijden met een nieuwe chip. Deze nieuwe telg gaat schuil onder de naam R350 en zal later vergezeld worden door een minder uitgebreide RV350. De NV30 van nVidia wordt op 0,13 micron gebakken terwijl ATi vast zal houden aan haar gebruikelijke 0,15 micron procédé. Dit om zekerheid te behouden omtrent de yield rates. DigiTimes is nog niet zeker of ATi met de duurdere 0,15 micron technologie op zal kunnen boksen tegen de 0,13 micron NV30 die goedkoper geproduceerd kan worden en men zegt dat de release van de NV30 dit duidelijk zal maken. ATi is echter nog veel meer van plan. Zo wordt er waarschijnlijk ook nog een RV280 videochip op de markt gebracht en staan de Radeon 9500 videokaarten gepland voor oktober:

ATi Radeon 9700 GPU (R300) (klein) In addition to the R350 and RV350 chips, ATI disclosed that it may also introduce a RV280 chip, based on the Radeon 9000 core, by the end of this year to support the rising demand for AGP 8x technology. However, with the roll-out, ATI will no doubt experience a fast-expanding product portfolio, as the company has scheduled to launch the four-pipeline Radeon 9500 series in October as well.

Gerelateerde content

Alle gerelateerde content (31)
Moderatie-faq Wijzig weergave

Reacties (49)

Ok, iets met die yields en de productiekoste begrijp ik niet. Yield zijn toch een minder aantal bruikbare chips per waffer(oid?). Hoe kan iets wat minder yields oplevert goedkoper zijn?

Of pis ik nu langs het potje? :}
Yield is het percentage bruikbare chips. Dat is iets anders want vaak is het verlies in yield kleiner dan de winst van het aantal chips wat op een waver kan.

Een 0,15 micron chip is kleiner dan een 0,18 micron chip en er kunnen er dus meer op een waver van hetzelfde oppervlak :)

Geld is niet het probleem van de overstap op 0,15 micron. Ik vermoed dat het probleem meer te vinden is in het aantal chips wat geproduceerd kan worden.
Als jij Yields inderdaad als mislukte proccessoren ziet dan mis je het potje idd niet ;).

Echter yields zijn als hier boven al eerder genoemd eigenlijk de goed functionerende cores op vastgestelde specificaties. Dat lijkt een beetje misschien vreemd, maar is het niet als je je bedenkt dat de buitenrand van een waffer vaak het slechtste deel is. Vaak is het geen technische- of productie-fout maar eerder is de kwaliteit gewoon te laag voor het doel (een bepaalde snelheid bv)

Dit zou voor een P4 betekenen dat (indien intel nu 2,4Ghz aan het produceren is) deze niet goed (lees: stabiel) zal werken op die 2,4Ghz rating. Intel is dan slim en zet die processor op 2,0Ghz (bv), en kijk .. dan blijkt dat ie het wel goed doet. De processor rolt de fabriek uit met een 2Ghz rating (ipv 2,4 wat eigenlijk de bedoeling was.) en wordt ie niet weggegooid. Dit doet NVidia ook met hun GPU's, onderdelen die niet op maximale snelheid redelijk stabiel draaien worden als langzamer-lopende onderdelen verkocht.

Deze onderdelen zijn echter wel 'kapot', en als resultaat beinvloed dat de Yields negatief (dwz lagere yields).

NVidia verkleint het gebruikte productie-proces, waardoor de core in oppervlakte af zou nemen en dus goedkoper te maken zou zijn. Er zijn minder grondstoffen nodig, en het aantal cores wat op een waffer past neemt toe. Ati verkleint dit niet en heeft dus, aangezien ze beide de core uitgaan rusten met meer onderdelen in vergelijking met een vorige generatie, minder cores op een waffer.

Als het hier op houd dan haalt NVidia dus voordeel uit deze situatie ... maar ATi behoud hun productie-proces om een andere reden dan veel mensen hier denken. Ze weten bijna zeker hoeveel chips ze werkend (per waffer) uit dat process gaan krijgen, en zien die toekomst dus rooskleurig in. NVidia moet eigenlijk afwachten hoe het proces gaat lopen en of ze eigenlijk wel echt hoge yields gaan halen. Het is dus nog maar de vraag of NVidia hier voordeel uit haalt.

Eigenlijk zijn lage yields niet gunstig voor ons, de fabrikant en de aandeelhouders. Er wordt minder winst gemaakt omdat er minder hoge-kwaliteits onderdelen verkocht worden, en niet voor ons omdat wij tragere games ;) comps etc.. hebben
een goede yield betekend dat er meer goeie sampels uit die waffer gehaald kunnen worden. Doordat ze aan een duurder proces blijven volhouden denk je dat ze duurder uit zijn. Echter omdat het proces betrouwbaarder is en er dus meer goeie sampels per yield gehaald worden zou het wel eens goedkoper kunnen zijn. Daarom houden ze dus vast aan de 0.15 micron en stappen ze nog niet over.
Uhm, wat ik dus niet begrijp is; waarom het moeilijk is voor een 0,15 micron procede om te concurreren tegen een 0,13 procede aangezien een 0,15 micron procede betere yields heeft.
.13 micron productie houdt in dat men per wafer meer chips kan krijgen -> goedkoper. Ook kan men de GPU's hoger klokken -> sneller.

Nadeel is wel dat het omschakelen van .15 naar .13 niet altijd goed gaat (zie AMD, had er ook problemen mee) en dat ATI dat risico nog niet wilde nemen.
Dat hoeft niet zo te zijn. Als Nvidia (of de betreffende fabriek) al meer ervaring heeft met het kleinere proces kan de overstap toch waardevol zijn.
Er wordt gezegd dat het niet zeker is of de 0.15 technologie zal kunnen opboksen tegen de 0.13 technologie. Volgens mij wordt hier bedoeld dat chips op 0.15 µm gebakken misschien nooit de prestaties kunnen halen van chips gebakken op 0.13 µm (intel en AMD gaan ook steeds kleiner om de kloksnelheden op te kunnen schroeven)
Hmm, tis een wafer (weejfer), geen waffer :)
Dat de gemiddelde tweaker totaal niet kan spellen, wisten we al :)
Is het onderwijs zo slecht, of is de gemiddelde tweaker mavo? :)
Waarom geef jij bij je studierichting niet gewoon aan dat je mavo doet? :P
Omdat ik 1) geen mavo doe en 2) omdat ik te lui ben om zo'n zeikformulier in te gaan vullen :)
Hmm, er wordt niets gezegd over de verschillen met de R300. Zou het waar zijn dat de R350 2 texture units per pipeline heeft ipv de ene van de R300. Dat zou echt super zijn.

/edit: texture units per pipeline natuurlijk......
NV30 zou er ook 2 hebben.
Ik kan me heugen dat men het al eerder over de R350 heeft gehad en dat men toen nog meldde dat die chip wel op 0,13 micron technologie gebakken gaat worden...

Zou inderdaad niet best zijn voor Ati als ze nu ineens nog op 0,15 blijven hangen terwijl de grootste concurrent verder gaat op 0,13 micron...

Ik hoop voor Ati dat ze toch het 0,13 procede snel gaan toepassen in hun chips want anders kon het nog wel eens snel gedaan zijn met hun huidige voorsprong in snelheid en prijs.
wat me op valt heeft ati veel technologie en minder stroom dan nvidia maar ati heeft meer technologie derin kaart gebruikt namelijk kij veel dingen maar helaas is microsoft blijven hangen met ze direect x9.0
terwijl die allang uit moest zij |:(
Leuk zo'n nieuwe processor, maar ik zie nu echt door de bomen het bos niet meer.

je hebt nu:
- 5 verschillende geheugen soorten,
- 5 verschillende processoren,
- en 10 verschillende grafische processoren

Als je een systeem voor een leuke prijs wil samenstellen dan kun je er zo ongeveer op afstuderen. AGP 8x, PC2800, UltraDMA200.........

En dan hangt het er geloof ik ook nog vanaf welke spellen je wil spelen want de 1 presteert beter per spel dan de ander.

//Edit: Er zijn nu al 13 verschillende ATI kaarten beschikbaar voor 3 verschillende processoren!!!!!

Leuk straks in de winkel: "Hoger is niet beter, maar wel iets hoger dan de 8500 maar lager dan 9700, begrijpt u meneer?"
Um, je kan nu op Ati lopen zeuren, maar Ati heeft momenteel:

Radeon 7500
Radeon 8500
Radeon 9000
Radeon 9700

Dan komen daarbij nog een 9500 en een R350/RV350.

Nvidia echter zit momenteel met een:

Geforce 4 MX 400
Geforce 4 MX 420
Geforce 4 MX 440
Geforce 4 MX 460
Geforce 4 Ti 4200
Geforce 4 Ti 4400
Geforce 4 Ti 4600

En er komen binnenkort nog AGP8x versies van de GF4 en over een tijdje de NV30.

Dus ga nou niet zeggen dat Ati het onduidelijk maakt, want Nvidia is nog veel erger.
En zeur ook niet dat de 9000 trager is dan de 8500, want het eerste getal staat alleen maar voor de DirectX versie waarop de kaart gebaseerd is. Nvidia is wat dat betreft nog veel erger, aangezien de GF 4 MX series een stuk trager zijn dan veel GF3's.
Je bedoelt GeForce 2(!) MX 400, neem ik aan aangezien er geen 4 MX 400 bestaat :)

En je vergeet nog de NV18 en NV28, dus het is nog erger :D

En echt zeuren doen ze niet, ze vergissen ze zich gewoon, net als jij nu doet :P
Ehhmm..wil niet nitpikken...of nee, juis wel :+

je vergeet gemakshalve de :

Radeon 8500 "all-in-wonder"
Radeon 8500 Le
Radeon 8500 Pro (sommige met maar 1 ram-dac)
Radeon 9000 Pro
Radeon 9700 Pro

*coming *
Radeon 9500
Radeon 9500 Pro

Ben er vanst nog een paar vergeten :+
Word dus ook al snel een onoverzichtelijke brij...

en die AGP 8x van Nvdia kwam toch in eerste instantie voor de MX-serie ?

Nu nog ff 4 smaken van SIS, S3 ,Matrox en Kyro in 8 verschilende varianten en de chaos is compleet

}>
belangrijke les in verkopen: zorg dat je voor elk segment liefst 1 produkt hebt en je verkoopt veel meer dan slechts 1-2 producten. dus:
1 high end kaart die snel wordt afgelost door de volgende
1-2 mainstream producten,
1-2 budget producten
dan denk ik bij 2 producten in hetzelfde segment aan verschil in clockspeed, dan kun je dus ook nog het geheugen laten verschillen en met nog meer producten op de markt komen, maar dat is aan de kaarten producent. oftewel voor ieder wat wils en je verkoopt erg veel :)
Als ze op zo'n snelle manier nieuwe kaarten gaan produceren, moet de prijzen van de Radeon8500 dan toch ook snel dalen ?

Men gaat denk ik eerder dan de sterk afgeprijsde 8500 halen ipv een kaartje a € 500 euro...

En zeg nou is eerlijk, welk spel draait niet snel genoeg op 1024x768 + max. settings @ Radeon8500 ??

Dit is behoorlijke overkill en een zinloze zet van ATI.
En zeg nou is eerlijk, welk spel draait niet snel genoeg op 1024x768 + max. settings @ Radeon8500 ??
Nu zijn er misschien niet games die te zwaar zijn, maar je wilt graag wat langer met een videokaart doen dan een paar maanden. En straks komen er een aantal games uit die best wel eens te zwaar kunnen zijn, zeker als je een wat mindere CPU hebt.
Dit is behoorlijke overkill en een zinloze zet van ATI.
:? Dus toen nVidia de 4600 uit bracht een paar maanden geleden was dat ook overkill en zinloos? Dat ben ik niet helemaal met je eens, als je dan zo'n kaart koopt kan je weer een aantal maanden/jaren vooruit zonder upgrade. En als je bijvoorbeeld een P3-500 hebt, kan je met zo'n videokaart elk spel nog tegen een acceptabele snelheid spelen.

En natuurlijk speelt marketing een rol, nu ATi de snelste videokaart heeft kunnen ze dat mooi gebruiken in de diverse reclame's.

(Dan moet je het recente CPU geweld helemaal overkill vinden, wie heeft er nou een 2,5GHz CPU nodig?).
Overkill en zinloze zet van ATI???

Jee, wat een kortzichtige uitspraak van je! Natuurlijk is dit geen zinloze zet van ATI. Waar draait het nou sinds jaar en dag al om in de pc-wereld? Snelheid snelheid en nog eens snelheid!!! Kijk naar Intel en AMD met de cpu's, 'tzelfde is aan de gang tussen NVIDIA en ATI. Het is gewoon heel belangrijk om te kunnen zeggen dat je de snelste bent!

En nog even voor jouw informatie: er zijn al genoeg spellen die NIET snel genoeg draaien op 1024x768 + max settings op een bijna ielige Radeon 8500 hoor (zet hoogste kwaliteit FSAA, Anisotrophic en Trilinear filtering maar eens aan dan ook ja, die horen bij Max settings).
Niet iedereen speelt z'n spelletjes nog op 1024*768. Ik bijvoorbeeld wil graag op 1600x1200 aangezien ik een 22" buis voor me heb staan, bij mafia is dit al bijna niet meer te doen op m'n GF3 TI/500. Dus waarschijnlijk zal ik begin volgend jaar toch maar weer in de buidel moeten tasten..... :P
\[showoff-mode]
Precies, ik heb afgelopen weekend op de Computerbeurs in Eindhoven mijn TNT2+PIII-500 vervangen door ATI-9700pro+AMD1800+512ram. (De ATI-9700 was trouwens zeer goedkoop: 429,-)
\[/showoff-mode]

Nu kan ik unreal2003demo op 1600x1200 spelen met alle specs vol aan. En ik hoop dat ik net als met mijn tnt2 toch weer zo'n 2 jaar kan wachten voordat ik een nieuwe kaart genoodzaakt ben te kopen.

Plus omdat ik maar een 1,53Ghz (1800+)erin heb zitten en mijn modo tot 2,6Mhz (rating??+) ondersteund hoef ik over een paar maanden alleen mijn processor te upgraden.
Hij staat al voor 399 in pricewatch hoor. Voor dat geld heb je dus al een Club3D Radeon 9700 Pro met 128 Meg, TV-out en DVI. Voor 40 Euro meer staan de Hercules varianten hiervan te koop.

Als ze in de buurt van de 350 Euro komen ga ik toch serieus overwegen om er een aan te schaffen. Want mijn GF2MX wordt compleet gesmoked door de huidige games, die trekt het echt niet meer.
Ja eh.. aan 640 kb hebben we ook genoeg.....

ATi moet de reputatie van nVidia hebben. Daardoor gaan ze meer verkopen in de volume markt en aan de OEMS. Als de klant het woord Radeon ziet moet ie denken : jaahh snelle graphics.. Daarom is het nu erg belangrijk dat ze een tijdje de speedcrown in handen houden.. nVidia heeft namelijk een erg goede naam!
Weet iemand de specs van de R350? Ik neem aan dat het makkelijker is de kloksnelheid omhoog te gooien in plaats van de toch al gecompliceerde structuur van de R300 verder uit te breiden?
Ik denk dat er extra instructies op de chip komen want verscheidene benchmarks hebben aangetoond dat de Radeon 9700 meer profijt heeft van een snellere CPU dan een verhoging van de core- en memsnelheid.
weet je waarom? Omdat bij de huidige games de bottleneck niet de grafische kaart is, maar de processor, iets wat niet de bottleneck is overclocken heeft dus ook weinig zin...
er komen steeds meer games uit die meer gaan vragen van je videokaart(pixel/texel shaders en T&L bijv) waarbij het overclocken van de chip wel degelijk een grote impact heeft en de cpu minder belangrijk wordt, en je meer cpu cycles hebt voor bijv de AI van een game
een 2000 mhz of hogere CPU de bottleneck :?
Da's maar te bezien. Denk dat het hele systeem erachter zoals "IO-system/Chipset/PCI-bus/AGP/Geheugen/HDD de boel veel meer vertraagd.

Da's dus een hele goeie reden om de GPU zoveel mogelijk zelf te laten doen om 2 redenen:

a) kortere transportlijnen van je grafische data
b) makkelijkste oplossing om de bottlenecks in het systeem te omzeilen.

Dit geeft al een beetje aan dat AGPx8 steeds oninterressanter word zolang de chip-bakkers steeds meer door de GPU laten doen en steeds minder door de CPU. Dit word versterkt door het feit dat er steeds meer onboard gpu-geheugen is. Toch zie je nu dat bijv. 128Mb kaarten iets minder presteren dan hun 64 MB broertjes. Dit komt waarschijnlijk omdat de GPU en kaart meer werk te verstouwen hebben met 2x zoveel geheugen en ze dus nog meer Power moeten hebben om dat allemaal te verhapstukken.

Daar ze met 128MB iets trager worden komen ze blijkbaar net iets tekort....
Ligt het nu aan mij of probeert ATI nu met de naamgeving de consument te beinvloeden? De nVidia heet NV30 en de ATI R350, maar de iets mindere (en dus goedkopere) versie heet weer de RV350. Op zo'n manier lijkt het voor een minder goed geinformeerde consument alsof die RV350 sneller zou zijn dan de NV30 EN ook nog goedkoper!
Waar de getallen voor staan weet ik niet. Maar de NV van de NV30 staat volgens mij gewoon voor NVidia en de R van de R350 staat voor Radeon.
De V van de RV350 staat volgens mij voor Value. Dus ik denk niet dat de codenamen zijn gekozen om te concurreren, maar meer uit logische overwegingen.
ati is nu en helemaal in het verleden niet zo klein geweest als amd/linux, een tijd geleden was ati juist de grootste en nvidia relatief klein.

<edit>
oeps reactie op dasiro, met veel posts achter elkaar kom je best in de war :+
Inderdaad, zeker bij OEMs en wat meer professionele systemen heeft ATi het altijd goed gedaan.

Bovendien ontwerpt ATi haar eigen produkten, en op de cutting edge.
Linux en AMD zijn meer kloon dan eigen produkten, en zijn ook niet zo geavanceerd als de concurrentie.
(Linux is gebaseerd op een OS uit 1970. Moet nog een stukje doorontwikkelen om net zo veelzijdig en gebruikersvriendelijk te worden als Windows.
en een Athlon is technisch ongeveer gelijk aan een PIII.)

Kortom, die analogie klopte niet bepaald, inderdaad :)
Tjeesus.. Heb je net een 9700 komt er direct alweer een nieuwe... Laat ze eerst maar eens beter DirectX 9 leren programmeren voordat ze allemaal andere technieken gaan gebruiken...

Ze lopen qua Videokaart nu al 2 jaar voorop op de software.. Dit wordt een beetje belachelijk allemaal...
heb je ook maar ENIG idee hoeveel tijd en moeite het kost om een game te produceren? blijkbaar niet, kzou je maar eens wat meer in het onderdeeld gaan verdiepen want je post slaat daadwerkelijk helemaal nergens op.
Toch is het zo... Om de nieuwe technieken die er op de huidige videokaarten ontwikkeld zijn bij te leren en te kunnen implementeren, ben je 2 jaar verder.

Het is voor effectief gebruik van de hardware goed als er qua hardware niet -te- snel wordt ontwikkeld en qua software gewoon op dezelfde hardware wordt doorontwikkeld.
Kijk maar naar de PS1. De spelen daarvan in het begin zagen er niet uit. En met dezelfde hardware zijn we een aantal leer-jaren verder, worden er veel mooiere games dan toen op gemaakt.

Op het PC platform blijven de ontwikkelaars aan het bijleren van nieuwe en andere technieken, waardoor ze minder tijd hebben om het onderste uit de huidige hardware en drivers te halen. Daardoor gaan ze steeds verder achterlopen op de ontwikkelingen qua hardware van videokaarten. Als je kijkt wat er nu nog maar gebruikt wordt en wat er in het vat zit, schrik je je kapot. En dit verschil wordt dus alleen maar groter.

Oh ja, en qua verdiepen in dit soort zaken, is bij mij niet nodig, maar misschien zou het wel goed voor jou zijn om je in omgang met anderen te verdiepen. Jou reply heeft niet echt een vriendelijk toontje 8-)
mn toontje is idd niet echt vriendelijk maar dat is uit frustratie dat men gewoon niet inziet hoeveel moeite het kost om een goede game te produceren in een redelijk tijdsbestek. je moet een engine maken, dan moet je dit testen op verschillende kaarten, optimaliseren, verder testen(intussen weer een kaart uit oid) en dan kan de rest van het team pas echt begonnen zijn met de banen die steeds meer tijd in beslag nemen: modelen en mappen. het kan wel van tevoren beginnen natuurlijk maar je moet iets hebben om het op te testen.
Hallo ... Jongens !?!?
Daarvoor heeft ATI mojo dag georganiseerd !! :)
http://www.tweakers.net/nieuws/23597/

Heel slimme zet van hun, want volgens mij gebruikt de hedendaagse spelen nog geen kwart van de mogelijkheden van de 9700.
En ze proberen hierdoor het de gamedevelopers makkelijker te maken om de technieken in hun spellen te implenteren.
Stond ook iets bij over een progje om het ze gemakkelijker te maken om schaduweffecten in te voegen.
Je hebt het waarschijnlijk over rendermonkey.. Da's inderdaad een goed ontwikkeling.. Hiermee kun je realtime vertex-shader effecten bekijken. Het zou goed zijn als de hardware devellopers bij hun hardware een API of een designertool uitleveren, waarme ze eenvoudig(er) de nieuwe effecten mee kunnen bouwen en implementeren. Als je rendemonkey nu samen met een tool zoals cq(???) van Nvidia zou zetten, zou dit bijna de helft van het werk schelen..

Maar ik denk echt niet dat 1 mojo dag per jaar voor bovenstaande case een oplossing is.. :)
De Radeon 8500 is al sterk in prijs gedaald, als je kijkt waar hij bij de release voor werd verkocht. Heb zelf een gigabyte radeon 8500 release 350 euro nu nog maar rond de 140euro,kost hij nog maar 40% van wat hij bij introduktie kostte.
ja, je zou de zet van ATi stom kunnen noemen, ze lopen immer achter de feiten aan als nVidia hun gpu'tjes goed kunnen produceren op 0.13micron.

Daar en tegen kun je zeggen dat ATi gewoon even afwacht hoe nVidia het allemaal oplost, de 0.13 micron is dan dadelijk lekker volwassen en ATi kan zonder problemen overstappen, terwijl ze op dit moment nog even lekker met de troef rondlopen.

Ik zelf denk het tweede...

Word nog ff afwachten :Z

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True