Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties
Bron: X-Bit Labs, submitter: Soar

nVidia CEO Jen-hsun Huang heeft tijdens een persconferentie in Taiwan een aantal toekomstplannen onthuld, zo meldt X-Bit Labs. Het bedrijf verwacht voor volgend jaar een heropleving van de consumentenmarkt voor videokaarten. Reden hiervoor is de release van 'grote' speltitels als Doom III en Unreal 2003 met als vermoedelijk gevolg dat veel consumenten, door een gebrek aan grafische rekenkracht, hun videokaart zullen vervangen. nVidia zal hier op inspelen met hun release van de NV31 in het voorjaar en de NV34 kort erna. De NV35 staat momenteel gepland voor de tweede helft van 2003. Verder meldde de CEO dat nVidia in de toekomst sneller zal overgaan op nieuwe productietechnieken en het is de bedoeling dat tegen het einde van 2003, ongeveer de helft van de producten volgens het 0,13 micron procédé zal worden gefabriceerd. Over de huidige gang van zaken rondom de nieuwere productietechnieken had de CEO het volgende te melden:

nVidia logo The head of the most influential graphics processor developer on the planet said that they are fully satisfied with their partnership with TSMC. The Santa Clara, California-based company will continue to adopt thinner fabrication processes of their Taiwanese partners as soon as they are available. Currently TSMC seeks for customers on their 90 nanometer manufacturing lines and NVIDIA said that they will look towards it. Unfortunately, they did not clarified whether they plan to launch the next-generation NV35 VPU using this process, or adopt it only for the even more progressive NV40 VPU. At the moment is seems to be more logical to wait for the NV40 to adopt the new technology since currently it is not mature enough.
Moderatie-faq Wijzig weergave

Reacties (31)

silentsnow,
ik ben het gedeeltelijk met je eens.

0.13 mirco is een investering.
Maar omdat je meer chips uit een waffer zou moeten halen.
Zou de chip en dus ook het product goedkoper moeten worden.
Goedkoper verlopen en toch meer winst maken.
Het probleem bij nvidia was vooral dat veel van de chips niet bruikbaar waren.
Ati heeft het in principe makkelijker dan nvidia, als je praat over het overstappen van 0.15 naar 0.13.
Omdat de Ati heeft geleerd van de problemen die nvidia heeft gehad.
En waarom zou 0.15 fout zijn als je het maximale er nog niet uit gehaald hebt.
Het probleem bij nvidia was vooral dat veel van de chips niet bruikbaar waren.
Dat komt voor een groot deel omdat het rendement toen niet zo hoog was als het nu is. Het rendement van 0.13 micron van TSMC ligt nu iets boven de 70%, duidelijk hoger dan voorheen. Ik denk dat het voor Ati dus heel aantrekkelijk is om over te stappen op 0.13 micron.
Ati heeft het in principe makkelijker dan nvidia, als je praat over het overstappen van 0.15 naar 0.13. Omdat de Ati heeft geleerd van de problemen die nvidia heeft gehad.
Ati zal het inderdaad makkelijker hebben in de overstap van 0.15 micron naar 0.13 micron dan nVidia. Dit komt niet alleen doordat Ati af kan kijken van nVidia, maar ook omdat het rendement van 0.13 micron nu veel hoger ligt dan in de tijd dat nVidia overschakelde naar 0.13 micron. Daarnaast
En waarom zou 0.15 fout zijn als je het maximale er nog niet uit gehaald hebt.
Er is niks fout met het gebruiken van 0.15 micron, het is alleen op den duur voordeliger om 0.13 te gebruiken. Het probleem is dat de overstap van 0.15 naar 0.13 veel geld kost en je moet goed kunnen inschatten wanneer het juiste moment is.

Het voordeel dat nVidia heeft is dat ze voor liggen. nVidia heeft de overstap al achter de rug. Ze liggen een stap voor op Ati. Ati zal, daarentegen, makkelijker kunnen overstappen.
het is alleen op den duur voordeliger om 0.13 te gebruiken
Tuurlijk. Als het risico er af is.
Het voordeel dat nVidia heeft is dat ze voor liggen. nVidia heeft de overstap al achter de rug.
Dat maakt toch niet uit? Het is de foundry TSMC die de wafers bakt op 0.13 µm en daar de kennis voor heeft. Ati of nVidia leveren alleen de tape aan van 'dit moet het worden'.
Dat maakt toch niet uit? Het is de foundry TSMC die de wafers bakt op 0.13 µm en daar de kennis voor heeft. Ati of nVidia leveren alleen de tape aan van 'dit moet het worden'.
Met overstappen van 0.15 micron naar 0.13 micron heb je het niet alleen over het machinaal overstappen van de ene op de andere procédé.

Naast de hardwarematige overstap moet je namelijk ook nog alle andere productietechnieken aanpassen aan de nieuwe 0.13 micron procédé. TSMC is niet diegene die gaat uitvogelen hoe dat allemaal precies moet, dat moet Ati/nVidia zelf doen. Ik heb het dus over het ontwerp van de kern zelf.
Er wordt alleen in dit bericht er niet bij vermeld dat ze dus behoorlijk zijn afgeweken van de oorspronkelijke planning.

Waarin nVidia blij is te melden dat:

Het lijkt erop dat het bedrijf de NV30 nog net voor einde van het jaar de markt op wil duwen, om een graantje mee te pikken van de stijgende verkoopcijfers die wereldwijd te zien zijn rond de feestdagen.

En waarin ondermeer de volgende opmerking van marktanalisten staat:

Sommige experts waarschuwen dat het wel februari 2003 kan worden voor NV30 echt in de winkels ligt

Het lijkt erop dat de marktanalisten gelijk hebben gekregen ... dus in hoeverre kunnen we deze aankondiging nu serieus nemen?
Hopelijk wordt het ook wat betaalbaarder... Ik vind het toch niet echt leuk om 400 euro voor een aardige kaart te dokken... Paar jaar geleden kostte een top-of-the-line kaart nog max 200 euro... Misschien door die snelle ontwikkelingen? Ze moeten die R&D kosten er toch uithalen enzo... Jammer is 't wel, dus ik ga voorlopig nog ff door met mijn GF2 Ultra, we zien wel ;)
Hopelijk wordt het ook wat betaalbaarder... Ik vind het toch niet echt leuk om 400 euro voor een aardige kaart te dokken...
nVidia zegt zelf dat het gebruiken van de 0.13 micron procédé een investering is. Zit wel een kern van waarheid in denk ik. Wellicht snijd Ati zichzelf in de vingers door 0.15 micron te blijven gebruiken. Het zal voor nVidia dus makkelijker worden om de NV35 te bakken als in dat geval ook weer voor 0.13 wordt gekozen.
Paar jaar geleden kostte een top-of-the-line kaart nog max 200 euro...
Ik weet nog dat ik een paar jaar terug (twee of drie) op de HCC-Dagen een GeForce 2 Ultra kocht. Ik wil er wel om wedden dat ik als eerste in Nederland een GeForce 2 Ultra had. Ik heb er toen FL1299 voor betaald, niet erg goedkoop dus, en zeker niet goedkoper dan de huidige top-modellen. De GeForce 4 Ti4600 was bij de introductie zo'n $450.
uit dit artiekel: (1-10)
http://www.tweakers.net/nieuws/23630/?highlight=Ati+rv350
Deze nieuwe telg gaat schuil onder de naam R350 en zal later vergezeld worden door een minder uitgebreide RV350. De NV30 van nVidia wordt op 0,13 micron gebakken terwijl ATi vast zal houden aan haar gebruikelijke 0,15 micron procédé. Dit om zekerheid te behouden omtrent de yield rates.
uit dit artiekel : (12-10)
http://www.tweakers.net/nieuws/24711/?highlight=Ati+rv350
Overigens melden bronnen dat ook ATi inmiddels een bezoek heeft gebracht aan TSMC. Verwacht wordt dat eind deze maand de massaproductie van de eerste 0,13 micron RV350 chips begint.
Er is dus 11 dagen later nog gezegd dat ATI wel op 0.13 gaat produceren. Dus ati loopt niet achter :).

Al met al het zelfde nieuws van de afgelopen weken, niet iets nieuws dus. De NV31 wordt een budget van de NV30, de NV31 komt iets later uit en wordt goedkoper doodat de complexiteit t.o.v. de NV30 lager is en dus goedkoper te produceren is, mede door minder PCB lagen. In de herfst van 2003 komen de NV34 en NV35 eraan. De NV35 wordt het nieuwe topmodel en de NV34 wordt daar weer een goedkopere versie van.

Nu ben ik wel benieuwd waar de geforce FX 5800 (nv30) en de nv31 naartoe gaan, doordat deze nu al zo complex zijn zullen deze moeilijk afzakken naar de mid-en sectie omdat het produceren duur is, ati maakt voor de mid-end sectie nog een 9000(pro) en een 9500 (pro) die een stuk minder compex zijn dan de 9700. Daarom zijn ze nu zo'n succes geworden. In het komende half jaar moet nVidia het nog doen met de Geforce 4 MX440 8X (zonder dx8,nadeel) en de GeForce Ti4200 8X. .Ze proberen de klant nu een beetje wijs te maken dat hun kaarten sneller zijn geworden door agp 8x, maar in de werkelijkheid is dit verschil verwaardeloosbaar. De MX is iets in kracht toegenomen door de hogere clocks, maar echt een succes is het niet te noemen, vooral door het ontbreken van direct x 8 is een groot gemis tegenover de radeon 9000. En dan moeten ze maar zien of de GeForce FX ook zonder verlies naar de prijssectie van 200 euro kan zakken.
Met 1299 was je nog goedkoop uit. In het begin zaten de GeForce2 Ultra rond de 1600 piek :)
het is een kwestie van vraag en aanbod gewoon. Men verw8 ook veel meer van een videokaart nu. als de duurste kaarten al heel veel verkopen als ware het midrange ga je toch een nog duurdere en snellere uitbrengen?

Je krijgt voor die videokaart van nu ook veel meer dan vroeger. Een r300 heeft 110 miljoen transistoren tegen de 38 miljoen van een athlon XP! Tel daar nog flink duur gehegen bij op en het lijkt me wel duidelijk waarom de top-of-the-line videokaarten tegenwoordig zo duur zijn.

Silentsnow:
of een chip 0.13 of 0.15 is boeit niet: als hij hetzelfde kan maakt het niet uit (behalve een beetje extra warmte). Het is gewoon een kwestie van kostprijs berekenen (hoeveel goede dies haal je uit 1 wafer en wat kost die wafer).

Low tech is niet dom. Vaak is het veel betrouwbaarder en de processen zijn bekend en beheersbaar. Er is dan minder uitval. (vergelijk de russiche Mig's met een F15 bv. 't Is misschien wat langzamer, maar wel wendbaarder. En het voldoet prima en staat minder aan de grond.) Nu laat Ati nVidia de hete kolen uit het vuur halen.

Het is veel gevaarlijker om je productie afhankelijk te maken van onuitgerijpte technologie omdat je wel moet (ivm. warmteontwikkeling oid.; de 0.13µm techniek) of omdat je graag bleeding edge techniek gebruikt (DDR 2). Je loopt dan alleen wel een risico (dat het niet op tijd wil lukken dus).
'Vroeger' was het de omgekeerde situatie van tegenwoordig: je betaalde relatief weinig (+/- 300 piek) voor een top of the line videokaart, en erg veel voor de processor.

Tegenwoordig is door de hoge dichtheid de videokaart een van de duurste onderdelen van een PC geworden, en de processor door de geoptimaliseerde productiemethoden, scalability en uiteraard de concurrentiestrijd flink in prijs gezakt.

Netto zijn we er niet voor of achteruit op gegaan; vroeger had je een modale PC voor ~2700 gulden, tegenwoordig heb je een modale PC voor ~1200 euro.
Het bedrijf verwacht voor volgend jaar een heropleving van de consumentenmarkt voor videokaarten

Dat is dan toch vreemd. Eerder werd gezegd dat de videokaarten markt eigenlijk zich zeer goed houd in de huidige economische situatie. Of was dit bericht dan puur marktgeleuter?
Waar heb je het over? Er staat nergens dat het nu slecht gaat! Het gaat juist goed en volgend jaar verwachten ze dat het nog veel beter gaat worden
Reden hiervoor is de release van 'grote' speltitels als Doom III en Unreal 2003 met als vermoedelijk gevolg dat veel consumenten, door een gebrek aan grafische rekenkracht, hun videokaart zullen vervangen
Waar heb je het over? Er staat nergens dat het nu slecht gaat! Het gaat juist goed en volgend jaar verwachten ze dat het nog veel beter gaat worden

Bron: VanDale

heropleving (de ~ (v.))

1 nieuwe bloei => herleving, herstel
2 wederopbloei


Ik weet niet op welke optimistische manier jij die zin interpreteert, maar 'heropleving' wil wel degelijk zeggen 'uit een dieptepunt komend'.
Waar heb je het over? Er staat nergens dat het nu slecht gaat! Het gaat juist goed en volgend jaar verwachten ze dat het nog veel beter gaat worden
Uit de volgende zin kan ik opmaken dat het volgens nVidia niet zo heel erg goed gaat in de betreffende sector:

Het bedrijf verwacht voor volgend jaar een heropleving van de consumentenmarkt voor videokaarten

Kortom, dit jaar ging het niet zo lekker, volgend jaar worden de verliezen ingehaal :)
Da's toch een duidelijke uitspraak?

Het gaat voor HEN niet zo goed op het moment.
Maar dat ligt natuurlijk niet aan het feit dat ATI ze verslagen heeft,... nee dat ligt aan de markt....
En als de markt dan aantrekt gaat het met hen wel weer goed....

Naar de buitenwereld gewoon doen alsof er niks aan de hand is, en alsof ATI niet bestaat.

Ach ja, marketing he?
Veel paperlunches bij Nv voorlopig, van de NV30 aka de GeForce FX, is nog steeds geen spoor te zien bij de reviewers :(
dat kan meerdere dingen betekenen:

- nvidia loopt achter en heeft moeite om de nv30 optijd af te krijgen
- nvidia houdt het bewust nog even onder tafel om ati af te bluffen
- nvidia is zich bewust van prestaties, die niet aan de verwachting voldoen en is bezig om de nv30 nog wat op te krikken
Veel paperlunches bij Nv voorlopig
Ja, er wordt veel op papier geluncht daar :+
ik gok op het laatste aangezien ik van sommigen bronnen gehoord heb dat de prestaties van de FX niet echt denderend waren en onder die van de ATI 9700 pro lagen.
Excuse me? De GeforceFX is wel degelijk een stuk sneller dan de Radeon9700pro. Ik weet niet welke benchmarks jij hebt gezien :?

een van de benchmarks
Ahem. En dat noem jij benchmarks waarin een 9700 Pro met een GeforceFX wordt vergeleken?

1 niet onafhankelijke benchmark van bovendien een BETA spel. Lekker betrouwbare bench he? (NOT)

Overigens zal een Geforce FX ULTRA best wel sneller zijn dan een 9700 Pro. Niet voor niets heeft Nvidia 6 maanden achterstand opgelopen om te zorgen dat dat het geval is.

Maar de Non-Ultra GeforceFX zal echter gelijk of een tikkie langzamer zijn dan een 9700 Pro.
Ati zal het inderdaad makkelijker hebben in de overstap van 0.15 micron naar 0.13 micron dan nVidia. Dit komt niet alleen doordat Ati af kan kijken van nVidia, maar ook omdat het rendement van 0.13 micron nu veel hoger ligt dan in de tijd dat nVidia overschakelde naar 0.13 micron. Daarnaast
+ het feit dat Ati haar nieuwe chips straks door TSCM laat bakken, heb bedrijf waar NVidia ook klant is. En deze heren hebben schijnbaar de 0,13 micron onder de knie gezien de FX. Dus Ati lijkt me de komende tijdd nog steeds een serieuze titelkandidaat t.o.v. Nvidia.

http://www.tweakers.net/nieuws/24865
Het enigste wat ik wil is toch wel een goeie videokaart die wel alle technieken beheerst en die toch wel een tijdje mee kan gaan dat je niet binenen een jaartje of 2 weer een niuewe komt met meer niuewere technieken en ze moeten ook wel rekening houden met het feit dat niet alle mensen evenveel poen hebebn voor een videokaart dus dat ze eens een ZEER goeie kaart aan 200¤ zouden verkopen
Tja... Het voordeel van deze enorme ontwikkeling is dat je rustig een generatie of 2 achter kunt blijven omdat de spelletjes achter de hardware aanhollen. Ik zou op dit moment een nono op het gebied van hardware niet aanraden om voor een 9700Pro te gaan. Pak maar een 9500Pro, of een vergelijkbaar nVidia product. Hou je een hoop centen in je zak, die je over twee jaar in je dan veel snellere kaartje kunt investeren. :*) Voor een die-hard gamer ligt dat anders, maar die zal dan ook wel weten waarom-ie voor een top-of-the-line kaart gaat.

Edit: oops, dubbelpost...
drakengeest:
Videokaarten (en computers in het algemeen) worden toch steeds beter, sneller en krijgen nieuwere technieken. Ik ga al heel een tijdje mee (16-20 maanden?) met mijn GeForce 2MX 440... ik zit er aan te denken om binnekort een GeForce FX (als ie ietsjes goedkoper is) te kopen en daar dan 2 jaar weer mee te doen. Mijn huidige kaartje heeft ongeveer zijn limiet bereikt (het spel Bloodrayne (wat ik graag wil spelen) heeft bijvoorbeeld als MINIMUM requirment een GeForce2 MX nodig.. games zoals Morrowind zagen er veel en veel gelikter uit met een GeForce 3..)
Upgraden is nou eenmaal altijd noodzakelijk (als je ook de laatste games wil spelen), niets aan te doen.

Trouwens, er word gepraat over "Unreal 2003" in het artikel... hebben ze het hier over Unreal Tournement 2003 of Unreal 2? :? Dat soort games laten mij inderdaad wel upgraden...
Waarschijnlijk een foutje in het artikel, want er staat "release". Het zal wel Unreal 2 moeten zijn volgens mij.
aha das mooi, houd dat dan ook in, dat volgend jaar de grafische kaarten ook goedkoper worden?! of zit dat er niet in bij de makers... :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True