Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties
Bron: VC News

Volgens een bron van VC News is men bij nVidia redelijk zenuwachtig geworden van de ATi Radeon II chip. Deze zou onverwacht veel krachtiger zijn dan men eerder aannam en daarom zou de ontwikkeling van de NV25 plaats hebben moeten maken om de releasedatum van NV30 flink naar voren te kunnen schuiven. ATi liet al eerder blijken dat het nog lang niet verslagen was en dat haar volgende chip superieur zou zijn:

Also, I got info from one of our sources, that nVidia has abandonned the NV25, and is working on the NV30. The reason? It looks like the ATi Radeon II is unexpectedly becoming more of a powerfull chip, and some one in Nvidia is nervous about it.

Natuurlijk zou dit ook compleet andere redenen kunnen hebben. In de herfst staat volgens nVidia's strategie een 'refresh' van GeForce3 geplanned. Feit is alleen dat deze refresh al gemaakt is, de XGPU van de Xbox is namelijk een verbeterde GeForce3 met twee Vertex processor units. Over deze chip is vaak met benamingen als NV2A en NV25 gesproken en de volgende PC chip kan natuurlijk niet dezelfde codenaam hebben. Als deze theorie waar is maakt nVidia helemaal geen extra haast, maar is het gebruik van de NV30 codenaam gewoon een logisch vervolg van de serie.

Moderatie-faq Wijzig weergave

Reacties (38)

Wat boeit het dat ATi met een nog snellere videokaart gaat komen?

ATi moet eerst eens bewijzen dat ze solide drivers kunnen afleveren. Onder Windows NT 4 staat ATi in mijn ervaring garant voor Blauwe schermen en dat beeld is onder Windows 2000 nog niet echt verbeterd.

Ik hoop niet dat NVidia zich teveel laat opjagen, maar juist aandacht blijft besteden aan de drivers. Vergeet niet dat kwalitatief goede drivers ook 1 van de pijlers zijn van een goede hardwareleverancier.

Wat betreft het uitmelken van de markt neem ik aan dat NVidia niet de fouten van 3DFx zal gaan herhalen. Je moet scherp blijven en mensen bieden waar ze op zitten te wachten.

Wanneer niemand de "dure" Geforce 2 kaarten zou kopen, zouden ze die kaarten ook niet maken. :7
Nou lekker weer zo negatief over een oude chipset van ATI. Met de Radeon heeft ATI zeer duidelijk bewezen dat ze Solide en zeker snelle drivers kunnen leveren. Sinds dat ik mijn Radeon heb (nu zo'n half jaar) Ben ik amper een blauwe scherm tegen gekomen. En degene die ik toch kreeg kwamen niet door de Radeon.

Een stel gasten blijven maar kletsen over de Rage serie.
Kijk, dat de Rage 128 drivers *nu* gewoon ongelovelijk brak zijn is gewoon slecht. Ik heb zelf mijn kaart vervangen puur door die slechte drivers.

Dat je zegt dat de Radeon drivers nu goed zijn geloof ik best, maar wat gaat er gebeuren met de Radeon I drivers zodra de Radeon II uitgekomen is, of zodra er een nieuw OS komt (XP) (met Win98 doet de ATI het wel goed)?....

Ik gok het er niet meer op, en ik koop vanaf heden een kaart die iets langer ondersteunt wordt.
Eigenlijk wel grappig al die reacties hierboven.
Ik vat het artikel samen: één of andere vage bron stuurt het bericht in dat nVidia harder gaat werken omdat ze de specs van de Radeon II gezien hebben.
Als het waar is is het eerste dat ze dan zeker niet zullen doen het de wereld insturen.
Natuurlijk brengen ze zoiets niet naar buiten, maar (als dit waar is, wat ik persoonlijk betwijfel) zo'n verandering is nogal ingrijpend voor het personeel. Iemand zou makkelijk zijn mond voorbij kunnen praten, wat ook regelmatig gebeurd. De hele specs van NV20 wisten we ook al maanden voor de aankondiging, terwijl nVidia nooit ook maar het bestaan ervan heeft toegegeven.
Allemaal goed en wel, zo'n berichtje, maar wat zouden de specs van de Radeon II dan zijn? Eerst zien, dan geloven.

Ik vind de GeForce 3 over heel de lijn niet zo indrukwekkend, dus echt moeilijk zal ATI het niet hebben, juist als je FSAA wilt hebben is de GF3 wel een goed kaartje en natuurlijk als er spellen uitkomen met speciale gf3 effecten. Maar dit laatste lijkt mij totaal zinloos als game-producent. Dan richt je je namelijk enkel op een (heeeeeel kleine) high end markt.
Binnen een half, of 1 jaar mischien, maar eerder? Ik heb nog steeds geen enkel (succesvol) spel gezien dat de volledige mogelijkheden van een GF2 benut, laat staan van een GF1. Elk nieuw spel draait ook nog met een TNT2 (als de rest van je PC goed genoeg is)

Als het waar is, des te beter voor ATI (en de consument), maar voor ik specs zie geloof ik nix.
Radeon 2 specs

Verder richt je je met Pixel en Vertex-shaders niet op de GeForce3 maar op DirectX 8. Ook de Radeon II zal al deze features ondersteunen. En ja, het ontwikkelen van software kost tijd, dat is het voordeel dat je hebt als je nieuwe hardware koopt, pas een aantal jaar later is de software ontwikkeld voor deze hardware op de markt en dan kun je nog steeds van je spullen genieten.

Je zou ook niet blij zijn als het andersom was, je koopt bijvoorbeeld een spel en moet een jaar wachten op een GeForce4 om het een beetje redelijk te spelen.
Sinds de GF hebben we alleen nog maar steeds weer omlaag geschroefde specs gezien van Nvidia.
Ik voorspel: de huidige architectuur loopt ondanks zn "lightspeed" en ondanks HSR en ander spul op zijn eind: de rek lijkt er langzaam maar zeker uit.

Nou maar hopen dat ze sneller zijn dan Intel met IA 64 met het introduceren van echte innovaties, anders kan ze het over een jaar of 2 a 3 nog wel eens lelijk opbreken
Sinds de GF hebben we alleen nog maar steeds weer omlaag geschroefde specs gezien van Nvidia.
Correctie: omlaaggeschroefde geruchten. De waarheid is dat zelfs nVidia pas laat in de ontwikkeling van een chip de kloksnelheid kan bepalen waarop de yield/prestatie-verhouding ideaal is. Ik denk zelf dat de TNT architectuur nog wel een tijdje mee kan. Intel's P6 houdt het immers ook al meer dan vijf jaar vol. De rek qua FPS is er misschien wel uit ja, maar dat is ook niet het doel van nVidia, die willen juist pixar-kwaliteit animatie naar huiskamers brengen, niet Quake3 met 3000 FPS. De GeForce3 is in dat doel een vrij grote stap door de programmeerbaarheid en de daardoor gecreerde mogelijkheden.
Aaaaahhh, concurrentie! Alleen maar goed!!

Maareh... waarom zou de chip voor de PC géén NV25 mogen als heten als de XBox chip al zo heet? Ze noemen de proc erin toch ook gewoon bij z'n naam?

Ik ben overigens bang dat als nVidia zijn spierballen laat zien ATi wel in kan pakken.... ;(
Ik denk dat dat nog wel meevalt. Nvidia is nu toch ook geschrokken van de Radeon II. En de Radeon is toch ook een geduchte concurrent voor de geforce II. En hun all in one kaarten zijn nog altijd beter dan de geforce all in one varianten
Omdat nVidia de cores ook uit elkaar moet kunnen houden :D. Net als AMD onder andere Athlon, Thunderbird, Duron, Palomino, Morgan, Appaloosa en Thoroughbred heeft... De lijst van Intel is nog vele malen langer.

De gemiddelde consument hoeft het allemaal niet te weten, maar als bedrijf werkt het fijner als je weet over welk product je het hebt met elkaar en daar zijn nou juist die codenamen voor :).
Nu is de Geforce² aan het verminderen van prijs.
Binnenkort zal de Geforce³ wel van prijs dalen maar zo kan je blijven wachten.

Waarom wacht je dan niet op de NV35 (vb'tje maar), dan kan je de NV30 voor een lagere prijs kopen.

Het gaat veel te snel in de grafische kaarten markt dat je toch ooit eens de knoop moet doorhakken om er eentje te kopen.
gaat veel te snel in de grafische kaarten markt dat je toch ooit eens
Lekker toch. Ik weet nog dat het vroeger anders was. Toen moest je wachten totdat er grafische kaarten op de markt kwamen die snel genoeg waren om een spel te kunnen spelen. Nu is het zo dat nieuwe generatie kaarten worden uitgesteld omdat bv. DirectX 8 nog niet op de markt is. Een omgekeerde wereld maar wel zo leuk :)
Maar eh, die NV25 is dus bedoelt voor de XBox...en als Nvidia de ontwikkeling van die chip opzij zet, zou Microsoft wel niet zo blij zijn, of wel :?
De ene theorie is dat NV25 de opvolger van de GeForce3 is en dat deze gedumpt is om in plaats daarvan de opvolger van de opvolger van de GeForce3 (NV30) op de markt te zetten. Dit omdat ze de hete adem van ATi in hun nek voelen.

De andere theorie is dat NV25 de XGPU is en dat NV30 gewoon de opvolger van de GeForce3 is... oftewel dat er niets aan de hand is.
Dit is best wel mooi, zo had nVidia bijna een monopolie en konden ze bijna alles vragen voor hun chips, nu worden ze nerveus omdat ze toch een concurrent hebben. Dit geeft toch wel aan dat ATi een goede chip is.

Nu wachten met de aanschaf van een nieuwe videokaart, er komen dus snel nieuwe nog snellere kaarten. Dat wil zeggen dat de bestaande wel eens erg in prijs kunnen dalen ;). Geen verkeerde ontwikkeling.
Grootere concurentie is nooit een verkeerde ontwikkeling.

De prijzen dalen anders ook wel doordat er nieuwe productenop de markt komen, en omdat ze hun productiekosten er (beina) uitgehaald hebben, en er door lagere prijzen toch weer meer verkocht wordt.
Maar met meer concurentie gaat het in ieder geval een stuk sneller.
Zo zie je maar eerst willen ze nog een NV25 maken en nou dat ze een beetje concurentie hebben gaan ze maar verder met de NV30. Dat is goed voor de technologie, dan schiet het teminste een beetje op.
Zo,.. dit is weer eens een schoolvoorbeeld wat concurrentie teweeg kan brengen.
nVidia mag wat mij betreft ook de prijzen wat verlagen ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True