Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties
Bron: The Inquirer, submitter: XWB

De heren van The Inquirer melden dat nVidia niet alleen het NV48-project in de ijskast zet, maar dat waarschijnlijk ook het NV50-project niet in zijn huidige vorm zal worden voortgezet. De heren hebben geen idee waarom nVidia ook dit project stilzet, omdat het hier gaat om de ontwikkeling van de volgende generatie nVidia-GPU's. Schijnbaar is het bedrijf tot de conclusie gekomen dat de huidige strategie niet de juiste is en dat het dus helemaal anders moet. Normaal gesproken zou dit bericht afgedaan worden als een gerucht dat door The Inquirer als nieuws gebracht wordt. Op het forum van Beyond3D geven DaveBaumann en Utter, heren met verstand van zaken op het gebied van 3d-technologie, echter vrij acceptabele verklaringen voor deze actie, waardoor het bericht ineens een stuk geloofwaardiger wordt.

2px; height:47px;" title="nVidia logo" alt="nVidia logo" align=right vspace=3 hspace=10>De NV50-chip zou aan het einde van 2005 op de markt moeten komen. Er zouden niet veel nieuwe mogelijkheden aan de GPU toegevoegd worden, de nadruk lag vooral op het optimaliseren van de chip, zodat deze bijvoorbeeld minder transistors en dus minder energie nodig had. De API van de chip beschikt dus nog niet over ondersteuning voor Pixel Shader 4.0 en is daardoor niet geschikt voor DirectX 10, ook wel DirectX Next genoemd. Dit betekent dat de chip ook niet geschikt is voor Windows Graphics Foundation 2.0 (WGF 2.0), de grafische engine achter Longhorn. Dit was tot voorkort geen probleem, omdat Longhorn pas in 2007 zou verschijnen en nVidia dus genoeg tijd had om een nieuwe chip te ontwikkelen, die wel geschikt was voor WGF 2.0.

Het lijkt er nu echter op dat Microsoft Longhorn al in 2006 gaat introduceren. In de eerste versie zijn namelijk een groot aantal nieuwe functies, waar nog veel ontwikkeltijd in ging zitten, verwijderd. Als nVidia eind 2005 dus een kaart op de markt brengt die niet overweg kan met de nieuwe grafische engine van Windows, die een paar maanden later verschijnt, dan is het begrijpelijk dat het bedrijf stopt met de ontwikkeling van deze chip. Waarschijnlijk wordt het werk van de huidige NV50 voor een deel meegenomen in zijn opvolger. Verder is het ook niet geheel ondenkbaar dat er voor deze opvolger nog een nieuwe versie van de NV40 uitkomt. Deze GPU zal dan vrijwel geen extra functies hebben, maar wel beschikken over een aantal geoptimaliseerde onderdelen van de NV50-core. Zolang dit nieuws echter niet van een betrouwbare bron komt, blijft het een gerucht.

Moderatie-faq Wijzig weergave

Reacties (44)

Dan mag nVidia wel op gaan letten dat ze hun positie in de GPU markt niet gaan verliezen... Er is weggegooid geld gestoken in geannuleerde projecten en zoals ik uit dit artikel begrijp kunnen we verder niet veel nieuws verwachten van nVidia...

Ben benieuwd hoe de concurrentie gaat reageren!
Liever wat geld weggooien, dan strax over een jaar erachter komen dat je core een financiele flop wordt als je er dan al veel meer geld in hebt gestopt zullen ze daar bij nVidia vast gedacht hebben :) En geef ze es ongelijk :p
Dat is wat BitBoys doen, net zolang uitstellen totdat het niet meer hoeft.

Je kunt beter maar een nieuw product hebben dat matig verkoopt, dan geen product. En als de NV48 gestopt is, en NV50 ook gestopt is, wat gaan ze dan nog doen? Je kunt niet met heel je team aan dezelfde GPU werken, want hoe kun je de DIE optimaliseren als die constant wordt aangepast door je ontwerpafdeling, die weer constant nieuwe features moet toevoegen doordat de API nog niet vast staat bij Microsoft.

Het zou logischer zijn als de NV50 naar voren wordt gehaald, en dat daarom de NV48 is stopgezet. Maar om de NV48 en de NV50 te stoppen... dan zal nVidia binnenkort wel met een persbericht gaan komen.
Onzin, zodra je weet dat een product niet rendabel is moet je het project stoppen en je geld en mankracht investeren in een project wat wel rendabel kan worden.

Elke euro die je na dit punt nog aan het project besteed is verspild geld.

Nu is het wel zo dat als het product ook nog wat op kan leveren het iets anders ligt maar het is zeker niet zo dat je beter geld in een slecht product kan investeren dan tijdelijk geen product op de markt te hebben. Het slechte product is namelijk ook niet concurrerent en zorgt enkel voor negatieve publiciteit.
Beter ten halve gekeerd dan ten hele verdwaald.

Maarja een groot bedrijf als Nvidia zal wel verschillende parallele research lijnen hebben. Mischien zijn ze wel op iets revolutionairs gestuit dat betere gok is dan de NV48 / NV 50 ontwikkeling.

(Elke research is namelijk een gok, success is nooit gegarandeerd en bovendien afhankelijk van het success van de competitie.)
Het lijkt er meer op dat nvidia even wacht met bepaalde chips totdat de features van DX-next welke min of meer aan longhorn gekoppeld zijn worden bekendgemaakt. Zoals het ernaar uitziet zou de nv47 maar een korte levensduur hebben gehad. Nu kan men zich met meer mensen concentreren op de longhorn-kaart zodra het moment daar is.
Realistically, in since DX8 was released, its always been about getting as close to the DX release window as you can (assuming you are executing within the timeframe you expect) and this is getting even more critical as both performance and capability expectations are increasing. WGF is a little different in the fact that it is not a standalone release (in fact there may not ever be an XP version) and that it is tied to Longhorns release which has had wide release date variations, which doesn't make the 3D vendors lives any easier.
Well, ATI's roadmap would already indicate that their Longhorn architecture would be scheduled for mid to late '06, dependant on how long 520 lasts. ATI are already saying that, as far as they are concerned SM3.0 is just a stepping stone to SM4.0, which isn't a surprise given the xbox2 part. But then they had to do some product cancellation with R400 to get in this position.
Edit: tags verbeterd.
Het is goed om te zien dat Nvidia wil anticiperen op ontwikkeling rondom windows. Alleen lijkt het me ook zeer wijs dat ze gaan anticiperen op de linux markt met de bijbehorende technieken. In deze context lijkt het zeer dat ze zich volledig gaan richten op DirectX wat de andere technieken behoorlijk buitensluit. Wanneer je anderen buitensluit is er een mogelijkheid dat je jezelf buitensluit waarmee je de plank behoorlijk misslaat als je je wilt richten op anticipatie.

Of de Linux community en andere OSen gaan mee in de DirectX hype, wat mij sterk lijkt, of Nvidia sluit de Linux community buiten. En de Linux community is nu juist een veelbelovende gemeenschap en begint steeds meer en meer ook financieel gezien een interessante doelgroep te zijn.

Het is natuurlijk kijkend naar dit gerucht alleen moeilijk te bepalen wat Nvidia gaat doen met de linux community qua optimalisaties.

Ikzelf als windows gebruiker vind dit soort ontwikkelingen vrij prettig maar ook weer jammer omdat dit ook weer een reden is waarom de keuze van OS weer voor een deel word beperkt. Het is begrijpelijk dat Nvidia voor de grote massa kiest, maar jammer dat Nvidia qua optimalisatie niet technisch gezien naar de beste optie kijkt, maar voornamelijk alleen lijkt te kijken naar de financieel gezien meest voordelige keuze.

Naar mijn mening al met al een zeer goede keuze van Nvidia wanneer dit gerucht blijkt te kloppen maar eigenlijk ook niet meer dan logisch.

Let wel; ze gooien niet de hele nv50 core weg en gebruiken heus wel de kennis die ze hieruit hebben gehaald (en dus ook geen weggegooid geld). Je kan wel stellen dat ze heus nog wel de NV50 core kunnen doorzetten als budget core voor 2006 maar dat is niet de bedoeling van de nv50 core in eerste instantie.
Hmm... Wie bepaald er nu eigenlijk op Nvidia volop meedoet met Linux? Nvidia zal toch de meeste winst halen bij gamers... Er zijn nog steeds vrij weining games die onder linux draaien, dus op zich snap ik best waarom Nvidia zich blijft richten op DirectX...

Volgens mij echter is Nvida behoorlijk goed in OpenGL (will geen flamewar starten dus zal niet meteen zeggen dat ze beter zijn in OpenGL dan Ati, maar ik heb her en der wel vernomen dat Lightwave 3D beter draait op Nvidia dan op Ati).

Back to the point... Als de Linux comunity geen DirectX wil gebruiken blijft OpenGl over. Nvidia is daar behoorlijk sterk in. Zou het dan nog zo'n probleem zijn om een paar drivers voor Linux te schrijven?
Maw, kan Nvidia niet volop instappen wanneer Nvidia maar wil?
wie zegt dat Linux/Unix mogen gebruiken? Ik wil ook geen flame bait starten maar directx is van Microsoft, dus het ligt aan Microsoft om Directx vrij te geven of niet. Cedega is wat anders, de auteurs hebben Directx gereverse engineerd zodat het werkt op Linux en Unix.
beter zijn in OpenGL dan Ati,
Ten tijde van de Doom3 release gaf Ati toe dat dat ze OpenGL lange tijd hadden verwaarloost en daardoor slechter presteerden. Met nieuwe drivers hebben ze op dat gebied een flinke inhaalslag geleverd. Ik weet niet wat de huidige stand van zaken is,
Als de Linux comunity geen DirectX wil gebruiken
Het is geen kwestie van willen, maar van mogen en kunnen. De implementatie van DirectX is namelijk gesloten source van Microsoft en alle DirectX rechten vallen onder Microsoft.
Om bot te zijn.... Welke linux markt?

Linux wordt hoofdzakelijk gebruikt op servers en als tweede PC. Het aantal mensen dat grafisch zware applicaties op een linux bak draait is nihil
Ik gok het erop dat ze heel veel van hun R&D in een hele nieuwe chipset steken. Mischien gaat nvidia zich meer richten op de moederborden markt.
Dan zouden ze de NV50 juist willen houden, die geoptimaliseerde kaart is ideaal om als budgetkaart nog lang te leveren. Daarmee kun je mooi nog je ontwikkelkosten terugverdienen.

Daarnaast bewijst Intel al jaren dat integratie (financieel) de toekomst heeft, en dan is een leuke grafische kaart best leuk om in je chipset te kunnen gooien.
ik denk dat het goed as om de NV50/NV48 toch te gebruiken voor (Goede) intergrated kaarten op mobo's
maar dat ze de chips dus zouden moeten optimaliseren voor directx 9.0 en PS 2.0

voor gebruik in bijv laptops of barbone's of cheapo pc's

aangezien dat ze minder stroom verbruiken , en dus minder hitte produceren
Waarom zouden ze daar zoveel R&D in moeten steken?
Ze hebben daar al een uitstekende AMD chipset voor, en voor de Intel hoefden ze alleen maar een goede memory controller te bouwen.
Zoveel R&D kost dat niet.

Nee, ik denk echt niet dat hun R&D onderdelen die op de gpu's gespecialiseerd zijn nu ineens ingezet worden voor chipsets.
Eigenlijk is het te gek voor woorden....
MS veroordeeld miljoenen mensen tot de aanschaf van een dure grafische kaart, louter en alleen vanwege een grafische schil....
Waar moet het overigens heen met de Server-versie van Longhorn? De meeste serverboards hebben een Rage128 met 8MB aan boord!

Even ter vergelijking:
XFree86 loopt zelfs op een Trio64.....
Bij Longhorn kun je kiezen voor verschillende grafische schillen, dus Microsoft veroordeeld miljoenen mensen helemaal tot niets. Je hoeft namelijk helemaal niets.

Ik neem verder ook niet aan dat ze standaard dezelde grafische schil in de server versie zullen stoppen/aan zetten. Windows 2003 heeft toch ook niet standaard de interface van XP aan staan?
Windows toch ook?
snap de redenering niet..

nVidia wil doodeenvoudig dat hun toekomstige topkaart Windows kan draaien met alle toeters en bellen, heeft dus niks te maken met een serverversie, want daar zet je toch geen zware kaart in
Sowieso lijkt mij het wat onzinnig dat je je GPU ontwerp gaat aanpassen voor de GUI van een OS.
Liever een snelle kaart en stabielsysteem dan een flitsende hippe GUI.
Waarom kan dat niet hand in hand? Zolang ze er maar genoeg tijd voor hebben en blijkbaar hebben ze dat. Ook ik ben gamer, maar zit toch zeker 50% van mijn computertijd op mn desktop :)
je redenering is dan ook onjuist,
MS heeft besloten om Longhorn naar voor te duwen, dus komt ook DX10 naar voor, dus wil nVidia vermoedelijk dat z'n kaart die dan uitkomt ook DX10 kan en niet ongeveer kan zoals de FX die DX9 kan, maar dan in slow motion
Ja natuurlijk jongens, een bedrijf zoals Nvidia kan niet zomaar dé nieuwe windows negeren... Deze kaart moet natuurlijk op en top zijn, en als highend videokaart uiteraard ook alle functies van Windows kunnen gebruiken. Je snapt natuurlijk wel wat voor afgang dat niet moet zijn als de kaarten van Nvidia niet compatible met Longhorn
Dat is gewoon pure onzin hoor.. de architectuur van ATI zou dan net zo slecht zijn en incompatible zijn, zoveel verschillen ze nou ook weer niet van elkaar..
Volgens mij gaat het hier gewoon om een gerucht..
Kijk naar de timeline van ATI en verrek wanneer komt de eerste direct X 10 compatible kaart?

Precies......
ik heb dit ook nnog niet echt bevestigt gezien ergens, bovendien vind ik het heel vreemd. De NV50 was toch iets waar alweer anar uitgekeken werd, en ze hebben eigenlijk toch nog wel iets nodig om met Ati mee te gaan.....aan de andere kant begrijp ik dat ze geen FX-2 willen riskeren....

nVidia heeft btw altijd de linux drivers beter op orde gehad, en heeft inderdaad van vroeger uit al een klein voordeel in OpenGL.

MAAR, Longhorn gaat 2 versies van de GUI maken, eentje die oude kaarten kunnen gebruiken, eentje die nieuwe kaarten gaan ondersteunen.

Maar toch vind ik het een beetje belachelijk dat er die hele ophef is over 2D graphics, kom op zeg, we weten dat je dan gewoon voor Matroxjes moet gaan, alsof ik het erg zou vinden als mijn windows er niet uitzag en mijn spellen geweldig draaiden......
Het gaat dus niet om 2D, maar 3D. De Longhorn interface is een 3D interface die dus via DX10 je GPU gebruikt om dit te versnellen.
Het klinkt miss raar maar hoe kan microsoft een desktop ontwikkelen wnr er nog geen kaart is die dat systeem ondersteund?
Omdat de microsoft de DirectX standaard ontwikkeld en alle hardware fabrikanten de documentatie/ontwerpen rond deze standaard toegespeeld krijgen (naja tegen een licentie prijsje denk ik).

Misschien maken ze door gebrek aan kaarten nu wel gebruik van een snelle DX9 kaart met wat geemuleerde DX10 features. Who knows? (De HEL interface voor de DirectX kenners/programmeurs onder ons. Deze staat voor Hardware Emulation Layer.)
Microsoft ging toch met die DirectX 10 aan de gang en allerlei extra features aan toevoegen? Me dunkt dat nVidea hier ook mee moet doen anders blijven ze niet bij met de concurrentie. Het blijven uitmelken van bestaande formules was zowieso toch niet de goede weg om volgen. Als de GPU meer gebruikt wordt om een sexy GUI te presenteren lijkt me dat je daar je kaart ook voor moet optimaliseren.
Als nVidia eind 2005 dus een kaart op de markt brengt die niet overweg kan met de nieuwe grafische engine van Windows, die een paar maanden later verschijnt,
Redenatie van lik-me-vestje. DX vormt juist een laag dus hardware en OS en dus kan het OS ook op "ongeschikte" hardware draaien. Het lijkt me vet onzin dat "een paar maanden" die chip de das omdoen. Ik denk eerder dat er een gat begint te vallen als NV48 en NV50 niet doorgaan. Of valt de prestatie van NV50 ook al tegen? Dat lees ik nergens.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True