Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties

De topman van Nvidia ontkent dat het bedrijf aan een x86-processor werkt. Vorige week verschenen nieuwe geruchten hierover. In een interview gaf de ceo van de fabrikant, Jen-Hsun Huang, aan dat het bedrijf zich op de gpu-markt concentreert.

Volgens diverse analisten en geruchten zou Nvidia een eigen x86-compatibele chip produceren. Het bedrijf zou de cpu-markt wel moeten betreden om een deel van zijn gederfde inkomsten in het gpu- en chipset-segment te compenseren, zo beredeneerde een analist van PC Magazine. De expertise van het bedrijf op het gebied van gpgpu's, chipsets en projecten als Tegra en Cuda, waarbij rekenwerk van de cpu door de gpu overgenomen wordt, zou Nvidia een goede uitgangspositie geven om zelf cpu's te ontwerpen. Bovendien zouden de tegenvallende bedrijfsresultaten, veroorzaakt door teruglopend marktaandeel op de chipset-markt en lage yields bij de gpu-productie, gecompenseerd kunnen worden met een cpu-tak. Nvidia heeft volgens de analist ex-medewerkers van Transmeta in de arm genomen om kennis op te doen over technologie van dat bedrijf met betrekking tot x86-compatibiliteit.

De ceo van Nvidia, Jen-Hsun Huang, ontkent echter in alle toonaarden dat zijn bedrijf een x86-compatibele cpu ontwikkelt. Hij geeft aan dat zijn bedrijf een duidelijke strategie volgt, met de gpu als belangrijkste component. Rekenen met de gpu, zoals met Tesla, en het decoderen van video met onder meer het ION-platform, blijft volgens hem onveranderd belangrijk. Huang geeft tevens aan dat Tegra, soc's voor mid's die van ARM-cpu's gebruikmaken, in de toekomst een grote rol zal blijven spelen. Een laatste gerucht dat Huang wilde ontzenuwen, is dat Nvidia met AMD's fab GlobalFoundries in zee zou gaan: TSMC blijft volgens Huang de productiepartner van Nvidia.

Moderatie-faq Wijzig weergave

Reacties (77)

Er zijn gewoonweg al teveel bedrijven die goede cpu's maken of ze zouden met iets revolutionairs moeten afkomen.
Intel/AMD/RISC/ARM etc etc, om daar tegenop te gaan boksen lijkt me niet gezond.

Ze moeten marktaandeel terug veroveren, maar of dat te doen is met dure opstart van iets totaal nieuws ... (dan is het geen marktaandeel meer:) )

[Reactie gewijzigd door Graviton12 op 9 november 2009 13:51]

Het probleem voor NVIDIA is dat op termijn de GPU verdwijnt. Steeds meer mensen nemen genoegen met de prestaties van een IGP. En zowel Intel als AMD zijn hard bezig met de CPU en IGP te integreren. De CPU krijgt steeds meer cores en betere ondersteuning voor vectorbewerkingen. Binnen een tiental jaar is die krachtig genoeg voor de doorsnee gamer.

Denk hierbij ook aan geluidskaarten. Ooit kon je niet zonder om geluid te kunnen produceren, terwijl tegenwoordig 99% van de systemen alle geluidsverwerking op de CPU doen in een driver, en het moederbord krijgt een piepklein digitaal-analoog chipje. Er is wel nog een niche markt voor geluidskaarten maar die krimpt nog steeds.

Hetzelfde lot wacht NVIDIA binnen een tiental jaar als ze niet mee evolueren en hun GPU met een CPU integreren. Aangezien x86 niet weg te slaan valt zou dat de meest logische keuze zijn.
Heb je daar cijfers van dan?
Ik denk dat on-board videokaarten toch al minstens een 7 jaar ofzo gebruikelijk zijn.
Mensen die toen een gpu nodig hadden hebben dat nu nog steeds nodig (gamers bijvoorbeeld)
Voor de andere groep begint het dankzij de mogelijkheid tot het inzetten van de gpu voor andere taken net interessanter te worden om er 1 te hebben. Denk maar aan het afspelen van HD-content op een pc met een trage cpu, het encoderen van video, of het maken van zware wiskundige bewerkingen.

En zelfs als de losse gpu verdwijnt, die on-board chips zullen zichzelf ook niet ontwikkelen, en ook daar is NVidia toch een behoorlijke speler.
Er worden sinds een dik jaar wereldwijd meer laptops dan desktops verkocht.
Raad eens wat op laptops aan GPU's zitten... in het leeuwendeel zit een IGP van Intel.
De losse GPU gaat voorlopig nergens heen, verwacht ik, al zal het marktaandeel wel kleiner worden. IGP's worden elk jaar krachtiger, en de meeste mensen hebben daar nu al voldoende aan. Diegenen die interesse hebben in GPGPU toepassingen kopen inderdaad nog wel een videokaart, maar dat is slechts een fractie van de markt.

Video-decoding kan al prima met een IGP, encoding doen die mensen niet of nauwelijks, zware wiskundige berekeningen is sowieso al een niche-markt, en daar kun je als nVidia of ATi allemaal niet van leven. Ik kan dus wel meegaan in de gedachte dat als je nu niet iets ontwikkelt dat je als bedrijf in leven kan houden, je ten onder gaat als je alleen videokaarten blijft bakken. nVidia staat dan het zwakst, die hebben immers niet veel alternatieven meer, nu de chipsets ook al afgestorven zijn. CUDA zie ik ook niet als iets voor de langere termijn aangezien er al open alternatieven zijn die ook op ATi GPU's draaien. Waarom denk je dat ze zo in de mobiele CPU's zitten? Ze zien zelf ook echt de bui wel hangen.
zo enorm veel x86 cpu makers zijn er echter niet hoor. het zijn er maar 3 in totaal.

Ik denk echter dat het geen goed idee is om er daar nog 1 bij te zetten. de kans dat die speler marktaandeel van de kleinere partijen gaat pikken is te groot. het gevolg is dan dat de ene marginale speler de andere marginale speler wegwerkt.
Het lijkt me ook logischer dat NVIDIA achter VIA aangaat, zoals AMD ATI overgenomen heeft. Met VIA koopt NVIDIA de kennis en licenties, en hoeft het niet een volledig nieuwe CPU te ontwikkelen.

Dit is ook in lijn met de volgende bewering :)
De ceo van Nvidia, Jen-Hsun Huang, ontkent echter in alle toonaarden dat zijn bedrijf een x86-compatibele cpu ontwikkelt
Inderdaad, datzelfde zat ik nu net ook te denken.

ik ben alleen benieuwd hoe ze dat gaan doen.

VIA heeft een niet overdraagbare x86 licentie, dus zodra Nvidia hen overneemt is de licentie verdwenen. De enige oplossing die ze hebben is dat nvidia zichzelf verkoopt aan VIA
Misschien een 50/50-share merger? Zou de licentie dan wel 'overdraagbaar' zijn? Aangezien er dan technisch gezien 'geen partij aan de ander 'verkocht' wordt. Vraag me alleen af of NVIDIA daar wel blij van zou worden, though, gezien hun eigen market cap en die van VIA...

Aan de andere kant, wil NVIDIA zich op de x86-markt storten dan hebben ze sowieso een licentie nodig. Of ze kopen die bij Intel, óf ze verkrijgen hem door VIA over te nemen/samen te gaan met VIA. Bij VIA krijgen ze er wat market share, kennis en technologie bij, maar als ze het zelf ontwikkelen beginnen ze 'from scratch'...
Dit is ook in lijn met de volgende bewering
De ceo van Nvidia, Jen-Hsun Huang, ontkent echter in alle toonaarden dat zijn bedrijf een x86-compatibele cpu ontwikkelt
Misschien zijn ze al klaar met ontwikkelen maar brengen ze hem (nog) niet uit.

Ze hebben trouwens al eens een 386SX compatible uitgebracht, hoewel dat natuurlijk niet echt concurrentie is voor de huidige pc markt van intel.
( http://www.nvidia.com/page/uli_m6117c.html )

[Reactie gewijzigd door tedades op 9 november 2009 16:35]

Ontkennen zegt eigenlijk niks.
1 ) ze zijn er echt niet mee bezig.
2 ) ze zijn er nog niet aan toe om het publiekelijk te maken.
Waar niemand het over heeft zijn petenten bij x86. Je hebt al kunnen lezen dat amd een licentie heeft met intel om x86 te mogen produceren.

Via heeft ook zo een lenctie nodig en ik denk ook niet dat nvidea er onder uitkomt om een licentie te moeten nemen.

Daarnaast intel is al lang niet meer te onderschatten. Men produceerd zelfs met de modernste technieken. Hoewel amd de chipproductie nu niet meer doet draait die nog steeds met verlies. Een cpu niet zelf produceren betekend dat je de winst moet betalen van diegene die hem maakt. Intel steekt die alvast in haar eigen zak.
Dit alleen is al de reden waarom amd niet goedkoper kan zijn en intel nog steeds hele mooie winstcijfers heeft.

Nvidea zal willen ze toetreden met iets heel speciaals moeten komen tenzij ze een niche opzoeken als low power netbook met video en alles er op en eraan. Probleem is alleen in die markt dat de marges daar niet groot zijn.
dus amd kan volgens jou niet goedkoper zijn omdat ze geld af moeten geven aan intel, en dat terwijl amd goedkoper is... ik snap het niet helemaal meer......

ik geloof dat er een of andere afspraak bestond over het waar en hoe produceren van chips en dat amd dat niet (of juist wel) mocht uitbesteden maar die afspraak geld toch niet meer?

OT: ben je toevallig dyslectisch?
Bij amd zit het iets anders, namelijk de x64 instructie set.
Om x64 procs te mogen maken heeft intel een licentie nodig van AMD, AMD daarintegen heeft een x86 licentie nodig om hun processoren aan de man te brengen.
Voor zover ik weet hebben amd en intel een overeenkomst dat ze elkaars patenten (niet alle neem ik aan) mogen gebruiken.
De itanium van intel valt buiten dit verhaal aangezien dat een echte 64bits proc is, en niet zoals de mainstreams procs een 32bit uitgebreid met x64 instructies.

Nvidia heeft helemaal niks te bieden ( nog niet) aan intel mbt processoren.

[Reactie gewijzigd door arbraxas op 9 november 2009 15:02]

Er is welliswaar een cross license agreement tussen Intel en AMD, maar AMD moet nog steeds een hoop bijbetalen. Daarnaast heeft nVidia natuurlijk genoeg interessante patenten die Intel zou kunnen gebruiken bij haar GPU divisie. In theorie kunnen Intel en nVidia het patent probleem vast wel oplossen. Maar ik vraag me af of nVidia die strijd wel aan wil gaan. AMD heeft het heel moeilijk de afgelopen jaren en Intel heeft bewezen er alles aan te doen als zij zich bedreigt voelt. Je moet ook maar durven instappen...
Intel is goedkoper omdat men prodctie en ontwerp in 1 hand heeft. De licentiekosten aan intel zijn zo klein dat ze niet noemenswaardig zijn

AMD maakte tot voor kort de chips zelfs en gedeeltelijk besteede men ze uit. Uitbesteden kost geld, je betaald de winst van een ander.

AMD heeft nu productie en ontwerp gescheiden maar nog steeds zie je dat het geheel geen winst draait. Dat amd goedkoper is komt omdat ze wel moeten willen ze marktaandeel hebben. Echter men maakt met die prijzen geen winst. Intel maakt al jaren dikke winstcijfers.
Kijk eens goed het is nog steeds zo dat de omzet van amd ongeveer even groot is als de winst van intel.
Het verschil tussen iNtel en AMD is
Ten eerste vooral cash reserves.
Wat door de grote van het bedrijf niet klein is.
Hierdoor finaciering van R&D en nextgen procede's no problemo is.
Dieshrink wordt met elke half node steeds duurder.

AMD is te klein om op R&D en procede's mee te komen.

iNtel houd tik tok aan.
AMD next CPU is meer monotoon. Kleine opwaarderingen en toch nog steeds moeizame overgang.

iNtel voordeel is hun R&D en procedes besteding, als veel groter winst makend bedrijf heb je dat makkelijker te besteden.

Zelfs met de Netburst mistap kon AMD iNtel pas bij vlagen goed bijbenen. Maar was niet bij machte om flink in te cashen.

De Hamer is niet zo doorontwikkeld als iNtel architekturen.
Je mist daarmee de IPC groei. Ik mis nog steeds die 256bit L1/L2 cache bus in AMD cores. Terwijl iNtel dit met zowat de PIII al had.

Opzich kan AMD hier weinig aan doen. De mogelijkheden zijn gewoon te beperkt om met gelijke voet mee te komen met iNtel. Dus terecht kan je hun een underdog noemen.

En dan moet nVidia even uit het niets tussen die twee wringen.
zo enorm veel x86 cpu makers zijn er echter niet hoor. het zijn er maar 3 in totaal.
D'r zijn wel meer dan 3 hoor.

[Reactie gewijzigd door pasarica op 9 november 2009 15:25]

Echt? Als je wegstreept wat er discontinued is of overgenomen door een van de drie dan hou ik er nog maar 3 over volgens mij?
het gaat hier om x86 cpu's, dan houd je over :
1 mega-grote speler, Intel
1 grote speler, AMD
1 kleine speler, VIA

RISC en ARM maken naar mijn weten cpu's met een andere architectuur, waarover dit nieuwsbericht niet gaat.
ARM wordt ondertussen wel in netbooks gebruikt wat dus wel degelijk een concurrent is voor x86, je kan Ubuntu en dergelijke vlot draaien op die dingen, Windows nog niet ...
Dus "waarover dit nieuwsbericht niet gaat" :O
Je vergeet alleen dat alle software dan eventjes herschreven moet worden.

Bij linux niet zo'n probleem want van veel applicaties bestaan al veel langer arm poorten en gezien opensource en unix structuur is het overpoorten veel makelijker.

Maar windows + alle meuk eventjes naar ARM, dat gebeurt niet snel.
windows mobile. (en dan loop je daar met je 10" pda aan je oor)
Windows CE anyone?
Yeeeeee we gaan een bedrijf opkopen wat groot kan worden in de Netbook Linux markt 8)7 (dit was toch geen serieuze opmerking? anders mijn excuus!)

Denk eerder dat wanneer ze de financiële tekorten willen bij vullen ze zich gaan richten op de mainstream markt (waar zakelijk zeker nog een groot markt aandeel te behalen valt)
het gaat hier om x86 cpu's, dan houd je over :
1 mega-grote speler, Intel
1 grote speler, AMD
1 kleine speler, VIA
Vergeet Apple niet, die hebben niet zo lang geleden een x86 maker overgenomen, en die fabrikant ontwerpt en bakt ze voor defensie (in de USA).

Dat geeft ze wel wat ijzers in het vuur om iets te doen. (hoewel ik niet echt zie hoe apple daarvan profijt zou hebben)
Je bedoelt de overname van P.A. Semi? Die maken geen x86 chips, maar low-power PowerPC cpu's. Dat is interessanter voor Apple's iPod/iPhone afdeling dan hun pc afdeling.
Er zijn maar 2 echte grote spelers. (Intel en AMD). En het kleine via. RISC/ARM is geen x86 ;). nvidia heeft zelfs al een ARM processor in de markt.

En een extra x86 speler lijkt me eigenlijk alleen een nadeel voor via en AMD. Intel is te groot en machtig om uit de markt te worden gedrukt.
Intel is te groot en machtig om uit de markt te worden gedrukt.
Misschien is dit wel het goede moment aangezien intel zelfs in de VS onder vuur ligt vanwege illegale handelspraktijken met oa Dell.
'n extra concurent zal eerder ten koste gaan van AMD die moeite heeft.

D'r was ergens ene titel die CPU bakken vergeleek met grote lijn vliegtuig makers.
De investeringen zijn zo enorm dat enkele bedrijven dat maar kunnen en de spoeling is zo dun dat je niet al te veel concurenten kan hebben om voldoende afzet te maken om als gezond bedrijf door te gaan. Zols boeing vs airbus.
Die fab's en dieshrinks elke jaar en CPU architekturen ontwikkenen zijn zeer grote investeringen. Die AMD niet meer rendabel aan kan. Dus die foundry scheiding.
AMD heeft amper kunnen incashen door gebrek aan OEM deals. Die geven stabilteit in omzet, ook in mindere tijden.
Ik vraag me af in hoeverre er in de toekomst door supercomputers gebruik zal worden gemaakt van GPU's voor rekenkracht.

Want tot nu toe lijken GPU's het ei van columbus te zijn voor supercomputers maar er wordt niet echt gebruik van gemaakt.

Als dat wel zou gebeuren kan Nvidia weleens doorbreken door GPU's aan grote bedrijven te verkopen en dan zal Intel met Nvidia moeten concurreren.
Want tot nu toe lijken GPU's het ei van columbus te zijn voor supercomputers maar er wordt niet echt gebruik van gemaakt.
Dat lijkt alleen maar zo. GPU's zijn enkel geschikt om zeer veel dezelfde berekiningen in parallel uit te voeren. Da's voor heel wat toepassingen buiten puur grafische zaken een enorm grote beperking. Een multi-core CPU kan op elk moment verschillende taken tegelijk uitvoeren. Er is dus een veel grotere flexibiliteit qua gebruikte algoritmes en werkverdeling.

Bovendien hebben GPUs extreem weinig lokale opslag. Je zit onmiddelijk zonder registers als de taak wat complexer is dan een pixeltje renderen. En dan moet alle data over de geheugenbus. Ondanks de relatief hoge bandbreete moet men zodanig vaak naar het RAM-geheugendat de prestaties zeer beperkt zijn.

Tot nu toe zijn CPUs dus de enige keuze geweest voor supercomputers. Daar hoopt NVIDIA wel verandering in te brengen met de Tegra architectuur. Die bestaat uit meerdere onafhankelijke cores en zou ook een cache-structuur hebben die toelaat om meer data lokaal op te slaan.

Maar die architectuur is nog niet gelanceerd en men is vanzelfsprekend terughoudend binnen het wereldje van de supercomputers. CPUs hebben al decennia's lang hun diensten bewezen en hun prestaties stijgen gestaag.
Ja maar je kan toch niet alle supercomputers over 1 kam scheren?

Er moeten toch wel een aantal supercomputers zijn of andere grote systemen die wel baat hebben bij de parallelle berekeningen.

Ze worden ook gebruikt bij bepaalde computersystemen maar ik heb nog niet gehoord over een supercomputer die ze gebruikt.

Wellicht is dat omdat GPU's nog niet volwassen zijn en de echte serieuze GPU's eigenlijk de DirectX10 GPU's zijn dus zou je kunnen zeggen dat er wel een nieuwe tijdperk is aangebroken maar dat het nog in de kinderschoenen staat.
GPU's worden al gebruikt hoor http://www.nordichardware.com/news,10155.html
Xeon cpu's en elke rack heeft ook 2x 4870X2.

En inderdaad NVIDIA die zo hard in die markt wilt doorbreken verliest gewoon klanten aan AMD omdat ze veel te veel geld vragen. Apple koopt ook aan bij AMD om hun OpenCL te beginnen doorpushen op MacOS.

[Reactie gewijzigd door Rizon op 9 november 2009 14:52]

Voor een computer die weersvoorspellingen moet berekenen lijkt mij een GPU-supercomputer wel heel geschikt.
je bedoelt zeker Fermi IPV Tegra.

-fermi is de volgende generatie videokaarten vooral gericht op GPGPU
-Tegra is een SoC van Nvidea bedoelt voor consumer devices als b.v. de Zune HD
Ik hoorde dat het zo was dat GPU's niet zo accuraat zijn als CPU's. In beeldverwerking en output kan je een foutje wel permitteren, maar bij supercomputers en dergelijke kan één enkel foutje al funest zijn voor de hele uitkomst.
dat klopt, maar nvidia wil ECC-geheugen toevoegen aan hun professionele kaarten, en om fouten tegen te gaan in de GPU moet je gewoon zorgen dat ze meer marge hebben in de GPU klok, net zoals ze dat doen bij CPU's.
Sterker nog dat doet nv al. En er word zeker wel veel gebruik van gemaakt op dit moment en eingelijk al jaren
Intel doet anders precies hetzelfde met larrabee....

Het enige wat ze hoeven te doen is een snellere cpu te maken dan intel ( klink zo makkelijk in deze zin :) )
En ze zijn binnen.
Het enige wat ze hoeven te doen is een snellere cpu te maken dan intel ( klink zo makkelijk in deze zin :) )
En ze zijn binnen.
Nou, niet echt. AMD had ook een tijdje de prestatie-kroon, maar is ook geen marktleider geworden daardoor.

Vooral bedrijven zullen niet snel overstappen op een fabrikant die zich nog niet heeft bewezen op een bepaald product. Liever iets minder prestaties / meer betalen voor een naam die bekend is dan een nieuweling met z'n eerste product voor die markt.

Daarnaast zullen er nog geen compiler-optimalisaties zijn voor de nieuwe processor en is hardware-compatbilitieit wellicht een issue.

Zelfs in een markt waar de marktleider niet de boel omkoopt (zoals wordt beweerd over Intel) is het moeilijk om als nieuweling / kleine speler een significant marktaandeel op te bouwen. Je moet of een niche-markt aanboren of langere tijd betere prijs/prestaties bieden (eventueel in een kleiner segment zoals budget-CPUs, waar AMD veel van z'n marktaandeel vandaan heeft).
ben ik niet met je eens. Als ze een cpu maken die 10% sneller is, maar 2x zo duur, zullen ze alsnog niks verdienen. Ze moeten een snellere cpu maken, die ook nog eens goedkoper geproduceerd kan worden als bij de concurrenten. Of ze dat gaat lukken, met de vele jaren ervaring die intel en amd al hebben op dit gebied, is maar sterk de vraag.
In de bedrijven markt gaan ze niet voor het goedkoopste maar voor de beste prestaties imo
Ook al zal het maar 5 % zijn een bedrijf gaat voor prestaties en nvidia heeft dat door en maakt daar nu dus handig gebruik van
Zelfs al zou nVidia morgen een 20% snellere CPU hebben als intel. Zou jij die in je bedrijfskritische server durven stoppen? Het heeft AMD heel veel moeite gekost om in het bedrijfsleven door te dringen. nVidia gaat niet zomaar marktaandeel winnen in dat deel van de markt.
Doe gewoon geen x86 maar maak iets beters voor high end computing, die instructieset is nou ook al super oud.
Oud, maar daarmee niet minder goed. De meeste code compileert naar heel erg efficiënte x86 instructies. Zelfs de PowerPC instructiesetarchitectuur bleek niet voldoende voordelen te hebben om Apple te weerhouden van op x86 over te schakelen.

De realiteit is gewoon dat de ISA zeer weinig uitmaakt. De decoders van een CPU zijn slechts zo'n 5% van het totale chipoppervlak. De prestaties worden vooral bepaald door hoeveel instructies men effectief uit kan voeren per klokcyclus. Daarbij zijn andere factoren véél belangrijker dan de ISA.

Bovendien heeft x86 als grote voordeel dat het uitbreidbaar is. Het kan dus nog steeds mee met recente ontwikkelingen. x86-64 is zelfs behoorlijk gelikt.

Last but not least onderschat niet hoeveel software reeds geschreven is voor x86. Zonder ruim aanbod aan compatibele software is je hardware niks waard, zelfs al is die significant sneller.
Als ze de bedrijfsresultaten omhoog willen halen moet en ze specializeren of iets nieuws doen!
Kom met een moederboard videokaart cpu all in one! super systeem!
Lijkt me niet verstandig. Dan kan je niet meer losse componenten upgraden/vervangen terwijl dit juist een van de redenen is waarom ik een desktop koop.
Ja das waar maar jij bent nauwelijks doelgroep, mochten ze dit willen gaan doen dan proberen ze in de HP/Dell/ etc etc machines te komen. Oftewel redelijk budget massa machines oftwel² OEM pc's.

Die ene videokaart die jij per jaar koopt zet geen zoden aan de dijk. ;)

Misschien dat ze zoiets kunnen ontwikkele voor laptops bijvoorbeeld
De desktop is toch al in gevaar. Ik zie in de winkels al steeds meer laptops en minder desktop bakken verschijnen.
Mensen die iedere keer een hele nieuwe PC moeten kopen zijn commercieel een stuk interessanter. Immers valt daar veel meer geld te halen. De normale PC "kasten" zullen straks meer en meer een zeldzame verschijning worden. Voor de fabrikanten zijn laptops handiger. De huis tuin en keukengebruiker heeft ook liever een laptop, want die kan je overal gebruiken en neemt minder ruimte in etc. En de winkels houden ook wel van laptops omdat ze allerlei extra garanties en verzekeringen mee aan kunnen smeren, net als bijvoorbeeld laptop tassen.

Voor de gebruiker zijn ze lekker klein, gebruiken weinig energie (zie je ook heel vaak als argument om een laptop ipv desktop machine te kopen), zijn ze stil, zijn ze portable, geen kabels en hebben ze vaak alles wat je nodig hebt ingebouwd zitten.

Het lijkt me dat Nvidia dit ook door heeft in niet afhankelijk wil zijn van een markt die minder en minder op gaat leveren. Helemaal uitsterven zal het heus niet, maar het zal genoeg krimpen om er voor te zorgen dat het niet meer interessant is om er dure GPU's voor te maken.
De reden dat ze juist een andere markt willen aanboren is diversificatie, dwz risicospreiding en een spreiding van inkomsten. De door jou gesuggereerde oplossing is een oplossing waar Nvidia niks mee opschiet, omdat ze in dezelfde markten blijven hangen.

Ik denk dat Nvidia met de kennis en kunde die ze hebben er juist goed aan zouden doen om de CPU markt te betreden, of ze het gaan redden is een tweede, maar als consument zou je dit juist moeten toejuichen. Meer concurrentie, meer technologische ontwikkelingen, lagere prijs (hopenlijk)......
Lijkt mij ook wel wat. Een beetje zoals de Cell, bestaande uit een Power core een aantal cell cores.

De grap is dat je als je tekst hierboven leest dat ook niet onmogelijk of uitgesloten wordt. Dat de belangrijkste pijler de GPU is wil niet zeggen dat niet een klein stukje x86 daar tegenaan zouden willen/kunnen zetten zoals dus b.v. bij de Cell. Het maakt het een stuk makkelijker om snel een hoop programmatuur draaiend te krijgen op je nieuwe systeem waarna vervolgens de optimalisatie richting het GPU gedeelte plaats kan vinden.
Das tegra dus. Is alleen nog geen supersysteem maar wel alles in een ding.
Nog een andere interessant artikel over Nvidia en Tegra 2 staat op Notebookspot.nl. Zo zal een x86 licentie sowieso al zo goed als onmogelijk zijn door alle constructies. Ook krijgt Nvidia geen nieuwe licentie voor de nieuwe processors van Intel, na de Core 2 architectuur.

Nvidia wil 50% van alle winst de komende jaren uit Tegra halen. Een grote kans is aanwezig dat Nvidia grotendeels uit de computermarkt (op Cuda en gaming na) stapt en zich gaat richten op consumentenelektronica om haar voortbestaan te garanderen.

http://notebookspot.nl/ni...cus-van-gpu-naar-cpu.html
Ook krijgt Nvidia geen nieuwe licentie voor de nieuwe processors van Intel, na de Core 2 architectuur.
Dat kunnen ze wel krijgen, maar daarvoor moeten ze opnieuw betalen. NVIDIA hoopte met z'n licentie voor Core 2 technologie ook chipsets voor Core i7/i5 te mogen maken maar dat blijkt verschillende technologie te zijn en daar hadden ze niet op gerekend...
Vziw houdt Intel Nvidia gewoon tegen omdat Intel puur en alleen zijn eigen chipset wil slijten. Al dan niet door zo'n hoog bedrag te vragen dat het praktisch onmogelijk is.

[Reactie gewijzigd door GENETX op 9 november 2009 14:10]

een x86 instructie set is ook ooit ontwikkeld door Cyrix

D'r is (toen al) een heleboel gedoe geweest over licenties met intel, maar dat is geschikt.
Intel klaagde cyrix aan en vice versa .

Cyrix heeft de x86 reverse engeneerd en dat kan NVIDIA ook gewoon doen

En stel je voor dat ze een IGP volledig onafhankelijk in eigen (licentie) beheer kunnen maken.... dat scheelt denk ik best wel in prijs.
Dat is eigenlijk ook al wat Intel aan het doen is. De Atom is slechts een tussenstap. Intel wil nog veel en veel zuiniger worden. Dan komen uiteindelijk nVidia en Intel in hetzelfde vaarwater. Maar als dat de toekomst is, waar blijft AMD dan toch met kleine low power CPUs?
Misschien met de Fusion generatie? Lijkt me heel wat veiligere technologie (vanwege SoC opbouw) om in deze markt mee te stappen dan wat men nu heeft.
Vreemd, had verwacht dat de delay van de nvidia kaarten te wijten zou zijn aan het ontwikkelen van een nieuw groots project. Als nvidia niet met iets schokkends komt zullen ze stilaan minder populair worden.

Het is nog al grote video kaart bedrijven overkomen zoals matrox of 3Dfx, goede producten, maar als de vernieuwing stopt eindigt de rest ook snel omdat 3D cards een relatief korte cyclus hebben.
Je kunt natuurlijk ook te ver vooruit lopen.
3DFx bijvoorbeeld heeft een revolutie ontketend op het gebied van 3d kaarten, en waren met hun eerste 2 sets chips (want het was geen single chip ontwerp) voorlopers. Met de vodoo3 hebben ze zich vergallopeerd. Maar goed dat heeft nvidia ook gedaan met de FX5200. Daar was ATi echt surerieur met hun 9500/9700.
3DFx had in echter ook nog een vodoo5, meerdere chips op 1 kaart. Dat is echter nooit echt aangeslagen. Maar wat zien we tegenwoordig veel, idd Crossfire en de SLI techniek van 3DFx bij Nvidia met meerdere chips op 1 kaart.
En het feit dant 3DFx zich alleen maar richtte op de topkaarten was achteraf ook niet zon denderend succes. Zowel ati als nvidia halen de meeste omzet uit hun low tot midsegment en gebruiken de topmodellen meer als advertentiemateriaal.
/nostalgie modus
Denk met weemoed terug aan mn vodoo2 sli setup :+

[Reactie gewijzigd door arbraxas op 9 november 2009 14:41]

Maar de voodoo's werden te duur tegenover ATI en NVIDIA die met DirectX het nieuwe gouden ei hadden. Zelfs al zouden klanten Voodoo blijven kopen had het niet veel zin want developers wouden ook over op DirectX voor het gemak.
Als er geen vraag is naar je product val je gewoon weg, hoe "goed" het ook is.
nvidia heeft geen x86 licentie en Intel gaat ze er echt geen geven. dus ik vraag me echt af waarom dit gerucht zo volhardend is, want het gaat gewoon echt niet gebeuren. nvidia zou direct aangeklacht worden door Intel met weinig tot geen kans om die rechtszaak te winnen.

edit... even een brainfart misschien, maar zouden ze een CPU maken die niet x86 is... maar wel x86 instructies begrijpt via een emulatie(in hardware).
volgens een oude rechtszaak zou dat dan niet perse een x86 cpu hoeven zijn zou er geen licentie voor nodig zijn.
..is al een keer gedaan, kijk hier maar . Het kan dus wel inderdaad
Tja het kan natuurlijk ook gewoon een afleidingsmaneuvre zijn.
Het zou niet de eerste keer zijn dat een bedrijf met iets bezig is en dat liever (al dan niet publiek) geheim wil houden.
Persoonlijk zou ik het niet eens zo gek vinden, hun chipsetvoordeel is weg nu intel ook SLI ondersteunt. En dat was toch vooral hun verkoopkracht.
Aangezien ze voor de i7/i5 geen chipsets hebben voor zover ik weet is dat voor hun een opdrogende markt.
Dus waarom dan niet beginnen aan een nieuwe markt? En dat je dan geen pottekijkers wenst vind ik niet zo vreemd.
Het zou me niets verbazen als nvidia een cpu zou ontwikkelen, als je kijkt naar de populariteit van de netbooks en hun eigen ion platform. Daar kan je een goede instap cpu bij ontwikkelen, deze hoeft immers niet zo heel krachtig te zijn.
Ook omdat hun ion chipset niet meer zal werken met de nieuwe atom.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True