Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 25 reacties

Het gezaghebbende Amerikaanse zakenblad Forbes heeft nVidia uitgeroepen tot bedrijf van het jaar. Forbes stelt dat het bedrijf een financieel indrukwekkend jaar achter de rug heeft en leunt op innovatieve ideeŽn.

nVidia logo (90 pix)Het zakenblad wijst in het artikel 'Shoot to Kill' koeltjes op de uitstekende bedrijfsresultaten van de hardwarefabrikant. Nvidia wist dit jaar 62 procent van de markt voor grafische kaarten in handen te krijgen, zo berekende het analistenbureau Mercury Research. Vorig jaar lag dit aandeel nog op 57 procent. Terwijl AMD, moederbedrijf van ATi, worstelt met financiŽle problemen, verbeterde nVidia zijn winst- en omzetcijfers elk kwartaal opnieuw.

Forbes wijst naast de rooskleurige financiŽle resultaten ook op de innovatieve kracht van nVidia. In 1995 ging het nog slecht met het bedrijf, maar een investering van een miljoen dollar in emulatietechnologie bracht redding. Door de emulatiemogelijkheden konden de gpu-ontwikkelaars eerst hun ontwerpen beproeven voordat de chips gebakken werden. Hierdoor wist nVidia elke zes tot negen maanden een gpu met nieuwe mogelijkheden en hogere snelheden op de markt te brengen. Dankzij het feit dat nVidia 'fabless' was - het besteedde de productie van gpu's uit aan bevriende chipfabrikanten - liep het bedrijf betrekkelijk weinig risico. Richard Bergman, werkzaam bij de grafische afdeling van AMD, verzucht tegenover Forbes: 'Zij wisten elke keer de lat weer hoger te leggen'.

De toekomst voor de Californische onderneming ziet er voorlopig ook zonnig uit. Nvidia wil met goedkope geÔntegreerde gpu's voor het desktopplatform marktaandeel veroveren op concurrent Intel. Ook hoopt het bedrijf met de brute rekenkracht van zijn gpu's zijn marktaandeel buiten de consumentenmarkt verder uit te bouwen. Met name gpgpu-toepassingen zouden voor rekenintensieve toepassingen in het bedrijfsleven lucratief kunnen worden.

Ondanks het succesverhaal van nVidia ziet Forbes mogelijke kapers op de kust. Intel is van plan om de markt voor high-end desktop graphics te betreden met zijn Larrabee-architectuur. Volgend jaar worden de eerste demonstraties verwacht van deze kruising tussen een videokaart en een multicoreprocessor. Daarnaast probeert AMD de grafische mogelijkheden van zijn ATi-gpu's in de instructieset van toekomstige processors te verweven. Nvidia op zijn beurt lijkt vastberaden om op zijn ingeslagen weg door te gaan; volgens geruchten verschijnen in februari weer een aantal nieuwe gpu's, inclusief een topmodel.

Moderatie-faq Wijzig weergave

Reacties (25)

Uiteindelijk geld voor alle technologieŽn hetzelfde; Er komt een punt waarop verbeteringen voor de massa markt geen toevoeging meer hebben. Dan word wat ooit speciaal was, heel gewoon. Dan is de beste oplossing ook gratis of algemeen beschikbare technologie. In dit geval is de GPU speciaal, en de CPU heel gewoon.
De CPU is nog verre van heel gewoon - de mid-end en high-end CPU's zijn nog steeds het toonbeeld van innovatie en technologie, en ik zie het einde van die innovatie nog lang niet in zicht.
Nvidia wil met goedkope geÔntegreerde gpu's voor het desktopplatform marktaandeel veroveren op concurrent Intel.
Zolang intel met platform strategieŽn als centrino en santa rosa werkt zie ik geen tot weinig kans voor nV. Een package van chipset, cpu en grahics core is voor intel en ook voor amd altijd goedkoper te leveren dan voor nV.

[Reactie gewijzigd door boesOne op 21 december 2007 21:58]

En wat als de CPU-CPU core flopt? Wat als de gamers liever gewoon een aparte kaart willen om makkelijk up te graden?

Als gamer zie ik weinig heil in het CPU-GPU project, tenzij de CPU amper duurder wordt en de performance gewoon normaal meegroeit. Dat verwacht ik niet en zie er voorlopig weinig heil in voor gamers. Er zijn nog genoeg kansen voor NVIDIA. CPU-GPU is leuk voor budget, maar niet voor gamers wat mij betreft.

[Reactie gewijzigd door GENETX op 21 december 2007 22:01]

Hangt er helemaal vanaf. Als de prestaties goed zijn en het platform in diverse configuratie's word geleverd dan heeft het juist een kans van slagen. Het is alleen wachten in welk jasje het word gegeoten, benchmarks en prijzen.

En zoals eerder getsteld, Nvidia heeft weinig cpu's in huis en ik denk dat eventuele inkoop bij Intel of AMD hun geen windeieren zal leggen ;)

De tijd zal het leren. Gamers zijn met name juist de markten die zorgen voor nieuwe standaarden, gezien de eisen, dus schuif de gamers niet zomaar aan de kant. Voor desktop kan Intel nog steeds goedkoper dan Nvidia leveren dus daar zal voorlopig ook weinig verandering in komen :)
wat dacht je van physics op je GPU-op-je-CPU en de gfx op je insteek kaart.

daarbij laat folding@home zien dat er veel meer gedaan kan worden naast gfx met gfx hardware.
daar zal dus echt wel gebruik van gemaakt worden als steeds meer mensen standaard gfx hardware in hun computer hebben zitten.

[Reactie gewijzigd door Countess op 22 december 2007 12:06]

Ik denk niet dat de cpu / gpu combinatie echt op gamers gericht is. Daarnaast, zoals ook eerder aangegeven, het gespecialiseerde gedeelte van de CPU kan bepaalde berekeningen vele malen sneller doen dan een gewone CPU. En het integreren van een GPU in een CPU verplicht een afnemer niet tot het echt gebruiken daarvan - net zoals een geintegreerde videokaart niet verplicht tot het gebruik daarvan.
En wat te denken van het gebruik als rekenprocessor en server-side 3D rendering i.p.v. op de desktop? Ik denk niet, dat deze processor primair voor gamers is neergezet, maar meer voor kantoorcomputers en als een geÔntegreerde versie van hetgeen ze met het Torrenza initiatief willen bereiken.
Volgens mij heb je daar toch vooral notebook platforms te pakken terwijl het hier om desktop gaat. Nvidia levert voor het desktop segment juist veel chipsets af (nforce), maar die zijn vooral nog gericht op het hogere prestatie segment. Ze willen nu dus proberen meer van de low budget markt af te snoepen van intel, en als ze goedkopere chipsets kunnen leveren die toch nog goed presteren en een nvidia graphics oplossing geÔntegreerd heeft (wat de fabrikant weer leuk op de doos kan zetten) dan denk ik dat ze best een sterk produkt kunnen hebben.
Man, man. Wat een cyclische beweginging.

Ik zie de hele Amiga weer terugkomen met die combinaties. Hallo Agnus, Denise, Gary! Het is weer 1990 jongens...

[Reactie gewijzigd door ashemedai op 22 december 2007 22:58]

Ik ben het niet altijd eens met hun "maniertjes" en dus "scherpe kantjes".
Maar deze prijs is niet onverdiend qua prestaties blijkt. En dus gefeliciteerd.
Welke manieren en scherpe kantjes? Mis ik iets van nadelen die Windowsgebruikers ondervinden? De Linuxdrivers zijn niet perfect, maar nog steeds een ordegrote beter dan de ATi drivers. ATi heeft een grote inhaalbeweging gemaakt, maar het is nog steeds niet vergelijkbaar :)
Door racoontje, zaterdag 22 december 2007 11:33
Welke manieren en scherpe kantjes?
Late reactie, excuus.

Driver ondersteuning voor XFX Geforce 7950 GT 512MB AGP - heeft 4 tot 5 maanden geduurd. Terwijl op de doos wel al "Certified for Windows Vista" en "Designed for Microsoft Windows XP" logos staan. (Achteraf bleek dat NVidia de driver afspraken richting XFX niet nagekomen was. XFX had dan wel een stickertje over de logos op de dozen mogen plakken vind ik. Maar ja dat verkoopt natuurlijk niet.)
De kaart werd gewoon niet herkend, al bij driver installatie : "No compatible device found." Installatie afgebroken. Game Over.
Keuze : Oude buggy driver van de XFX installatie CD gebruiken, of in iedere nieuwe driver release, aan het INF bestand dan maar zelf de hardware IDs toegevoegd en het juiste naampje.

Slechte Vista display drivers, geen verklaring/uitleg richting de kopers, wel een problem report page ervoor aanmaken.

Korte ondersteuning van de nForce 3 Pro 250Gb chipset..
Eerst werd Vista ondersteuning wel toegezegd. Een paar maanden voor de RTM werd deze toezegging weer ingetrokken. En alle verdere ondersteuning van de chipset opgeschort.

Maar we dwalen af.

Ik feliciteer ze toch omdat de prijs voor prestaties op het financiŽle en innovatieve vlak uitgereikt is. En daar valt niets aan af te dingen.
En omdat alle (grote) bedrijven regelmatig te dicht bij de plafondventilator hun behoefte doen.

EDIT : tpye fauten verwijded.

[Reactie gewijzigd door NxCPU op 25 december 2007 00:33]

ATI gaan de specs van hun kaarten open maken, zodat er door door ander drivers voor linux gemaakt kunnen worden. zolang ATI daarmee door zetten zal geen enkele linux gebruik nog een nvidia kaart kopen lijkt me.
zolang ATI daarmee door zetten zal geen enkele linux gebruik nog een nvidia kaart kopen lijkt me.
Beetje veel fanboy-ism? Of doet jouw glazen bol het beter dan die van mij?

Dat Ati mogelheden gaat maken voor de OS community om drivers te maken wil nog niet zeggen dat deze drivers beter gaan worden dan die van Nvidia. En het wil ook absoluut niet zeggen dat alle Linux gebruikers ineens Nvidia als een blok laten vallen.

Laten we wel eerlijk wezen: Ati heeft jaren lang de linux gebruikers gewoon in de kou laten staan met hun poep drivers terwijl Nvidia de zaakjes netjes op orde had. Dat ze daar nu iets aan gaan veranderen komt door AMD, niet door Ati. Als het aan Ati had gelegen dan was er de aankomende jaren waarschijnlijk geen verandering in de situatie gekomen. Ik zal alleen daarom al nooit een Ati kaart kopen, laat ze maar lekker stikken met hun arrogante houding. Dus loop even niet zo hard van de toren te blazen aub, Ati is nog lang niet binnen wat Linux ondersteuning betreft.

[Reactie gewijzigd door Blorgg op 22 december 2007 22:15]

Wat maakt het uit,wij bepalen echt niet wat er gaat komen,er is nog altijd een markt werking,dus het komt er wel of niet en dan mogen we allemaal daarover een mening hebben,
ook over de eventuele uitgave van de euro. :+
Door de emulatiemogelijkheden konden de gpu-ontwikkelaars eerst hun ontwerpen beproeven voordat de chips gebakken werden.
Lijkt me wel leuk om zo'n emulatie in werking te zien, hoewel die waarschijnlijk niet realtime loopt wegens de rekenkrachtig die er voor nodig is (?)

[Reactie gewijzigd door Sir_Eleet op 22 december 2007 16:55]

Daar is helaas helemaal niets leuks aan, helaas. Tenzij je het fijn vindt om iets dat normaal gezien aan 1GHz loopt aan 100kHz te ervaren...

Want dat zijn de snelheiden waar het bij emulatie over gaat. Nog altijd een stuk beter dan software simulatie, dat wel...
Zo, ken wel een paar bedrijven die daar een lesje van kunnen leren....
Om "jaoers"op te zijn ;-)
"envidia" = jaloezie in het Spaans

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True