Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 11 reacties

Nvidia start een investeringsprogramma om zo geld te kunnen steken in nieuwe bedrijven die met gpu-gerelateerde zaken in de weer zijn. De firma hoopt op die manier zijn positie in de markt verder te kunnen verstevigen.

Met het GPU Ventures Program wil Nvidia geld steken in veelbelovende startups. Dit deed de firma al veel langer, maar Nvidia wil de investeringen die het wereldwijd doet nu formaliseren. Een startup die grafische technologie als kernactiviteit heeft, kan een half tot maximaal vijf miljoen dollar aan investeringsgeld uit het fonds krijgen, in ruil voor een minderheidsbelang. Daarbij zegt Nvidia niet alleen oog te hebben voor startups die met hardware bezig zijn; ook softwarebedrijven die zich bezighouden met zaken als virtual reality, games en physics vallen onder het aandachtsveld.

Tegenover Cnet geeft Jeff Herbst, vice president business development bij Nvidia, als voorbeeld het bedrijf Keyhole. Deze firma kreeg vlak na zijn oprichting geld van Nvidia en ontwikkelde de basis voor een 3d-gui waarmee satellietfoto's in alle hoeken en standen bekeken konden worden. Keyhole werd in 2004 overgenomen door Google, waarna de programmeurs van het bedrijf verder bleven werken aan de creatie van Google Earth. Ook investeerde Nvidia in de firma Ageia, een bedrijf dat onder de naam Physx ppu-technologie voor de gamemarkt ontwikkelde. Uiteindelijk nam Nvidia Ageia een jaar geleden in zijn geheel over.

Maar Nvidia stelt dat het ook geld wil investeren in bedrijven die op het eerste oog niets met grafische hardware of software te maken hebben, zoals startups in de olie- en gassector. Door het groeiende gebruik van gpgpu-toepassingen en het benutten van Nvidia's Cuda-architectuur daarbij, ziet de firma echter ook in deze sectoren kansen.

Nvidia hoopt met de pot aan investeringsgelden niet alleen nieuw talent aan zich te binden, maar ook zijn directe concurrent AMD op afstand te houden. Daarnaast wil Nvidia het gebruik van Cuda verder aanjagen, zodat het concern een nog grotere afzetmarkt voor zijn gpu's kan creëren.

Moderatie-faq Wijzig weergave

Reacties (11)

@Taartje:
Waarom zeg je ingodsnaam; "komt NVidia dan eindelijk met 'n terugslag tegen ATI"??

Alsof ATi al slapende weg wandelt met de presatie-kroon?
Bij mijn weten was ATi het eerste bedrijf dat op de rand van faillisementen stond de afgelopen 2 jaar.
Intel & NVidia hadden AMD goed in de kneep so to speak..
Het bedrijf is AMD, de merknaam ATi wordt nog gebruikt, maar niet oneindig meer zo is mijn vermoeden.
AMD heeft nú onder de GPU's de prijs+energie vs. prestatie kroon, that's it..

3 of 4 NVidia GTX295 kaarten wandelen nog altijd over 2x HD4870X2 kaarten heen.
Al komt dat vaak niet in games naar voren; maar dat heet driver-problematiek icm kaart-optimalisatie. :+

verder gewoon 'n aardig initiatief, banken doen toch geen ruk zo gezegd, wees blij voor ondernemers/studenten dat ze zoiets als dit überhaupt doen, wel eten vs. geen eten is niet bepaald 'n 'leuke' keuze you know..

[Reactie gewijzigd door rj1093 op 10 maart 2009 22:17]

Ik vind CUDA momenteel toch wel tegenvallen voor kleinere berekeningen. De echte grote toegevoegde waarde is enkel in grote arrays die je gemakkelijk kunt parallelliseren. Ik heb gemerkt dat het eenvoudiger en sneller is om kleine arrays gewoon zelf te bereken en dat het pas begint te tellen tegenaan datasets van rond de 512MB waar je dan weer een kaart met meer geheugen voor nodig hebt. Dit komt waarschijnlijk door de vele copy instructies. Je moet nl. elk array individueel in je code (met memcpy van je RAM naar je VRAM) copieren, uitvoeren en dan terug copieren.

Een kleine berekening wordt al snel meer dan 30 lijntjes code. En daar de instructies identiek zijn voor standaard memory allocatie en CUDA allocatie kun je heel snel een fout maken (of een header vergeten of de verkeerde versie includen) en niet eens doorhebben dat je alle berekeningen nog steeds 'via de CPU' aan het uitvoeren bent. Alle berekeningen zijn dan wel onjuist (eenvoudig te zien als de vierkantswortel van een array allemaal 0's voortbrengt) maar met complexe berekeningen of berekeningen op foto's is dit lastig om te controleren.

Daarnaast is er zoveel veranderd tussen v1 en v2 dat veel v1 programma's niet compatible zijn en je dus opnieuw mag beginnen. De MATLAB plugin is ook zo'n lastig beest.
Bah, op deze manier willen ze CUDA dus nog meer doordrukken als 'propertairy' standaard. Ik zag liever dat ze met zijn allen aan OpenCL gingen werken. Daar heeft iedereen meer baat bij (behalve nVidia dan).
Zolang iedereen een zijn eigen ding doet komt durft niemand (die geen grote zak geld krijgt) met eigen initiatieven te komen en remt dat juist de ontwikkelingen op GPGPU (die zeer nutting zijn in mijn ogen) af.
CUDA betekent helemaal niet dat NVidia OpenCL niet gaat ondersteunen. OpenCL wordt in de toekomst gewoon ondersteund naast CUDA. En hoe bedoel je, niemand durft met eigen initiatieven te komen? CUDA is juist een eigen initiatief van NVidia... ;)
Komt NVIDIA dan eindelijk met een terugslag tegen ATi?

En zal toch eens tijd worden, NVIDIA is de laatste tijd alleen maar aan het renamen en overklokken (GTX275).

Misschien dat mijn volgende videokaart die mijn 9800GT gaat vervangen toch geen ATi wordt.
Nou het kan nog wel even duren voordat nVidia hier de vruchten van gaat plukken; Daarnaast, een soortgelijk programma was er dus al.

Ik mag hopen voor nVidia dat ze gewoon snel met een goede nieuwe chip gaan komen.
NVIDIA beseft (net als microsoft destijds) dat de weg naar de mainstream maar op 1 manier behaald kan worden: "Developers! Developers! Developers!"
alleen jammer dat Nvidia chips zo fout gaan lopen na een tijd.
ik ervaar na 3jaar geen enkele moeite met 1,5gb ram met ATI kaarten.
heb het even geprobeerd met een Nvidia... elke 3 seconde hangt het beeld even...

voorkeur (sinds altijd al) ATI !
waarom kocht ik deze 9600gt magic eigelijk ?
Trek je deze conclusie nu alleen op basis van jouw ervaringen met 1 kaart of heb je meer argumenten?
tja, zo kan ik het ook. Jaren lang Nvidia gehad (vanaf een TI4600). Na een GF 6600 GT toch maar een X800 pro gehaald. Het ding presteerde goed, maar zodra ik uit een game alt-tab-de was de 2d acceleratie verdwenen en duurde het een halve minuut voordat ik naar de volgende pagina kon scrollen in een browservenstertje.

Sinds dien toch maar weer nvidia genomen...

Toch blijft, zowel mijn als jouw verhaal een situatie waarbij je een voorbeeld hebt van slechte functionaliteit. Mijn Nvidia kaarten zijn, behoudens een brakke 8800 GTX waar ik mooi een GTX 260 voor terug kreeg, nog steeds in leven en hangen nog in verschillende systemen. Jouw ATI kaarten werkten uitstekend. En zo blijft iedereen wel favoriet bij iets...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True