Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 115 reacties
Submitter: abusimbal

Intel en Nvidia hebben vriend en vijand verrast door een langlopende patentruzie te beslechten. De twee bedrijven zijn overeengekomen dat Intel in de komende zes jaar 1,5 miljard dollar betaalt voor het kunnen gebruiken van elkaars patenten.

Als gevolg van de deal krijgt Intel toegang tot alle patenten van Nvidia, waaronder de gpu- en supercomputertechnologie van deze fabrikant. Intel gebruikt onder meer Nvidia-technologie in zijn nieuwe Sandy Bridge-architectuur en kan dat als gevolg van deze samenwerking in ieder geval nog zes jaar blijven doen.

Nvidia krijgt op zijn beurt toegang tot het patentportfolio van Intel, zoals patenten voor het ontwikkelen van microprocessors en chipsets. Opvallend aan de deal is dat de x86-patenten van Intel voor Nvidia niet toegankelijk zijn. Er gaan al langer geruchten dat Nvidia zelf actief wil worden op de processormarkt; deze deal sluit uit dat die processor op basis van Intels technologie wordt ontwikkeld.

Tijdens de CES, eerder deze maand in Las Vegas, bevestigde de ceo van Nvidia, Jen-Hsun, al tijdens zijn presentatie dat het bedrijf geen x86-processor, maar een op de ARM-architectuur gebaseerd model ontwikkelt. De ARM-cpu's worden volgens Nvidia volledig geïntegreerd in Nvidia-gpu's. De ontwikkelingen voor dit project staan bij Nvidia bekend als Project Denver.

De twee bedrijven zaten elkaar al jaren in de haren over vermeende patentschendingen; een strijd die alleen maar feller werd door de opkomst van steeds krachtigere draagbare apparaten en de gewijzigde productieprocessen om de chips voor die apparaten te maken. Zo is Intel heer en meester op pc-gebied, maar heeft deze fabrikant zijn oog laten vallen op de smartphone- en tabletmarkt, terwijl Nvidia zijn horizon niet langer beperkt tot graphics, maar ook ruwe rekenkracht wil leveren.

De huidige patentdeal, die aan de basis van de ruzie stond, dateert uit 2004 en zou in maart dit jaar aflopen. Intel en Nvidia sloten op 18 november 2004 twee gerelateerde patentlicenties af; een patent cross license agreement en een chipset license agreement. De twee overeenkomsten waren volgens Intel bedoeld voor specifieke cpu-architecturen en zouden Nvidia niet de rechten geven voor de bredere definitie van 'Intel compatible'-chipsets, een markt waarop de fabrikant zich in de afgelopen jaren steeds meer begaf.

Intel claimde bijvoorbeeld dat de chipsetlicentie van Nvidia zich niet uitstrekt tot de Nehalem-architectuur, omdat de mcp's van Nvidia 'geen interface bieden tussen een Intel-processor en het systeemgeheugen'. Nvidia was het niet eens met Intels interpretaties van de licentieovereenkomsten, wat ertoe leidde dat de twee bedrijven elkaar over en weer aanklaagden. Met de nieuwe deal zijn ook al die rechtszaken meteen van de baan.

Moderatie-faq Wijzig weergave

Reacties (115)

Dit is goed nieuws voor de consument, maar niet voor AMD / ATi, want het betekent dat Intel zeer waarschijnlijk ook CUDA GPGPU gaat ondersteunen, met in diens 'wake' vermoedelijk ook PhysX. Daarmee zou de geintegreerde GPU van de SNB (en later Ivy Bridge) processoren wellicht al kunnen gaan ondersteunen bij CUDA/GPGPU en PhysX taken.
nVidia probeert al langer die (steeds volwassener wordende) platformen breder ondersteund te krijgen, maar AMD wilde hier niet aan meewerken tot nu toe (omdat het proprietaire nVidia technologie was en ze voor OpenCL wilden gaan, wat nu nog niet echt van de grond is)... Als Intel nu wel meespringt op die 'nVidia boot' kan CUDA / PhysX best wel de nieuwe defacto GPGPU standaard gaan worden.

[Reactie gewijzigd door Cheetah op 11 januari 2011 09:09]

AMD wil niet mee met CUDA en PhysX omdat NVIDIA die techniek gesloten wil houden en andere bedrijven + consumenten wil uitpersen om te kunnen gebruiken 8)7

OpenCL 1.1 zit trouwens al in Sandy Bridge aangezien ze die cpu's ook aan Apple willen slijten. Het is NVIDIA's technologie die niet van de grond geraakt omwille van bovenstaande redenen.

Fanboy much?
@ Rizon
OpenCL 1.1 zit trouwens al in Sandy Bridge aangezien ze die cpu's ook aan Apple willen slijten. Het is NVIDIA's technologie die niet van de grond geraakt omwille van bovenstaande redenen.
Dat OpenCL ondersteuning in een GPU/driver zit wil nog niet zeggen dat er een serieus ontwikkelplatform voor is en dat het door dev's gebruikt wordt. OpenCL implementatie in apps is nog praktisch nergens, terwijl CUDA inmiddels al door behoorlijk veel applicaties ondersteund wordt, en er al hele renderfarms en supercomputercentra zijn ingericht met CUDA technologie. Je loopt 2 jaar achter als je denkt dat CUDA nog niet van de grond is.
Fanboy much?
Mensen die dit soort opmerkingen maken als reactie op een rationeel stuk argumentatie - vooral in combinatie met opmerkingen als 'nV wil bedrijven en consumenten uitpersen' - kunnen meestal de hand in eigen boezem steken. Wie de schoen past...

@AHBdV hieronder:
Cuda was een leuke tussenoplossing, maar is een dood spoor. Alle gpgpu mogelijkheden zitten ook in DX11, hetgeen standaard in het mainstream OS zit.
DX11/DX-compute is 1.) platformafhankelijk (Windows), 2.) nog niet beschikbaar, en 3.) ten overvloede: zal dus alleen werken op Win7/8 PC's. Dit maakt het defacto te beperkt voor veel (GPGPU) developpers. Bijvoorbeeld voor apps in de grafische wereld, en voor serverapps. DX11/compute zal nooit werken op MacOS machines (die toch een relevant deel van de grafisch/professionele markt beslaan), en zal nooit werken op Linux machines (veel supercomputer oplossingen). DX-compute zal dus - in ieder geval voorlopig - niet de industriestandaard worden.

Als je nu serieus met GPGPU aan de slag wilt kun je haast niet om CUDA heen, gezien dit de enige optie is die een compleet geintegreerd OS-onafhankelijk ontwikkelplatform i.c.m. gespecialiseerde hardware en drivers bied, en waar al enige jaren ervaring mee is opgebouwd door dev's. Op universiteiten wordt de nieuwe generatie dev's momenteel opgeleid met CUDA.
En dat is blijkbaar exact waarom Intel nVidia die 1,5 miljard dollar betaald: I quote:
krijgt Intel toegang toegang tot alle patenten van Nvidia, waaronder de gpu- en supercomputertechnologie van deze fabrikant.
En die technologie heet CUDA.

[Reactie gewijzigd door Cheetah op 11 januari 2011 15:30]

Intel geeft net zoals de rest van de wereld niet om CUDA :)

In de markt van supercomputing is CUDA gewoon niets. Zelfs farms vandaag worden gewoon volgestoken met AMD's en maken dan gebruik van hun eigen API's. Als ik jou moet geloven steken ze NVIDIA kaarten met een sticker van AMD in die kasten.

Maar denk waar je zin in hebt. Je hebt duidelijk het beeld van de publiciteit in je hoofd en niet de realiteit.
Vergeet het maar. Cuda was een leuke tussenoplossing, maar is een dood spoor. Alle gpgpu mogelijkheden zitten ook in DX11, hetgeen standaard in het mainstream OS zit. Dat is véél flexibeler en breder toepasbaar dan cuda, én draait ook nog eens op alle hardware, i.p.v. alleen proprietair. Niemand die nu nog met cuda aan de slag gaat.
Helaas is directx nu niet echt een platformonafhankelijk oplossing, het is een slechtere keus dan cuda wat dat betreft.
Als 90% van de consumenten dat gebruiken is het geen probleem om DirextXCompute te gebruiken. Kijk maar naar DirectX zelf als voorbeeld.
DirectX 11 is even propriëtair als CUDA. Je doelt waarschijnlijk op OpenCL 1.1?
niet helemaal. direct compute van dx11 werkt op veel meer hardware. en iedereen mag hardware maken die direct compute ondersteund.
en het werkt op een OS dat op 95% of meer van de consumenten PC's staat.

zeker voor gaming toepassingen zoals physics en IA is het dus een goede optie.

neemt niet weg dat ik liever openCL zou zien.
denk een typo voutje cheetah...

Dit is geen goed nieuws voor de consument, maar niet voor AMD / ATi
Lijkt me dat Nvidia zou zijn eigen graf graaft. We zien nu al dat GPU in de CPU wordt embedded. Met de kennis die Intel nu koopt is een aparte grafische kaart helemaal overbodig voor 95% van de consumenten.
Nvidia zou zich dan op een ander markt segment dan Intel moeten storten.
Maar goed, veel keus hebben ze toch ook niet. Intel zal hoe dan ook de GPU wel sneller krijgen. Nu vangen ze tenminste iets zodat ze kunnen investreren in de CPU kennis.

Boeiend allemaal wel.
Helemaal mee eens, wanneer intel de grafische kant overneemt en gaat domineren zal de rest van de pc misschien wel volgen. Je koopt gewoon een Intel PC.
Dit zal niet binnen een jaar gebeuren.. maar toch..
De onboard grafische "kaart" gaat er wellicht wat op vooruit met de informatie die ze van Nvidia krijgen, maar de huidige onboard video is ook al goed genoeg om een filmpje op te kijken.

Zodra je het gaat hebben over spelletjes of meerdere monitoren zul je een echte videokaart nodig hebben. Dit lijkt me net zoiets als met geluidskaarten, onboard is prima en toch worden er losse kaarten verkocht.
Hangt er enkel vanaf hoe ver je gaat als fabrikant. Onboard geluid bijvoorbeeld kan je er ook een x-fi chip opplakken ipv de standaard realtek.

Uiteindelijk is het maar een chip en het is niet ondernkbaar dat je de krachtige GPU's in de toekomst ook als een chip op je moederbord koopt of waarschijnlijker in de CPU.
Voor de meest extreme hardware zal je altijd een extra kaartje zoeken voor taken of zelfs externe apparaten. Maar voor het gros van de markt (incl 99% tweakers) wordt het de toekomst. Die zie je vandaag bij Intel al in de consumentenmarkt opkomen.

Is een verhaaltje om je kleinkinderen te vertellen dat je het nog anders hebt geweten.
Zo werkt het in de ARM markt al tijden, je koopt als telefoon/tabletmaker geen losse ARM core met losse GPU en FPU units, je koopt een complete SoC van nVidia/Broadcom/Samsung/etc met alles in 1 package.
Ik denk dat voor iedere CPGPU, IGP of wat dan ook met nVidia technologie aan boord welke bij Intel de deur uitgaat een x bedrag naar nVidia gaat.
Net zoals AMD voor iedere CPU met x86 technologie een x bedrag aan Intel moet overmaken.
nVidia wordt hier echt niet slechter van.

Voor AMD is het een beetje een lullige situatie.
Ze hadden een technische voorsprong op Intel als het gaat om grafische performance met CPU's integreren, maar die voorsprong wordt op korte termijn "vernietigt" doordat Intel nu ongelimiteert in de schappen van nVidia mag shoppen.
AMD heeft simpelweg niet de financiële middelen om "even" dit soort deals te sluiten en was, als ATI niet was overgenomen, waarschijnlijk al overleden!
Een aparte grafische kaart is al helemaal overbodig voor 95% van de consumenten. En Intel heeft wat dat betreft weinig van Nvidia te duchten, want Intel beheerst zowat de helft van de markt voor grafische chips. De andere helft zit ongeveer 50-50 bij AMD en Nvidia, voor zover ik weet.

Oftewel, Nvidia zat sowieso al in een ander marktsegment dan Intel, daar verandert dit niets aan.
Da's mooi voor Nvidia.
Die gaan toch bezig met ARM en hebben nix aan x86.

http://www.intel.com/pres...s/2007/20070416comp_a.htm

Intel heeft wel de Xscale zooi verkoch aan Marvel maar ....
"The Marvell deal does not affect Intel's XScale-based IXPxxx and IXPxxxx network processor lines, nor its XScale-based IOPxxx storage processor line."
Intel bezit dus nogwel het een en ander aan ARM knowhow en patenten.

In het artikel staat.
"Intel gebruikt onder meer Nvidia-technologie in zijn nieuwe Sandy Bridge-architectuur
Vraag mij toch af wat dat dan is, kan mij aleen en licentie herinneren voor SLI gebruik door mobo makers zoals Asus MSI enzo..
Weet haast wel zeker dat er nix van nvidia in de Sandy-bridge gpu zit.

http://www.techspot.com/n...ics-for-sandy-bridge.html

Vraag mij af of we straks een Nforce 980i voor socket 1155 cpu's ? :P

[Reactie gewijzigd door r.stanneveld op 11 januari 2011 12:40]

Het gaat om patenten voor het maken van een gpu. Ik kan geen concreet voorbeeld noemen, maar de manier waarop de igp in de Sandy Bridge-cpu's zijn opgebouwd, is blijkbaar deels gebaseerd op patenten die in bezit zijn van Nvidia.

Anandtech is er ook vaag over, en zegt simpelweg dat er maar enkele manieren zijn om iets te doen met betrekking tot gpu's, en als je een gpu bouwt, kun je niet anders dan Nvidia's patent schenden. AMD is ook in bezit van dergelijke patenten, waar je niet omheen kunt, maar AMD heeft al een uitgebreide cross-licensing deal met zowel Intel als Nvidia.

Dus er zit niet zozeer Nvidia-technologie in de Sandy Bridge-igp's, zoals Nvidia's G80 of Fermi-architectuur, maar de igp's schenden wel patenten die betrekking hebben op gpu's, en die zijn in handen van Nvidia.
Weet haast wel zeker dat er nix van nvidia in de Sandy-bridge gpu zit.
Schijnbaar dus wel, anders zou nVidia er niet over vallen en nu deze overeenkomst bereikt hebben met Intel. ;)
Betekent dit dat beide partijen hier evenveel baat bij hebben of dat bijvoorbeeld nvidia door onder druk staande winsten en producten akkoord gaat met minder boetegeld? Dus dat 1 partij het eerder heeft opgegeven omdat ze wel moeten?
Het feit dat Intel betaald aan Nvidia geeft wel aan wie de grootste hoeveelheid waardevolle kennis in huis haalt..
Of wie het meeste risico liep rechtszaken over patentschendingen te verliezen...
Dit zegt niks over de hoeveelheid, beide partijen zien een mooie kans een groter marktaandeel te verkrijgen, dan besluit de top van beide partijen van dat er een overeenkomst gesloten zou kunnen worden, gesprekken over en weer, overeenkomst opstellen en na goedkeuring van beide kanten ben je een partner rijker :)
Op gpu gebied heeft intel wellicht wat minder kennis maar ook daar zit intel genoeg kennis, wellicht gericht op andere gebieden, de gpu kennis die er bij Nvidia zit, ondanks dat ze wat matig presteren nu, is natuurlijk wel heel uitgebreid.
Ze hebben aan AMD dan ook een geweldige concurrent die op dit moment de beste bang for buck en tot voor kort een tijdlang de snelste gpu had. Met de 6970 komt dat kroontje wel weer in handen gok ik.
Maar punt is dat beide partijen hier beter van moeten worden en niet alleen intel omdat ze kennis van nvidia krijgen. Wat dacht je van de integratie van cpu en gpu on die, of integrated graphics processors op laptop, nettops handheld enz.
Tel daarbij de miljoenen op die die rechtzaken hebben gekost en nog zouden kosten en je ziet waarom dit een betere deal is :)
Intel heeft een winst van meer dan 10 miljard per jaar. Dan valt die 1,5 Miljard wel mee.
kijk dat brengt potentie maar ook meer concurrentie voor ati.
als intel echt soort van onderliggende afspraken maakt met chipsets van nvidia dat nvidia kaartjes beter werken met intel cpu e.d dan een ati videokaart dan schiet dit niet op natuurlijk..

dan heb je straks intel systeem beste met nvidia kaart en amd systeem met een ati kaart..

[Reactie gewijzigd door 151407 op 11 januari 2011 09:01]

Dat verschijnsel zie je nu al opduiken; er zijn veel meer Intel chipset plankjes die SLI doen dan bij AMD chipsets. Ze verzieken de pc game markt hiermee, is mijn overtuiging. Nu al zie je spellen die alleen lekker draaien op een van de twee platforms, op de andere is de performance ruk; vooral in CF of SLI zie je dat goed.

[Reactie gewijzigd door Madrox op 11 januari 2011 09:10]

maar dat is toch ook helemaal niet erg, games worden gebouwd onder D3D of OpenGL welke om hun beurt de vertaalslag wel maken naar de GPU. wil je cuda dan heb je zowiso geen SLI nodig maar gewoon 1 of meerdere PCI-e sloten, die heb je ook op crosfire mobo's, verder is er weinig verschil tussen SLI en crossfire dus als je voor rauwe prestatie gaat, maakt het weinig uit of je nu een AMD of een intel platform neemt. (wat grafics betreft in ieder geval)
Moest CUDA nu toevallig geen Nvidia only technologie zijn :+
openCL of direct computer niet, en die zullen snel genoeg cuda geheel verdringen.
De ontwikkeling van 3d engines staat praktisch stil vanwege de console markt, betwijfel of het nog een issue is.
Heb je hier ook voorbeelden van? Ik heb tot nu toe vrijwel ieder spel prima kunnen spelen zonder problemen (en dan heb ik het niet over 30fps ofzo).
Mag je toch met voorbeelden komen hoor.

5jaar geleden had je dat heel soms. Vandaag enkel nog wanneer er iets aan de drivers van je kaart scheelt en niet omdat game developers het met opzet hebben gedaan.
Een mooie deal voor Nvidia lijkt me, ze krijgen 1.5miljard dollar over 6 jaar. Én ze kunnen verder gaan met het gebruiken van Intels patenten.

De deal is minstens zo mooi voor Intel die nu verder kan gaan met het gebruiken van de patenten van Nvidia in hun processoren. Wel weer zonde dat Nvidia geen toegang krijgt tot de x86 patenten. Die zijn immers ook wat waard...

Hopelijk leidt dit weer tot betere combinaties aangezien je van een 9400m in grafische kracht achteruit ging als je een i-serie processor in je nieuwe laptop liet leggen.
Als Windows 8 met ARM overweg kan hoef je niet persé x86 patenten te hebben. Dan kan je gewoon in een ander segment van de markt gaan zitten. Met een beetje geluk ook nog eens op de eerste rij omdat ARM voor windows nu pas net gaat komen.
Dan heb je nog altijd het probleem dat het merendeel van de applicaties gecompileerd zijn voor een x86 architectuur en die zullen niet draaien of onder emulatie. Voor tablets is het wellicht een leuke optie, maar de mainstream Windows gebruikers zullen bij Windows 8 nog steeds op een x86 architectuur werken.
Met .NET en Java is al een tijdje de trend gaande om applicaties onafhankelijk van de architectuur te maken, dit versneld dat proces alleen maar.
Slimme zet van intel en Nvidia want op de videokaart markt is het spannend en nu steeds meer GPU/CPU combie's. AMD met zijn Fusion techniek en intel met zijn Sandy bridge komen is dit voor beide erg voordelig om zo sterker in de markt te komen ten opzichten van AMD.

Dus we hebben nu AMD/ATI VS Intel/Nvidia en Nvidia/Intel Arm er dadelijk als nieuw bij op de markt.

Nu hopen dat de ondersteuning van AMD/ATI kaarten op Intel chipset goed blijft en we niet weer die spelletjes krijgen van slechte ondersteuning.
Helemaal fout.

Lees dit artikel maar: http://www.anandtech.com/...ney-fewer-problems-no-x86

De status quo blijft gehandhaafd. Intel gebruikt al patenten van Nvidia in zijn Sandy Bridge-cpu's. Intel gaat geen nieuwe producten uitbrengen die nog meer dan nu gebruik maken van patenten van Nvidia. Daar gaat dus niks veranderen.
Dat zeg ik ook niet dat Intel met nieuwe producten gaat komen

ik weet al dat er in de Sandy bridge Gpu onderdelen zitten en dat de patenten van Nvidea zijn en daarom zeg ik ook dat dit voordelig is voor Intel en Nvidea nu deze strijd voorbij is. AMD is voor beide firmas de directe concurrent dus die gaat hier last van krijgen.

wat ik wel verwacht is dat Nvidea met een soort van ARM CPU/GPU komt in de nabije toekomst nu ze toegang tot die Patenten van Intel.

thanks voor de link trouwens intressant stukje
Al lijkt dit een erg veelbelovende deal, ik hoop echt dat intel hier niet een oneerlijke concurrentie gaat verkrijgen boven AMD, AMD heeft het al moeilijk genoeg, en intel als enige speler op de markt gaat weinig goeds betekenen voor innovatie.
Ik vind het ook een slechte ontwikkeling om te zien dat nvidia zich onder intel schaart en ATI onder AMD, sterker nog, is nu zelfs 1 naam geworden.

Ik wil een PC omdat ik dan lekker veel keuze heb met hardware en als ik 2 goede bakken samenstel, dat ze gewoon nooit hetzelfde zijn.
Ik heb geen trek in een 'mac markt', waar alles 1 keuze is en fucking duur.

(Disclaimer voor mac fanboys: Ik zeg niet dat apple slecht is, ik heb alleen persoonlijk geen trek in hun type marketing en hardware uitbreng.)
Ik wil een PC omdat ik dan lekker veel keuze heb met hardware en als ik 2 goede bakken samenstel, dat ze gewoon nooit hetzelfde zijn.
Ik heb geen trek in een 'mac markt', waar alles 1 keuze is en fucking duur.
Daar kan (en zal imo) dit in de toekomst idd wel naar toe gaan. Intel zal zijn spullen 'extra' compatible willen maken met nVidia (maw Intel - nVidia zal in de praktijk beter werken dan Intel - ATI) om een concurrentievoordeel te creëren tov AMD.
Daarbij werkt dit ook nog eens kartelvorming in de hand (i.e. het wordt er makkelijk door)


Dit is eigenlijk slecht nieuws voor de consument. Nu Intel nauw samen gaat werken met nVidia zullen de 2 kampen steeds verder uit elkaar drijven. Ik ben zeer benieuwd waar dit naar toe gaat in de toekomst.
AMD heeft ATI gekocht en zet AMD op de nieuwe producten ipv. ATI. Intel en Nvidia werken nu "gewoon" samen.

Ik hoop zelf dat AMD het goed blijft doen zodat Intel en Nvidia echte concurrentie houden. Zou er nog wel zoveel vooruitgang zijn zonder AMD?
Moest gelijk denken of Nvidia weer chipsets gaat maken zodat je er een Intel CPU op kan prikken.

zouden ze dan wel bij de X64 patenten mogen,, sommige zijn via een deal met AMD verkregen, hoe gaat AMD daar op reageren ?

Ik denk ook dat dit aantoont dat het huidige patenten systeem ontwikkelingen afremmen.

je heb een product met een probleem, een 3e partij heeft daar een prima oplossing voor maak vraagt zoveel licentie geld dat jij amper netto wat verdient.

eigenlijk zou je een ontwikkelaar & patenthouder los van productie moeten scheiden zodat iedereen eerlijk een licentie kan afnemen en ze niet meer tegen een producent van chips set kunnen zeggen als je onze cpu's gebruikt mag je die andere producten van een concurrent van ons niet gebruiken.
nVidia heeft toegang gekregen tot de patenten waar Intel eigenaar van is. De patenten waar Intel een licentie op heeft staan daar denk ik los van.
Of ze zouden de duur van de patenten korter moeten maken. Op geneesmiddelen is het toch maar een jaar of 7 ? En hoe oud zullen de x86-licenties zijn? Als ze er 5 jaar van maken kunnen ze mooi een tijdje geld verdienen omdat ze de enige zijn met die bepaalde techniek, daarna kan iedereen hem gratis gebruiken.
Dat schiet ook niet op: in de auto-industrie kan er makkelijk 5 jaar zitten tussen een idee en de marktlancering van een auto met dat idee erin. Als een patent maximaal 5 jaar duurt, dan is het geldverspilling om dan automotive patenten aan te vragen.
Nou waarom? de concurent kan het toch ook niet van de 1 op de andere dag op de markt zetten! Dus een voorsprong heb je altijd.
Heeft te maken met de verwachte ROI op bepaalde spullen. Hoewel er inderdaad bedrijven zijn die er profijt uit halen, maar er zijn er ook die terecht die tijd nodig hebben.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True