Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: Reuters

Nvidia wil met de introductie van ge´ntegreerde gpu's voor het desktopplatform van Intel een einde maken aan de dominantie van de chipmaker. De GeForce 7150, 7100 en 7050 moeten de Intel G35-gpu doen vergeten.

nVidia GeForce-logoOp het AMD-platform heeft nVidia met zijn gpu-serie een marktaandeel van 62 procent weten te veroveren, maar AMD heeft slechts 5 tot 10 procent van de desktopmarkt in handen. Momenteel heeft nVidia een aandeel van 1 procent op de markt voor Intel-moederborden.

De drie nieuwe GeForce-gpu's, die direct op het moederbord geplaatst worden, zijn compatible met de huidige Intel Celeron-, Core 2- en Pentium-processors. Ook belooft nVidia dat de gpu's met de in november verkrijgbare Penryn-cpu's overweg kunnen.

De technische gegevens van de GeForce 7150, 7100 en 7050 zijn nog onbekend, maar volgens Reuters zal nVidia dinsdag meer details bekend maken. Wel is duidelijk dat de prestaties ongeveer op het niveau van een losse videokaart uit de budgetklasse zullen liggen en de gpu's gericht zijn op desktop-pc's met een verkoopprijs van 400 tot 600 dollar.

Moderatie-faq Wijzig weergave

Reacties (37)

Kunnen ze dan beter niet met Intel gaan samenwerken zoals AMD en ATi (ook al is Ati overgekocht dat dan wel), ipv er tegen proberen op te boksen :?
Zullen ze er minder geld in hoeven te pompen en het rendement zal hoger zijn.
Of zouden ze dan bij AMD 'verbannen' worden? Is AMD niet redelijk afhankelijk van nVidia?
misschien dat nVidia dit wel wil, maar intel is een tijdje geleden begonnen met z'n video chip afdeling nieuw leven in te blazen, dus het lijkt mij sterk dat intel er interesse voor heeft
de vraag is eerder of intel nVidia wel mag overnemen, intel z'n marktaandeel zou dan misschien te groot worden waardoor de overheden dan misschien wel een verplichte splitsing zouden eisen
nVidia, Intel en ATi zijn de drie grote spelers op de GPU-markt. Ik denk niet dat nVidia er veel in zal zien zijn krachten met Intel te bundelen, zeker niet omdat Intel een veel groter bedrijf is dat ook op andere markten (CPUs, bijvoorbeeld) actief is.
AMD heeft met de overname van ATi er voor gezorgd dat ze zelf chipsets kunnen bakken voor hun eigen processors. Zo zijn ze niet afhankelijk van andere fabrikanten die misschien Intel niet voor het hoofd willen stoten en kunnen ze ook zelf nieuwe functies op de markt brengen.
Waarom zou nvidia dat willen? Nu behouden ze mogelijkheden op beide markten.
Klinkt mooi allemaal, maar hoe zit het met het stroomverbruik? Ik denk dat in de goedkope pc's de snelheid van deze chips niet echt belangrijk is. DVD tje kijken kan je altijd wel. Maar stroomverbruik/wartme kan wel een verschil uitmaken voor de levensduur. :)
En dan nog de opensource drivers die Intel wel heeft maar Nvidia niet. Dit is de reden waarom ik 2 Intel desktops heb staan en specifiek voor een Intel laptop heb gekozen.
Ik heb zelf ervaring met de NVidia 6100 on board Video werkt perfect en zuinig. Volle belasting met Sempron 2500+ 50 Watt, gemeten via het netsnoer. Helaas geen Open source driver maar hun driver werkt wel perfect.

De AMD versie van de GPU wordt ook in notebooks gebruikt. http://www.nvidia.com/object/mobogpu_nb.html Het verbruik zal daarom best meevallen.

Mijn ervaring met de Intel GPU's is dat ze erg langzaam zijn tov de concurrentie ook on board GPU's.
Da's mijn zelfde ervaring. Veel tralala en reclame maar als je ze onder handen neemt zijn het gelimiteerde beestjes met bagger drivers en mag je blij zijn als nog iets van je systeem reactief is tijdens het spelen van fullscreen media. 't is maar mijn ervaring. Misschien dat iedereen slechts word met zijn computer draait. Maar het woord krep past goed bij die intels... Dat ze liever eens een enthousiast videokaart integreren in de chipset of cpu. Nu gaat meteen iedereen zeiken, maar plasbeertjes, wat heb je liever.... een knaller van een gppcpu, waar delen dynamisch zijn in de taken die ze aan kunnen.. dus een optimaal systeem of de illusie dat je een top videokaart hebt in een systeem waar de bus de bottleneck is die alles blijft vertragen?

Ik hoop dat dat fusion concept flink doorzet en de videokaart een meer gespecialiseerde unit wordt, als hij uberhaupt overleefd. Van mij mag dat ding wel de prullebak in.
.. liever eens een enthousiast videokaart integreren in de chipset of cpu.
Per definitie zijn Enthousiast kaarten los, zodat ze naar behoefte 1) gekozen kunnen worden 2) ge-upgrade kunnen worden.
Zogauw het on-board is wordt het standaard :)
Wat is het negetieve aan het ontbreken van een os-driver?
Ter informatie: de Pentium-processor die in het artikel genoemd wordt is de "Pentium Dual Core" wat concreet een Core 2 Duo is met een kleinere cache. Dus niet de Pentium 4.
Nee, met de Pentium wordt hoogst waarschijnlijk de Pentium D bedoeld. Deze processor is inderdaad een dual core processor maar nog gebasseerd op de Netburst technologie (Pentium 4) en heeft niets met de Core technologie te maken laat staan met de Core 2 technologie.
Inderdaad deze cpu´s kom je veel tegen in de low end systemen van de OEMs. Op zich prijstechnisch ook wel begrijpelijk voor ons kosten ze niets, laat staan voor de OEM bouwers. Wat wel eeninteressante ontwikkeling is dat ze juist de lowend 7xxx serie lanceren ipv 8xxx serie. Wat maakt de 7 serie hier meer geschikt voor tov de 8 serie? Zeker gelet op het tijdstip dat deze daadwerkelijk vrijkomen zal tegen die tijd de 8 serie ook al een heel eindje uitgemolken zijn.
Als ze 2 DVI uitgangen krijgen, dan moet dit ruim voldoende voor een volledig OpenGL geaccelereerde Twinview desktop zijn!
De drie nieuwe GeForce-gpu's, die direct op het moederbord geplaatst worden, ...

Ben ik die zin TE letterlijk aan het lezen om te hopen dat je even in de winkel gpu gaat kopen en hem zelf monteerd? :?
Ja, je neemt het te letterlijk, de mobo fabrikant plaatst deze. 'Geintegreerd'. Er zal geen socket zijn waar je hem zelf inkan zetten.

[Reactie gewijzigd door blueskin1978 op 24 september 2007 11:03]

Het lijkt me logischer dat ze door de mainboard fabrikant vast gesoldeerd zullen worden, en in een waarschijnlijk utopische situatie een eigen voetje krijgen opdat je ze later kunt upgraden.
Ja, door middel van een PCI-E aansluiting kan je ze direct op het moederbord plaatsen. :)

Waarschijnlijk net zo direct als bijvoorbeeld de northbridge waar die in geplaatst wordt, oftewel je leest het te letterlijk.
Dat lijkt me wel! In de titel staat ook "geintegreerde GPU"

Het zijn dus mobo's met geintegreerde GPU, waar je natuurlijk nog wel een gpu bij kan prikken.
moeten de Intel G35-gpu doen vergeten
Is de conditio sine qua non hier niet dat deze al te verkrijgen is, laat staan ge´ntroduceerd? Ik kijk er al lang naar uit, maar heb tot op heden nog geen enkel moederbord gezien waarop deze ge´ntegreerd is. Wel de G33, die redelijk goed scoorde, maar niet de G35...
En nu nog zorgen dat de ge´ntegreerde gpu's kunnen samenwerken met losse graka. Of bijvoorbeeld dat de losse graka alleen wordt gebruikt in games. Of in elk geval pas als de ge´ntegreerde gpu het niet meer trekt.
Geintegreerde gpu's zijn iig niet gemaakt om te gamen.. ofja.. misschien een dos game ;)

Gemiddelde gamer koopt toch al wel een videokaart in de prijsklasse 100 - 250 euro dus voor een pc gamer zal deze ontwikkeling weinig uitmaken, 't zou wel leuk zijn als een geintegreerde gpu kan samenwerken met een losse videokaart! Dan heb je alleen verbetering, maarja, een geintegreerde gpu gebruikt vaak geheugen van de pc.. ofwel je pc wordt een tikkeltje trager! ;)
tegenwoordig is geheugen zo goedkoop dat het helemaal niks uitmaakt.
even een vraag: Als je 4GB geheugen hebt en je gebruikt een x86 OS dan kun je niet al het geheugen gebruiken toch? als je dan een ge´ntegreerde GPU hebt dan heb je toch 3,4GB + 256MB voor je geintegreerde GPU? of is het dan 3,4GB - 256MB?
Haal je nog niets mee uit... Omdat de bandbreedte van je geheugen altijd een beperkende factor blijft met onboard videokaarten. Het is gedeeld, en het is lange na niet snel als echt videogeheugen waarop de chip directe toegang tot heeft.

Leuk gedacht, maar zo werkt dat niet :D
De mobo's van tegenwoordig zitten al behoorlijk vol met dedicated chipjes voor vanalles en nog wat. Het zal wel een klus gaan worden voor de ontwerpers om deze er ook nog bij te plaatsen en te routeren. Ik denk dat een simpel slot makkelijker in te passen valt.

Ben wel erg nieuwsgierig naar de prestaties en of deze chips ook nog steeds SLi ondersteunen.
Hoezo een klus? Er worden nu toch ook al on-board gpu's gebruikt. Waarom zou het ineens zoveel moeilijker worden als ze nu van een andere fabrikant komen dan Intel?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True