Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties
Bron: Ace's Hardware, submitter: T.T.

De mensen van Ace's Hardware hadden tijdens CeBIT de mogelijkheid gehad om met nVidia te babbelen en wisten op deze manier een tweetal interessante stukjes informatie te achterhalen. Het eerste brokje informatie gaat over de nForce-chipset. Het blijkt dat nVidia heeft overwogen om moederborden uit te rusten met een socket voor de videochip, maar dat bleek niet haalbaar te zijn. Moederborden hebben te weinig ruimte, het geheugen kan moeilijk dicht genoeg bij de chip geplaatst worden en het feit dat de meeste moederborden meestal slechts 4 layers dik zijn maakt het jammer genoeg onmogelijk.

nVidia Logo (graphics^n)Het tweede punt gaat over het energieverbruik van de toekomstige videokaarten. Als je dacht dat de 75W die de GeForce FX kan verbruiken veel is, dan heb je, je vergist. nVidia verwacht dat GPU's binnenkort een energieverbruik boven de 120W kunnen krijgen. Hoewel nVidia mogelijkheden zoals SOI heeft onderzocht om het energieverbruik omlaag te brengen zullen deze technieken niet in de nabije toekomst toegepast worden.

Moderatie-faq Wijzig weergave

Reacties (52)

nVidia verwacht dat GPU's binnenkort een energieverbruik boven de 120W kunnen krijgen.
Sodeju! Dan mag je een beste voeding erop hebben zitten! 120 Watt is echt enorm veel voor een GPU! Weet iemand waarvoor al deze stroom nodig is?
dat is dan weer lekker, heb je een P4 en zoon ding.... krijg je een beste stroomrekening, 24/7 aan laten staan.
Ach, misschien krijg je dan met kerst een bedanktkaartje van je energiemaatschappij... :)

Maar je hebt wel gelijk ja. Daarom is een tweede PC, speciaal voor het downloaden, wel interessant. Pas geleden heb ik ook een PC gebouwd gebaseerd op een Via Epia bordje. Voor het gamen heb ik mijn Athlon, maar voor het downloaden (24/7 aan) heb ik die Epia. Nou, ik kan wel zeggen dat het veel scheelt op je energierekening hoor.
Het zou fijner zijn als ze iedereen zo'n kaart met kerst kado zouden doen... Soort van verkapte sponsoring }>
Als jij 24/7 3D Mark laat draaien krijg je inderdaad een leuke stroomrekening, maar gelukkig gebruikt hij die 120W alleen op z'n piek en volgens mij draai je doorgaans spelletjes niet continu op het maximum van je videokaart aangezien spellen geen continue load veroorzaken. Je wil dat je videokaart aan de max kan voldoen, dus hij kan de minder zware delen met gemak aan. Vandaar dat hij doorgaans veel minder gebruikt.

Daarbij komt nog het feit dat je videokaart al dat 3D geweld in windows/Linux niet nodig heeft om ff je desktop weer te geven :)
Als ik nou een voeding koop van 450 watt en maar net aan 300 watt gebruik trekt die voeding dan nog steeds 450 waat uit de muur of is kan een voeding van 450 waat gewoon max 450 watt aan?
Dat is maximum natuurlijk! Waar zou die voeding anders met dat vermogen naartoe kunnen??? Die Wattage moet in ofwel hoge spanning/kleine stroom ofwel lage spanning/hoge stroom omgezet worden, dus die kan niet meer trekken dan nodig. (P = U*I)
s' Winters bespaar je het nog uit op je stookkosten maar in de ozmer gaat die airco toch echt staan loeien. Dus om de kosten te besparen toch maar naar het zwembad en een kleurtje krijgen?
de beeltjes op je scherm pompen :o
de beeltjes op je scherm pompen
Het zijn toch echt pixels die op het beeldscherm worden gepompt.
zo'n chip op je moederbord zou wel ontzettend cool zijn!
Dan heb je een CPU en een CPU op je mobo.
Als die chip dan ook nog eens gebruik zou kunnen maken van je intern geheugen, kan je echt een dikke videokaart bouwen! Een kaart met 1024 MB enzo :9

En 120 Watt?!?! Hoe moet je dat ooit koel houden!?
Een Athlon TB is als nauwelijks onder de 45 graden te houden, en die is "maar" 80W ofzo.
Nee NVidia, ik denk niet dat dit een verstandige zet is, om zo je kaarten te bouwen. Ik zou maar iets langer onderzoeken naar nieuwe technieken en die-verkleining enzo... :X
Als die chip dan ook nog eens gebruik zou kunnen maken van je intern geheugen, kan je echt een dikke videokaart bouwen! Een kaart met 1024 MB enzo
Waarom denk je dat er nu geen videokaarten op de consumentenmarkt (dus geen WildCats e.d.) zijn met meer dan 256 MB aan geheugen. Omdat het allereerst niet nodig is. Bij de meeste games zijn de textures simpelweg niet groot genoeg om een dergelijke hoeveelheid geheugen te rechtvaardigen. Ten tweede is het geheugen dat op je videokaart geprikt zit over het algemeen aanzienlijk beter, dus kortere latencies, hogere bandbreedtes. Kijk maar eens naar de Radeon 9800 Pro: 340 MHz DDR-2 met een 256 bit brede bus. (PC2100/ 2700/ 3200 maakt gebruik van een 64 bit brede bus). Kortom een bandbreedte van (340E6*2*256)/ (8*1024*1024*1024) ~=20 GByte/sec tegenover ~= 3,2 GByte/sec voor PC3200 (what's in a name). Kortom, dat zou hardstikke onbetaalbaar worden om "fatsoenlijk" geheugen te gaan gebruiken. Shared memory is vaak als een aanhangwagen achter een Ferrari.

Vaak zit je natuurlijk nog met die irritante AGP bus. Het gaat hier om GPU's die je in een socket op je moederbord plaatst. Om die GPU's compatible te houden voor gebruik in normale videokaarten zullen ze toch met de chipset moeten communiceren via een AGP bus protocol. Nog een extra bottleneck voor je geheugen (langere latencies + lagere bandbreedte). Een IGP van de huidige nForce 2 chipset zit in principe ingebakken in de Northbridge en hoeft dus niet een AGP bus protocol te hanteren om te kunnen communiceren met de northbridge en kan sneller met het geheugen communiceren. Dit afgezien van de dual-channel geheugen controller die zelfs voor een videokaart een redelijke bandbreedte levert voor een low/ mid-end videokaart.

[Reactie op Plague] Over een tijdje heb je i.d.d. DDR-2 voor je moederbordje, maar wat heb je dan misschien wel niet voor je videokaart? DDR-3? Videokaartgeheugen voor de high-end kaarten is de laatste jaren altijd sneller geweest dan high-end systeemgeheugen[/reactie]
Maar je hebt na een tijd toch ook snel geheugen? Over een jaartje word DDR|| al op de markt gebracht voor op mobotjes. Dus waarom zouden we niet snel geheugen op ons mobotje prikken?
Dan kan je je systeem echt extreem overclocken, omdat dan je geheugen overclocken niet alleen gewoon sneller is, maar je videokaart word daar ook een stuk sneller van.
AMD heeft al een Northbrigde op de Athlon64/Opteron. What's next? Een videokaart ingebakken?
Ik denk het wel. Laptops etc. worden steeds kleiner. Ergens moet ruimte bespaard worden. Dat wordt op de GPU denk ik.
Zie de Centrino, die heeft ook al WiFi etc. onboard. Allemaal ruimte besparend.

Ik denk echt dat ooit alles onboard zal zijn. Dan misschien wel, zoals een processor, uit zijn socket haalbaar.
Consoles en PC's gaan naar elkaar toe groeien tot een multimedia doos. Boven heb je je PC, beneden kan je draadloos gamen op de TV en in de studeerkamer kan je internetten. Dat allemaal op de zelfde PC gelijktijdig. Dat is de toekomst volgens mij. :)
Ik denk echt dat ooit alles onboard zal zijn. Dan misschien wel, zoals een processor, uit zijn socket haalbaar.
Ik denk dat dit niet voor de nabije toekomst is: want ik denk dat ze niet zo'n hoge yields halen bij het zodanig verkleinen van al deze dingen, dus zal het toch voordeliger blijven om gewoon nog met extra kaarten te werken.
Dit is mss toch voor de verre toekomst (in pc-termen dan), wanneer men het 0.065Ķ-proces goed onder de knie heeft bv.
and de hand van je post kwam ik erachter waarom ze in hemelsnaam je GPU op het mobo kwijt willen..
ik wou nl eerst onnozel reageren dat je dan toch gewoon eenzelfde soort koeling op je GPU plaatst als dat op je CPU zit? (ja ik weet het dat gaat ten koste van al je PCI sloten, dat was het onnozele eraan)... maar als je dat ding op het mobo plaatst is er wel ruimte voor een koelkast op je GPU.
Ik vraag me alleen af of ATI het hier mee eens is, een 9700 heeft toch minder koeling nodig dan de FX ultra. om nog maar te zwijgen hoe ze dat denken te aanpakken in laptops.. :P wordt er dan een dynamo bijgeleverd dat als je beeld wil hebben je dan gewoon wat harder moet fietsen?
ze moeten gewoon de kaart andersom bouwen. Koeler aan de bovenkant, misschien zelfs 1 koelsysteem dan voor zowel cpu als video.
helemaal niet de kaart omdraaien, de fan/koeler staat juist naar beneden om daar koude lucht aan te zuigen, koudere lucht is zwaarder als warme lucht. maar wat ze wel zouden kunnen doen is een soort van koude lucht onder aanzuigen en dan de warme lucht aan de achterkant van de kaart wegblazen.
Ze hebben het hier wel over de hele videokaart, dat is voor de nabije toekomst kan dat best wel eens bestaan uit een GPU, 256+MB geheugen, eventueel nog aparte mpeg2(4?) encoders/decoders, TV-out-in en firewire (DV).

Natuurlijk blijft het wel heel erg veel warmte, die toch je kast uitgevoerd zal moeten worden. Misschien dat het
Ik ga ervan uit dat in ieder geval 75% van het energieverbruik van een videokaart door de GPU zelf voor zijn rekening genomen wordt. Dus 75 tot 100W alleen voor de GPU. Dit is meer dan de heetste athlon of P4.
En 120 Watt?!?! Hoe moet je dat ooit koel houden!?
Misschien dat nVidia een verbintenis sluit met Cryotech voor standaard stikstofkoeling ;)
Alleen het nadeel is wel dat het geheugen niet zo snel aanspreekbaar is als direct op de videokaart zoals een losse videokaart.
120W???? Dat ligt al ver boven het gebruik van een gemiddelde (onoverclockte) hedendaagse CPU!

Hoe wil nVidia die ooit gaan koelen? standaard 3 pci slots innemen? Speciale stellages om de kaart in op te hangen?

Ik zie het al voor me:
This card is compatible with the following standardized water cooling units:
...
Of natuurlijk een Zalman achtige oplossing met dubbele heatpipe en 4 fans of zo
ze zuipen tegenwoordig al energie genoeg en die koeling maakt ook een lawaai van hier tot Tokoyo (bij de nieuwste nvidia dan)...
Dat wordt nog lekker met die 120W binnenkort...
Is een enorm energiegebruik niet een beetje een teken van een argitectuur die een beetje brak is?
Nvdia zegt dat ZIJ zoveel wattage nodig hebben. Ati gebruikt toch beduidend minder? Of hadden ze alleen stillere koelers? Als dit waar is lijkt het me dat Ati de komende tijd de winnaar is, totdat Nvdia weer op een wat realistischer ontwikkelpad komt. Wel jammer want ze hebben een hele goede naam natuurlijk, maar sinds de FX5800 zijn er veel mensen die zich verbazen over de wel erg duidelijke gebreken.
Ik krijg een beetje het idee dat Nvidia de weg kwijt is als het gaat om de warmte afgifte van haar GPUs..
Als ATI betere chips kan bouwen die minder warmte afgeven, waarom gaan ze dan nog door met zulke absurditeiten?
Is het een ego-boost gewodren ofzo?
Zo van "De mijne verbruikt 120W!"
(+2 ego)

Als het gaat om high-end kaarten (juist die zijn het die zoveel verbruiken), moet je toch een beetje je klanten te vriend houden, en in dit geval weten die er toch vaak wat meer over, en gaan dus klagen over warmte en geluidsproductie t.o.v. de prestaties.
De mid- en low-end sectie doet er op zich niet zo toe, dat is vooral massaproductie voor de onwetenden, en die zijn over het algemeen goed te koelen geweest, maar als je high-/top-end kaarten gaat produceren die meer verbruiken dan de verlichting in m'n kamers, en tegelijk gebruikt kunnen worden als straalkacheltjes, dan is het volgens mij vragen om moeilijkheden..
Zeker als je concurrenten hebt die letterlijk cool blijven ;)

Die aparte GPU op het boederbord zou op zich wel interessant klinken, maar zoals al gezegd is, is dat gewoon niet praktisch. PCBs zijn te 'dun', en volgens mij kom je dan ook niet met erg voordelige frequenties uit, tenzij je een aparte bus+geheugen d'r in bouwt. GPU geheugen is nogal niet wat anders dan ge 'gewone' RAM.. Maargoed, Nvidia zal het op zich wel beter weten dan ik, denk ik ;)

Je zou wel een soort driehoeksverhouding in kunnen bouwen met je videogeheugen, GPU en CPU ofzo..
Interessante ideeŽn in dat gebeid, maar misschien gewoon niet haalbaar..

Maarja, ze proberen het tenminste.. Zonder dit soort ideeŽn komt er van innovatie ook niet veel terecht :)
120 Watt is behoorlijk veel. Ik denk ook dat waterkoeling hier als enige een echte stille oplossing zal leveren.

Maar goed, als je PC alleen staat te downloaden, verbruikt hij dan ook die 120 Watt? (Op die toekomstige kaarten dan)

Want bij mij persoonlijk begint het zaakie pas lekker heet te worden tijdens een zwaar spel, dus geloof ik niet dat ie het volle vermogen ook trekt door simpelweg alleen Windows.
Of heb ik dit nu verkeerd?
Jammer dat de GPU op het moederbord niet haalbaar is. Aan de andere kant ook wel begrijpelijk. nVidia maakt nu videokaarten die 12 layers dik zijn, en ATI levert 10-;layer dikke kaarten. Als een mobo maar 4 lagen heeft, zullen toch heel veel draadjes nog ergens weggewerkt moeten worden.

Bovendien is het gehuegen van videokaarten veel sneller dan het DDR of zelfs DDR2 dat nu beschikbaar is / ontwikkeld wordt voor de huidige mobo's.

Tot slot is de AGP-poort te klein. getallen heb ik hier niet voor, maar de hoeveelheid data die naar het scherm toe moet, kan niet door de huige AGP-poort worden geperst.

Wellicht wordt het in de toekomst wel mogelijk. Het zou leuk zijn als je alleen een GPU hoeft te vervangen als upgrade, en als het wat makkelijker wordt om een grote voeding op je GPU te planten (die minder in de weg zit).

In de toekomst zie ik het nog wel gebeuren. 1 mobo met de mogelijkheid allemaal losse chips erop te planten (netwerk, raid, geluid, video enz.), en standaard alle mogelijke benodigde uitgangen ;)
Hebben we niet AGP 8x om extra informatie door de bus te pompen? Ik geloof niet dat AGP al op het einde van z'n kunnen ligt.

We heb ik ergens gelezen dat er over niet al te lange tijd er een opvolger gaat komen voor AGP.
Ik denk dat dat wel mee zal vallen. 120W is erg veel, en hooguit bij de meest extreme kaarten (ze gaan toch niet onboard) nodig.
Gelukkig heeft niet elke PC dat nodig, want door al dat energie verbruik zijn we al voor 2040 door onze voorraad olie etc.
brr, maar goed dat mijn PC niet richting de halve kilowatt gaat...
offtopic:
Om een beetje leuk met die kaarten te werken moet je verplicht in de koelcel van je lokale slager gaan zitten of er zelf eentje aanschaffen...

ffe bij 2dehands.nl plaatsen :
Gezocht koelcel minimaal plaats voor 1 persoon en een berg computer zooi... Pas op de koelcel moet in staat zijn mijn grafische kaart tot een aangename temperatuur te verlage anders heeft reageren geen zin

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True