Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties
Bron: X-bit labs

Het Chineestalige PCOnline heeft een aantal foto’s gepubliceerd van nVidia’s nieuwe generatie videochip, de G80. De specificaties van de chip zijn momenteel nog niet geheel bekend, maar uit de foto’s lijkt in ieder geval opgemaakt te kunnen worden dat het energieverbruik niet mals zal zijn. Op de foto’s zijn aansluitingen zichtbaar voor waterkoeling en verder heeft de kaart niet één, maar twee externe PCIe-stroomaansluitingen. Ook ATi’s nieuwe generatie videokaarten zal waarschijnlijk een flinke hoeveelheid energie verbruiken, de laatste geruchten spreken over 180 watt. Hoeveel watt de G80 maximaal verbruikt is onbekend. Verwacht wordt dat de G80 nog dit jaar, in november, geïntroduceerd zal worden.

nVidia G80 (complete kaart)
nVidia G80 (close-up stroomaansluitingen)
Moderatie-faq Wijzig weergave

Reacties (88)

Voor alle duidelijkheid dit schijnt de GTX versie zijn, er is ook een reeks foto's zonder waterkoeling .. van de GT ?

Voor de betere gossip & speculatie:

http://www.beyond3d.com/forum/showthread.php?t=33576
ik denk eerder dat ze 2 versies van de GTX uitbrengen. 1 met mogelijkheid voor waterkoeling en 1 zonder. Het zou imo een interessante oplossing kunnen zijn om niet je garantie kwijt te raken.
maar ik hoef zo'n kaart niet.
Koop een EVGA :+ Vervalt je garantie niet, zolang je bij RMA maar standaard koeler er weer op zet.
Wat mij opvalt aan deze foto, vooral de bovenste is dat de aansluitingen van de watercooling fake lijken te zijn. Door het zwarte transparante plastic van de cooler zie je dat de in, en uitgang direct aan elkaar verbonden zijn.
Ik kan echt geen mogelijkheid bedenken hoe de koelvloeistof door de heatsink gaat, dat stukje pijp is maar ongeveer 3cm.

Dus of deze werkelijk een werkend exemplaar is...?

Deze kaart lijkt mij wel behoorlijk van formaat, vooral de lengte. Is hier een goede reden voor? Een dual gpu zal hier niet makkelijk mee gemaakt kunnen worden lijkt me.
Het objectief is om het koel te maken. Als je duidelijk kijkt op het plaatje, die je wat beter kan zien op de grotere versie: http://www.xbitlabs.com/i.../2006-09/g80_card1_bg.jpg

Dan zie je dat de waterkoeling buis plat is aan de zijkanten en direct gekoppelt zit aan het koelblok. Als er dus tevens van het heatpipe principe gebruik wordt gemaakt (en er wordt duidelijk ook van echte heatpipes gebruik gemaakt), dan kan dit gemakkelijk de warmte ontrekken, zonder dat de waterkoeling buis zelf volledig door het koelblok loopt.

@dataghost, dat oppervlak op deze kaart is net zo groot als dat ie op de meeste CPU blokken is. De afstand tussen water in-/uit-gang is volgens mij zelfs exact hetzelfde. En dat waterbuisje hoeft echt niet helemaal omsloten te zijn (zoals bij een CPU) om de warmte af te geven aan het koele water wat er doorheen stroomt. Je vergeet dat er in dit geval ook nog een gigantisch koelblok aanhangt, wat er bij een CPU waterkoeler ontbreekt (behalve dan het blok zelf). En de normale procedure is voor de meeste mensen om een GPU in serie aan te sluiten, na de CPU, dus het koelwater is al niet erg koel meer. Dat zal ook wel één van de redenen wezen waarom nog steeds voor een groot extra koelblok is gekozen met ventilator. En de ventilator zal wel 'smart' wezen en alleen aangaan als die nodig is, dus voor opstellingen waar de waterkoeling wel genoeg is, dan staat ie gewoon uit.
Eh, het water moet de warmte ook nog af kunnen voeren he. Het oppervlak wat jij voorstelt is zo gruwelijk klein dat ik betwijfel of er uberhaupt significant meer wordt overgedragen dan zonder 'waterkoeling'. Waarom denk je dat bijv. alle cpu-blokjes een zo lang mogelijke 'gang' hebben door het blok heen in plaats van een directe punt-punt-verbinding? juist! om een groter contactoppervlak te hebben :)
Daar begint het blok lijkt me.
De ene kant erin, de andere kant eruit :P
Leuk, krijgen we nog meer gastjes op ons dak die net een nieuw kaartje bij de MM gehaald hebben en komen klagen dat ie niet lekker loopt op hun standaard HP voedinkje :+
Ik wist niet dat de MM kaarten van 650 euro verkocht :P
nee, die kosten daar 1300¤ ;)
Dit is echt niet gezond meer. Je moet gewoon bijna een aparte voeding voor je videokaart aanschaffen, zeker voor SLI en Crossfire.

NVidia en Ati moeten net zoals AMD & Intel niet alleen op prestatie letten maar meer op prestaties/watt....
Er is (no joke!) inderdaad een reele kans dat er standaard een externe voeding voor de videokaart word meegeleverd. Dit bestaat nu ook al, maar is optioneel voor als je voeding het niet trekt.

**Zucht** Zoals ik al zei, dit was dus NIET grappig bedoelt...

EDIT: Voor mensen die denken dat dit een grapje is, kijk bovenaan op dit plaatje.
Wat ik zo raar vind is dat CPU's de laatste 2 jaar steeds minder stroom gebruiken maar wel veel krachtiger worden, terwijl vga kaarten ook kleinere procedes gebruiken maar steeds meer stroom nodig hebben. En dan wil ATI ook nog 3 kaarten in je systeem stoppen om sli / (crossfire) te draaien+zwaartekracht etc te berekenen?

Ik hoop dat de quadcores die eraan komen zo'n taak over kunnen nemen, want ik heb geen interesse in dit soort kachels in mijn systeem. Wat moet ik eind 2007 gaan vertellen aan mensen die een lekkere gamebak willen hebben? 'Meneer u moet uw pc aan de kraan aansluiten als u spelletjes wilt spelen, of genoegen nemen met het 5000 RPM turbinegeluid'
Een lekkere gamesbak heeft zo maar 1 kaartje nodig hoor, en dan kan je eventueel (als het gunstig blijkt te zijn en daadwerkelijk wordt gebruikt in games) nog een 2de low- tot midrange kaartje in crossfire pluggen voor de physics berekeningen. Zo extreem hoog gaat je verbruik dan niet zijn lijkt me.
dit bestaat allang :P
of is iedereen de VooDoo 5000 collectors edition vergeten (of was het nou de 5500?)
water koeling en dan ook een ventillator erop??
hoop dat dit niet standaard is.....
waar gaat het heen op deze manier??
heb liever dat een 7900gtx uitbrengen die half zo veel gebruikt bijvoorbeeld laat ze zich daar is in verdiepen!!
Tja, Samsung en consorten willen natuurlijk graag dat iedereen HDTV capable schermen koopt met 1920x1200 pixels. Om op die resolutie de spellen van 2007 met alle eye-candy aan vloeiend te kunnen spelen heb je kennelijk niet genoeg aan een 7900GTX... ;)
Dit zal wel overbodig gemod worden maar moet het toch even kwijt: Ik vrees dat je (BvdD) gelijk hebt maar waarom zou ik in hemelsnaam op 1920x1080 een spelletje willen spelen als alles op het scherm nog steeds overduidelijk door een computer in elkaar gezet wordt? Ook die 'hype' wat betreft de consoles die HD beeldjes op het scherm kunnen toveren, ik snap het niet. Laat ze die grafische rekenkracht liever eens stoppen in het 'echter' maken van de virtuele omgeving en gebruik die voor betere belichting/schaduw, hogere polygoncount, mooiere bumpmapping etc. Wat heb ik aan 16xFSAA op HD resolutie als ik daardoor alleen maar duidelijker zie dat alles uit driehoekjes is opgemaakt en/of er voor alles behalve player models wazige textures zijn gebruikt? Zolang datgene wat er uit de computer komt vele malen nepper uitziet dan wat de kabel op mijn TV tovert @ 768 x 576 kan die HD resolutie mij gestolen worden...
mocht je de gelukkige bezitter van een 1920x1200 tft beeldscherm zijn dan ziet een spel er natuurlijk niet uit als je het niet in de nativ resolutie speelt, tenzij het beeldscherm zwarte randen rond de lagere resolutie komen, maar dat hebben niet alle tft schermen.

768 × 576 is wel erg klein hoor, 1280 ×1024 is wel wat leuker om te gamen ( 1024 × 768 desnoods dan )
@Splorky:

Tegenwoordig kunnen lcd-schermen heel goed opschalen, net zoals je met Photoshop bij het vergroten van een foto bicubic resizing toepast. De tijd van de verdubbelde pixels ligt achter ons :). Native resolutie gebruiken is geen noodzaak meer, zeker niet als je op 5 meter afstand naar een lcd van 1 meter staart.
Oh, ook als je dichterbij zit, is dat geen probleem. Ik heb een Dell laptop gehad met 1920x1200 16:10 scherm, geweldig beeld en gamen op 1280x720 ofzo was prima te doen. Zoals je zegt: het upscalen/downscalen ging erg netjes :)
"Laat ze die grafische rekenkracht liever eens stoppen in het 'echter' maken van de virtuele omgeving en gebruik die voor betere belichting/schaduw"

Zoals bijvoorbeel realtime raytracing.
Dit lijkt eerder op een prototype, waarbij het uiteindelijke ontwerp van de koeler nog niet gebruikt wordt. Die waterkoeling lijkt mij eerder om de maximumsnelheid te bepalen (kijken welke chipmodule eerst faalt en daar nog wat aan veranderen voor de volgende respin).

Ik heb nog 'monsters' van prototypes gezien van bepaalde systemen, waarbij het uiteindelijk product zeer netjes was...
...of het is een op waterkoeling aangedreven fan! :*)
lol idd... en daarbij nog een punt:
ik maar blij zijn dat mijn voeding 2x PCIe-connectoren heeft :P met dit ding kan je gewoon geen 2e graka erbij zette :P

maarja, good things cost big money (hoog verbruik in dit geval dus) }> :7
er zit een aansluiting op voor waterkoeling, ik denk dat je dan de fan kan uitschakelen wanneer je waterkoeling er op aansluit. anders kun je gewoon de fan zn werk laten doen, bijde lijkt me een beetje overbodig.
Het water moet ook gekoeld worden, dat gaat niet vanzelf, daar is die fan voor. Die draait alleen niet zo hard als dat hij de hele kaart zelf zou moeten koelen.
om je water te koelen gebruik je een radiator in je water-setup....
inderdaad je gaat niet een koeblok gelijk aan een radiator vast koppelen. die slang aansluitingen zijn bedoeld om de kaart op te nemen in een bestaand watersetup.
12 geheugen chips, zijn die vreemde 256+128bit geruchten toch waar.
Wat is er nou zo raar aan 12 geheugen chips? En waarom moet dit nou door de hele architectuur heen werken? Je kunt die 12 chips toch gewoon stripen naar je cache geheugen? en reken maar dat die gpu's als sinds tijden uit cache werken, en niet uit het video geheugen.
"Mogelijk eerste foto's van nVidia G80 verschenen"
Ik zie alleen een ventilator hoor! :+
Dat wordt volgend jaar lekker warm in het opblaasbadje zitten!. Waterkraan open, water naar de pc, water van pc naar opblaasbadje. Kwartiertje fraggen en vervolgens chillen in water van 35C. :)
Dit valt vies tegen zeg!
Het zal een hoop herrie opleveren om dat ding een beetje oke te gaan coolen.
En daarnaast nog een aaridg stroom verbruik.
Betaal nu al 90,- per maand aan de Nuon. :(
Dat is onzin!

Een grote koeler kan ook juist betekenen dat het ding geruisloos is, terwijl dat met een kleiner koeler niet mogelijk was...

Die grootte zegt helemaal niets over de herrie!
Helemaal gelijk! Een smallere koeler betekend over het algemeen een hoger geluid, terwijl een bredere koeler een veel lager geluid geeft, wat minder luid aanhoort.
En dan heb je het nog niet gehad over dat ze minder hard hoeven te draaien voor de zelfde hoeveelheid luchtverplaatsing.
De 12cm fans zijn de stilste in m'n hele pc.
Dan kom je er nog goed vanaf, ik zit >180,- p/m :X
Het gaat hier om een prototype dus aan de hand van de foto's kan je nog helemaal NIKS zeggen.
De Geforce 7900 GTX werd (wordt) alom geprezen voor zijn stille werking, dus ik denk dat ze er bij het uiteindelijke ontwerp van de Geforce 8800 GT(X) (dit is hoogstwaarschijnlijk een prototype) wel een stille koeler op zullen zetten.
het is niet gezond , slecht voor het milieu en ... duur..
kunnen ze geen keurmerk invoeren , verplicht ...dat ze onder de 50watt blijven ofzo...lijkt me makkelijk kunnen. 180Watt voor een videokaart is toch gewoon slecht ontwerp......volgend jaar zijn de kaarten 2x zo goedkoop en 4x zo zuining..dan kan het opeens wel?
Keurmerk is de consument in dit geval, als er vraag naar is zal het aangeboden worden en andersom precies hetzelfde.

Niets voor mij iig, ik blijf nog wel ff een tijdje doen met mijn 6600GT, meeste nieuwe games kan ik nog medium spelen met goede fps en dat is meer dan voldoende als ik alternatieven als dit zie.

Belangrijkste criteria voor mij waren een paar jaar geleden vooral de snelheid maar dat is langzaam veranderd naar zo veel mogelijk stilte en zo weinig mogelijk energieverbruik. En game-over als ik in de toekomst geen games meer kan spelen waar een videokaart voor nodig is met extra voeding.
http://en.wikipedia.org/wiki/CPU_power_dissipation

De lange termijn vermogen trendlijn van performance chips gaat in stijgende lijn. Bij elke nieuwe technologie stap is er weliswaar een dip(je) naar beneden, maar die dipjes worden elke keer kleiner.

Herinner je je nog de GeForce FX5800? De dustbuster? Indertijd werd er moord en brand verschreeuwd over zijn vermogen, terwijl die eigenlijk maar ergens rond de 60W lag.
Of de Pentium-60, toen hij ergens begin jaren 90 geintroduceerd werd? Die verstookte een gigantische 6 (!) *Watt*. Ongehoord.

De productie technieken blijven verbeteren, men kan grotere die's maken met betere yields en het aantal transistoren per mm2 blijft kwadratisch stijgen. Vroeger werd dat nog wat gecompenseerd door de kwadratische daling van vermogen omwille van spanningsverlaging, maar die tijd is al lang voorbij.

Eindresultaat: stijgende vermogens voor de topproducten. Met slecht design heeft dat weinig te maken. Fysica is een betere uitleg (in combinatie met cutthroat competition om het beste product te hebben.)

Dit effect is minder uitgesproken voor CPU's dan voor GPU's omdat CPU's een veel groter gedeelte van hun die met cache bedekken, maar de trend is net hetzelfde.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True