Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Bron: Aikiba

VR-Zone heeft samenvatting gepost van een stuk tekst op Aikiba's PC Watch over de NV30 core. Hierin wordt verklapt dat het stroomverbruik van deze chip 35 Watt is. Met 125 miljoen transistors verdeeld over een oppervlakte van ongeveer 200 vierkante millimeter (1,4 bij 1,4 centimeter) valt dat eigenlijk nog mee. Een gewone Athlon XP met 38 miljoen transistors op 80 vierkante millimeter kan makkelijk het dubbele verstoken. Toch is de enorme koeler met koperen heatpipe echt een verplichting. De kosten van eerste kaarten - die in januari worden verwacht - zullen echter ook om een andere reden hoog zijn. De printplaat is maar liefst 10 lagen dik, en een design met 8 lagen zit er de komende maanden niet in.

Het is al bekend dat NV30 1GHz GDDR-II geheugen gebruikt, terwijl ATi waarschijnlijk meteen zal overstappen naar GDDR-III. nVidia houdt het voor NV35 waarschijnlijk toch weer bij GDDR-II chips, maar dan wel op 1,4 of 1,5GHz. NV40 - met volgens Aikiba's schatting 200 miljoen transistors - zouden we in de eerste helft van 2004 kunnen verwachten. Volgens de huidige verwachtingen zal ATi zijn R350 en R400 chips dus voor respectievelijk NV35 en NV40 op de markt hebben. GPU-land gaat een spannend jaar in, met ongeveer ieder kwartaal een release van ťťn van de grote concurrenten.

GeForce FX chip

Lees meer over

Gerelateerde content

Alle gerelateerde content (27)
Moderatie-faq Wijzig weergave

Reacties (69)

In februari dus de R350 & GF FX. Waarschijnlijk zullen die ongeveer evensnel zijn.

In de zomer dan de NV35 & R400. Waarschijnlijk ook evensnel. Het "voordeel" van ATI is dat ze telkens een DX generatie voor zitten.
In februari dus de R350 & GF FX. Waarschijnlijk zullen die ongeveer evensnel zijn.
De nVidia GeForceFX zal rond februari voor het eerst op de markt te zien zijn, maar pas in maart zal de GeForceFX overal te koop zijn. De R350 volgt daarna en zal waarschijnlijk rond april worden geintroduceerd. Ik ben het met je eens dat de R350 en de GeForceFX ongeveer gelijk zullen presteren. Overigens denk ik dat de R350 gewoon GDDR-II zal gaan gebruiken, pas de R400 zal het met GDDR-III doen.
In de zomer dan de NV35 & R400. Waarschijnlijk ook evensnel.
De NV35 zal pas na de zomer te zien zijn. Aangezien nVidia iets aan het wegvallen is van de 6-maand cyclus en de NV30 niet voor februari op de markt ligt, is het goed mogelijk dat de NV35 zo rond september/october 2003 te koop is. De R400 zal ook zo rond die tijd volgen. De NV40 kunnen we pas in 2004 verwachten.
Het "voordeel" van ATI is dat ze telkens een DX generatie voor zitten.
Wat is het voordeel van het voorliggen op een generatie DirectX als die software nog niet eens uit is? De Radeon 9700Pro is nu al een tijdje uit en is DirectX9 compatible/compliant. Tot op het moment dat DirectX9 uitkomt heb je daar niks aan. Zo gauw DirectX9 uitkomt en de GeForceFX ook gelijktijdige, zie ik geen voordeel voor Ati.
Wat is het voordeel van het voorliggen op een generatie DirectX als die software nog niet eens uit is?
Marketing.
Marketing.
Weet de gemiddelde consument wat DirectX9 is?

Overigens zie ik vrijwel niks of zeer weinig terug over de ondersteuning van DirectX9 door de R300 gebaseerde kaarten van Ati. Ik ben toevallig vandaag nog een rij winkels binnengelopen voor kerstinkopen maar ik kan mij niet herinneren ook maar iets te hebben gezien over DirectX9 in de buurt van Ati videokaarten gebaseerd op de R300 kern.
Het stimuleerd ontwikkelaars om voor die nieuwe dX versie te ontwikkelen aangezien er een markt segment voor beschikbaar komt.

Als je wacht met DX hardware uit te brengen wachten ontwikkelaars er ook mee dat remt de vooruitgang

Dus wat nVidia toen met de G3 gedaan heeft en ATI nu met de 9500/9700(pro) is het stimuleren van migratie naar 'n DX9 markt wat gewoon tijd kost
je kan zelfs 2 generaties achterlopen qua hardwareondersteuning door de games en dat zal er niet beter op worden, vermits een goed afgewerkt game toch rap meer dan 1.5 jaar in ontwikkeling is. maw dat de devellopers al de hardware van 4 generaties te voren moeten kennen als ze alle features willen ondersteunen.

Ik vraag me ook wel af of de high-end kaarten nog wel genoeg opbrengen om hun productiekost te verantwoorden, want lang niet iedereen koopt om het halfjaar, laat staan om het jaar, een nieuwe GFX-kaart. maw als nvidia en ati zo door blijven gaan maken ze zichzelf kapot volgens mij
Ja enkele grote huizen zoals waar JC in zit hebben de luxe en budged om 3 jaar te ontwikkelen het gross zit met 'n strakkere deadline van 9MND tot 'n ruim jaartje

Hierdoor zitten we met zoveel game kloontjes.
Tenzij alle spelfabrikanten gaan denken als Carmack, we maken een spel dat over 2 jaar uitkomt, hmm hoe zouden de videokaarten er dan uitzien en hoe snel zijn ze dan? Dan werkt ineens nike meer als je 2 generaties achterloopt.
De games ontwikkelaars weten al wat ze in de toekomst kunnen verwachten omdat de specificaties voor directx 9.1 al klaar zijn. Net als dirextx 9.0 waarvan de specificaties een jaar geleden al bekent waren.

Vergeet niet dat bij veel spellen je vaak patchen kunt downloaden die nieuwe technieken in spellen zetten.
Als de warmteafgifte slechts 35wat is en dat dan nog verspreid over een redelijk groot oppervlak, dan vraag ik me wel af waarom een dergelijke (belachelijk grote) koeling eigenlijk noodzakelijk is?
hoe groter het oppervlak is, des te vervelender zijn temperatuurschommelingen.
Bij een gelijke tempstijging in het midden, krijg je bij een groter oppervlak een grotere trekkracht aan de randen. Hierdoor zou het silicium eerder kunnen scheuren. (eerder als in bij lagere temps)

Persoonlijk denk ik dat de nieuwe generatie chips mogelijk goedkoper geproduceerd kunnen worden door meerdere stukken silicium aan elkaar te verbinden in de chip-behuizing. Een beetje zoals bij de PentiumPro het geval was (cache en CPU waren gescheiden)
En het leuke is dat we nog een aardige weg te gaan hebben voordat we een fanloze pc hebben die ook nog is fantastisch presteert.
die kaarten worden zo wel belachelijk duur.
er moet wel een revolutionaire gesign hier na komen.

nu krijgen we dat 3DFX-effect ondergang door eigen succes.
Vergis je niet in wat mensen bereid zijn neer te leggen voor wat geile nummertjes!
Dat vraag ik me ook af. Hij kan wel veel energie verbruiken, maar dan heb je toch niet direct verplict enorme heatpipes & grote koeler nodig? Lijkt me dat hier nog wel iets aan zal weizigen.
Misschien ook marketing.
zo'n opzichtige koeler straald power uit dat goed gekoeld moet worden.

En men geeft ook aandag aan het optische van een koeler dus een mooi design.

Marketing dus.
hmmm ze hebben het idd over hoge prijzen maar wat is hoog..?
1ghz ddr, das echt geil gewoon, ben erg benieuw naar de prestaties hiervan :7
verder door de vele warmte minder goed overklokbaar benk bang, en grote koeling is veel herrie...

ik weet nog niet of dit wel de ideale kaart wordt ;(
Zal dus zwaar tegenvallen
1Ghz effetief maar +/- 16GB/s
600Mhz effetief maar +/- 19GB/s

omdat die DDRII 128bits wordt en DDRI al op 256bits is.
Busbreedte heeft niets met geheugentechnologie te maken hoor, Ati heeft gewoon een dubbel zo brede bus aangelegd, in theorie zou Nvidia dat ook kunnen doen, dat hebben ze alleen niet gedaan, wat ook wel te begrijpen is met een 10layer pcb(met 128 bits bus al)
Hij heeft het over 1Ghz en is impressed.

Ik heb het over rauwe memory bandbreedte
want er zit een addertje onder het grass de bus breedte.

jou argument slaat op niks:
ja nVidia kan ook naar 256bit gaan, zoals ATI ook naar DDRII kan gaan en heeft gedemůot en geverivierd is dat het in DDRII modus liep.

En HAcku3 ATI gebruikt ook compressie technieken dus die 48GB is nu nog maar marketing misleiding om die 16GB/s vs 19GB/s te verdoezelen ATI kan dat ook en komt op een nog hogergetal. 127GB/s

Beide gebruiken dus die technieken en we weten pas wanneer welke beter is na de reviews van 'n GFX vs 'n 9700Pro

iig heeft de GFX de Core Clock mee die zal hoger zijn en heeft grote invloed zeker op de performance in lage resoluties zonder FA & FSAA
en de GFX bied ook iets wat meer aan Hardware features de invloed daarvan is ook 'n ?.

ATI heeft dus 'n mem bandbreedte voordeel en dus bij gelijke efficientie technieken 'n betere performance in hoge resoos met FA & FSAA

dus welke membandbreedte efficientie techniek is beter dat zullen we maar afwachten want dat is dus nog onbekend.
nVidia gebruikt een compressie techniek waardoor max 48GB/s mogelijk is.
Je trapt in verkoop praatjes....
Ati heeft ook compressie technieken hoor. Dat wat jij zegt is iets dat nVidia gezegd heeft, ati heeft daar net zo flauw op gereageerd als nVidia en cliamde iets van 48 GB/sec.
Dat zijn dus de snelheden die nodig waren geweest als het niet gecomprimeerd zou worden.

Ik vind die heatpipe zwaar overdeven. Ik vind gewoon als iets zo hevig wordt gekoeld het eigenlijk niet klopt. (Zo kan elke processorfabrikant ook een 4 Ghz processor uit gaan brengen, maar dan moet je wel stikstof cooling gaan gebruiken :z.)
Ik denk dat dit veel mensen van de koop afhoudt doordat er zo'n 'ufo' op zit die ook nog een pci slot inneemt. Ik hoop dat er andere fabrikanten zijn die andere koelers gaan gebruiken, van wat normaler formaat. Laten we hopen dat de non-ultra versie een sowieso wat minder logge cooler krijgt.
Ik denk dat dit veel mensen van de koop afhoudt doordat er zo'n 'ufo' op zit die ook nog een pci slot inneemt


Als je goed op de foto kijkt zie je al dat daar dus al rekening mee gehouden wordt.
Je moet hem dus met twee schroeven vast zetten.
op deze site : http://www.de.tomshardware.com/cpu/02q2/020615/via_c3_1ghz-03.html

Is te lezen dat een Intel Celeron 1.4ghz evenveel energie verbruikt als de GeForce FX zou doen.

Een celeron is best goed te koelen met een goede heatsink en een stille fan
Alleen heb je voor een celeron de ruimte om te koelen. De videokaarten hebben die ruimte niet omdat er meteen een pcislot naast zit.. Tot nu toe hebben de videokaart fabrikanten nog leuke oplossingen gehad. Maar er komt een moment dat we 1 of 2 pci sloten moeten opofferen om de videokaart te kunnen blijven koelen..

Verder heeft ATX een groot nadeel.. De koelblok op een videokaart zit op de kop. En warmte stijgt op. En blijft tegen de kaart aan hangen.. * 786562 4pox
Ja, nu je het zegt :)

Zouden ze de proc niet eens aan de andere kant kunnen zetten? Daar heb ik nog wel een beetje ruimte over :) Als je dan gewoon de rest van de componenten aan de huidige kant zet, kan je de proc lekker makkelijk koelen.
Ja maar wat dacht je van 1u servers ? die worden ook goed gekoeld met lage koelers !
Zet maar een GF4 in een 1u server, dan loopt het met die koeling ook wel uit de hand...

Beetje off-topic...okay...klopt... :D
De koelblok op een videokaart zit op de kop. En warmte stijgt op. En blijft tegen de kaart aan hangen.. * 4pox vond isa niet eens zo gek
Dan zet je je PC toch ondersteboven :D
Exhaust-fan in de top ehhh bodem en opgelost is je warmte probleem :)
Ieder kwartaal een nieuwe release. Ik poneer hierbij de Wet Van MarsAttacks (tm)(c) : ieder kwartaal verdubbelt de frustratie na het kopen van een nieuwe videokaart.
Weet je wat een voordeel is dat de kaarten elkaar nu dus zo snel op gaan volgen dat de oudere goedkoper worden. Toen ik mijn Gigabyte Radeon 8500 deluxe kocht was hij bij release 350 euro,bij de release van de 9700 was de 8500 Gigabyte gezakt tot rond de 150 euro. Als die R350 uitkomt zal de 9700(pro) schat ik ook snel in prijs gaan dalen.Tevens zijn er nog geen eens spellen die de hele potentie van de 9700 gebruiken,laat staan de potentie R350 en NV30/35.
Denk persoonlijk dat je eigenlijk beter een generatie Top kaart kunt achter lopen,qua prijs/kwaliteit en budget.
ik denk ook dat de 9700 ook flink gaat zakken, ze kunnen 't leien want ze hebben al maanden van de mensen met een flinke buidel kunnen profiteren.. dan is 't nu tijd om keihard te concurreren met nvidia door hem goedkoop in de markt te plaatsen ! :)
StroomVERBRUIK is Watt. VERBRUIK = warmte afgifte = energie = Watt.
Stroomsterkte is Amperes
STROOM-verbruik is in Ampere-uur (Ah)
eisbear heeft (deels) gelijk
Maar in een maatschappihj waar alle termen en afspraken worden verkracht (voltage, amperage of waneer een nieuwe eeuw begint) wordt stroomverbruik vanzelf weer correct
(zo hoor ik af en toe nieuwslezers sterke werkwoorden zwak verbuigen)
Als ik het goed heb dan kost die geforce 55 euro per jaar aan elektriciteit als de pc 24/7 aanstaat...
Beetje meer nog, want dit is dus alleen het verbruik van de GPU. Niet die van de rest van de componenten op de kaart. En je mag er wel vanuit gaan dat ook de koeler er wel pap van gaat lusten. Dus doe hier nog maar rustig zo'n 20% bij. Trouwens, ik kan me verder nog voorstellen dat een GPU die alleen maar een screensaver vertoont niet het max vermogen gebruikt. Dus dan is het weer veel minder. Want hij staat natuurlijk nooit 24/7 voor 100% te werken.

Tenslotte vreet mijn Volcano9 bij max toerental ook 8,4 Watt om zijn rondjes te maken. Maar bij een laag toerental 'slechts' 2,4 Watt.
Ehm...de term stroomVERBRUIK wordt volgens mij in de elektrotechniek niet echt gebruik, en dan hoogstens om het aantal Ampere aan te geven wat een apparaat trekt, dus dan is het gewoon in Ampere (A).
Ampere-uur is geen eenheid van stroom-verbruik, maar een eenheid van elektrische lading (om precies te zijn 3600 Coulomb). Dit wordt voornamelijk gebruikt om aan te geven hoelang een accu/batterij meegaat.
Onnodige post .. moddereer me weg hier s.v.p.
Stroomverbruik in watt? Stroomverbruik is in amperes. Ik zou het kopje even wijzigen in Vermogensdissipatie GeForce FX core 35 Watt.
Oeps je hebt gelijk ... sorry ik had jouw post niet helemaal goed begrepen toen ik dit postte.

Behalve dat je stroom niet kan verbruiken. Iets kan alleen een bepaalde stroom trekken/hebben (Je harddisk trekt 2 ampere op het 5Volt kanaal. Vermogen is dan 10 Watt) Vermogen kan wel (ge/ver)bruikt worden. En dan kan je het vermogensdissipatie of gewoon vermogens(ge/ver)bruik noemen.
Ik was zo van slag van vooral de post onder je en de moeheid tijdens de post dat ik een paar grote blunders maakte.

Over de posts hieronder:
StroomVERBRUIK bestaat dus niet.
AH is idd capaciteit/lading, Japps.
Als je het vermogen wilt weten wat een batterij jou kan leveren voor een bepaalde tijd dan vermenigvuldig je z'n nominale spanning met z'n capaciteit (AH). Dan krijg je zijn leverbaar vermogen voor 1 uur. (V*A*H) Dit is de zelfde eenheid als je electriciteitsrekening (V*A=W, V*A*H=WH, en doe je dat in 1000-tallen krijg je KWh.)
Als je die geforce een jaar aanlaat (8544 uur) dan kost dat 8544h*35 W= bijna 300KWh. Dan heb je de verliezen van de voeding nog niet erbij. Kost 1KWh bijna 0,20 euro?
Ik ben dan 400 euro per jaar aan electriciteit kwijt per computer die ik hier heb staan als de computer 250 van de 300W vermogen die de voeding kan leveren verbruikt. (8544h*250Watt = 2MWh) En dan tel ik geen monitor.
Wat ik nou niet snap is waarom ze die gpu nou niet aan de bovenkant van zo'n kaartje maken...
Dan is ie veel makkelijker te koelen!
Omdat dat niet kan.

Om te beginnen is daar bij de ATX formfactor geen rekening mee gehouden. In de ATX formfactor is er rekening mee gehouden dat een videokaart slechts enkele millimeters aan de bovenkant uit steekt. Als een videokaart hier vanaf wijkt dan past hij niet meer in alle systemen.

Een tweede reden is de hitte. Met de GPU naar boven ligt het voor de hand de hitte ook naar boven te dissiperen. Maar wat zit daar? Juist, de CPU, de allergrootste hittebron in de gemiddelde computer, dus daar kun je die warmte eigenlijk helemaal niet kwijt.
http://www.tweakers.net/nieuws/23521/

Denk dat we in de toekomst maar rekening moeten gaan houden dat we standaard maar een pci slot moeten missen op het moederbord.

Maar zo erg is dat eigenlijks ook niet meer.. De huidige moederborden hebben nu toch alles al onboard..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True