Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: The Inquirer

nVidia logo (nieuwe stijl, kleiner)Geruchtenmachine The Inquirer schrijft dat nVidia hoopt een kloksnelheid van 600MHz te halen met hun nieuwste generatie videokaarten gebaseerd op de NV40-core. Hoewel de eerste revisie van de chip op slechts 300MHz liep is nVidia positief gestemd. De tweede revisie die aan het eind van deze maand uit de fabriek komt moet een kloksnelheid halen van 450 à 550MHz en uiteindelijke hoopt nVidia terecht te komen op 600MHz. Naast het high end-model, waarvan nVidia hoopt dat het op 600MHz zal lopen, zullen er nog tweetal langzamer geklokte versies verschijnen van de NV40 met zachtere prijskaartjes.

Moderatie-faq Wijzig weergave

Reacties (49)

Zouden ze niet beter op meer pipelines kunnen mikken. Zo kunnen ze met een lage kloksnelheid toch veel performance hebben.

De FX serie is niet al toe koel te noemen en ik vrees met grote vrezen dat de NV40 nog heter gaat worden dan zijn voorgangers.
meer pipelines = meer silicium = meer stroom verbruik.

en meer mhz voegt zelf niet echt meer warmte toe, tenzie ze, om die mhz te bereiken het voltage omhoog doen.
Hoezo is meer silicium= meer stroomverbruik.

De chips van tegenwoordig zijn veel kleiner dan vroeger en toch worden ze veel warmer.

Zie 486 @ 50 MHz vs een P4 2 GHz.....

Het aantal MH'z en voegt WEL warmte toe.... hoe hoger de kloksnelheid hoe vaker de transistoren etc moeten schakelen. Zij zullen daardoor warmer worden.

De temperatuur wordt juist grotendeels door het aantal transistoren, de kloksnelheid en de voltage bepaald.
Ja sorry hoor, maar jij had het over silicium en niet over transistoren. De die is tegenwoordig kleiner dan vroeger, dus er is gewoon minder silicium gebruikt, dat is een feit, dus je tweede stelling "meer silicium = meer transistors = meer warmte" gaat hier ook niet op.

En ik wil niet lullig doen over de MHz'en, maar neem een willekeurige CPU en meet hoe warm deze wordt. Vervolgens gooi je het aantal MHz'en omhoog en laat de voltage gelijk. He, hij wordt warmer!

<font color=#786562>* -=Nitro=- vraagt zich af of jij ooit een CPU hebt overkloked?
</font>
en de 486@50 vs p4@ 2ghz slaat nergens op.
vergelijk het aantal trancistors op eens op die 2 eens.
Die vergelijking gaat wel op. Ik reageer op jou stellen "meer pipelines = meer silicium = meer stroom verbruik."

De 486 is groter van afmeting --> meer silicium
aangezien er minder transistoren in de 486 zitten wordt deze minder warm dan de P4 ja, maar jammergenoeg rep jij met geen woord over transistoren in je eerste post....
ik ging er vanuit dat het ze het op de zelfde process grote gingen maken of je now voor meer mhz gingen of meer pipelines en dan is het waar wat ik zei want : meer silicium = meer transistors = meer warmte

maar meer sicilium is ook meer verbruik. de grote chips ver vroeger hadden meer stroom nodig per transistor dan nu het geval is. (intels 90nm CPU gaat hier tegen in maar dat is door een ander probleem, namelijk lekstroom, die groter word naarmaten het process kleiner word)

en ja mhz voegt warmte toe maar het verschill tussen zeg 500mhz en 600 mhz is verwaarloosbaar, en daar hebben we hier dus over. ok met OC-en, zolang je het voltage niet verhoogt gaat je temperatuur ook niet noemenswaardig omhoog

en de 486@50 vs p4@ 2ghz slaat nergens op.
vergelijk het aantal trancistors op eens op die 2 eens.
bekijk het eens eenvoudiger:
hoe meer transistor-schakelingen binnen een bepaald tijdsinterval hoe meer warmte geproduceerd, de grootte van die extra warmte wordt bepaald door de grootte van de transistor.
Wie zegt dat dat niet het geval is?

De geruchten molen heeft het over een 6x2 of 12x1 architectuur. Eerst werden nog 8x2 of 16x1 genoemd, maar dat zal wel teveel van het goede zijn.

De grootste vraag is echter hoe de shaderperformance zal zijn.
hoeft niet.
de hitte kan op hetzelfde nivo als nu liggen.
misschien iets meer dat zien we wel als hij er is.

immers is een P4 3gig niet 3 keer zo heet als een P3 1gig of wel?

dit is immers de volgende serie.
Nee, de snelheid is niet rechtevenredig met de warmte prouctie, maar tenzij er een dieshrink plaats vindt zal de temperatuur hoogstwaarschijnlijk hoger liggen dan eerst. Zelfs met dieshrink is dat vaak het geval omdat ze dan gelijk de kloksnelheid weer opvoeren naar het maximum.

[reactie op scinnerEd]
In het artikel van de inquirer gaan ze voor een 8 pipeline concept. Ik mag hopen dat dat 8x2 gaat worden dan, want anders is het droevig gesteld met deze chip.
Zou idd mooi zijn, in dit draadje zitten een paar mensen dicht bij het vuur, maar het zekerheidsgehalte is nog steeds geen 100 % ;)

http://www.nvnews.net/vbulletin/showthread.php?s=&postid=268773#post26 8773
de chips zelf zijn nu al supergroot (meer dan 100 miljoen transistors), meer pipes zou de chip nog veel groter maken, wat de yields heel waarschijnlijk (toch zeker in het begin) enorm zou verlagen
een kleinere chip heeft ook als voordeel dat ze meer chips per silicium schijf hebben = meer opbrengst per schijf + grotere productiecapaciteit
Legolas_1973 is de smerige benchmark praktijken van nVidia nog niet vergeten
Maar die van ATI kennelijk al wel ;)

Dat Nvidia relatief lui was is niet zo vreemd. Als je gewoon de beste in je marksegment bent, is er ook geen reden om zo snel mogelijk te vernieuwen. Nu dat ATI Nvidia voorbijstreeft moeten ze bij Nvidia weer laten zien wat ze kunnen. Toen ze net doorbraken met hun TNT en TNT2 serie volgende de ontwikkelingen elkaar in hoog tempo op.

En dat ATI altijd verder was in DX support is onzin. De GF4 serie was niet helemaal 100% DX 8 compliant, maar had wel ondersteuning voor andere functies die ATI weer niet had. Opzich is dat niet erg nuttig omdat meerdere standaarden nooit goed zijn voor spel ontwikkelaars. Maar dat kaarten nu al de standaard van morgen ondersteunen is net zo kansloos. Alsof tegen de tijd dat die standaard in de spellen verschijnt, jij nog met je 'oude' beeldkaart die spellen kan spelen.

Het is veel belangrijker dat kaarten van nu, goed presteren in huidige games en het redelijk doen in toekomstige releases. Al was het maar om consumenten te stimuleren regelmatig te upgraden. Hoewel er vast wel een boel mensen zijn die dan beginnen te klagen dat ze steeds weer moeten upgraden omdat hun oude kaart de allernieuwste spellen niet meer kan draaien :Z
Ik dacht dat DX het probleem van de standaarden voor z'n rekening moest houden en niet omgekeerd, of ben ik verkeerd?
Ik bedoel: DX is toch bedoelt om algemene instructies naar instructies voor jouw 3d kaart te vertalen?

is beetje off topic maar goed :)
tja, als ik 600 euro neertel voor een UBERkaart verwacht ik eigenlijk dat ie over 4jr ook nog redelijk de nieuwe spellen draait. Zo'n kaart kan fysiek makkelijk 4jr mee, maar na 3 jr is je uberkaart al tijp voor het museum. Daarom koop ik zo'n kaart ook niet; kan wel wat beterz verzinnen voor mijn euro's.
Naast het high end-model, waarvan nVidia hoopt dat het op 600MHz zal lopen, zullen er nog tweetal langzamer geklokte versies verschijnen van de NV40 met zachtere prijskaartjes.

dit deel is leuk om te lezen.
dus met een beetje geluk koop je de goedkoopste van de 3 en kunt hem met wat geluk lekker omhoog clocken?

maar ja wat si zacht. maar klinkt interessant.
nVidia vond ik altijd goeie shit, de Geforce'n destijds waren prachtig... maar op de een of andere manier daalt deze bewondering elke dag een stukje verder.
Het lijkt er op dat als een fabrikant eenmaal aan de top heeft gestaan ze het idee krijgen dat ze heer en meester zijn en er met de pet naar gaan gooien. Ze worden verslagen door een andere partij en vervolgens zie je de ene stomme zet na de andere. Doet me toch wat aan 3DFX denken, ooit was het prachtig en dacht je dat er nooit wat beters zou komen, en dan ineens vallen ze in een graf die ze eigenlijk zelf gegraven hebben.
Ik gun het nVidia nogsteeds, maar mijn interesse is wel sterk gedaald, wat eveneens gold voor de Voodoo reeks die ik sinds de Voodoo3 niet meer kon waarderen. Hier zie ik hetzelfde gebeuren met de FX serie die mij duidelijk heeft laten zien hoe verkeerd een product kan uitpakken. Vooral koppigheid en te sterk blijven geloven dat jij het beste product hebt... dit werkt op den duur niet meer, je moet wel je klanten tevreden houden en toe willen geven dat je product eens wat minder goed uit de verf is gekomen. Daarnaast zie ik momenteel bij ATi een duidelijk stijgende lijn. Ze zijn alsmaar beter geworden terwijl nVidia me steeds meer begon tegen te vallen. Laten we hopen dat ze nu met een goed concurerend product op de proppen komen. Ik heb er niet zo veel vertrouwen meer in, ze moeten dit keer wel duidelijk laten zien dat ze het 'WEL' kunnen. Als we binnenkort weer hetzelfde verschijnsel gaan tegenkomen in het voordeel van ATi kan nVidia nog wel eens zwaar in de nesten komen te zitten. De kans dat nVidia de komende jaren geheel verdwijnt hoeven we echter niet te verwachten lijkt mij. De kans dat ATi bij consumenten op nummer 1 komt te staan schat ik wel groots in.
En hoe zit dat met de hitte? Je kan er straks waarschijnlijk een ei op bakken...
Dat kan al bij 65 graden (dank voor de correctie Piet), dus da's niet zo heel extreem. Als je er water op kan koken wordt het pas echt problematisch :P.

Serieus: ze gebruiken een 0,11 micron procede in plaats van het 0,13 micron van NV30 - NV38, dus dat geeft weer wat extra ademruimte. Bas: ademruimte kun je natuurlijk op twee manieren zien. Of je gebruikt dezelfde techniek maar dan koeler/kleiner, of je gebruikt snellere/complexere techniek zonder (veel) heter te worden.
Niet als ze er (zoals waarschijnlijk) nog heel veel meer transistoren in gaan stoppen. :)
Eiwit stolt bij 60 klein nulletje C en eigeel bij 65.
Dus hoe wou jij een ei bakken bij 42?
(Ja, bij 42 gr kamertemperatuur en dan in de pan op het vuur).
Klopt en daarom is het zo gevaarlijk als je lichaamstemperatuur daarboven komt. (Koorts)
Eiwit stold bij 60 graden celsius? Nu is mijn kennis biologie welliswaar gedateerd, ik ben echter wel van de mening toegedaan dat eiwit al stold bij 42 graden celsius en hoger.
Correct me if i am wrong.
:?
Als je er nu een ei op kunt bakken hoeft het niet zo te zijn dat de nieuwe variant ook zo " warm" wordt.

BTW. Wat is warm?
Als een apparaat 100 Graden kan worden, en met 75 graden lekker door draait, dan is het toch niet erg als ie 50 graden wordt?.

Als de kaart echt 80 graden wordt is het wel te hoog omdat andere onderdelen van de pc ook opwarmen, maar ik denk dat de warmte wel mee valt.
Warm is het als er een gigantische fan op moet die ook nog eens veel herrie maakt!
Natuurlijk is die 80mm-fan ruimschoots voldoende om een videokaart te koelen, hij verplaatst zelfs op lage toerentallen immers veel meer lucht dan zo'n kleine lawaaimaker.
Het enige nadeel aan die relatief grote fans, is dat je een grotere "dode zone" hebt: dit is de zone vlak bij de fan die ter hoogte van zijn draaias zit. Daar komt weinig of geen luchtverplaatsing, waardoor er speciale constructies nodig zijn om deze op een videokaart te monteren: wanneer deze vlak tegen de core geplaatst zou worden, zou er juist 1 deel van de kaart zijn die niet goed gekoeld zou worden, nl. de core }:O.
Het is nog altijd het beste om zo'n fans vanop een afstandje te laten blazen op/langs je kaart.
Een gigantische fan?...
Hoe groter de fan (met lage toerentallen natuurlijk), hoe beter dus. Je hebt dan tenminste geen stofzuigergeluid. :Y)
Een gigantische fan?... gewoon een 80x80mm en dan Temperatuur Controlled, dus ongv 1800 RPM in Windows 2D omgeving en 2100 in 3D games.

Een goed opgevoerde FX5600 maakt best veel warmte, met deze fan is het goed te koelen, en stil :9
En hoe zit dat met de hitte? Je kan er straks waarschijnlijk een ei op bakken...
dat kan je nu al :+

maar hopen dat deze kaartjes een beetje leuke prijs/kwaliteit verhouding hebben...
strax krijg je gewoon watercoolers voor je je core-processor en je video-processor, je soundcard processor en je raid-processor etc.

Eigenlijk zouden ze de computer van scratch opnieuw moeten uitvinden.

Gewoon een een soort ATX-moederbord, waar leidingen al ingegoten zitten, en dan moeten de pci- en AGP kaarten zo gemaakt worden, dat de processor op het koelgedeelte komt.
Dat komt eraan..
BTX heet het :)

Eindelijk een nieuwe standaard die voor een betere Airflow zorgt..

Nog een groot voordeel: je PCI (Express) kaarten zitten precies andersom.. dus je warmte kan beter naar boven...

hier ff een linkje:
http://www.tweakers.net/nieuws/28817/?highlight=btx

En trouwens.. Je raidproc hoef je echt niet te coolen.. tenzij je een of andere heftige (scsi)raid controller hebt.. maar dat voldoet meestal wel met een klein heatsinkje.. ( Zie bv de LSI Elite 1600 O+ )
tsja; 'vroeger' konden videokaarten ook met een klein heatsinkje gekoeld worden. --> dus dat zou betekenen dat over een aantal jaar je raidproc ook een fan nodig heeft?

maar het is wel zo dat eerst andere onderdelen aan de beurt zijn idd (volgorde?: cpu, gpu, northbridge, hd,?)
CPU-cooler, GPU-cooler, GPU-cooler, HDD-cooler bedoel je?
De RAID processor zelf hoeft volgens mij niet geWC'ed te worden ;-)

Alle anderen heb ik al, tijd inderdaad dat ze een nieuw model gaan uitvinden. Maar dan niet ATX, daar zijn we net vanaf ;)
Om eerlijk te zijn, ik heb nooit last gehad van warmte. (P4 2Ghz met alu kast.) Maar de maximum temperatuur wordt in mijn kast ook niet hoger als 30 graden.

Ik kan alleen niet wachten totdat de nieuwere generatie videokaarten uitkomen. Zal wel deze zomer zijn.
deze kaart zou er samen met de ATI 420
eind maart begin april zijn (in de winkel)
ze worden gepresenteerd op de CEBIT beurs.
Ik vind hoge clockpeed wel enigszins interessant, maar een verbeterde architectuur tov de FX is veel belangrijker. Hopelijk kunnen ze Ati deze nieuwe ronde wel aan/overtreffen, en hebben ze niet weer veel hogere clockspeeds nodig om Ati te kunnen bijhouden. Maar goed, hoe en wat zullen we pas bij de eerste reviews weten.
En hopelijk zullen ze zich dit keer wel aan de standaarden houden, zodat bedrijven weer gewoon ARB2 en DX9 kunnen programmeren ipv code speciaal voor Nvidia te moeten wijzigen.
@omixium

Het moet allemaal nog betaalbaar blijven eh, dus het moet de volledige kapitalistische cirkel doorlopen, die kan je niet zomaar stop zetten en zeggen we gaan een nieuwe cirkel beginnen ...
De NV40 wordt dus max 600Mhz, en waarop gaat de R420 van Ati op draaien??

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True