Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 98 reacties
Bron: The Inquirer

Het gerucht dat de ATi Radeon X800 Pro net als de NV40 zestien pipelines heeft is volgens AnandTech niet juist. Alleen voor de X800 XT-videokaart, die op 31 mei uitkomt, zullen alle pipelines van R420 geactiveerd worden. De X800 Pro zal twaalf werkende pipelines hebben en de X800 SE zal het met acht pijpen moeten doen. Ondertussen heeft The Inquirer in de gelekte ForceWare 60.72 ontdekt dat GeForce 6800 Ultra inderdaad de uiteindelijke naam van NV40 wordt. Verder weet de site te melden dat het beestje in totaal maar liefst 150 tot 160 Watt aan vermogen door twee molexconnectors en het AGP-slot naar binnen slurpt. nVidia zou dan ook een 480 Watt-voeding aanraden voor systemen die van een NV40 worden voorzien.

Hoe de koeling eruit komt te zien op de uiteindelijke kaarten is nog niet helemaal duidelijk. De reviewsamples zouden een koelinstallatie hebben die ongeveer even groot is als die van de GeForce FX 5950 Ultra, maar dan een stuk stiller door het gebruik van een heatpipe. Er circuleert echter een persfoto van de kaart waarop een veel compactere koeler te zien is, die slechts ťťn slot in beslag neemt. Naar verluidt heeft nVidia de snelheid van de core verlaagd van 475 naar 400MHz, mogelijk om de uiteindelijke versie wat stiller en zuiniger te krijgen. Ook de 1,2GHz geheugenchips zouden niet op de eerste kaarten te vinden zijn omdat deze snelheid GDDR3 nog niet voldoende geleverd kan worden. In plaats daarvan wordt 1,1GHz geheugen gerealiseerd met 1GHz-chips. The Inquirer speculeert dat nVidia de grotere koeler die op de samplekaarten gebruikt wordt in een later stadium alsnog in zou kunnen zetten voor de verkoop, bijvoorbeeld om de snelheid van de core weer te kunnen verhogen.

nVidia GeForce 6800 Ultra (NV40) ATi Radeon X800 Logo (kleiner)

Lees meer over

Gerelateerde content

Alle gerelateerde content (25)
Moderatie-faq Wijzig weergave

Reacties (98)

Wat denken ze nou 480w voeding, even een NV40 aanschaffen en dan ook nog 100+ euro neerleggen voor een PSU van 480w die ook nog van kwaliteit is.
Inderdaad. En 100 - 160 W erin betekent ook 100 - 160 W eruit aan warmte. Dat wordt samen met de Prescott een aardig kacheltje en het zal steeds lastiger worden een stil systeem te bouwen.
Dat aantal zal niet allemaal in warmte eruit komen.
Maar zo'n vermogen is belachelijk.
Uiteindelijk gaat iedere vorm van energie over in trilling van atomen en molekulen. Geluid is al een trilling, maar wel zodanig dat deze trilling doorgegeven wordt in het medium. (Golven dus) Licht diffundeert en exciteert atomen die op hun beurt soms fotonen met lagere energie uitstoten (infra-rood; warmtestraling dus).

In elektrische circuits is het enige wat je doet lading rondpompen in buffertjes. Deze buffertjes hebben weerstand die ervoor zorgt dat stromende elektronen het atoomrooster laten trillen (warmte). Uiteindelijk gaat op die manier iedere elektrische energie uit een circuit over in warmte. Iedere bit in een geheugen loopt vanzelf leeg; wordt ververst of verandert van teken. Ook berekeningen 'kosten' dus geen energie. Deze berekeningen vinden immers plaats door de aan- of afwezigheid van lading.

Als je 100W ergens insteekt en er <100W uitkomt dan zal het object steeds warmer worden! Oneindig hoge temperaturen bereik je dan :)
150 tot 160 watt erin betekent voor jou 150 tot 160 watt eruit?
Zeker. Ooit gehoord van de wet van behoud van energie (bij natuurkunde)?
reactie op anes hendriks
Er gebeurt veel meer met die stroom, want het is tenslotte geen warmteelement in een waterkokertje. Een groot gedeelte gaat natuurlijk naar de berekeningen die de GPU uitvoert.
jammer genoeg zijn "berekeningen" geen vorm van energie.
er gaat gewoon 150 watt aan stroom in, en er komt 150 watt (min wat signaal stroompjes) aan warmte uit.
jammer genoeg zijn "berekeningen" geen vorm van energie.
Jammer genoeg?
Als men zorgt dat die warmte terug in elektriciteit word omgezet lijkt het mij veel beter zo!
Als wat dan nog meer? ja 0,01% ofzoiets als geluid en wat als bewegingsenergie van de luchtstroom door de ventilator. En licht geeft ie toch ook niet.
Dat is in principe mogelijk. Natuurlijk zal dat niet 100% efficient zijn, maar zou wel voor besparing kunnen zorgen.

Bron: Nieuwe microchip voor omzetting warmte naar stroom
150 tot 160 watt erin betekent voor jou 150 tot 160 watt eruit? Ik denk als je iets kan uitvinden dat elektriciteit in warmte met een rendement van 100 % kan omzetten behoorlijk rijk kan worden. Er gebeurt veel meer met die stroom, want het is tenslotte geen warmteelement in een waterkokertje. Een groot gedeelte gaat natuurlijk naar de berekeningen die de GPU uitvoert.
Waarom denk je dat BTX snel komt.
Daar zit een 120 mm intake fan in.
De koude lucht gaat dan langs de proccesor en de videokaart.
Daar achter zit dan weer een 120mm fan

In een btx kast zit de videokaart ook andersom in.
Of de consument gaat naar de concurrentie (AMD & ATI).

BTX koelt beter dan ATX, maar is een oplapmiddel voor de onefficiŽnte en energievretende onderdelen.

Pak de oorzaak/bron ipv de gevolgen aan.

AMD en ATI bewijzen dat men snelle en efficiŽnte onderdelen kan maken.
@rapture:

Als je het over kachels hebt wel ja

Vooral AMD bewijst dat je geen losse kachel in je kamer hoeft te hebben naast je PC.
Misschien als je naar de AMD thunderbirds kijkt.. maar dat was alweer van de vorige eeuw.. AMD is echt alweer een stapje verder hoor :)
(vergelijk het stroomgebruik van de AMD64 eens met de Prescott ofzo)

[/offtopic]
... dat is nog te betwijfelen of BTX snel komt.
de aziaten werken niet zo mee met intel. de kastenmakers niet en de moederboard makers evenmin.
@rapture:

Als je het over kachels hebt wel ja |:(

Vooral AMD bewijst dat je geen losse kachel in je kamer hoeft te hebben naast je PC.
Ik bedoelde een omzetting van elektriciteit naar warmte zonder verlies, als je verder had gelezen had je het begrepen. Maar wat mr_atheist zegt klinkt slim dus laten we het daar op houden :+
Ik bedoelde een omzetting van elektriciteit naar warmte zonder verlies
Hoe je het zegt maakt niet uit, de wet van behoud van energie zegt dat wat er in gaat er ook uit moet komen. De omzetting van opgenomen vermogen naar afgegeven vermogen zal altijd 100% efficiŽnt gebeuren (voor zover de energie niet wordt opgeslagen in b.v. structuurverandering). Dus 150 W erin betekent 150 W eruit. In het geval van een grafische kaart zal dat een paar W zijn voor de ventilator en een minimale hoeveelheid aan lekstroom en signalen op de connectoren, de rest zal vrijwel volledig warmte/infrarode straling zijn (licht/geluid/kinetische energie/inductie verwaarloosbaar).

Je zou alleen kunnen zeggen dat de GPU efficiŽnter zou kunnen worden door minder vermogen op te nemen voor dezelfde hoeveelheid berekeningen, of een gedeelte van de afgegeven warmte weer terug omzetten voor voedingsenergie, dat zou best kunnen.

Voor een voeding b.v. geldt dat als je 150 W eruit wil hebben je er bij 70% efficiŽntie 215 W aan het lichtnet kant erin moet stoppen, omdat het verschil (65 W) verloren gaat aan warmte. Ook hier gaat geen energie verloren, alleen 'bruikbare' energie gaat naar onbruikbare doelen (of het moet hartje winter zijn, bespaar je op de thermostaatstand :) ).
Ik draai hier een dual Xeon. Dat is niet een van de lichtste configuraties dacht ik zo. Dat apparaat bevat een 480 Watt Tagan voeding, die alles goed en stabiel draaiend houdt, maar als nVidia al 480 Watt aanraadt voor een "normaal systeem", dan is er dus geen goede mogelijkheid om die kaart in een dual te gooien.

Daarnaast, wattages zeggen ook niet alles.... ik heb voedingen gezien van 300 Watt met 10 AmpŤre op de 12 volts lijn, en voedingen van 550 Watt dezelfde fabrikant, ook met slechts 10 AmpŤre op 12 volt. De 300 Watt voeding kan wellicht nog nŤt, maar de 550 Watt is waardeloos.

Zelfs een 500 Watt voeding van dat soort zou het niet trekken op een nV40 dus.Ik vertrouw mijn 480 Watt Tagan, met 30 AmpŤre op de 12 voltlijn dan wel meer dan die 550 Watt el-cheapo PSU.
maar als nVidia al 480 Watt aanraadt voor een "normaal systeem", dan is er dus geen goede mogelijkheid om die kaart in een dual te gooien.
Waarom niet dan?
Is er een (magische) grens waardoor voedingen van meer dan 480 W niet mogelijk zijn?
Het gemiddelde budget van de gemiddelde consument laat ook geen dual xeon toe :)
Als je kijkt naar het gemiddelde budget van de gemiddelde consument is daar zeker wel een (magische) grens :P
Je kan ook gewoon een 2e voeding uit je oude P1 ofzo gebruiken om je videokaart te voeden, die dingen zijn toch lekker stil want ze liggen in de regio 200-250 Watt.
In de GOT faq staat hoe je 2 PSUs in je PC krijgt. :)
hele goede tip idd :*)

het word zo langzamerhand eens tijd dat alles op de schop gaat als je leest hoeveel watt een goede highend pc gaat gebruiken
een cpu van ruim 100 watt of zelfs al meer
de videokaart van 140 watt
ANTEC fans met leds O+
extra grote koeler op de CPU
DVD speler/brander
diverse USB aansluitingen zoals de webcam,joystick,muis (met leds) :P

een hard werkende voeding genereerd ook meer warmte

heeft iemand er al bij stilgestaan dat wanneer een videokaart er andersom inzit als het fannetje plus de GPU boven zitten alle rommel tussen de koelribben en de fan komen denk dat menig tweaker wel weet hoeveel stof er in zon systeem kan komen

als de ontwikkelingen zo doorgaan word onze pc hobby wel erg duur gezien het stroomverbruik
Nog ff .... "ma, mag de pc aan ? " \[ja, jantje. een half uurtje maar he, straks wil ik nog ff de was doen!]
opmerkelijk is ook dat op dat plaatje van die nvidia-kaart,
geen 'normale' monitor connector zit, din-nogwat? (sorry weet de naam niet)
DVI maar daar heb je wel verlengstukje voor om naar CRT te zetten.
Wat nog opmerkelijker is dat het Nvidia en het ATI nieuws altijd gelijk uitkomt. Dus tegelijkertijd nieuws over de NV40 en ook over de R420.

Ik heb zo'n klein vermoeden dat het ook wel een beetje expres is uitgelekt dus.
ja idd een 480 watt voeding gaat gewoon te ver. Leg je 400+ euro neer voor een kaart kan je er ook nog een voeding van 100 bij gaan kopen. voor 500 euro koop je 1gb ram een goede proc en een mobo dat vind ik wel erg ver gaan. Ik denk dat als dit bij ati minder is dat er dan alsnog veel mensen voor ati kiezen ookal is die misschien iets langzamer maar hebben de mensen gewoon geen zin om nog 100+ uit te geven. Zou ga ik het iig doen, het moet met mijn chieftec 360watt voeding werken.
k vind de prijzen van goeie videokaarten al heel lang over the top. heb enige tijd terug een systeem verkocht met een Hercules 9800XT erin... da's een kaart die gemaakt is om spellen mee te spelen, daar ga je toch geen 500 (VIJFHONDERD!) euro voor neertellen?? Kom op zeg, de enige videokaarten die nog enigszins hun waarde terugverdienen zijn Matrox Parhelia's (voor 2D-werkzaamheden), en dan de 3DLabs enz. (voor driedimensionale professionele toepassingen).. die 500 euro die je in zo'n videokaartje steekt zie je NOOIT meer terug..
ummm als je een 9800pro had gekost was je voor 230 klaar geweest en had je niet ver achter de xt gezeten qua performance.
koop dan ook niet het snelste van het snelste, maar de versie daar nťt onder, of nog verder richting de budget kaarten..
als je deze kaartjes in huis haalt hoef je je voorlopig niet druk te maken om de winter :Y)

btw, als hij 150 watt aan vermogen verbruikt, is dat ONWIJS veel. zelfs een processor verspilt niet eens zoveel. Omhoogschalen is een kunst, maar dat hij dan 6x warmer wordt, vind ik onacceptabel. Dan kan je net zo goed hard overclocken en een dikke fan erop zetten.

Wat de consument (en ik dus ook) wil zien, is verbeterde engines en nieuwe technieken. Geen overclockte hoog rendementskachel.
als je deze kaartjes in huis haalt hoef je je voorlopig niet druk te maken om de winter
Nee het is amper lente :)
Ja maar als die videokaarten ene beetje gana lopen is het zo hoog zomer
400x400 Fan naast de pc :+
Sneller is beter, maar zuiniger mag het ook wel, straks heb je nog krachtstroom nodig voor je pc.

"Jantje het is hier koud, doe de verwarming eens aan!"

"Ik zet de computer wel even aan ma, dan warmt het sneller op hier!!"
Wordt nog leuk in de zomer, dan loopt m'n PC zonder extra fans toch al hopeloos vast :X
ach het komt van de Inquirer
eerst zien dan geloven want kom op 160 watt?
denk zelf dat de Inquirer een goede fantasie heeft voor Sci Fi boeken.
maar binnenkort zullen we het wel zien misschien hebben ze toch gelijk (yeah shit happens) en misschien is het alleen maar hun fantasie.

dat de 16 pipes bij de ATI alleen voor de XT zijn klinkt redelijk logisch want als beiden de Pro en XT 16 pipes zouden hebben zou het verschil tussen beide minimaal zijn en waarschijnlijk alleen door clockspeeds te maken zijn.
en in dat geval zou ook bij alle R420 cores de 16 pipes moeten werken zouden ze Pro en XT ervan willen voorzien (waardoor er een redelijke kans is dat beide schaars zouden kunnen zijn)
nu kunnen ze cores met kapote pipes ook kwijt komen.
en geef nu maar toe een X800pro met MAAR 12 pipes zal het waarschijnlijk ook verdomd goed doen en dus sneller dan een 9800pro
Hmm wellicht een beetje off-topic (hoewel?) maar... het lijkt er toch wel een beetje op dat dus nu ook in de Video kaarten markt nu een moment is aangekomen waarbij de benodigde hoeveelheid stroom toch echt grensoverschrijdende waardes begint te krijgen. Want kom op mensen... nog 3 jaar geleden kon je in de meeste mid-high end systemen een Quality 250W voeding gebruiken, 300W was zeg maar ruim voldoende. Merk-PC's deden het vaak met nog minder (150-225).

En nu zitten we alweer op 480W. Granted, door het opkomen van LCD's zal het totale gebruik van een computer wellicht niet al te snel stijgen, maar de PC zelf is vaak wel het deel dat meer aanstaat dan de monitor. Dus straks als je een beetje high end current system wil hebben verstoken je processor en video kaart more less 250/300W samen (en dat is dus CONSTANT tijdens een game, ik ken niet veel consumer-voedingen die non-stop 250 beweren te kunnen leveren). Doe daar nog de drives, mobo en kaarten bij en je zit op een constant Wattage van zo 350 tijdens gamen. Dat is toch te gek voor woorden :/

Ik voorzie daarbij ook wel veel uitvallers en 'vage errors' - niet veel mensen zijn goed op de hoogte van het belang van een voeding... en een foute voeding geeft the vreemdste problemen. En het hebben van Dual systemen met dit soort kaarten (zoals al hierboven gezegd) wordt natuurlijk al helemaal een dure aangelegenheid. Wellicht dat BTX met zijn meer efficiente luchtstroom een klein beetje relief kan brengen....
en wat dacht je van al de stroom kosten die erbij komen kijken. Menig gamer/tweaker heeft zijn of haar PC al snel 24uur per dag aanstaan.

Dit 12 maanden lang.... kan je voor de extra stroomkosten beter een geforce 7 kopen die is misschien we zuinig :)
Hij trekt die 150 Watt alleen onder volle belasting.. Dus als je geen vette 3Dscreensaver draait zal het idle dus wel meevallen..
mwah... zolang ze er geen gratis prometeia bijgeven vind ik het prima... :+
Tja; je kunt veel zeggen maar dit is dus een van de nadelige dingen van concurrentie; je zag dit in processorland (AMD en iNtel stoken elkaar constant op) en nu krijg je dit ook bij de graka's. Jammer jammer jammer want ik ben naar mening dat een videokaart ventilatorloos moet kunnen zijn en anders hoeft hij van mij niet. Ik ben die kleine rammelfans zo zat. En dan nog die 100 - 160 wattage dat is toch niet meer normaal te noemen of wel dan. Ik denk dat de enige oplossing voor het hele probleem het uitschakelen van tussenpersonen is; en in dit geval zijn de tussenpersonen Windows en DirectX. Als ze nu eens games gingen ontwikkelen met een ingebouwd klein besturingssysteem dat rechtstreeks met de hardware "praat". Moet je opletten wat je games dan hard gaan.

Gelukkig dat ik niet meer zoveel games speel, dus ik kan mijn ti4200 lekker laten zitten :)
Jouw idee van een OS in een spel klinkt wel mooi, ik denk alleen dat het nooit zal uitkomen. Gamemakers hebben daar geen tijd/zin/geld voor. Hun maakt het eigenlijk ook niet uit dat de consument een dikke videokaart van dik 400 euro moet kopen om het spel te spelen.
heheh.. iNtel en AMD stoken elkaar op.. mijns inziens mag je die vrij letterlijk nemen :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True