Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties
Bron: The Inquirer

The Inquirer ontkracht het - nota bene door zichzelf verspreide - gerucht over het exorbitant hoge stroomverbruik van de R600. De eerste DirectX 10-videokaart van ATi zou wel behoorlijk warm worden, maar toch nog geen 250W nodig hebben. De nieuwe gok van de site is 180W. Als argument voor het afzwakken van het gerucht wordt genoemd dat de koeling voor een kaart van 250W zeker drie slots in beslag zou nemen, waardoor de meeste moederborden geen ruimte meer zouden hebben om Crossfire te draaien. De voorgestelde configuratie met drie kaarten (twee voor video en een voor physics) zou bovendien helemaal niet meer passen in een standaard ATX-kast. Wel suggereert men dat er mogelijk een externe voeding nodig zal zijn om het aanstaande topmodel Radeon van genoeg sap te voorzien.

ATi Triple Play physicsoplossing
Moderatie-faq Wijzig weergave

Reacties (99)

Weer een misser van W Tinus. De inq ontkracht helemaal niets. Er staat nergens in het Inq artikel dat ze toegeven dat ze mis waren. Ze zeggen dat de chip 180W gaat verbuiken, enkel de chip. Met geheugen erbij blijft de 250W gelden. Een nieuw dieptepunt Wouter.
En al die Tweakers hierboven maar zeiken over de Inq! Blijkbaar kunnen ze niet zo goed Engels lezen allemaal...
da is toch nie normaal meer!!!!

welke mens is er nu bereid om +1500§ uit te geven aan een 3 videokaarten config.

dat stroomverbruik ook al, straks zitten we allemaal met een pc die 1Kw/h opslorpt.

ik zie de elektriciteitsfactuur al komen!
:(
Er zal vast wel iemand zijn.

Maar vergeet niet dat je ook een X1600 voor de Physics kan gebruiken. Maar als je echt super high peformance wil kun je 3 high end kaarten er in zetten. Zullen bijna geen mensen doen. Tenzij het heel nuttig blijkt te zijn.

Was met SLi en CF in het begin toch ook ? Inmideels gebruiken steeds meer mensen het.
Een goede dual-core kan ook alle fysische berekeningen aan. Bovendien is er zo geen vertraging van alle data over de bus te moeten sturen. Een extra grafische kaart kopen om de fysische berekeningen uit te voeren is dan ook waanzin.
Ow, ja, download eens even de Ageia PhysX drivers, en installeer een spel dat het goed ondersteunt, dan kan je echt lachen met een X2-4800+ of een Core2Duo 6700

Een CPU is ongelijk aan een PPU, want opzich kan een goeie dual core ook gewoon DirectX verwerken toch? Of begin ik nu op de persoon boven me te lijken nee toch hť?
2 maanden geleden kocht ik de GF7950GX2 ook voor 580 euro, dus zo gek is dat nog niet, 1500 euro voor 3 videokaarten :7
580 euro voor 1 kaart die binnen een half jaar verouderd is vind ik anders ook behoorlijk gek ;)

maar goed, ieder zijn hobby :)
Verouderd? Dat is relatief. Het is misschien niet meer de nieuwste, maar binnen twee jaar draai je nog de laatste spellen met die kaart, terwijl een mid-end van nu dat niet meer aankan. Dus het is wel een grote investering maar die kan lang meegaan als het moet.
ik vind de prijs van de x1900xtx behoorlijk meevallen hoor.

komt eerder in de buurt van mid-range prijs dan high-end
Eh? don't think so, de GX2 is hier nog gewoon een oud klere ding van een DX9 kaart ?

Bij de X800 AGP is voor mij DX9 al geŽindigd, er zijn geen spellen die ik niet goed kan spelen, en praktisch allemaal op 1024x768x32 Highest
binnen twee jaar draai je nog de laatste spellen met die kaart, terwijl een mid-end van nu dat niet meer aankan.
Tussen mid-end en top-end zit nog een boel! Een splinternieuw model verouderf veel sneller dan een al iets ouder en dus stukken goedkoper model. Een top-end model koop je alleen als je (1) het geld kunt missen en (2) een onwijze liefhebber bent. Economisch gezien is het altijd een misser.

*edit*
De tweaker moet beseffen dat de extra levensduur van een top-end kaart t.o.v. een sub-top kaart niet opweegt tegen de waardedaling van de top-end kaart in diezelfde tijdspan aan het begin van het leven van een top-end kaart. Je kunt beter een maand of 3 wachten met de aanschaf, zo een stuk goedkoper uit zijn en je volgende aankoop 3 maanden uitstellen (in die 3 extra maanden kun je nog steeds prima gamen) dan meteen het allernieuwste allersnelste model aanschaffen en vervolgens 3 maanden eerder dan in de vorige situatie alweer de allernieuwste kaart aanschaffen. Het loont simpelweg niet. Early adopters betalen nou eenmaal voor hun voorlopersrol.
Ik. Ik heb geen moeite met het betalen van mn pc, dus geef me een reden waarom ik wel moeite zou hebben met het betalen van die paar euro extra bij mn electriciteits rekening. Als je een dergelijke setup niet kunt betalen moet je hem ook niet kopen.

Klaag je ook iedere dag dat die Ferrari's zo duur zijn? Of dat ze zo ongeloofelijk veel verbruiken?
'Die paar euro' zijn inderdaad relatief,
maar 100W continu meer is toch zo'n 140,- per jaar.
(uitgaande van de huidige NL tarieven+energiebelasting)
Dat zijn 2 of 3 mojito's minder per maand in een of andere trendy club. Voor velen zal dat nu echt niet het verschil maken (en je blijft er nog nuchterder bij ook.)
Er zijn ALTIJD mensen die het beste van het beste willen hebben. Daar maak ik me helemaal niet druk om.

Waar ik me wel om druk maak is het stroomverbruik van de GPU's. Tis natuurlijk fantastisch dat er nieuwe presaties worden neergezet, maar tegen welke prijs?

(denk aan het milieu enzo)

Ik hoop dat we in GPU land dezelfde trend gaan zien als in CPU land. --> prestaties per watt!

en niet alleen prestaties, externe voedingen voor verschillende onderdelen in je PC is in mijn opinie volledige overkill.

@seth_chaos
Ik zou niet klagen over het verbruik van ferrari's tenzij het 1 van de enige 2 merken zijn die de toekomstige auto's zijn.

Vergelijk het maar dat je je auto sowieso moet vervangen omdat je anders niet meer op de snelweg mag rijden en de enige keus is een ferrari of een lamborghini.

Zou je dan niet liever een zuinige ferrari hebben of een zuinige lamborghini?
Waar ik me wel om druk maak is het stroomverbruik van de GPU's. Tis natuurlijk fantastisch dat er nieuwe presaties worden neergezet, maar tegen welke prijs?
Tegen de prijs welke op de stroomrekening zal verschijnen.
(denk aan het milieu enzo)
Hebben veel tweakers niet zoveel gewetensbezwaren mee. Vooral al zijn ze in het bezit van die dure kaarten welke wattjes vreten alsof het niets is.

Het wordt pas echt overkill al moet je een aparte groep aanleggen voor je PC. 8-)
ik dacht toch inderdaad ook dat het voordeel van havok hem erin zat dat je je betaande videkaart kon gebruiken om ook physics mee te renderen. beetje idioot als je er toch een extra videokaart bij moet pleurendie verer alleen voor physics gebruikt wordt. dan kan je beter toch gewoon voor de physx ppu gaan kost minder en je weet da tie het gewoon goed doet. en die gebruikt ook minder aan stroom geloofik
Het aardige van je GPU voor physics, is dat je je oude verouderde videokaart ervoor kunt gebruiken.

Een simpele X1600 is al veel sneller dan zo'n speciale physics kaart!
niemand verplicht jou om 3 videokaarten te nemen.

en voor de genen die ze wel willen, die knijpen een oogje dicht voor de stroom rekening. (wat je met dubbele overkill aan GPU power moet mag joost weten)
(checkt profiel van mclukas)

dan geef je die rekening gewoon aan je ouders :P
Ach, 't wordt toch zo weer winter. :7
Typisch theinq..
Eerst nieuws naar buiten brengen zonder duidelijke bron en/of argumenten.
En het dan daarna (na veel kritiek van allerlei kanten) het weer intrekken of afzwakken.

Niet echt fair om zo je site populair te maken imo....
Typisch theinq..
Typisch tweakers. Het werd overgebracht alsof het feiten waren en de meerderheid geloofde het.
Dat vind ik niet terecht. Tweakers laat doorgaans duidelijk genoeg blijken dat the inq onbetrouwbaar is, al was dat hier met 'de geruchtenmachine The Inquirer' wat aan de dunne kant. Dat veel lezers dat vervolgens als feit oppakken is jammer, maar moet je dat Tweakers verwijten?
Ik verwijt het Tweakers.net niet, ik verwijt het een merendeel van de tweakers. 250 Watt vond ik onmiddelijk niet geloofwaardig, maar er volgde meteen een resem antwoorden hoe geschift dit is van ATI...

Niks tegen de site he. Hoewel er wel op gewaakt mag worden dat een gerucht ook duidelijk een gerucht is en de kans reŽel is dat het vals is.
Toch mag Tweakers ook wel een onderscheid gaan maken tussen "geruchtensites" die af en toe met een gerucht komen, wat dan vaak blijkt te kloppen, of The Inquirer die elke dag met 100 geruchten komt, waarvan er zelden tot nooit eentje blijkt te kloppen.
Ook als je voor het eerst tweakers.net bezoekt? Nee
Zelfs ik 3jaar lid ofzo vind het nogsteeds onduidelijk. Nu weet ik wel beter om de inq. te geloven.... :Z

Maar om nu te zetten dat tweakers overal duidelijk over is ... nou nee
Wat is er onduidelijk aan als ze zeggen (quote):
De geruchtenmachine van The Inquirer heeft een opzienbarend bericht over ATi's volgende gpu geproduceerd: de R600-chip zou een vermogensopname van niet minder dan 250W hebben. Als dat cijfer klopt...
Als je dan nog denkt dat het een feit is, tsja...

Ik kon het me ook al niet voorstellen, 250W is echt ontzettend veel en gezien de reacties hier op T.net zou alleen waterkoeling of iets nog extremers die warmte weg kunnen krijgen
Geruchten staan op Tweakers.net tussen ' ' tekens, dus er wordt wel degelijk onderscheid gemaakt
Is natuurlijk een slimme manier om aan informatie te komen. Jo gokt iets en dan kan dat onkent worden en weet je dus dat het niet waar is en het kan bevestigd worden, zodat je weer wat nieuws hebt ontdekt.
ATI is niet zo dom op bij elke idiote uitspraak van the Inq te gaan ontkennen. Ze laten ze lekker in hun sop gaar koken.

Er is dus ook helemaals niets ontkent of bevestigd door ATI. Het zijn nu geruchtensites die onderling zitten te bakkeleien.
Het mooie is dat ze in dit bericht het hebben over 'geruchten die de ronde doen maar niet kloppen'. Nergens hebben ze het erover dat die gerucht het gevolg zijn van hun 250-watt-bewering.
Dat gerucht was niet als gevolg van hun 250W bewering, aangezien die geruchten uitgingen van 200W...

(bovendien waren ze er al eerder dan het gerucht dat Inq de wereld in hielp)
Maar het is ook typisch de gemiddelde tweakersbezoeker om hier helemaal in mee te gaan. De reacties op het oorspronkelijke bericht namen zo'n enorme sprint met het verhaal dat ik niet eens meer de moeite nam om op de bron te wijzen. Soms moeten mensen zelf hard op hun praatapparaat gaan om te voorkomen dat ze dezelfde fout nog een keer maken.

Eerst was het 250 Watt, nu 180. Ik schat dat er bij de officiŽle release een goede 100 van overblijft.
jawel hoor, zo trek je lezers naar je site.
Wat een maffe site is dat man, kunnen ze niet eerst nadenken voordat er zomaar een bericht de wereld in wordt geslingerd? :?
Wel suggereert men dat er mogelijk een externe voeding nodig zal zijn om het aanstaande topmodel Radeon van genoeg sap te voorzien.
Trouwens: 750 Watt intern is toch toch wel genoeg neem ik aan? Draait mijn XTX ook mee.
Nja de Voodoo 5 6000 had dat ook al. En de Asus Extreme kaartjes hebben ook externe psu's.
500 watt moet genoeg zijn. (zonder crossfire dan)
Ik werd bij het vorige bericht nog als overbodig gemod met de gedachte (zekerheid) dat er een externe adapter mee word geleverd.
Je kunt niet van de consument verwachten dat ze oneindige voedingpower in hun kast hebben.
En zo genereer je twee nieuwsberichten zonder dat je iets te melden hebt. Goed gedaan Inq!
jup Sensatienieuwtjes , dezer dagen wordt elk gerucht als zijnde nieuws gepost
Tweakers glijd af ....
Heb net een submit gedaan dat het stukje .vermeende. plagiaat van Sonja Bakker .waarschijnlijk. getyped is in Windows XP met Office 2003. Heb je er wat tegen?
En door alles klakkeloos over te nemen van dit soort onzin sites, genereert tweakers ook weer 2 compleet zinloze berichten.
Iedereen loopt hier uk.theinquirer.net te bashen, maar ze hebben anders heel vaak primeurs die wŤl kloppen. Ik lees het graag daar, en het heeft nog humor ook.
Ja niet zo gek als je alles wat je als gerucht hoort publiceert, er zit altijd wel iets van waarheid tussen. Beetje makkelijk hoor...
Nostadamus, Nostradamus...ik hoor het hem nog zingen.
Het gebeurt anders echt niet veel hoor dat The Inquirer dit soort dwaasheden publiceert, maar inderdaad, elke keer is er eentje te veel, je zou toch denken dat ze daaruit leren... Toch lees ik hun nieuws graag, het wordt grappig en vanuit een kritisch oogpunt gebracht (op dus af en toe een uitzondering na, maar die pik je er, als je een beetje nuchter denkt, zo uit hoor, ik bedoel, komaan, 200W voor 1 videokaart, yeah right!). |:(
hmmmm.... wel onhandig als je de kaart ook nog eens extern zou moeten gaan voeden. :?
Er zijn anders al genoeg 1000watt voedingen die deze setup met een beefy pc makkelijk aankunnen :)

http://www.guru3d.com/article/psu/368/

Deze bijvoorbeeld
En greenpeace heb weer es iets om over te zeuren. Betaal jij de stroomrekening btw :+
een beetje PSU verbruikt alleen wat hij nodig heeft
Dan heb jij, net als al de rest hier, nog nooit een beetje PSU gezien als het op PC voedingen aankomt. Het rendement is hier namelijk een bepalende factor, en die is het best bij relatief hoge belasting. Als je een PC hebt die toekomt met een 350W voeding, en je steekt er een 500W voeding in, zal die misschien ineens (voor het totale systeem) 20W meer gaan verbruiken, gewoon omdat die 500W voeding te weinig belast wordt om een goed rendement te halen.
Dan nog gebruikt ie wat ie nodig heeft + rendementsverlies. Hij gaat niet opeens de volle 500W gebruiken omdat het een 500W voeding is.
En die 500W is aan de 'DC' kant ;) Als een voeding een 500W rating heeft zegt dit niet dat hij 500W aan de 230v 'kant' aan kan, maar dat is de som van de waarden aan de 3,3/5/12v kant.
Klopt, het vermogen wat een voeding aan de componenten geeft is altijd lager. Een voeding heeft altijd verlies, denk maar aan de hitte die een voeding afgeeft, dat is een deel van het geleverde vermogen dat verloren gaat.

Goede voedingen hebben op z'n max volgens mij een rendement van ongeveer 80%, bij b-merken kan dit aardig wat lager liggen. Een goede 500W voeding komt dan uit op een vermogen van ongeveer 400W wat hij kan leveren aan de componenten.
een 1000watt PSU will nog niet zeggen dat hij constant 1000watt vebruikt, maar zijn peak and constante max is simpelweg 1000watt.
Niet helemaal waar. Bij consumentenvoedingen die pronken met een hoog "wattage" (zoals ze dat zo mooi noemen, wat eigenlijk vermogen heet) is dat vermogen niet de maximale constante productie, maar ten eerste de maximale piek (een dergelijke voeding wordt dus ontzettend heet als ie de maximale piek constant moet leveren), en ten tweede inclusief het vermogen dat de voeding zelf verbruikt. Het bruto vermogen dus zegmaar.

Ik vindt het ook belachelijk, maar het is weleens getest (volgens mij door t.net zelf). Een voeding kan vaak niet het aangegeven vermogen leveren, afhankelijk van hoeveel dat is, en natuurlijk de kwaliteit. Terwijl een 300W voeding bijv best een piek van 350W aan kan.

Maargoed, een 1000W voeding is dan nog steeds kolder. Alsof je een systeem hebt dat 1000W verbruikt. CPU is 100W, twee videokaarten 2x100W. Waar blijft die andere 700W dan?
Extern voeden doet hetzelfde als een PSU, een beetje PSU verbruikt alleen wat hij nodig heeft, een 1000watt PSU will nog niet zeggen dat hij constant 1000watt vebruikt, maar zijn peak and constante max is simpelweg 1000watt.

Draai mij pc met 2x SATA 250gb, 2xDVD-RW, 7900gt en amd x2 3800+@2659Mhz, gewoon ok op een 400watt voeding :)
Misschien kan je ook gewoon de interne gebruiken als ze zwaar genoeg is.
De snelste Voodo 5 (6000 serie) (De laatste 3DFX kaart) had ook al een externe voeding..

Zie bv. http://en.wikipedia.org/wiki/Voodoo_5
vergeet niet dat de meeste videokaarten terugklokken voor 2d, en daarnaast je natuurlijk dit soort videokaarten niet in een workstation moet zetten die minimaal 8 uur per dag lopen. 10 uur per week een 3d spel doen is dan al heel wat anders
sorry hoor, maar ik speel op me computer zo iets van 3/4 uur per dag, waarnaast ik hem ook dingen laat downloaden, dus staat hij van 6/7 uur s'morgens tot 10 uur s'avonds minimaal aan, reken maar uit, en dat dan 7 dagen in de week.
En dan heb je ook een 3d game heel de dag door draaien?
Best eritant als je dan 3 externe voedingen hebt liggen... Dan kun je tog beter maar de stekker uit het stopcontact halen, want die dingen staan altijd onder spanning.
ATI zelf zegt altijd dat de 3de kaart voor physics echt geen top model hoeft te zijn, een lower midrange kaart zou voldoende zijn, en die hebben geen extra voeding nodig.

en tja crossfire of SLI is zowizo overdreven, en als je daar het geld voor over heb kan je die 2de voeding ook nog wel accepteren.
Echt eh, die 2+1 opstelling is zo zinloos.
Ja het is lekker snel maar het kost je zo belachelijk veel geld, en daarbij werkt het niet eens zo enorm goed, erg zinloos en geldverslinderij, Je mag het net zo snel wegflikkeren als een normale dure kaart, maar dan heb je geen apart mobo nodig en kun je nog meer andere dingen in je pc douwen.
Hoezo belachelijk veel geld? Die derde kaart kan een hele simpele kaart zijn. X1600 ofzo...

Voor iemand die een crossfire koopt stelt dat dus niets voor. (Sterker, men heeft waarschijnlijk nog zo'n kaart ergens op zolder liggen)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True