Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 194 reacties
Bron: The Inquirer, submitter: SergioG829

De geruchtenmachine van The Inquirer heeft een opzienbarend bericht over ATi's volgende gpu geproduceerd: de R600-chip zou een vermogensopname van niet minder dan 250W hebben. Als dat cijfer klopt maakt de beeldprocessor de kachel aan met de records die in het verleden door gerenommeerde heethoofden als de Thunderbird- en de Prescott-cpu's zijn neergezet. Het Japanse PC Watch voorspelde eerder al een verbruik van 200W, maar dat cijfer zou gebaseerd zijn op een 65nm-productieproces. Volgens The Inquirer is de chip echter zo complex dat een 80nm-productieproces het best haalbare is, en dat heeft kennelijk een behoorlijk negatieve impact op de stroomconsumptie van ATi's eerste DirectX 10-chip.

De IJssel-energiecentrale bij Zwolle De specificaties die tot nu toe worden genoemd - zoals bijvoorbeeld een 384bits geheugeninterface en 64 unified shaders - maken duidelijk dat er niet op de featureset is bezuinigd. Het ontwerp van de R600 zou vergelijkbaar zijn met de gpu die ATi voor de al vrij warmbloedige Microsoft Xbox 360 leverde, en die chip heeft nota bene nog geïntegreerd geheugen. De nieuwe ATi is geschikt voor GDDR4-geheugen, dat een flink hogere gegevensdoorvoersnelheid heeft en daarmee heel wat prestaties van de grafische chip eist. Omdat de R600 bovendien ATi's entree op de DirectX 10-markt moet verzorgen, zou het bedrijf tegen elke prijs een snellere gpu dan nVidia willen presenteren. Recente successen van dat bedrijf - de G71-core schaalt lekker - hebben ATI's grote concurrent echter niet zelfvoldaan gemaakt: ook de nVidia-engineers proberen alle mogelijke kracht in hun G80-core te verpakken, waardoor voorlopige schattingen van het verbruik van die gpu rond de 175W schommelen.

De grote vraag is natuurlijk wie er zo gek is om dergelijke energievreters in zijn computer te monteren: kaarten met een verbruik van ruim honderd watt worden door L'Inq al als 'grenzend aan krankzinnig' gekenschetst, en het zal de nodige moeite kosten om klanten te overtuigen van de noodzaak van een verdubbeling van dat cijfer. De warmteproblemen in de computerkast zullen zeer aanzienlijk zijn, sterker nog: grappen over het vervangen van kachels zouden nog best eens realiteit kunnen worden. Hoewel het om formeel onbevestigde gegevens gaat, maakt het bericht één ding zonneklaar: de prestaties-per-watt-strijd die de cpu-fabrikanten momenteel uitvechten gaat volledig aan de grafische chipmakers voorbij. De wedloop in de gpu-sector gaat nog altijd om zoveel mogelijk brute kracht.

Moderatie-faq Wijzig weergave

Reacties (194)

1 2 3 ... 11
Dit is heel erg raar. Ik denk eigenlijk meer aan een HOAX. Gewoon onrust stoken. Want op 250 watt zit niemand te wachten. Kun je na gaan als je gaat Oc'en. Om 250 Watt aan hitte af te voeren heb je minimaal H2O cooling nodig en dan ga je nog temps van 70C krijgen. In de tijd van mijn Barton @ Prometeia gebruikte mijn cpu een 140-160 watt. Met H2O zat je dan al tegen de 55-60c aan te hikken. Laat staan 250 !! krijg je dus niet zo maar met air cooling gecooled.

En de Xenos is wel zuinig dus waarom zou de R600 dan zo veel moeten gebruiken ? Ik geloof dit eerlijk gezegt niet. Ik denk eerder aan 2xX1950 Pro's qua stroom verbruik. En ik gok dat die rond de 80-90 watt per kaart gaan zitten. Kom je nog op een 160-180 watt uit nog steeds erg veel en een erg groffe schatting. Maar al een stuk beter.

Want 2x X1950 heeft 32 Pipes met 72 Shader units en 10 of 16 Vertex shaders. 2x een Ring bus memory controller 2x een grote PCB. Dus ik zou 140 Watt voor een R600 wel een betere schatting vinden.

Dus ik denk dat dit allemaal een beetje onzin is. En als het wel zo is is er iets goed fout met het ontwerp van de chip.
Tja het is alleen zo jammer dat tweakers.net tegenwoordig op deze manier aan veel hits wil komen, tweakers.net is alla telegraaf aan het worden. Weet iemand iemand toevallig ook sites die dit type ict-nieuws wel op een normale manier weer kan geven ?(dus op de manier waarop tweakers het voor overname deed). Want ik ga binnenkort mijn nieuws maar ergens anders weghalen.
dus op de manier waarop tweakers het voor overname deed
t.net doet dit al zo lang ik me kan herinneren (sinds 2002), op exact dezelfde manier.

De titel staat niet voor niets tussen ' ', en uit de eerste zin: "De geruchtenmachine van The Inquirer..." lijkt me toch meer dan voldoende.

The Inquirer heeft er qua voorspellingen wel vaker dichter bij gezeten dan alle gerenomeerde nieuwssites bij elkaar, dus negeren kun je ze niet.
The Inquirer heeft er qua voorspellingen wel vaker dichter bij gezeten dan alle gerenomeerde nieuwssites bij elkaar, dus negeren kun je ze niet.
Ach ja. Als je alle denkbare configuraties maar noemt, dan is er vanzelf wel eentje bij die redelijk klopt.

The Inq is als een kapote klok. 2x per dag geeft die ook de juiste tijd aan.

The Inq maakt het nu wel erg bont. 's ochtends vertellen ze dat de kaart 250W verbruikt, en 's avonds claimen ze dat de chip 180W verbruikt.

Wellicht wil The Inq even uitleggen waar die 70W voor gebruikt wordt?
Ik weet wel zeker dat het onzin is. The Inquirer staat er om bekend prachtige fabels voor tweakers te kunnen vertellen.
Ik stel dus voor dat je jouw post even vertaald en opstuurt naar The Inquirer!
GPU heeft al meer transistoren dan een CPU, dus er kan wel een kern van waarheid inzitten,
groter oppervlak, niet alle mogelijke technieken toegepast, en het kan best mogelijk zijn dat het een heefhoofd wordt.

Ati zou er beter aan doen om een bepaalde max aan het verbruik te stellen zoals 100W en met alle mogelijke middelen daaronder te blijven,
ook als het betekent performance in te leveren. Anders gaan ze geheid de boot missen,
want een chip die 140 trekt, crossfire opstelling en je hebt 280 nodig?

Laat de verwarming maar uit deze winter.
En het zal niet meer dan een kwestie van tijd zijn voordat partjien als greenpeace erbovenop springen.
In het artikel zit een grote fout:
de specificaties die tot nu toe worden genoemd - zoals bijvoorbeeld een 384bits geheugeninterface en 64 unified shaders
De 384-bits memoryinterface is een gerucht die bij nVidia's G80 hoort en niet bij AMDs R600.

Daarnaast is de verwachting dat er wel een stuk meer dan 64 unified shader processors in de R600 zitten.

Trouwens is dit hele artikel wel met een flinke korrel zout te nemen. R600 is gebaseerd op de Xenos in de Xbox360 die passief gekoeld kan worden en rond de 320M transistoren heeft.

ATi zou wel enorm veel extras in de R600 moeten stoppen om die 275W te halen, vooral aangezien de Xenos al bijna helemaal voldoet aan de DX10 standaard (sterker nog: Xenos kan alles op het scherm toveren wat een 'echte' DX10 kaart kan, maar doet het op andere manieren. Er zijn meerdere wegen die naar Rome leiden).
Voor de fervente gamer is het absoluut niet belangrijk hoeveel watt een kaart verbruikt, als je maar veel eyecandy krijgt voor je geld!

Echter de warmteproductie zal natuurlijk wel wat zorgen baren, een 'stil' gamesysteem zal er niet echt inzitten meer. Maar wie maalt daar om bij het gamen?
Nou als je dan een nog zwaardere voeding nodig hebt en nog meer fan dan wordt het toch knap vervelend met game. Tenslotte wil je je 7.1 surround sound ook nog horen :)
De meeste geruchten spreken over een externe voeding voor de videokaart.
Dat zal me ook niets verbazen. Er zijn ook al een aantal high-end kaarten met externe voeding als ik me niet vergis.

Alleen denk ik niet dat een externe voeding veel uitzal maken voor de warmte productie in je kast. Je blijft zitten met een kachel van 200w in je kast. Een voeding blaast zijn warmte gelijk naar buiten, dus dat zal het verschil niet zijn. Je hoeft alleen geen nieuwe voeding te kopen, dus zal een 400W voeding in dat geval nog steeds voldoende zijn :)
Met 250W moet niet alleen de voeding, maar de hele kaart extern. 250W dissipatie plus het ram valt gewoon ueberhaupt niet te koelen in ATX, waarbij het merendeel van de hitte tegen de kaart blijft hangen in een towerconfig. Zelfs een 3-slots koeler met een aparte in en uit gang voor de lucht zou er veel te veel z'n best op moeten doen -- het is al lastig genoeg om fatsoenlijk een Prescott @ 100-150W te koelen, met alle ruimte die je voor een processorkoeler hebt, dan kun je het op gpu maat geheel vergeten om het dubbele te koelen.
Wedden dat R&D van ATI er iets op vindt? ;-)
de fervente gamer woont dan naar alle waarschijnlijkheid nog thuis bij zijn ouders en hoeft de stroom rekening niet te betalen...
Weet ik niet. Als je "goedkoop" wil verwarmen hoef je enkel een 3Dmark te starten. ;)

In de zomer is deze kaart echt wel een kamerkachel trouwens :(
3DMark? Met Vista straks hoeft er alleen maar een prachtige 3D Aero-screensaver gestart te worden.
"Ik ga maar weer eens aan het werk, m'n pc maakt zo'n lawaai..." :'(
Nou zo vreemd is dat niet, ik heb al 10 jaar de verwarming niet meer aangehad in de 2 kamers waar computers staan. En meestal de ramen open, anders wordt het te warm. En zo gauw het beneden het vriespunt komt, gooi je gewoon de ramen dicht.
Bij ons in de school... 21 (P4, 3.0GHz) pc's, 21 (17") crt's en een beamer, die van 's morgens tot 's avonds aan staan. En wij krijgen geen airco :( (alle, moest vorig jaar gebeurt zijn)
nou je maalt er wel om als de kaart te warm wordt waardoor hij terugschakelt en jeminder frames haalt

ik weet nog dat de prescott 130Watt cores al problemen met warmte hadden dus ik vraag me af hoe men dit denkt af te voeren met lucht....
Hoewel 250 Watt gigantisch is, zijn de ontwerpen van de koelers sinds de prescott echter ook stukken verbeterd. De betere GPU's zijn eigenlijk allemaal in zekere zijnnotoire heethoofden. De koelertechnologie acht ik dan wel in staat het redelijk te koelen, echter vraag ik me wel af tegen welke kostprijs in termen van decibellen.
klinkt je vliegsimulator in een straaljager extra realistisch. Heb je geen geluidskaart meer nodig!
Vergeet niet dat een processor van een bepaald wattage inherent veel makkelijker te koelen is dan een gpu, omdat de orientatie van de airflow veel en veel beter is en de koelen bovendien veel en veel groter kan zijn.
Absoluut mee eens, heowel er natuurlijk wel grenzen aan zitten. Maar ik ben blij dat ze voor "ongelimiteerde" performance gaan :)
Werkelijk waar onzinnig. Waarom zou een zinnig mens nou een grafische kaart van 175W of meer in zijn pc willen hebben. Ja als je wil gamen op het uiterste niveau, maar dan nog zou je je eens achter je oren moeten krabben of je spelletje wel zoveel waard is.
Zoals inderdaad al is aangegeven, de prestaties per watt zou een goede race zijn om te voeren in het grafische landschap.
Dit gaat echt helemaal nergens meer over. Wie wint hier nu bij? De klant niet, die betaald alleen maar heel veel voor een kaart, en heel veel voor stroom.
Volgens mij is het gewoon een prestige-kwestie van Ati.
Wie er als eerste met een DX10 chip op de markt komt. Anders hadden ze wel langer gedokterd om het op 65nm te kunnen krijgen.

En dan moeten er wel indrukwekkende grafische prestaties neergezet worden, want anders staan ze voor lul bij de eerste de beste testvergelijking.
Zo gek is het niet eens.

Hoeveel mensen hebben op dit moment al een SLI-Setup, reken maar dat die ook wel een 250 W opstoken samen.

Onzinnig? Ja!

Achter je oren krabben? Nee ;)
Maar het is wel sterk de vraag of deze kaart in z'n eentje sneller wordt dan een dual opstelling met last generation chips -- dat zou een verbetering van bijna het dubbele inhouden en dat haal je meestal niet in 1 generatie.
De mid-end en low-end kaarten gaan heel wat minder verbruiken hoor, en nog zeer snel zijn. NVIDIA heeft alvast met de Geforce 7900 bewezen dat prestaties en laag energieverbruik toch hand in hand kunnen gaan. Hopelijk lukt dat met een paar revisies met G80 en R600 varianten ook.
Waterkoelingskit wordt er standaard bijgeleverd ?
Zoveel vermogen met water koelen wordt niet eenvoudig... Een Reserator bijvoorbeeld, die kan een hoop hebben, maar dit niet.
En wat te denken van je voeding...
Dat wordt upgraden naar een zware voeding om het boeltje te trekken.
En dan nog iets , je energierekening! oei
dan willen gamers niet meer gesponsored worden door hardware bedrijven zoals nvidia of ati maar door Eneco of Nuon :9
Ga er maar vanuit dat er een externe adapter bijgeleverd zal worden, mocht dit Wattage kloppen.
Bijna geen enkele OEM voeding zal dit nog kunnen trekken, OEM voedingen zijn nog altijd rond de 350 Watt en dan kan je dalijk net je GPU en CPU van prik voorzien.
(Ochja, die moderaties gaan er niet op vooruit, overbodig is voor berichten die niks aan het topic toevoegen, een externe adapter lijkt me niet overbodig om als idee aan te dragen, misschien moeten er restricties op de moderators komen, voor de niet zo inzichtvolle mensen hier) Mod me nou maar als troll, dan zijn we daar ook weer vanaf.
Wacht trouwens maar, als deze kaarten echt op deze manier uitkomen, dan moet er wel een adapter bijgeleverd worden, niet iedereen zal zijn PSU upgraden bij een nieuwe videokaart, en als ATI zijn achterstand dalijk in wil halen, zullen ze echt niet zo stom zijn om een dubbele upgrade van de retail markt vragen.
Dit is dan ook geen kaart die je aan een OEM voeding hangt, hiervoor koop je een fatsoenlijke, dure, zware, van een goed merk. Als je zoveel geld uitgeeft aan de beste videokaart die te krijgen is ga je die niet aan een OEM-voeding hangen, hetzelfde met een OEM-systeem (je bouwt dan zelf een setup waardoor je er het meeste uithaalt en geen problemen krijgt met volgestouwde kastjes die helemaal geen videokaart van 250 watt kunnen hebben qua koelcapaciteit). Er zijn tegenwoordig genoeg zware voedingen die dit vermogen gewoon intern kunnen leveren.

Sowieso, als je een pc hebt die af kan met een 350 watt OEM-voeding (daaronder versta ik brakke rommel als Q-tec en Sweex) is die videokaart zware overkill voor die setup.
Iemand die zo'n kaart koopt zal ook niet snel een OEM PSU in zijn kast hebben zitten :+
Hmm, ik heb een Qtec,... en ben er heel tevreden mee. 550 watt, stabiel op elke voltage (uitgez. 12v schommelt +-0.100). De voeding is degelijk gemaakt, en niet zoals die voedingskes die voledig op basis van weerstandjes gebouwd zijn.
Voeding van 700 of 900 watt vind ik wel overdreven. Misschien moeten ze een functie inbouwen dat de kaart kan overschakelen naar een VEEL lichtere modus voor werkjes zoals word enzo.
Niet elke koper is een tweaker en weet bijgevolg niet eens dat je voor een grafische kaart wel eens een nieuwe voeding zou kunnen nodig hebben. Dus ofwel moeten de fabrikanten dan in koeien van letters op de doos zetten dat een zware voeding nodig is, ofwel leveren ze een (waarschijnlijk) interne adapter mee die je in een extra pci slot kan vijzen en zodus warme lucht naar buiten blaast.

Ik denk eigenlijk dat de Inquirer dit zwaar overschat en dat de R600 heus geen 250W gaat verstoken, Inquirer durft wel eens overdrijven...
Als je zo'n kaart en het energieverbruik kunt betalen dan moet 100watt extra voor een peltierelement ook wel kunnen toch?
Ik vrees dat je er met 100W niet komt, ik denk dat 400+W meer op zijn plaats is.

Komt nog bij, als je dit wil koelen, dan zul je een heel goed koelsysteem moeten hebben dat 200W + 400W moet kunnen afvoeren. Zie ook GoT DOC Faq
Edit: @ _Ernst_: Damn you! ;)
100 Watt extra? Zeg maar gerust 400 Watt extra als je een peltier element wil gebruiken. Het vermogen van het peltier moet groter zijn dat het vermogen van de te koelen gpu. En daarbij moet het peltier ook weer gekoelt worden, dus een peltier is in dit geval geen oplossing.
Nee deze GPU wordt eerst alleen aan Eskimo's geleverd. |:(

Het is wel waanzinnig hoor, ik wacht wel op 65nm, en beter uitgebalanceerde versies, als dit waar is moet er toch zeker 50W en meer afkunnen.
De Eskimo's zijn de beta testers, de Noordpool smelt niet voor niets :+
tweakers worden straks onderklokkers, degene die het minste verbruik uit ze chips haalt :P
Inuit.... Niet Eskimo's...
en nu kan de global warming pas echt beginnen
lekker boeiend ook!!!! Net of iemand dit gerucht geloofd. Zo snel zijn ze nog nooit omhoog gegaan met de wattages en dat zullen ze nu ook niet doen. Want er is bijna geen 1 voeding die dit gaat trekken. Laat staan in Crossfire. Dus neem dit hele bericht maar met een korreltje zout!
Nee, phasechange cooler komt er standaard bij! In extra FULL TOWER
Burn, Baby, Burn!!! 8-)
Jongens, 250 watt is echt extreem veel voor een GPU. Daarbij komt dit bericht ook nog eens van The Inquirer.
Denk toch eens na, The Inquirer roept ook dit soort dingen als het geen 1 April is.
250W? Ecologisch verantwoord is anders. Je kan je verwarming meteen afzetten ook. En daarnaast een andere voeding aanschaffen, want met je 500W zal je er niet meer komen als je nog wat in je PC wil steken. Hoe koel je zoiets trouwens? Met een bescheiden diepvries erop te monteren?
Nuon: Nu bij een 3 jarig contract op Nuon Stroom een gratis ATI R600 Grafische kaart. :Y)
Ik denk dat er genoeg gamers zijn die weten dat een dergelijke chip erg snel is, maar ondertussen geen kaas hebben gegeten van energie verbruik. Dus verkopen doet die denk ik toch wel.
een apparaat van 220 watt, die 4 uur per dag aanstaat kost 65 euro per jaar.

Dus 8 uur zal 130 euro zijn, en dan praten we over 220 watt ipv 250.
1. Het is slechts een gerucht.

2. Die 250W is het theoretische maximum, wat in de praktijk amper gehaald wordt.

3. Elke voeding kan gedurende een korte periode een piekvermogen leveren dat 50-100W hoger is dan het continu vermogen.

4.Deze kaart wordt ws. geleverd met een externe voeding

5. Niemand verplicht je om een high-end te kopen, een mid-end zal ook voor veel eye-candy zorgen

6. Na verloop van tijd wordt er overgeschakeld op een kleiner procedé, wat het verbruik ten goede komt

7. Iemand die een kaart van 600¤ koopt icm een high-end systeem van 1500-2000¤ ligt niet wakker van het verbruik
1 2 3 ... 11

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True