Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 113 reacties
Bron: The Inquirer

AMD heeft onlangs een grote stap gewaagd, het bedrijf heeft namelijk besloten om alle resources in te zetten op het produceren van de nieuwe R600-gpu's op een 65nm-procedé.

AMD + ATi = New AMDDe gedachte achter deze actie is, volgens The Inquirer, dat de aankomende videokaarten van AMD te veel stroom zouden vereisen - wat met een maximaal energieverbruik van 180 tot 270 watt inderdaad niet echt tegengesproken kan worden. Een kleiner chipformaat heeft door een lager energieverbruik - en dus ook lagere temperaturen - als voordeel dat de chip hoger geklokt kan worden, mogelijk tot 1GHz of hoger. R600-chips met een formaat van 80nm zullen nog wel op de markt verschijnen, maar alleen in hele kleine oplagen, omdat de volledige productie over is gegaan op 65nm.

Door de overstap heeft AMD ook een kleine voorsprong weten te behalen wat betreft technologie, aangezien nVidia's 65nm-chip - de G90, voorheen bekend als de NV55 - nog op zich zal laten wachten. Er wordt verwacht dat de 65nm R600's vanaf mei beschikbaar zullen zijn en ongeveer dertig procent zuiniger zullen zijn dan de 80nm-versies, wat in het meest extreme geval neer zal komen op een verschil van bijna 90 watt.

Moderatie-faq Wijzig weergave

Reacties (113)

Gaan ze zich dan eindelijk realiseren dat het energieverbruik van een beetje videokaart gewoonweg te hoog is.
of doen ze dit met de achterliggende gedachte dat de drempel voor een crossfire opstelling dan lager ligt omdat je geen extreme maatregelen voor de voeding hoeft te nemen.

het is wel mooi dat ze het doen, minder warmte, minder koeling benodigd, minder geluid in je kast ;)
het is wel mooi dat ze het doen, minder warmte, minder koeling benodigd, minder geluid in je kast
En niet te vergeten, op termijn (met leuke yields) veel lagere kost om er te produceren. Ze zullen immers veel meer cores kunnen halen uit 1 wafer.
Dat zie je verkeerd. Bij CPU is het vermogen ook groter geworden. ALs je PI P2 P3 C2D architectuur family vergelijkt met mekaar.
Netburst P4 is 'n buiten beentje. 'n misstap.
GPU dito schaald ook lekker.

Dieshrink vermogen ratio en performance ceiling shaald zodanig door dat het vermogen opname ook mee schaald.

Wat van belang is voor de competitie is dat je 'n gelijke of betere vermogen performance ratio hebt tov de competitie. Met de Netburst geen kunst om dat beter te doen. zelfs met 'n dieshrink achter stand.

Als nV 200watt trekt dan is de target ook die 200w om mekaar bij te poten.

200W/200FPS vs 240W/240FPS verhouding. Dan is vermogen performance verhouding ook gelijk.

Dus 8800GTX is niet zuinig met 137Watt. Vs 30 á 60watt wat ze paar jaar terug deden is het aanzienlijk gegroeid. Het is wel zuiniger dan de aankomende competitie.
Vanuit 'n puur milieu perspectief. Pc zijn van 250 naar 400Wat voedingen gegaan alleen als door CPU+GPU vermogen schaling.

Is de 8800GTX ook 'n kachel. Je kreeg er wel de dubbele performance voor terug.

Kwa transistor count, alsof ze 2 G71 in een die hebben geproped en de shaders ook even opgewaardeerd hebben. Gezien de transistor count is kwa rauwe power samengesmolten SLI tov de vorige generatie. Maar bij gelijke dieshrink. Dan gaat de power ook dubbel zo hoog.
Wat gehaald kan worden als nV 'n 8800Ultra released om de R600 even op korte termijn te counteren. 2x 90watt ofzo.

Probleem is als je als milieu freak de grens trekt bij 60watt. was ooit high-end G4Ti4600 ofzo.
Nu zit je op G83 RV610

En de game dev's ontwikkelen voor wat mains stream gaat worden en dat zijn dus 60+ á 100+ GPU. Als DX10 titles de norm zijn.

Dus voor zuinigheid zul je games moeten gaan spelen op minimum requierments.
Dus voor zuinigheid zul je games moeten gaan spelen op minimum requierments.
Of op een Wii :Y)

Speel zelf trouwens op een AMD Athlon 3000+ met Ati Radeon 9000 Pro. Oud systeem maar kan nog prima mee, draai toch nooit hoger dan 1024x786 :Z
dit is nu eens positief!
Goed voor het milieu, snelheid, en goedkoper in verbruik.
Het is helemaal niet zo vriendelijk als je denkt. Ze maken de chip zuiniger zodat ze hem harder kunnen laten lopen. Dus ben je alsnog op het oude verbruiks niveau alleen maakt de kaart iets meer Mhz.
Hoezo oude verbruiks niveau? Er staat toch in het artikel dat hij 30% zuiniger wordt?

Mhz hebben lang niet zo'n invloed op stroomverbruik als de voltage over de chip (bij voltage is het de kwadraat), en die kan bij de overstap op de 65nm proces kennelijk genoeg omlaag om het stroomverbruik met 30% te verlagen *en* de Mhz wat omhoog schroeven.
Hogere kloksnelheden vereisen dat de transistoren sneller schakelen en om dat te bekomen moet het voltage dan weer omhoog. Hierdoor gaat het verbruikte vermogen ook weer omhoog...
Nou, meer performance per watt. Alleen maar goed toch?
ik vind dat je daar niets mee opschiet. als 200w slecht is voor het milieu maakt het niet uit hoe goed het product presteerd, het blijft 'niet goed'.
Ik begrijp de actie van een snellere kaart dan niet.
Wat ik uit het artikel haal is dat de kaarten op 65nm gebakken worden, omdat het energieverbruik te hoog zou zijn en kaarten erg warm worden. Als je de kaarten sneller laat lopen zijn ze mss wel sneller, maar heb je toch weer het hoge energieverbruik en de hoge temperaturen schiet je er toch niets mee op?!

Als deze twee problemen de reden zijn lopen ze volgens mij hun doel een beetje voorbij. Of de verwarring wordt veroorzaakt door The Inquirer
(
...volgens The Inquirer...
)
Dan zou je kunnen zeggen dat gamen slecht is voor de natuur. Aan de andere kant zijn er tal van hobbies die velen malen meer vervuilen. Het grote voordeel voor het millieu is dat een gamer zijn hobby vaak thuis uitoefend. Het ritje in de auto naar de sportclub zal meer energie verbruiken dan een computer. Ook het warmhouden van zwemwater, het bevriezen van een ijsbaan, het warmhouden van een sporthal, het verlichten van sportevenementen, etc, etc zal ook een hoop energie kosten.
Stel dat ik een auto koop die met het zelfde brandstofverbruik 40 KM per uur harder kan; 120 ipv 80.

Als ik dan 80 rij met mijn nieuwe auto, en dus niet mijn volle capaciteit verbruik, dan ben ik dus zuiniger aan het rijden dan toen ik met mijn oude auto 80 reed.
Ik begrijp de actie van een snellere kaart dan niet.
Ik begrijp het wel:
Of je op 250 Watt aan dezelfde performance zit of met 175 Watt,
is wel weer 75 Watt minder verbruik, met dezelfde performance... ;)
Dat is wat er gezegt word... :)
Ja het is snelheid winst of verbruik naarbeneden, niet alle twee tegelijk.(kan ook nog een combo van die twee)
Klok hem zelf terug of koop een zuinigere kaart, als je prestatie wilt ga je niet voor zuinig toch?
Tja, maar de mid-range kaarten zullen dan ook iets sneller zijn. Als je dus echt om het milieu geeft, koop je dan een mid range kaart die 70% van de oude high-end performance biedt, met de helft van het energieverbruik. Of je gaat voor de GT ipv GTX of XT ipv XTX, scheelt toch weer aardig Watt (pun intended) :)
Milie is tegenwoordig ineens echt een issue blijkbaar... vind het een beetje overtrokken want als je het echt zo belangrijk vindt, ga je niet denken over een zuinigere videokaart maar zorg je voor voldoende zonnepanelen om in je eigen stroomverbruik te voorzien. Kun je voor mijn part ook rustig een kaart kopen die 1000 Watt trekt.

Of gebruik je uberhaupt geen 'luxe-stroom' voor games (e.a. zaken).

Begrijp me niet verkeerd, ik ben zelf ook milieubewust maar je moet niet teveel doorslaan naar beide kanten (bang om stroom te gebruiken/overdadig veel stroom gebruiken)... lijkt me.
Ik denk dat zonnepanelen voor 1KW verbruik aardig aan de prijzige kant zijn. Plus de opslag voor de wat donkere perioden.
Ze willen toch juist dat hij niet op het oude verbruiks niveau komt :? het voordeel daarvan(wat niet wil zeggen dat ze dat doen)is dat ie hoger geklokt kan worden,maar is niet de doelstelling van AMD als ik het verhaal zo mag interpreteren.
Dan koop je een kaart die dezelfde performance heeft dan een topkaart nu, en krijg je automatisch minder verbruik.

Dat is toch wat je wil dan?
Ik vind een verbruik van 180watt anders nog steeds extreem teveel voor een videokaart hoor :S
Ben het met je eens maar het is dan ook alleen maar tijdens gamen,
Maar hoe lang kan je nou gamen aan een stuk de enkel chinese verslaafde daargelaten.

In 2D of de 3D van Vista zal dit waarschijlijk teruglopen naar 30~50W nog steeds wel veel maar overkombaar.
In 2D of de 3D van Vista zal dit waarschijlijk teruglopen naar 30~50W nog steeds wel veel maar overkombaar.
Dat vraag ik me dus al een hele tijd af.

Zitten er verschillen in het 3D Windows Vista gebruik en 3D games ? Weet iemand hoe dat precies zit ?
Ik denk het wel. De koeling van mijn geforce go draait nooit op volle toeren in windows vista. Het schakelt direct over op volle toeren zodra ik een game draai. Ik mag dan ook aannemen dat de kaart in de gaten heeft dat er harder gewerkt moet worden, en dus meer stroom verbruikt zal worden.
hoe warm een videokaart word hangt af van hoeveel berekeningen deze uit moet voeren, de aero interface van vista gebruikt aanzienlijk minder poligonen dan een gemiddeld 3d spel van tegenwoordig.
Dit betekend dat de videokaart minder hoeft te rekenen en dus minder warmte produceerd.
De aero interface van vista is lang niet zo zwaar voor videokaarten als vaak word gesuggereerd aangezien het op een recente onboard videochip van intel al vloeiend loopt.
Nja dat maakt niet uit. Normaal gesproken probeert een VGA kaart zijn maximale FPS te halen. Dus hij zal dan altijd voluit gaan werken. Ik denk dat de VGA driver gewoon kijkt naar de .exe bestanden die geladen worden. En als hij de Vista desktop moet renderen wordt hij gewoon naar een low power versie geschakeld ( het 2D profile. Vista desktop is nu wel 3D maar goed ).

De Vista desktop maakt niet echt gebruik van shaders en die hoeven dan niets te doen wat wel stroom bespaard.
@Astennu: Nooit van V-SYNC gehoord? Dan komt hij nooit qua FPS uit boven de refresh-rate van je monitor. Beetje monitor zit je dan op 85Hz

Verder zal het ook op andere manieren mogelijk zijn om het aantal beelden per seconde te beinvloeden
Goed voor het milieu inderdaad :? Het uitbrengen van nieuwe hardware zorgt voor de aanschaf van vele nieuwe kaarten waarbij oude, nog functionerende kaarten aan de kant gelegd worden. Die enkele tientallen watts besparing zijn echt vrij weinig als je naar het totaalplaatje kijkt.

Wat denk je bijvoorbeeld dat het kost om een videokaart te bakken? Wist je dat volgens een recent VN-rapport over de milieuimpact van computers, het maken van een volledige PC zo'n 5 keer meer energie kost dan het maken van een complete auto? Zo inefficient is de produktie van chips nu eenmaal. In die zin kun je ook stellen dat de upgradegolf die Vista gaat veroorzaken je reinste energieverspilling is...
diezelfde auto belast echter het milieu daarna wel een hondervoud meer als diezelfde pc die misschien dan 5 keer meer energie nodig heeft om te maken.

Kijk je dus naar het totaalplaatje dan is een auto nog steeds een grotere vervuiler.
En zo kun je overal wel over beginnen. Milieu is leuk en aardig maar als de economie er aan onderdoor gaat zijn we ook screwed. Ben het overigens wel met je eens dat het erg hard gaat in hardwareland...
Wist je dat volgens een recent VN-rapport over de milieuimpact van computers, het maken van een volledige PC zo'n 5 keer meer energie kost dan het maken van een complete auto?
Correctie; volgens het VN-rapport is de verhouding tussen het gewicht van een PC en het gewicht van verbruikte grondstoffen een factor 5 a 10 hoger dan bij de meeste andere apparaten, zoals koelkasten en auto's.
Een gemiddelde auto is echter een factor 50 zwaarder dan een PC, dus kost ook aanzienlijk meer grondstoffen om te maken.
Neemt niet weg dat de fabricage van PC's een aanzienlijke milieu-impact heeft. Daar moet nog wel winst te behalen zijn.
of we stappen massaal over op kernenergie en ontwikkelen kernfusie verder en bouwen dan allemaal grote kernfusiereactoren, zodat we stroom genoeg kunnen verbruiken zonder dat dit erg slehct voor het milieu is :D
Goed voor het milieu? Hoe kom je daar in godsnaam nou bij! Wat een lariekoek!
hm, als die 65nm dezelfde cooling oplossing krijgt als de 80nm versie zou de 65nm met wat extra voltage dus een stuk hoger te klokken zijn. :9
Iedereen zeurt over stroomverbruik, wil jij het alleen maar erger maken :+
Zo hoort het ook vind ik.. Prestaties is waar het om gaat, ookal moet je er een extra adapter en een zonnepaneel bij aansluiten.
Zonnepaneel, altijd goed. Dan belast je het milieu tenminste niet, mag die kaart zoveel gebruiken als je wilt :)
Heb je een bron dat zonnepanelen niet milieuvriendelijk zouden zijn? Ik heb een klein onderzoekje gedaan naar de materialen die gebruikt worden en ik kan echt niks vinden daarover. Misschien heb ik iets gemist in het productieproces of iets dergelijks, maar ik begin me af te vragen of het geen fabeltje is dat zonnepanelen belastend voor het milieu zouden zijn om te maken.
http://news.ode.be/index....eid=31&cntnt01returnid=15

Na 2 jaar ben je dus weer terug bij 0 waarna ze het milieu helpen.

Gezien zo'n zonnepaneel minstens 20 jaar mee gaat zijn ze dus behoorlijk milieuvriendelijk.
Right, zonnepanelen zijn nog steeds niet milieuvriendelijk... Er wordt tijdens de fabrikage zodanig veel energie verbruikt dat je blij mag zijn als ze zichzelf terugverdienen qua milieubelasting. (Het rendement is hier in NL ook niet denderend wegens ons gare weer...)
Ik was al bang dat ik hier nog de enige echte tweaker was. Al dat gezeik over die paarhonderd watt...
Zeg, al die mensen die heer weer over het stroomverbruik lopen te zeiken, zeur niet. Ten eerste hoef je die kaart niet te kopen, de meeste games draaien uitstekend op een midrangekaart (a la X2600watzeookverzinnen) die de helft van de tijd geen PCIe stroomconnector (dus lager dan 75W), ten tweede kun je altijd nog een laptop kopen met een dergelijke kaart, verbruiken geheid nog minder dan niks. Wil je toch zo'n desktopkaart, ga dan op zoek naar een moederbordje met socket 479, gooi er een snelle Merom op, 2,5" HD, X2600 kaartje en al je games mounten met Daemon. Wedden dat ie minder verbruikt dan een Xbox360?

Daarbij staat zo'n kaart de meeste tijd toch te idlen. Dat verbruik is veelal het maximale verbruik van zo'n kaart, komt ie echt niet aan...
Door deze stap heeft AMD ook een kleine voorsprong weten te behalen wat betreft technologie, aangezien nVidia's G90-chips - voorheen bekend als de NV55 - nog op zich zullen laten wachten.
Ligt het aan gewoon mij of klopt dit niet? Ik dacht dat AMD nu weer gelijk staat met nVidia, aangezien nVidia al een DX10 kaart had en AMD dus nu ook met een DX10 kaart op de proppen komt?
Het klopt wel. De redenatie is als volgt:

Als AMD nu een DX10 kaart op 80nm had gemaakt dan hadden ze gelijk gestaan met Nvidia.

Nvidia had dan bij hun refresh een 65nm DX10 kaart geintroduceerd en AMD had daar dan weer een aantal maand later op gevolgd met een 65nm DX10 kaart.

Nu lijkt het er op dat ze de 80nm versie hebben overgeslagen en meteen hun refresh (65nm) hebben gemaakt.
En dus zal Nvidia zijn die een aantal maand later volgt met een kaart op 65nm.

Doordat ATI een kaart heeft overgeslagen hebben ze technisch gezien dan ineens een voorsprong.

Een interessant gerucht, want het zou wel verklaren waarom de R600 tegen alle verwachtingen in het cijfer 2900 krijgt ipv 2800.
Normaal gesproken had iedereen 2800 verwacht, met 2900 voor de 65nm refresh.

(Het kan natuurlijk ook zijn dat die gedachte de enige grond is voor het gerucht van The Inquirer en dat er geen zier van klopt ;-))
Ik ben niet akkoord, als NVIDIA op een groter procedee een even snelle en even zuinige kaart kan produceren, heeft net NVIDIA een technologische voorsprong.
Net zoals AMD vroeger cpu's had op een groter procedee die perforlmanter en zuiniger waren dan de Intel concurrentie.
Uiteindelijk heeft NVIDIA nog een die shrink te goed nu, AMD niet meer.
Waarschijnlijk lijkt het nu alsof AMD (ATi) voorloopt maar eigenlijk staan ze nu gelijk.
Qua proces lopen ze duidelijk voor 65 t.o.v. 80 nm maar dit hebben ze nodig om de GPU sneller te kunnen klokken. Dat houdt dus in dat de huidige generatie nVidia GPU's veel beter presteren dan wat ATi eigenlijk op stapel had staan.
Niet voor niets laten die ATi kaarten op zich wachten. Nu dan het nieuws dat ze die meteen op 65 nm gaan produceren. Dit om te zorgen dat ze de G80 GPU kunnen bijbenen/verslaan.

Eigenlijk lopen ze nog steeds achter omdat tegen de tijd dat deze uitkomen nVidia al bijna met de 2e generatie DX10 GPU's komt die dan waarschijnlijk ook op 65 nm zijn gebakken.

En dat alles natuurlijk als the Inquirer voor de verandering eens gelijk heeft!
Games zijn exit voor mij, na een aantal dure aankopen gedaan te hebben heb ik er nu genoeg van.

Die games kosten niet veel maar wat je nodig hebt om het een beetje leuk te draaien is moordend.

De ene videokaart na de andere, elk jaar een nieuw mobo, cpu, geheugen. Het is het gewoon niet meer waard.

En dan over het stroomverbruik nog maar te zwijgen, 270 watt voor videokaart? Waar gaat dit heen!
Dat ligt erg aan jouw eisen, als je genoeg hebt aan medium settings, dan is eens in de 3 jaar nieuwe cpu/gpu kopen ook zat, en dan hoef je echt een graka van 500 euro te kopen
Hier ben ik het toch niet mee eens hoor. ik draai nog steeds alle moderne games met mijn X800 kaartje, die is toch al best oud. zeker 2.5 a 3 jaar schat ik. zelfde geld voor mijn cpu en mobo, als je 1x in de 2.5 a 3 jaar een upgrade doet ie dat vaak zat.
koop een console, goedkoper als een hele nieuwe pc en je kan games voor minimaal een jaar of 4 op maximum spelen, totdat er een nieuwe console komt, maar dat gaat niet zo snel
Het zou wel leuk zijn als ze behalve het 65nm process te gebruiken om het stroomgebruik van de kaart met de meeste performance te beteugelen, ook een standalone kaart te releasen die zo weinig mogelijk stroom verbruikt en toch nog een beetje performance biedt.

Waarschijnlijk zal die er wel van komen in de vorm van een integrated ding of een laptop chip, maar gewoon een PCI-E kaartje met deze eigenschappen zie je niet zo vaak.
Ik zou het op zich wel grappig vinden als ze bijvoorbeeld een 6600GT met directx 10 voorzien, en alle andere nieuwe snufjes. En deze produceren op 65NM, met GDDR4 geheugen ofzo :)
Zo! dat is nog eens ingrijpend. van 80nm direct naar 65nm.

Op 65nm zal de chip kleiner zijn, waardoor er meer chips op één wafer passen. Waardoor ze goedkoper zijn te produceren én dus een lagere winkelprijs hebben en dus meer schaalbaar zijn én sneller.

Pffff zoveel voordelen hebben die lagere procedures :D
What can i say ? Go ati ! want een verbruik van 240-90 voor de consumenten versie komt het totaal gebruik neer op 150 watt. Dat is nog redelijk zuinig voor zo'n monster die het nog moet opnemen tegen de geforce 8900 én de 8950GX2 die nog moet komen.

Ik veracht dat de coresnelheid van de R600 die op 80nm is gemaakt ongeveer 700 tot 800mhz zal schalen. De 65nm zal een standaard clocksnelheid van 1ghz halen. Uitgaande dat er nog rek in de coresnelheid zal zitten is 1200mhz niet onmogelijk!

Het kan ook een stragetische stap zijn richting de ''Dual-core/gpu'' Videokaart zijn. Met 2 van die 80nm chips zou het verbruik érg hoog worden. Wellicht met deze technologie zou de overstap makkelijker en meer rendabel zijn.
@yori1989, waar baseer je die data op?? :?
een deel uit eerder nieuws en ''bronnen'' :X
En jij denkt dat ze die lagere kostprijs gaan doorbereken in de verkoopprijs? De brutowinstmarge word gewoon(nog) hoger...
ALs je bedankt dat er al een produktielijn voor 80 nm uitstond en deze vervangen moet worden door 65 nm apparatuur, dan denk ik dat het wel eens tegen kon vallen met die kostprijs.

Eerlijk gezegd denk ik dat 65nm de enige manier was om een snellere kaart dan Nvidia op de markjt te zetten.

De GPU architectuur van Nvidia (128 pipes) is nagelnieuw en vatbaar voor de tokomst. De architectuur van Ati is oudbaggen en uitgemolken. Ikdenk dat de strijd om de snelste GPU aanstonds voor de komende tijd beslist is.

Ati kan dan wel net iets sneller zijn dan Nvidia, die komt er vermoedelijk met een GX2 overheen die alles en iedereen laat verbijsteren en ook nog een Quad SLI uit de Box zal ondersteunen.
Zo erg was ik nou ook weer niet over de 7950 GX2 te spreken. En ik geloof niet dat een dubbele 8800 zo goed is voor het stroomverbruik (iets waar iedereen hier over aan het zeiken is, kom jij met een GX2 aanzetten...
@Cubefanatic
Neem daarin dan wel mee dat NVidia ook aan een nieuw productieproces gaat beginnen. Ik denk dat ze ATI zeker snel zullen willen volgen na deze stap. De 7950GX2 was in sommige games erg goed, in andere viel hij wat tegen. Als de game ontwikkelaars meer op SLI en multi-gpu in het algemeen gaan focussen (en dat doen ze), dan denk ik dat samen met wat verbeterde drivers de 8950GX2 een topper zou kunnen worden wat betreft prestaties :D maar zuinig zal zo'n kaart nooit worden, die zal altijd over de 200W blijven gebruiken, totdat ze een totaal andere weg inslaan en energie als belangrijk ontwerp criterium meenemen, net zoals Intel en AMD nu hard omlaag zijn gegaan.
Outbaggen en uitgemolken?
ATI zit al aan zijn tweede generatie Unified Shader Architecture, een nog steeds kersverse technologie waar nVidia zich nu een BEETJE aan waagt. Aparte shader pipes van maar 1 dimensie op een afwijkende kloksnelheid.
Met de move naar 65nm is de R600 enorm schaalbaar geworden en zal flink wat sneller kunnen worden met DX10 t.o.v. nVidia.
Als nVidia een beetje mee wil doen met de multi-GPU opstellingen in de toekomst zullen ze veel beter schaalbare hardware en drivers moeten maken. Dat ze eerst op de consumentenmarkt waren met SLI zegt helemaal niets.
Natuurlijk heeft het voordeel. Maar je moet het natuurlijk wèl kunnen maken. En dan bedoel ik met een goede yield. Als je in 80nm 90% hebt en in 65nm maar 50% dan is de lol (om niet te zeggen alle voordelen) er gauw af.

Bij een kleiner productieproces is het moeilijker om goed scherp te stellen (het wordt met licht gedaan, en hoe kleiner het proces hoe meer dat uitwaaiert). Het komt allemaal veel preciezer. Als dat niet goed lukt krijg je juist minder hoog klokkende dies, of helemaal mislukte.

@sjors^
ja natuurlijk wordt dat doorberekend in de verkoopprijs. De vraag is alleen 'wanneer'. Jij doet net of die prijzen statisch zijn,maar dat zijn ze niet. Alle prijzen worden regelmatig verlaagd. Nu heb je gewoon wat meer lucht en uithoudingsvermogen om de concurrentie vol te kunnen houden.
Hm als dit gaat lukken is dat goed nieuws.
Ik zit al een beejte vooruit te kijken naar een nieuwe videokaart. Maar het energie verbruik en de daarbij gepaarde herie van de koeling is een erg groot nadeel.

Ik vraag me af of er net als bij cpu ontwikeling een nieuwe generatie komt die ook zuiniger word. want van GPU die 150w+ verstoken word niemand blij.
Nee, dan moeten 'n soortgelijke Netburst misstap maken.
Houd in 'n nog meer stroom vretende architektuur op gelijke dieschrink.

Dus 200Watt wordt dan 300 en performance blijft gelijk.

C2D vergelijken met P4 is fout.
P4 heeft ook 'n C2D tegen hanger nl de Tutalin.

Dus als je kijkt van P1 tot P3 tot Tulatin tot C2D.
Zijn ze juist meer gaan trekken.
P4 heeft ook 'n C2D tegen hanger nl de Tutalin.
:?

De Tualatin (op deze manier geschreven) was gewoon de laatste revisie van de Pentium 3 en opvolger van de Coppermine (die dan weer de opvolger van de Katmai was). Vergelijk het met bijvoorbeeld Winchester en Venice, die onder de "Athlon 64" noemer vielen.

Voor de rest ga ik wel akkoord met wat je zegt (alhoewel je het woord "dieschrink" verkeerd gebruikt - een "die shrink" - zonder 'c' dus - is een verkleining van het productieprocédé en niet zozeer het productieprocédé op zich).
En dat gezeur over het milieu moet nu ook eens ophouden. als jij persé een trage pc wil hebben om die paar watt dan kan dat ook! Dat heb je namelijk zelf in de hand bij het aanschaffen.
*haleluja* de oplossing: vrije markt systeem!!

En dan nog even semi-off-topic, voor de mensen die geinterresseerd zijn:
Het is de laatste tijd een beetje een hype om allemaal spontaan het mileiu te gaan redden. niets mis mee, er hangt ook naast mij een spaarlamp. Maar iedereen vergeet even dat de afgelopen 2 decennia de ozonlaag STERKER is geworden. En dan kunnen we wel een prachtig Kyoto-pact opstellen, en met zn allen een anoexia pc kopen qua stroomvoorziening.. Dit alles door een soort Al-Gore terwijl het allemaal (op zijn zachtst gezecht) best meevalt (we hebben nog 1200miljard gallons olie vooradig, en nog dusdanig genoeg gas en kool dat we het nog 2 eeuwen uit kunnen houden)

Tot slot nog 1 puntje zodat al onze zuinig-met-energie helden ''rustig'' kunnen slapen: meer dan de helft van alle uitstoot komt van vliegtuigen (Kerosine is de nummer 1 vervuiler) daarna komt de industrie met een schamele 30%, vervolgens het verkeer op 8%, en wat er van huishoudens afkomt is nog geeneens 2,5 procent! hoe ontiegelijk klein moet het aandeel van je pc daarin zijn?

Conclusie: leuk meegenomen natuurlijk als je gpu wat zuiniger is. Maar je moet niet doorslaan.
Als je dat kan staven met bronnen die we kunnen geloven is een groot deel van onze westerse bevolking opgelicht...
We're sorry, but this video may not be available.

Try refreshing the page to see this video.

*F5*

We're sorry, but this video may not be available.

Try refreshing the page to see this video.

:'(
Handig he , zo'n plank voor je kop :)
ja, en laten we niet vergeten dat de ozonlaag nul komma nul te maken heeft met CO2, of broeikaseffect...... Ga jij nog maar even naar school toe!
Je redeneringen en al je getallen kloppen niet :P

Ik geef je gelijk over het energieverbruik van een pc en dat je dat zelf in de hand hebt met aanschaffen ervan of niet.

Even een grote illusie verstoren wat sceptici als jij vaak hebben. Er is idd genoeg olie om het nog wel een jaar of 100 uit te zingen. Probleem is alleen dat de winning ervan exorbitant duur is. De olie piekt binnen nu en tien jaar. Daarna betaal je gewoon steeds meer aan de pomp. Bijvoorbeeld 20 euro de liter over een jaar of 30. Er is genoeg voor 200 jaar huh?

De meeste energie wordt overigens verslonden door verwarming. Meer dan de helft.
Even een rekensommetje voor dat pctje van jou thuis:

Staat in je huis, is deel dus van die 2,5%
Is geproduceerd door de industrie dus deel van die 30%
Onderdelen en het ding zelf zijn waarschijnlijk vervoerd d.m.v. vliegtuigen en dus een deel van die 40%

1200miljard gallons nog aanwezig. Het moet nog gewonnen worden dus dan ten koste van wat? Smelten van de ijskappen? Extra droogte? Uitsterven verschillende diersoorten?

Niet doorslaan? Ik stel dat jij je kop in het zand steekt voor de feiten.
Leuke cijfers, maar uhm
Datacenters (het internet dus) gebruiken al 1.2% van alle stroom op de planeet.
Genoeg olie om het nog 200 jaar vol te houden? Volgens mij brandt olie niet onder water hoor. :Y)
Nah, ik weet het goed gemaakt. AMD gaat mijn extra stroom verbruik compenseren door bomen te planten als ik een R600 koop :D.
Snap de aangedragen redenatie's niet zo...

Waarom als de techniek er is, gaan we niet ook eens kijken om Hardware efficenter en zuiniger te maken ?
Waarom kan een lager stroom Verbruik en preformance niet samen gaan bij GPU,s terwijl het wel bij CPU's kan ?
Is het niet beter om daar ook eens op te letten
Minder stroom, minder warmte dus ook weer normale coolers en minder lawaai en toch Gamen als jij dat wilt.
daar is toch niets op tegen ?
Zijn dus meer redenen en voordelen op te noemen dan enkel iedereen af te schilderen als zuinig-met-energie helden.

De vraag die dan mischien ook off-topic is....
Kan jij echt slapen en niet schuldig voelen omdat je buur toch erger is in het gedrag dan jij zelf......

" de wereld gaat toch kapot dus hoef ik niets meer te doen houding ? "

Goed bezig jongen !
wel terusten :Z

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True