Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties

In mei, een maand nadat AMD's high-end videokaarten gebaseerd op de RV790 gelanceerd moeten zijn, zal AMD zijn eerste 40nm-gpu's introduceren, met de codenaam RV740. De gpu's gaan concurreren met de 9600GT en de GTS240.

ATIAMD gaat twee verschillende 40nm-gpu's lanceren, de RV740XT en de RV740Pro, die zullen verschijnen op respectievelijk de HD 4770 en de HD 4750. Het grote verschil tussen de twee gpu's is dat de RV740Pro gebruikmaakt van gddr3-geheugen, terwijl de RV740XT over gddr5-geheugen beschikt, zo bericht vr-zone. Beide gpu's zouden over een 128bit-geheugenbus beschikken, maar door het gebruik van op 3200MHz lopend gddr5-geheugen zou de geheugenbandbreedte van de RV740XT-kaart nagenoeg gelijk zijn aan die van een HD 4850, die een 256bit-geheugenbus heeft, in combinatie met het tragere gddr3-geheugen. Met zijn gddr3-geheugen krijgt de RV740PRO een geheugenbandbreedte die in de buurt ligt van die van de HD 4670. Ondanks de lagere bandbreedte is de HD 4670 niet veel langzamer dan de GeForce 9600GT, zegt Techpowerup, en dat is precies de kaart waar de HD 4750 tegen moet concurreren.

Opvallend is de hoeveelheid geheugen voor de RV740Pro, die op 1GB zou liggen. Een dergelijk grote hoeveelheid geheugen is alleen voordelig bij zeer hoge resoluties, maar die kunnen niet door deze mainstream-kaart worden gerealiseerd, omdat de grafische rekenkracht van de gpu daarvoor onvoldoende is. Beide gpu's zouden 640 streamprocessors krijgen met een kloksnelheid van 700MHz. Door middel van een driefasige voeding zouden de kaarten zuiniger met energie moeten omgaan.

De RV740 zal in mei verschijnen, een maand later dan de RV790. Dit is te wijten aan het nieuwe 40nm-procedé waar de nieuwe gpu op wordt geproduceerd, in tegenstelling tot de RV790, die gewoon nog op 55nm zal worden gebakken. De HD 4770 zou een prijskaartje meekrijgen van 119 dollar, waarmee de kaart de strijd aangaat met de GTS240. De HD 4750 wordt naast de 9600GT gepositioneerd, en krijgt dan ook een prijs mee van 99 dollar.

Moderatie-faq Wijzig weergave

Reacties (31)

Aangezien de 4670 nu de beste prestaties/Watt aflevert, verwacht ik veel van deze RV740; een mainstreamkaart die weinig verbruikt maar toch voldoende power heeft om recente games te spelen. Omdat ik zelf enkel oudere games speel en heel erg let op het verbruik van mijn PC vraag ik me af welk geheugen het zuinigst is: GDDR3 of GDDR5, want over het verbruik van GDDR ram vind ik bitter weinig informatie. Iemand een idee?

edit: ik heb het toch gevonden (de vorige keer leverde m'n zoekactie niets op).
GDDR3 werkt standaart op 2.0 V, terwijl GDDR5 op 1,5V werkt. De 4770 zal dus zuiniger zijn dan de 4750 als de rest gelijk blijft.
Hopelijk kan hij net als de 4670 werken zonder extra stroomvoorziening.

[Reactie gewijzigd door ShaiNe op 18 februari 2009 10:26]

GDDR3 werkt standaart op 2.0 V, terwijl GDDR5 op 1,5V werkt. De 4770 zal dus zuiniger zijn dan de 4750 als de rest gelijk blijft.
Dat hoeft helemaal niet zo te zijn. Als ddr5 een hoger amperage nodig heeft kan het zelfs andersom zijn zoals je stelt. Je mist dus gegevens om je conclusie te ondersteunen. Power (watts) = Voltage x Amperage oftewel P=VxA.

Hier heb je een vergelijking tussen DDR2 en DDR3

Je ziet dat DDR3 full load op 1.9 volt 246 Watt verbruikt, terwijl DDR2 op 2.2 volt 249 Watt uit het stopcontact trekt. Kortom, lager voltage is niet direct lager verbruik!
op stock voltages is het verschil 6 watt zoals ook te lezen is in je article.
en gezien het verbruik van geheugenmodules niet zo heel groot is 6 watt best veel.
weet wel de ddr3 die je noemt heeft een 25% overvolt, de ddr2 slevhts 10%. Bij een gelijk blijvende resistive load neemt het verbruik dan toe met (reken aub zelf maar uit. ;) ).

Standaard ddr3 heeft een voltage nodig wat 75% is van ddr2. Du verbruik neemt navenant af (doordat de weerstand zeg ~vergelijkbaar blijft).
Hoe kan het dat men bij grafische chips andere sprongen maakt in procédés dan bij cpu's?
Als AMD over een tijdje al grafische chips op 40nm kan maken, waarom doen ze dat dan ook niet met cpu's, waarom moeten die op 45nm? Waar zit dat verschil in?
Ik ga lekker lui doen en mezelf quoten, uit een ouder nieuwsbericht waarbij dezelfde vraag gesteld werd:
40nm is een zogenaamde "half-node" van 45nm. Waar CPU bakkers vaak alleen volle nodes (90, 65, 45, 32, enz) gebruiken gebruiken chipbakkers als TSMC vaak ook zogenaamde half-nodes (80, 55, 40, 28), die vrijwel altijd dezelfde eigenschappen hebben als de full node, maar zowel kleiner als zuiniger zijn. CPUs hebben een veel langere levenscyclus, en worden meestal maar eens per jaar of twee jaar geupdate. Bovendien kunnen Intel en AMD heel specifiek voor hun eigen procedee ontwerpen en later ook optimaliseren (nieuwe Penryns hebben een duidelijk lagere TDP dan de eerste versies), omdat ze dit in eigen fabs gebruiken.
In tegenstelling daarmee worden chips die door TSMC en UMC gebakken worden vaak softwarematig ontworpen, en zijn dus minder efficient. GPU ontwerpers hebben dus veel meer aan een dergelijke half-node dan bij CPUs het geval is, omdat ze niet de mogelijkheid, tijd en resources hebben om voor een specifiek procedee te ontwerpen.

Normaal gesproken zijn half-nodes echter pas later beschikbaar dan de full-node (55nm kwam afaik pas iets van een jaar na 65nm bij TSMC), maar bij de ontwikkeling van 40nm had TSMC kennelijk genoeg meevallers om 45nm compleet over te slaan (of 40nm is gewoon hun 45nm procedee, dat erg klein is uitgevallen, dat durf ik niet te zeggen). Vandaar dus dat ze nu al 40nm zitten terwijl de rest van de industrie nog op 45nm zit.
originele nieuwsbericht

Wat betreft de tweede vraag dan. AMD heeft zelf een eigen 45nm procedee, en eigen fabs waarin ze met dat procedee CPUs kunnen bakken. Ze kennen zelf alle eigenschappen van dit procedee en kunnen daardoor veel nauwkeuriger een CPU ontwerpen, en betere yield, meer performance en kleinere chips bereiken. Als ze hun chips op 40nm willen hebben moeten ze of zelf een 40nm procedee ontwikkelen, wat gigantische hoeveelheden geld kost en bijna geen voordelen heeft voor AMD, of de chips laten bakken bij TSMC. Daar hebben ze echter niet alle details van het procedee, dus dat betekent minder goede yield, performance en dergelijke dan bij chips op hun eigen procedee.
De reden dat AMD hun GPUs niet in hun eigen fabs maakt is dat het ontwikkeltraject ontzettend lang is. De chips die nu uitkomen zaten al in de planningsfase toen ATI nog niet eens overgenomen was, en er is dus nooit rekening gehouden met AMD's mogelijkheden. Daarnaast is het maar de vraag of AMD's eigen procedee zomaar geschikt is voor GPUs. Het is al met al dus veel makkelijker om gewoon TSMC deze chips te laten bakken.
Aha.. bedankt voor de info :)

Maar het is dus wel mogelijk om die CPU's op 40nm (half-nodes) te bakken als ze dat echt willen?

Hoe kan het dan dat CPU bakkers altijd "toevallig" overstappen op een nieuw procede dat een zgn. full node is en nooit een keer een half-node omdat dat qua timing toevallig zo uitkomt? Waarom zouden CPU-bakkers nu nog aanstalten maken om over te stappen naar 32nm als 28nm ook al bestaat?

Of zijn er meer verschillen dan alleen het aantal nm?

Want nou probeer ik erachter te komen wat een full node een full node maakt en een half node een half node (waar ik overigens nog niet achter ben gekomen) en dan kom ik dit tegen via google:
http://www.istockanalyst....ockNews/articleid/2658582

terwijl 28nm in het rijtje uit je quote staat bij de half nodes..

Nou lees ik vandaag ook nog dit:
nieuws: Aandeelhouders AMD akkoord met afstoten chipproductie

Waarom betekent produceren bij TSMC "minder goede yield, performance en dergelijke" zoals je zelf aangaf, maar produceren bij the foundry company niet?

[Reactie gewijzigd door Bakove op 19 februari 2009 23:06]

Maar het is dus wel mogelijk om die CPU's op 40nm (half-nodes) te bakken als ze dat echt willen?
In principe wel, maar dan zullen ze of een eigen 40nm procedee moeten ontwikkelen (miljareninvestering) of hun hele CPU opnieuw moeten ontwikkelen om het bijvoorbeeld door TSMC te laten bakken (jaren werk). Beiden kosten teveel (in tijd en/of resources) om op te wegen tegen de voordelen :)
Hoe kan het dan dat CPU bakkers altijd "toevallig" overstappen op een nieuw procede dat een zgn. full node is en nooit een keer een half-node omdat dat qua timing toevallig zo uitkomt?
Ik ben geen expert op dit gebied, dus ik kan het fout hebben, maar volgens mij wordt dit vastgesteld in de IRTS oftewel de International Technology Roadmap for Semiconductors. 45nm is dan ook een verzamelnaam voor alle procedees die ongeveer deze "schaal" hebben. Je ziet dan ook dat elke chipbakker weer een eigen procedee heeft dat net weer andere eigenschappen (grootte, snelheid, verbruik, etc) heeft als dat van de concurrent.

Hoe het zit met half-nodes weet ik niet precies, maar wat ik wel weet is dat de eigenschappen van een half-node procedee veel op de full-node lijken, zodat het ontwerp voor een chip op een full-node makkelijk geschaald kan worden naar de half-node. De verschillen tussen full-nodes zijn vaak veel groter en daarom moeten chips (gedeeltelijk) opnieuw ontworpen worden.
Waarom zouden CPU-bakkers nu nog aanstalten maken om over te stappen naar 32nm als 28nm ook al bestaat?
Omdat het nog niet bestaat, om dezelfde reden dat 16nm nu nog niet bestaat. Het kost ontzettend veel geld en tijd om een nieuw procedee te ontwikkelen. Nieuw onderzoek en ervaringen met een "groter" maakt het mogelijk om kleinere procedee's te ontwikkelen. Een half-node kan dus doorgaans pas later zijn uitontwikkeld dan de full-node. Intel gaat bijvoorbeeld voor 32nm en niet voor 28 omdat het ontwikkelen van 28nm waarschijnlijk snel een half jaar tot een jaar langer zou duren om te ontwikkelen. Daarbij zijn de voordelen niet zo groot, ze kunnen beter hun tijd steken in ontwikkelen van 22nm daarna.
terwijl 28nm in het rijtje uit je quote staat bij de half nodes..
TSMC is hier een beetje een uitzondering. Ofwel ze hebben een 45nm procedee ontwikkeld dat onverwacht klein was, en dus als 40nm door kan gaan, ofwel de ontwikkeling van 40nm ging sneller dan verwacht, ofwel de ontwikkeling van hun 45nm procedee liep vertraging op, of een combinatie daarvan. Hetzelfde geld volgens mij ook bij hun 32nm en 28nm procedee's.
Waarom betekent produceren bij TSMC "minder goede yield, performance en dergelijke" zoals je zelf aangaf, maar produceren bij the foundry company niet?
Dat is een beetje de vraag. AMD heeft natuurlijk een hele hechte band met TFC, dus ze hebben veel meer toegang tot hun technologie, procedee's en fabs. Bij TSMC zijn ze gewoon klant, dus die informatie krijgen ze niet.
verschuiven naar een kleiner process is niet zo simpel als iets verkleinen op het fotokopieerapparaat. Heleboel stukken moeten opnieuw ontworpen worden. Waarschijnlijk zijn ze al bezig met het ontwerpen van een chip op een kleiner procede, maar duurt het nog even voordat het productieklaar is.
Ik ben een beetje simpel, ik geef dat direct toe. :) Maar als CPU's al sinds jaar en dag makkelijk over de 3 Ghz halen waarom is dat bij GPU's dan nu maar net aan het geval? Ik zie namelijk eigenlijk maar heel weinig versnelling optreden ook al loopt iedereen te roepen dat het prachtige resultaten zijn, maar van sprongen van 5fps of minder ben ik niet onder de indruk (ook tijd voor multi core of i7-achtige GPU's gezien de GDDR3 techniek lijkt me; of is GDDR3 zoveel anders dan DDR3?) Dankzij één van mijn applicaties die gewoon beter draait op NVidia ben ik van trouwe ATI klant, weer terug bij heel lang geleden en zit er weer een NVidia bakkie in mijn PC (een HD4870 vervangen door 9800GT omdat de 4870 fouten maakte - of is dat het gevolg van de brakke Catalyst drivers?)
De reden is tweeledig: complexiteit en stroomverbruik.

De complexiteit van een chip bepaalt in grote mate hoe snel deze kan draaien. Waar het tegenwoordig al lang mogelijk is om een enkele transistor op meer dan 1 THz te laten draaien blijven CPUs nog steeds op de 3 a 3,5 GHz steken. Het probleem is dat niet elk stuk van een processor even snel kan zijn. Complexe delen van een chip vormen al snel een bottleneck die de snelheid van de chip beperkt. Bij hogere snelheden worden er bijvoorbeeld fouten gemaakt of wordt het hele systeem zelfs instabiel. Nu is dit geen probleem wanneer dit een enkele bottleneck is op een complete chip, in dat geval kunnen de ontwerpers dit stuk onder handen nemen en het probleem oplossen. Moderne CPUs en GPUs hebben echter vele miljoenen transistoren, en op een gegeven moment wordt het onmogelijk om alle bottlenecks uit het ontwerp te halen. Door het ontwerp van een moderne CPU is het kennelijk goed mogelijk om hoge snelheden te halen. Een GPU is wat dat betreft dan ook misschien wel complexer dan een CPU, die vaak niet alleen veel kleiner zijn, maar ook voor een groot deel bestaan uit cache. GPUs blijven daardoor sneller steken op lage snelheden.

Tweede probleem is stroomverbruik, en daaraan verwant natuurlijk ook hitte. Een interessant probleem bij chips is dat snelheden (MHz) niet lineair lopen met stroomverbruik. Een chip twee keer sneller laten lopen kan al snel leiden tot een veelvoud van het stroomverbruik. Dit is ook een van de redenen dat Intel en AMD geen snellere processoren uitbrengen. Ja, sommige exemplaren halen 6GHz, maar het stroomverbruik loopt daarbij de spuigaten uit. Dit komt onder meer door de hitte, want hoe heter de chip, hoe meer stroom verbruikt wordt. Hitte op zichzelf is echter ook al een probleem. Als je bedenkt dat moderne GPUs onder load al snel 100-200 Watt aan hitte moeten wegwerken snap je het probleem waarschijnlijk wel.
afaik drivers.... en 9800GT ipv 4850, dat is hoe dan ook downgrade, als je voor de GT260 was gegaan had ik nog aleh gezeg... maar een 9800.....
Wow, Jostytosty, jij doet je naam eer aan... Ikke ook jos zijn, maar weet wel een beetje meer over dit onderwerp ;-)

Een top GPU haalt zo 1000 gigaflops, een Intel Core 2 Extreme QX9650 blijft haken op een thereotische performance van 96 Gigaflops.

Met andere woorden, CPU's lopen een factor 10 achter op GPU's qua processing power.

De 4770 heeft 640 shader processoren, dat is te vergelijken met simpele CPU cores - ofwel iets meer dan de miezerige 4 cores van een i7.

Natuurlijk zijn de architecturen moeilijk te vergelijken, maar zeggen dat GPU's achter lopen op CPU's qua ontwikkeling - no way... Het perfecte voorbeeld dat Gigahertzen niets zeggen :D

En ja, fouten zitten meestal in de drivers.
Van wat ik van CJ las, moesten deze kaarten RV740XT echt wel beesten zijn voor zijn prijs. De prestatie zou bij de 4830 liggen, maar ligt waarschijnlijk dichter bij de 4850.

Als je de huidige prestatie vergelijkt, dan zit de 4830 net boven het niveau van de 9800GT en is dus een stap sneller dan de 9600GT. De GTS240 is een OCed 9800GT en de prestaties zijn op of net over de 4830. Dus zoals het er nu uit ziet gaat ATI het weer winnen op dezelfde prijs punten.

[Reactie gewijzigd door Reinman op 18 februari 2009 10:08]

Zolang als ik al kijk word dat gezegd daar van elke nieuwe generatie van kaarten . De HD2900 bijvoorbeeld was daar een heel goed voorbeeld van.

Soms hebben ze gelijk soms niet, denk dat wat meer neutrale mensen hun oordeel beter zou zijn.
Op specs gebaseerde uitspraken zijn meestal neutral zat en daarmee goed genoeg.

4830 vs 4770
- allebei 640 shaderprocessors
- maar die van de 4770 lopen zo'n 125MHz == 20% harder.
- daarentegen heeft de 4830 zo'n 10% meer bandbreedte.
- de andere specs van de core (render-backend) zijn nog niet bekend, maar zelfs al lijkt die op die van de 4670, dan nog maakt dat verschil in kloksnelheid zo ongeveer alles goed.
- tot slot kan de 4770 met meer geheugen overweg, wat ook voor sommige hedendaagse spellen qua textures al geen overbodige luxe meer is. (Hier ben ik het niet eens met het artikel).
zo op het eerste gezicht dus een 4830 op een nieuw productieproces. beide kaarten hebben 640 stream processors en de bandbreedte van de 4770 is iets groter dan dat van de 4830. ook de clockfrequentie van de 4770 ligt 125mhz hoger dan die van de 4830. Dus waarschijnlijk een sneller kaartje met een lager verbruik :)
zo op het eerste gezicht dus een 4830 op een nieuw productieproces.

4830: 256 bit
4770: 128 bit

niet dus
4830, 256 bit op GDDR3 900 mhz (DDR)
4770, 128 bit op GDDR5 800 mhz (QDR)
dus ca 10% lagere bandbreedte, terwijl de coreclock ca 20% hoger ligt. Effectief scheelt het dus niet zo veel.
Deze kaart zal goedkoper te produceren zijn vanwege de simpelere PCB en kleiner productieproces voor de chip
Logische benaming die ook daadwerkelijk wat zegt over de snelheid tov andere ATi HD kaarten.
Door middel van een driefasige voeding zouden de kaarten zuiniger met energie moeten omgaan.
Nu begrijp ik iets niet, mijn MSI 4830 OC 1GB heeft een 5 fase stroomvoorziening, is het aantal stroomvoorzieningen dan weinig bij de RV740 of is het bij mijn 4830 absurd (onzinnig) veel?
Of mischien zijn het verschillende generaties kaarten waardoor de RV740 op een andere manier met energie om gaat dan de 4830. Zeker aangezien je over een 4830 OC praat die behoorlijk aan het maximum van zijn chipset zit.

De kaarten zijn wat dat betreft dus niet met elkaar te vergelijken.
het gaat om fasen. dat duidt voor zover ik weet niet op de hoeveelheid stroom die geleverd wordt, maar op de stabiliteit van de spanning. Meer fasen=kleinere (en hoogfrequentere) ripple

blijkbaar kan de RV740 met minder af...

[Reactie gewijzigd door MeMoRy op 18 februari 2009 21:40]

Het is nog helemaal niet zeker dat de RV790 55nm is. Er gaan ook geruchten dat dit een 40nm chip wordt.
Welke geruchten? De laatste RV790 samples lopen op 1,3v, dat is te hoog voor 40nm-chips, en het is ook ietsje hoger dan de huidige RV770-chips. 40nm voor RV790 lijkt mij dan ook zeer onwaarschijnlijk.
Heb jij samples dan? Het enige wat ik heb gehoord zijn geruchten van vage sites met nog vagere bronnen die zonder enige onderbouwing beweren dat de samples die ze claimen te hebben bepaalde specs hebben.
Ik wacht liever op wat concreter bewijs ;)
Wel mooi dat steeds meer kaarten met 1GB videogeheugen worden uitgerust. Als je later een tweede kaart wilt toevoegen voor Crossfire heb je een verdubbeling van de GPU power en kun je juist heel goed gebruik maken van dat extra geheugen. Zie bijvoorbeeld GTA IV, daar wil je wel meer dan 512MB hebben met twee snelle kaarten in SLI/CF.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True