Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 29 reacties
Bron: Digitimes

AMD heeft twee nieuwe grafische chips voor het instap- en middensegment in de steigers staan: de RV635 en de RV620. Het zou gaan om upgrades voor de Radeon HD 2400 en de 2600.

Beide gpu's worden geproduceerd volgens het 55nm-productieproces, in tegenstelling tot hun voorgangers, de R630 en de R610, die met 65nm-technologie gefabriceerd werden. De komende grafische chips krijgen corekloksnelheden van 800MHz mee, evenals ondersteuning voor DirectX 10.1, shader model 4.1 en pci express 2.0. Bovendien worden de modellen voorzien van een DisplayPort-uitgang.

Om de overgang naar de nieuwe entrylevel- en midrange-serie zo vlot mogelijk te laten verlopen, en een voorraadoverschot te voorkomen, gaat AMD van hetzelfde pcb-ontwerp gebruikmaken als bij de HD 2400 en 2600. Hoewel nog geen officiŽle namen bekendgemaakt zijn, wordt verwacht dat de nieuwe modellen als Radeon HD 2650 en HD 2500 door het leven zullen gaan en dat van beide gpu's een XT- en Pro-versie uit gaat komen. AMD zou de eerste testexemplaren in oktober de deur uitdoen; de chips zouden vervolgens in januari volgend jaar op de markt komen, aldus bronnen van Digitimes.

Moderatie-faq Wijzig weergave

Reacties (29)

Waarom maken niet (mainstream) cpu's eigenlijk andere nanosprongen dan gewone cpu's? Dus niet 90-65-45 nm, maar 65-55 nm?
55 nm is een eenvoudige verkleining van 65 nm, 45 nm is een volledig nieuw proces.

Men maakt dus 55 nm chips op apparatuur bedoeld voor 65 nm door de marges wat kleiner te nemen. Hierdoor gaat wel het aantal werkende chips achteruit, maar dat betert nadien ook weer.

Dit is interessant voor GPUs omdat die vaak over redundante onderdelen beschikken. Per 16 shader units is er bijvoorbeeld een 17e die ingeschakeld kan worden als ťťn van de 16 faalt. Een CPU heeft die mogelijkheid enkel voor de cachebanken, alle andere onderdelen zijn vrijwel uniek. Dus die moet op een proces gefabriceerd worden dat meer garanties levert.

55 nm is dus 'out of spec' en het zou te veel werk zijn om in halve stapjes vooruit te gaan. Verder is het wel zo dat CPU-makers hier en daar wel eens de specificatie overtreden. Zo kan men bij een klein onderdeel dat belet dat de kloksnelheid verder verhoogd wordt toch beslissen kleinere transistors te produceren. Maar de gehele chip verkleint hierdoor niet.

Last but not least is 55 nm een onofficiŽle benaming. Dus zelfs als CPU-makers dichter bij 55 nm dan 65 nm zitten verkiezen ze toch om het 65 nm te blijven noemen omdat dit de enige correcte benaming is voor het proces. De effectieve grootte van de transistors bepaalt niet de benaming, maar wel het proces. Men spreekt soms van first generation 65 nm, second generation 65 nm...
Een GPU is wat complexer dan een CPU. En zelfs met CPU's is het zo dat je het proces maar onder de knie moet krijgen om het kleiner te maken, waarbij kosten/baten ook een belangrijke factor is, zeker voor een speler als AMD die het financieel al moeilijk heeft.
Een GPU is wat complexer dan een CPU.
Onzin. Een GPU bestaat uit veel repetitieve delen, is lager geklokt, heeft geen grote cache-hiŽrarchie, is in-order, doet niet aan sprongvoorspelling, heeft geen instructiedecodering, kent geen excepties, etc. Een CPU is vele malen complexer.
lmao
een gpu komt nog niet tot de enkels van een cpu
een gpu bevat misschien meer transistors, maar een gpu bevat bv 64 parallelle delen
een normale x86 cpu-core bevat maar 2 threads, de echte complexiteit zit hem vooral in de prefetchers, die dus letterlijk proberen te voorspellen wat de huidige berekening zal uitkomen
dit is nodig om ervoor te zorgen dat de data die nodig is in de volgende stap reeds klaar staat
Dus Intel kan met het geld rond gaan strooien? :)
Ik weet het goede antwoord natuurlijk niet maar ik kan wel iets bedenken. AMD moet hun CPU's bakken in hun eigen fabrieken. Elke 'CPU oven' kost behoorlijk wat geld (miljoenen per apparaat) dus je wilt er zo weinig mogelijk hebben. De cores van grafische kaarten hoeven in eigen fabrieken te worden gebakken, en dat gebeurd dan ook niet want dat scheelt geld. Het bakken van GPU cores wordt uitbesteed aan aziatische bedrijven (TSMC vooral dacht ik, in Taiwan?). Die bedrijven volgen dus blijkbaar niet de fabricage processen van Intel en AMD. En dat zal ook wel weer met geld te maken hebben...
Waarom zou de sprong 65-45 normaal zijn, en 65-55 abnormaal? 45mm is ook maar een keuze.

Verder is een GPU toch een beetje anders dan een CPU. Best mogelijk dat de ene moeilijker op een bepaald procede te maken is dan de ander. En dan moet je niet alleen denken de resolutie opzichzelf, maar beinvloeding van naast elkaar liggende banen, timing problemen e.d.

Wellicht dat 45nm een erg grote stap is, maar dat 55nm een betrekkelijk kleine stap is, waarvoor je misschien niet een hele nieuwe fabriek hoeft te bouwen, maar slechts een kleine upgrade.
Kan het ook te maken hebben met het feit dat ATI destijds de chip ontworpen heeft dmv. diagonale verbindingen ipv. horizontaal/vertikaal?

Of sla ik de plank nou volledig mis?
Ik lees op diverse forums dat veel mensen problemen hebben met het aan de praat krijgen van de UVD op de HD2xxx serie. Zal er dan toch een fout in het ontwerp zitten wat met deze nieuwe versie zal zijn opgelost? Ik kan me haast niet voorstellen dat het puur een driverprobleem is aangezien de UVD voor het afspelen vanaf de HDD helemaal niets doet, zelfs niet na veel registerhacks.

Ikzelf heb vanwege deze problemen nog gewacht met aanschaf. Waneer kunnen we deze kaarten in de winkel verwachten?
als het alleen niet werkt van de HDD dan is er toch niks met de chip? dan werkt deze gewoon, fatsoenlijke software en drivers moeten dan elke bron gebruik kunnen laten maken van UVD.
Waneer kunnen we deze kaarten in de winkel verwachten?
Bekijk de titel van het nieuwsbericht eens :+

[Reactie gewijzigd door DeadMetal op 13 september 2007 09:50]

Wat ik me dus gelijk afvroeg na het lezen van dit bericht is wat 'DisplayPort' is... Hier even een link voor de mensen die ook geen idee hebben wat het is: http://en.wikipedia.org/wiki/DisplayPort 8-)
Persoonlijk vind ik het nogal vreemd dat HDMI (=> HDCP) niet gebruikt wordt.
Als je weet dat je voor HDMI licenties moet betalen en voor DisplayPort niet, is de keuze een stuk begrijpelijker.

Daarnaast kan DisplayPort voor de content protection zowel DPCP (Philips) als HDCP (Intel) gebruiken, dus dat is geen reden om voor HDMI te kiezen.
Toch is DisplayPort al aardig wat keren langsgekomen op t.net... kijk maar: http://tweakers.net/archi...yword=displayport&x=0&y=0
Was het niet ook zo dat HDMI veel hogere licentie kosten vraagt, en daardoor zo belachelijk duur is?
ik zie toch liever gewoon
een dvi en een hdmi apart standaard op de kaart
uiteraard moeten voor hdmi poorten royalties kaarten
maar tis voor de consument makkelijker voor
als je de hd kaart wil koppelen met je lcd tv
van displayport is kan je met een omzet stekkertje naar hdmi gaan en naar DVI (en waarschijnlijk d-sub ook)
en die naar DVI krijg je waarschijnlijk gewoon bij je kaart erbij.
zo betaal je alleen die achterlijke royalties op hdmi als je het ook echt gebruikt.
En dat is allemaal zonder verlies in kwaliteit?
Ja, want het is digitaal en hdmi is niks anders dan dvi + audio, wat gecombineert wordt met een ander stekkertje

[Reactie gewijzigd door EvilGhost op 13 september 2007 14:52]

Ik heb toch de voorkeur van videokaart met 2 uitgangen. Een dvi en hdmi uitgang gescheiden.
En het liefst ook een ingebouwde hoogwaardige 5.1 soundchip op de videokaart.
Heel de wereld begint te wennen aan HDMI, hdmi op je camera, tv, console, etc etc.
En nu komen ze met displayport? Wat is het voordeel t.o.v hdmi?
Alleen dan wil ik niet horen het is goedkoper want die 5,99 kost evenveel als dat verloopstekkertje.

[Reactie gewijzigd door jzoin2 op 13 september 2007 16:01]

De licentiekosten voor de fabrikant zal het grootste verschil moeten zijn.
en het is voor de lezer makkelijker
als jij gewoon hoofdletters gebruikte
En niet bij elke halve zin op enter ramt ;)
Zouden ze het deze keer wel meteen redden?

Ook nvidia heeft natuurlijk upgrades van de huide gpu's voor de deur staan.

Hopelijk maakt AMD het uitstellen (Barcelona-core) of het laten wachten (Ati 2XXX-serie) op dingen niet tot een traditie.

Hopelijk hebben ze het lek boven tafel gekregen.
Uhmm ik vraag me af wanneer nVidia met de refresh van hun lijn komt. Volgens mij dat nog dit jaar. In dat geval zijn ze weer te laat.

Gelukkig zijn ze wel helemaal DX10.1 compatible en met 55nm kunnen ze lekker goedkoop gemaakt worden.

Ik ben ook wel benieuwd naar de RV670.
Zullen deze kaarten nog zuiniger zijn dan hun voorgangers?
Bedoel, 55nm vs 65nm heeft in verhouding minder stroom nodig dacht ik.
Zal wel leuk zijn dat ze allebei passief gekoeld zijn, of bijvoorbeeld alleen de Value versie net als de HD 2400XT. Zoiets is altijd fijn voor in een HTPC.

Maargoed, de kloksnelheid is natuurlijk wel weer iets hoger.
Eigenlijk zou ik ook graag zien wat de TDP is van de GPU's op de videokaarten van tegenwoordig. Of is de GPU niet de enige die veel stroom verbruikt op zo'n kaart?

[Reactie gewijzigd door smerik op 14 september 2007 00:49]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True