'AMD komt in mei met RV630-gpu'

Volgens de Chinese site HKEPC zal AMD in mei de RV630-chip op de markt brengen. Er zijn al drie referentieborden gesignaleerd, die de namen 'Koh-I-Noor', 'Orloff' en 'Sefadu' van enkele bijzonder grote diamanten hebben geleend.

Koh-I-Noor- of 'Berg van licht'-diamantDe Chinezen berichten dat de nieuwe AMD-gpu, zoals al werd verwacht, op 65nm geproduceerd zal worden en een complete DirectX 10-instructieset aan boord zal hebben. In de chip worden 64 unified shaders gemonteerd, en Shader Model 4 wordt ondersteund. Nieuw is de mededeling dat twee van de drie planken met een pci-e 2.0-connector zullen worden uitgerust, waarover per seconde vijf miljard transfers kunnen worden gepompt. Van deze twee zal Koh-I-Noor 512MB gddr4-geheugen meekrijgen, terwijl Orloff het met 256MB gddr3 zal moeten doen; het geheugeninterface van beide modellen is daarbij 128 bits breed. Verder zullen beide kaarten een interne CrossFire-connector krijgen.

Alle kaarten krijgen verder een dubbelloops hdcp-engine aan boord zodat twee hd-displays met drm en al kunnen worden aangestuurd, en de Koh-I-Noor krijgt bovendien een video-ingang. Verder zijn de kaarten bedoeld voor de mainstreammarkt: daarom heeft AMD de Universal Video Decoder-hardware ingebouwd, zodat geen extreme cpu's nodig zijn om 1080p-beelden te decoderen. De Koh-I-Noor zou 128W gaan verstoken, terwijl Orloff het met 93W kan stellen. Sefadu, die in tegenstelling tot de andere twee een 'normale' pci-e 1.1-connector en 512MB gddr2-geheugen krijgt aangemeten, zal genoeg hebben aan 75W. Dit is ook de kaart die vermoedelijk het snelst wordt uitgebracht: de eerste samples zouden in april gemaakt worden. Opmerkelijk genoeg is Sefadu vernoemd naar 's werelds grootste ruwe diamant, terwijl de andere twee de namen van geslepen stenen hebben meegekregen.

Door René Wichers

Eindredacteur

01-03-2007 • 15:48

40

Submitter: aliencowfarm

Bron: HKEPC

Reacties (40)

40
39
15
5
0
11
Wijzig sortering
...Alle kaarten krijgen verder een dubbelloops hdcp-engine aan boord zodat twee hd-displays met drm en al kunnen worden aangestuurd...

Wat is dat met DRM de laatste tijd, walgelijk. Ik hoef niet eens 1 display met DRM, laat staan twee.
Wees blij dat ze videokaarten bouwen die DRm ondersteunen, anders kon je helemaal geen filmpjes kijken op je pc.
De videokaartenbouwers hebben de DRM niet uitgevonden, dat doen de filmmaatschappijen.

Dit alles wil niet zeggen dat ik voor DRM ben natuurlijk
Ik zou liever zien dat DRM door de fabrikanten gemeden werd. Dan koopt niemand die films etc omdat DRM het afspelen verhinderd. Gevolg: filmmaatschappijen krijgen gezond verstand en we zijn in één klap van DRM af. Iedereen blij :)
@bokkow:

Inmiddels zijn ze al van CD-beveiliging afgestapt, is de gemiddelde CD-prijs de afgelopen paar jaar flink gezakt in de winkels die ik bezoek en ook de DVD's zijn vaak redelijk goedkoop als je ze niet meteen na de release al moet hebben. Lijkt dat al dat gedownload en gebrand wel degelijk zijn vruchten heeft afgeworpen als je het mij vraagt.
Net zoiets als die eeuwige stelling:
"Ik zou liever willen zien dat we alleen nog maar films illegaal downloaden zodat de fabrikanten denken: hé misschien moeten we films goedkoper maken."

Gevolg: gebeurt toch nooit :+
Dus hou op met zeuren wat fabrikanten wel en niet moeten doen ze veranderen hun gedachten er toch niet door
Ach ja, DRM ... je kunt op DRM-displays met DRM-kaartjes ook niet-DRM spul afspelen hoor ;)
wel interessante kaarten voor het middensegment. Alleen de prijzen zullen wel weer hoger beginnen dat de vergelijkbare (nu al weer verouderde DX9) kaarten. Maargoed: zo blijf je wachten.

Ik heb tenminste de knoop doorgehakt en lekker goedkoop een 1650XT
Ik heb ook de knoop doorgehakt, omdat ik het te lang vond duren. Voor mij een 7900GT, die doet het prima! DX10 kan wel wachten...
Past zo'n PCIe 2.0 kaart op een moederbord met een "oude" gleuf?
Volgens mij is het backwards compatibel ja.
Ja is backwards compatible. Dus hij past in de 'oude' gleuf. Alleen dan wel op PCIe 1.1 snelheden ;)
De snelheid zal geen probleem zijn, je zal eerder alsnog 'n extra power connector aan moeten sluiten aangezien 2.0 volgensmij meer vermogen kan leveren dan 1.1.
Vind het maar verwarrend AMD.. ik denk dan meteen aan een processor. Het is tog nog steeds gewoon ATI alleen is het nu een zijtak van AMD. Of is dit weer een interne concurentie tussen AMD en ATI om zo de markt wat breder te laten lijken.
Net als de website van ati en amd... vind het maar niks. Geef mij het oude rode maar en niet dat rustgevende groen. |:(
Nieuw is de mededeling dat twee van de drie planken met een pci-e 2.0-connector zullen worden uitgerust, waarmee per seconde vijf miljard transfers over een 128bits bus kunnen worden gepompt.
PCI-E is serieel en geen bus.
Zoals de naam zegt is USB serieel èn een bus (en universeel...). "Heel fijn," zult u denken, maar ik meld het alleen maar om duidelijk te maken dat de één de ander niet hoeft uit te sluiten. Een bus kan best serieel zijn.
Een bus kan best serieel zijn.
Ja, natuurlijk, maar dat betekent niet dat PCI-E dat is. De verbindingen zijn point-to-point.
Volgens Wikipedia is het wel een bus:
PCI Express ... is a computer system bus ...
en toch ook weer niet:
The PCIe link is built around dedicated unidirectional couples of serial (1-bit), point-to-point connections known as a "lanes". This is in sharp contrast to the PCI connection, which is a bus-based system where all the devices share the same bidirectional, 32-bit (or 64-bit), parallel bus.
Iedereen blij dus :)
Iedereen blij dus
Nu wil ik nog een verklaring zien voor die 128 bits die die 'bus' breed zou zijn.
Een stadsbus is ook point to point. Van de ene halte naar de andere...
ehhmm .. eerste wat in mij opkomt ... USB??
}>

Bij 16 x gebruik je toch 16 x serieel parallel??
Ik snap het niet helemaal. Er gaan geruchten (volgens mij is het zelfs van een insider van AMD) dat de r600 is uitgesteld vanwege meerdere redenen, maar onder andere om gelijk een heel assortiment dingen te releasen (denk aan 'Barcelona', r600, rv630). Als ze nou net als nVidia eerst de r600 (of x2900xtx) hadden uitgebracht en later pas de mainstream kaarten, dan hadden ze een tijdlang veel meer kunnen verdienen doordat ze alleen high-end kaarten verkopen. Nu snap ik dat ze problemen moeten oplossen, en meer performance eruit wilden halen, maar als ik het zo zie gaan ze alles tegelijk releasen. Niet zo slim imho.
Ze hebben weinig keus hé, net omdat ze zo laat zijn.

Als ze nu alleen de high-end kaarten zouden releasen zou Nvidia alle winst in het midden-segment opstrijken => zeer slechte keus dus.
ik vraag me af wanneer er dan de mobiel variantes zullen opduiken?
Ik ben meer benieuwd wanneer ze dat wattage eens fatsoenlijk omlaag krijgen.

Of verbruikt deze maar iets van 5 watt bij normaal desktop werk. (hoewel....met Vista........)
Wordt deze Videokaart uitgebracht onder de naam AMD of onder de naam Ati-AMD ?
Ziet er veel belovend uit. Wel jammer dat de 512MB het met een 128bit busje moet doen, maar daar tegenover zijn ze wel weer vrij zuinig.

Op dit item kan niet meer gereageerd worden.