Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties
Bron: DailyTech

DailyTech bericht dat de ATi RV560 en RV570-chips hun weg zullen vinden richting videokaarten met twee gpu’s. De RV560 en RV570 zijn twee mainstream gpu’s die gebakken zullen worden met een 80nm-procédé en geïntroduceerd zullen worden in augustus. De gpu’s zijn uitgerust met logica om de pixels van twee verschillende kaarten te integreren tot één beeld waardoor een speciale chip hiervoor niet meer nodig is. Om de twee gpu's te laten werken op één kaart wordt gebruik gemaakt van een chip die de bandbreedte van een PCI Express x16-slot deelt door twee. Omdat de RV560 en RV570 mainstream gpu’s zijn zullen de prestaties van de kaart niet op absoluut topniveau komen te liggen, maar omdat er twee gpu’s aanwezig zijn kan de kaart wel een paar extra trucjes. Het is bijvoorbeeld mogelijk om één van de twee gpu’s te gebruiken voor natuurkundige berekeningen of om vier beeldschermen aan te sluiten (bij het gebruik van twee DMS59-aansluitingen). Bekend is dat in ieder geval HIS van plan is om een dual RV570-videokaarten op de markt te zetten.

HIS X1600 Gemini Engineering sample
HIS X1600 Gemini engineering sample
Moderatie-faq Wijzig weergave

Reacties (70)

Dan heb ik alsnog een aantal vraagstukken:
1. Waarom heeft een 2e core van een DualCore cpu gebruiken niet de voorkeur? kan die niet zo goed dergelijke berekeningen maken?
2. is een GPU er zo veel beter voor geeigend?
3. Hoeveel hoger zijn de natuurkundige berkeningsnelheden van enige CPU vergeleken met een GPU en de nieuwe PPU?

Waar het op neer komt, heeft men een bepaalde architectuur nodig voor dit soort berekeningen?
En in hoeverre komt die van een PPU dan overeen met van een GPU?
1. een typische cpu heeft 2 pipelines, een moderne GPU heeft minimum 16
voor parallelle processen is een GPU is dus veel beter geschikt
2. PS3.0 (en 4.0 zeker) is zo veelzijdig te programmeren en werkt dat bijna alles mogelijk wordt
PS is vooral rekenen met vectoren, natuurkundige berekeningen zijn dit ook :)
3. Ati heeft al een presentatie gedaan waarbij ze beweerden dat een X1600 sneller is als een Ageia, maar echte tests zullen wel volgen als de eerste games uitkomen
met de huidige trend om alles onboard te maken (netwerkkaarten en geluidskaarten zijn bv zo goed als altijd op het moederbord geintegreerd) denk ik niet dat er een markt gaat komen voor een extra "game"-kaart

nu alleen nog wachten dus op een kaart met een bv X1900 en X1600 op 1 kaart, (voor physics heb je geen X1900 nodig) of een driver die grafische en fysische berekeningen door elkaar kan
Een gpu is meer een dsp en is dus gemaakt voor een speciaal doel, een gpu dus voor grafische berekeningen, veel tegelijk (maar op relatief lage kloksnelheid). Een cpu is gemaakt om een grote variatie van io en seriele operaties te doen. Cpu's zijn minder goed in grafisch werk omdat ze van alles moeten kunnen i.p.v. een speciale taak zoals dsp's.
een typische cpu heeft 2 pipelines, een moderne GPU heeft minimum 16
voor parallelle processen is een GPU is dus veel beter geschikt
Wat wel ferm gecompenseerd wordt door de klokfrequentie. Als je dan ook nog dual-core CPUs meerekent...
Edit: Argh, moet sneller leren typen :)

Een GPU leent zich bij uitstek voor floating point berekeningen, wat voor geometry tranformaties en nagenoeg alle physics handelingen erg van pas komt. Vertex pu's zijn gewoon voor dit werk gemaakt en een bijkomend voordeel is dat een groot deel van de data toch al in het geheugen op de videokaart aanwezig is.

Daarnaast zijn pixel pu's tegenwoordig ook geschikt voor general purpose berekeningen. Het grote voordeel hiervan is dat deze architectuur zich leent voor 'parallel processing', dus met 24 pixel pipelines op moderne high-end videokaarten krijg je een hoop meer werk verzet dan met die ene extra CPU core. Natuurlijk zitten hier de nodige haken en ogen aan, maar deze aanpak is voor bepaalde problemen erg interessant.

Tenslotte zijn de meeste games tegenwoordig al aardig zwaar voor je CPU. Het renderen zelf eist al snel 1 core voor een groot deel op, omdat de CPU de GPU moet aansturen. Daarnaast heb je dan nog audio, AI, logic, networking en talloze andere dingen die ook nog door de CPU afgehandeld moeten worden.

Of PPU een hype is valt te bezien, maar ik persoonlijk zie ook meer voordelen in het gebruik van GPU's voor physics dan een PPU. GPU's worden razendsnel verbeterd, de architectuur is volwassen en de data zit toch al op de videokaart. De toekomst van PPU's is een stuk minder helder.
Omdat physics betrekkelijk simpele berekeningen zijn, ligt het voor de hand dat GPU's daar erg goed in zijn. (Zie de posts van anderen hierboven)

Er is echter nog een andere reden om physics op de GPU te laten uitvoeren. Veel physics betekent waarschijnlijk ook veel aparte objecten, die daarna allemaal gerenderd moeten worden. Als de physics door de CPU moeten worden berekend, dan moet je dus al die data over de bus naar de GPU zenden. Dat is een bottleneck die developers altijd proberen te vermijden. (Vanwege die bottleneck wordt (vertex) displacement mapping en bumpmapping op de GPU uitgevoerd, en niet op de CPU.) Het ligt dus voor de hand om de physics data dicht bij de graphics te houden.

Zou met niets verbazen als je in de toekomst een nog veel directere koppeling krijgt.

Wat betreft de kracht van een GPU t.o.v. een CPU. Wij hebben een microscoop systeem waarbij we twee plaatjes van elkaar moeten aftrekken. Maar die moeten wel keurig overlappen, dus ze moeten enigzins t.o.v. elkaar geroteerd worden, verschoven, en vergroot.

Computer is een rekenmonster met een Quattro. (Vraag me even niet de specs... Geloof me, dat is een zeer up-to-date machientje) De GPU methode blijkt veel sneller dan de CPU. Eigenlijk is puur het verplaatsen van de data over de bus van en naar de grafische kaart bepalende voor de snelheid. Het daadwerkelijk berekenen door de GPU is zo snel, dat het niet significant is...
Als de physics door de CPU moeten worden berekend, dan moet je dus al die data over de bus naar de GPU zenden. Dat is een bottleneck die developers altijd proberen te vermijden. (Vanwege die bottleneck wordt (vertex) displacement mapping en bumpmapping op de GPU uitgevoerd, en niet op de CPU.) Het ligt dus voor de hand om de physics data dicht bij de graphics te houden.
Aangezien je voor de physics een aparte GPU nodig hebt (naast de al aanwezige, die het grafische werk voor zijn rekening neemt) vindt de communicatie nog gewoon plaats via de PCI-X bus, dus dat voordeel valt weg. Verder wordt (true) Displacement mapping niet op de GPU uitgevoerd en zijn Bumpmapping en Normalmapping typische Floatingpoint bewerkingen. De door jou genoemde bottleneck is daar dus niet van toepassing.
Computer is een rekenmonster met een Quattro. (Vraag me even niet de specs... Geloof me, dat is een zeer up-to-date machientje) De GPU methode blijkt veel sneller dan de CPU. Eigenlijk is puur het verplaatsen van de data over de bus van en naar de grafische kaart bepalende voor de snelheid.
Kunnen we hier aannemen dat je het over een Quadro hebt? Dit zou trouwens de eerste keer zijn dat ik PCI-X 16x als bottleneck hoor. Waarbij (on topic) deze kaart zijn gehele voordeel zou verliezen omdat ie de PCI-X bus splitst in 2 maal 8x.
Cpu en GPU power vergelijken op een héél beperkt vlak.
Leuke statistieken levert dat op, maar om daar de conclusie uit te trekken dat de GPU véél krachtiger is :?

A) Je vergelijkt appels met peren
B) Je vergelijkt een onderdeel dast nou toevallig beter past bij een GPU dan een CPU
C) En daar trek je conclusies uit |:(

Laten we nou eens X86 instructies door de GPU héen jagen, driemaal raden wie dat wint. Ow wacht, da's niet eerlijk, De GPU zal er geen hout van snappen :+
Voor zover mijn kennis mij toereikt :)

1. Een GPU is bedoeld voor ander soort berekeningen dan een CPU. Een CPU is ontworpen voor algemeen gebruik, terwijl een GPU voor beeldverwerking is bedoeld, maar ook goed dienst kan doen als processor voor audiofiele doeleinden (heb ik mij laten vertellen)
2. Zie antwoord 1
3. Weet ik niet (8>
Draai eens 3DMark 03 en kijk naar die test met die trollen ... dan zie je toch echt dat je CPU veel langzamer draait met veel minder details als je GPU :)
Yup, met 3D Mark 05 is het net zo. (Ik geloof de test met die vliegende boot).

Een enorm verschil tussen CPU en GPU. Daar kan geen dualcore CPU tegenop.
Dan heb ik alsnog een aantal vraagstukken:
1. Waarom heeft een 2e core van een DualCore cpu gebruiken niet de voorkeur? kan die niet zo goed dergelijke berekeningen maken?
Omdat 'n GP CPU 'n hoop taken moet regelen niet alleen Physics maar ook die andere 10? Zo ook andere zware taken zoals de render module in SMP uitvoeren. Daarnaast Presteerd 'n GP CPU 'n heel stuk minder dan Parraleliserende bakbeesten zoals PPU GPU en DSP
2. is een GPU er zo veel beter voor geeigend?
Nee. Wel krachtiger dan 'n CPU maar vooral geschikt voor eye candy Physics. PPU kan de Full Physics feature set aan.
3. Hoeveel hoger zijn de natuurkundige berkeningsnelheden van enige CPU vergeleken met een GPU en de nieuwe PPU?
Alleen theoretish bekend van ebweringen van betreffende firma's. This afwachten op reallife PhsyX games die ook bencbaar zijn of 'n 3Dmark PhysX/HavokFX versie die het verschil in performance CQ feature set kan aantonen.
Waar het op neer komt, heeft men een bepaalde architectuur nodig voor dit soort berekeningen?
En in hoeverre komt die van een PPU dan overeen met van een GPU?
De PPU architektuur is op heden ondbekend. Men kan alleen uitgaan van d ePatenten die ageia heeft gedeponeerd.
1. Waarom heeft een 2e core van een DualCore cpu gebruiken niet de voorkeur? kan die niet zo goed dergelijke berekeningen maken?
Omdat 'n GP CPU 'n hoop taken moet regelen niet alleen Physics maar ook die andere 10? Zo ook andere zware taken zoals de render module in SMP uitvoeren. Daarnaast Presteerd 'n GP CPU 'n heel stuk minder dan Parraleliserende bakbeesten zoals PPU GPU en DSP
In huidige spellen staat die tweede core niets te doen. Dat argument dat doe CPU zoveel andere taken moet regelen gaat dus niet op.
Dat die CPU zoveel minder zou presteren dan een PPU of GPU is nog nooit bewezen. Huidige CPUs met SSE etc zijn best goed geschikt voor physics berekeningen. En hoewel ze misschien iets minder efficient zijn, draaien ze wel op veeeeel hogere frequenties en zijn ze relatief hardstikke goedkoop door de grotere oplages, zodat ze uiteindelijk via brute force een PPU best wel eens zouden kunnen verslaan.
2. is een GPU er zo veel beter voor geeigend?
Nee. Wel krachtiger dan 'n CPU maar vooral geschikt voor eye candy Physics. PPU kan de Full Physics feature set aan.
Zoals gewoonlijk praat je de Ageia PR afdeling weer na.

Een GPU kan net zo goed als een PPU de full physics uitvoeren. Er is in dat opzicht geen enkel verschil tussen een GPU en een PPU.

Dat is je nu al ettelijke malen met duidelijke onderbouding verteld! Hoe vaak moeten we het nog blijven herhalen?
PPU is maar een rage/hype strax word overgenomen door multicore GPU's.
GPU of CPU of PPU kan je gebruiken zo als maar wilt hang alls van de software die er op draait.
Dit is zo afgekeken! :P

3Dfx kan dit veel beter:

http://home.tiscali.be/silvio/voodoo/images/V5-6000.jpeg

Maar leuke feature, heb het idee dat als dit de toekomst wordt, dat die Aegai kaartjes het niet ver gaan schoppen en die natuurkundige berekeningen mooi door de 2e core gedaan kunnen worden.
Laat 3DFX nou net zijn opgekocht door nVidia, die kennis huisvest zich dus al jaren binnen de nVidia muren.

Maybe dat een dergelijke ontwikkeling ook binnenkort door nVidia naar buiten wordt gebracht ? :7
De 7950GX2 hebben ze al, dus ik denk dat het steeds meer naar elkaar toe groeit qua ontwerp. nVidia was volgens mij de eerste met een 48 baans PCIe switch tussen 2 16 PCIe baans GPU's op 1 16 baans PCIe poort op je moederbord.
Heeft Asus niet een dual 6600GT kaart uitgebracht :?
ej lol die heb ik ook nog gehad
uhm ... tja als Ati da nou is doet en dan met SLI
vraag me toch af of ze da noch gaan doen :P ;)
Eigenlijk geloof ik niet dat jij een 3dfx Interactive, Inc. Voodoo 5 6000 hebt gehad ;)
Ik denk eerder een stapje terug, de 5500 :)

Deze had 'slechts' 2 VSA-100 processoren i.p.v. 4 :Y)
Thandor vergeet er even bij te vermelden dat ie je niet gelooft, niet omdat je profiel uitwijst dat "U een onbetrouwbaar typ is" .. Maar meer omdat die 6K nooit van de productieband is komen rollen, er zijn overigens wel een aantal samples achteraf voor erg groffe prijzen over Ebay gegaan, tis even geleden maar volgens mij ging er zelfs 1 voor meer dan 2500 dollar :)

Maar.. als echte 3DFX fan had je dan natuurlijk wel iets Heeeel bijzonders :)
Kan je gamen en Windows Vista gebruiken :+
Als je gamed, dan worden de visuele elementen van vista toch uitgeschakeld, dan heb je er geen last van!
jammer toch, mensen die een grap niet begrijpen..
een goede grap wordt door iedereen begrepen!
Nee, de beste grappen zijn de grappen die onder vrienden hebt en alleen jij en jouw vrienden begrijpen.!
Een goede grap kan, zeker op taalkundig gebied, voor een hoop mensen nog flink wat problemen opleveren voor het begrijpen daarvan! Daarom houdt niet iedereen die van Mr Bean houdt ook van Blackadder terwijl dit veel genialer is!
Heh dat is de bedoelig software traager maaken om meer niuwe hardware te verkopen
8-) 8-) :?
kan zowieso wel ;)
Waarom niet gewoon multicore zoals bij de cpu's van AMD en Intel?

En ze mogen nu ook de weg inslaan voor lager stroomverbruik zoals met de cpu's.
Omdat het duur is om niuwe waffers te bakken ??
Ati zal voor hun nieuwe core('s) wel nieuwe wafers gaan gebruiken
Dit is niet de eerste videokaart van ATi met twee GPU's.
Fury Maxx O+
Ooooh :) Die had ik in mijn eerste computertje :) En wat was ik er trots op :)
Heb ik 1,5 jaar meegedaan, toen ging computer kapot :(
Ik vond mijn setup van 2 Monster 3DII kaarten toch wel wat indrukwekkender :+
Alleen dat waren geen gpu's maar chipsets, verschil is dat deze een heleboel van de cpu afvraten.
De Fury Maxx, wat een vette kaart was dat zeg
Tegen wanneer kunnen ze dan oogsten? :+
Ik wou net zeggen, beter planten ze die kaarten bij ons in de tuin, dan ga ik wel oogsten :+

Maarre, die R570 en 560 zitten dus op X1600 Kaarten? Maar op internet kwam ik tegen dat de R570 bijvoorbeeld een geheugenbus heeft van 512bit intern, extern 256bit? of zit de R570 op een andere plaat?
X1600 = RV530. 4 Pipes 12 Shaders 128 Bit mem 256 Intern.

RV560 = of 8 Pipes 24 Shader units Of 12 Pipes 24 Shader units of 8 Pipes 16 Shader units. Dat is nog niet duidelijk. 128 Bit mem 256 Intern.

RV570XL = 12 Pipes 36 Shader units @ Lage klock speeds ( dan moet je aan 400-500 denken )met 256 Bit bus 512 interne ring bus.

RV570 = 12 Pipes 36 Shaders @ Hoge klock speeds ( 600+ ) 256 Bit bus met 512 Bit interne ring bus.


Dus 2x RV570 is zekers sneller dan een X1900 kaartje.

Het bovenstaande is nog niet bevestigt maar dat zijn ge geruchten. Maar ik moet zeggen een RV570 ( Code naam= Hellfire ) Gemini ( zo heet de dual chip op een PC van ATi ) lijkt me wel wat.
Laten we eerst maar de benchmarks afwachten.

In het verleden heeft het nooit dusdanig goed gewerkt dat het normaal werd... Hoewel de Voodoo2 in SLI, en de Fury Maxx in ieder geval wel effectief waren qua prijs/prestatie verhouding.
Op de 3dfx Voodoo 5 5500 heeft het IMHO erg goed gewerkt :)

Al met al zijn er ook kaarten waarop het minder goed werkte. Punt is dat AGP niet zo geschikt is voor dual-GPU. Immers is er altijd een master chip nodig en de tweede dient via de eerste te communiceren wat zo z'n nadelen kent. Bij PCI Express gaat dit allemaal veel gemakkelijker :Y)
Bedrijven gaan zelden failliet wanneer ze een goed product op de markt hebben.......
ik heb (denk dat ik een van de weinige ben) die een gigabyte 3d1 heeft (6600gt dual).
De scores zijn zeer goed als je ziet prijs/prestatie.
kosten 250 euro(1jaar geleden), en draaide 15000 3dMARK 03, en om die score te halen met andere kaart en gelijk systeem was je toch paar 100 euro duurder uit.
Dus als het de kostenna beneden brengt van de grakas laat maar komen :):):)
Aha, je hebt de conclusie van deze review toen vergeten te lezen zeker :P.
Haha lol, heb die conclusie net ook even doorgekeken. Een compleet nutteloze en veel te dure videokaart dus, zoals zoveel dual gpu videokaarten, je gaat er meestal in performance op achteruit, en in elk niet SLI ondersteunend spel heb je gewoon de performance van een normale 6600GT maar dan zwaar overpriced. En er dan nog blij mee zijn ook!, Een 2e hands radeon9800 doet ongeveer hetzelfde en kost 75Euro. Hoezo een miskoop :P en er 250euro voor betalen, OUCH!

Maargoed ik zie iedereen om me heen dit soort gigantische fouten maken bij aanschaf van videokaarten. Je moet er blijkbaar wel erg veel van begrijpen om niet van die domme stappen te nemen. Maar voor die personen geldt vaak ook dat ze het verschil niet goed merken omdat ze geen referentie materiaal hebben, m.a.w, ze gaan er gewoon vanuit dat het superieur is en ze zijn er blij mee. Ik bouw regelmatig nieuwe systemen voor vrienden en verbaas me vaak over de niet-indrukwekkende verschillen in vergelijking tot mijn 4 jaar oude radeon9500@9700 die zelfs toen de tijd maar 150euro heeft gekost. Iedereen gooit massaal bakken met geld over de balk voor belabberde midrange kaarten zonder te weten dat een oudere generatie high-end variant vele malen beter is. Deze personen hebben dan ook nog nooit een high-end kaart gehad, en stappen over van een low-budget geforce2 MX oid. Tjah dan lijkt alles ineens goed :) Het is alleen niet echt zo.
Ik snap niet waarom ati in augustus nog met een directX 8 kaart op de proppen komt. nvidia brengt geen nieuwe high end directX 9 kaarten meer uit. die komt hoogstwaarschijnlijk in Q3 met een directX 10 kaart. Met het oog op vista is dat veel handiger. ook al komt vista pas in Q4/Q1 2007.
In visata wordt alles namelijk naar directx 10 geëmuleerd. Het zou leuker zijn als ati en nvidia tegelijk met directx 10 kaarten komen.
Deze gpu's zijn DX9
En dan staat er 6800GT Dual would be fun :P
Dus feitelijk gezien zijn Crossfire en SLi hiermee overbodig geweest from start :?
Nope, niet als je er marketingtechnisch naar kijkt, hoeveel mensen hebben op dit moment een SLI/Crossfire systeem?

Zijn er genoeg, SLI nog meer dan Crossfire volgens mij.

nVidia & Ati zeggen samen: *Kattsjing!!!* :*)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True