Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: The Inquirer, submitter: XWB

The Inquirer bericht dat ATi officieel bevestigd heeft dat de Multi VPU-technologie van het bedrijf op de komende Computex-beurs geïntroduceerd zal worden. Computex 2005 start 31 mei in Taiwan en duurt tot en met 4 juni. De beurs zal ook door verschillende partners van ATi gebruikt worden om hun producten, gebaseerd op ATi’s Multi VPU-technologie, te demonstreren aan het grote publiek.

ATi logo (kleiner)The Inquirer bevestigt verder dat bestaande PCI Express X800 en X850 kaarten gebruikt kunnen worden om een Multi VPU-opstelling te bouwen. Tevens bevestigt the Inquirer dat de kaart twee verschillende rendermodes ondersteunt, te weten ‘chess board tile rendering’ en ‘Alternate Frame Rendering’. De kaarten werken samen via een master/slave-systeem waarbij de slave een standaard PCI Express-kaart kan zijn en de master kaart een speciale Multi VPU-kaart moet zijn. De technologie zal wellicht Crossfire genoemd worden, maar dit is slechts een gerucht.

Moderatie-faq Wijzig weergave

Reacties (59)

ff iver die 'Alternate Frame Rendering' en 'chess board tile rendering', want ik heb geen idee wat dat nu precies inhoud.

Oke ik doe een gok.

Bij chess board tile rendering wordt het sherm opgedeeld in blokjes (net als bij een schaakbord) waarna de ene kaart een een deel van blokjes zal verwerken en de andere kaart de andere. De hoeveelheid die ze elk zullen verwerken hangt dan natuurlijk weer af van het vermogen van de kaart, zodat ze niet allebei evenveel data te verwerken krijgen.
Bij Alternate Frame Rendering zullen ze schermpje voor schermpje verwerken (dan om-om hè, zodat eerst de ene kaart een beeldje verwerkt en dan de andere kaart). Dit is daarom dus minder efficient dan chess board rendering(als je tenminste gebruik maakt van 2 verschillende kaarten).

Dat was ff mijn visie op de woorden, want ik heb eigelijk geen idee wat beide technieken nu inhouden en wil graag weten of ik met deze gok een beetje goed zit.
je gokt aardig, AFR bij verschillende kaarten is idd waardeloos, maar dat tile systeem is ook niet helemaal alles, Split-Screen Rendering (of hoe het dan ook heet) van nVidia kan de load wat beter verdelen tussen verschillende kaarten, maar SLI ondersteunt weer geen verschillende kaarten :+............

Dat verschillende kaarten idee vind ik persoonlijk toch maar erg ERG slecht.
alternate frame kan wel met verschillende kaarten:

bijv master +/- 2x zo snel als slave.
dus rederd de master frame 1 en 2 en begint de slave alvast aan 3... M1,2 - S3 - M4,5 - S6

kan best.

het gaat natuurlijk niet helemaal ideaal maar het snelheids verlies (t.o.v 1+2=3) lijkt me minmaal
Dat lijkt me niet zo'n goede oplossing. Het probleem is dat verschillende kaarten nooit een geheel getal sneller zijn. Dan krijg je dus een situatie waarbij de tijd tussen de frames telkens fluctueert. Ik kan me voorstellen dat dit niet echt aangenaam is voor de ogen.

Bovendien gebeuren een aantal berekeningen in de spellen op basis van de tijd tussen vorige frames. Bijvoorbeeld een raceauto die 180 km/u gaat zal in 20 ms een meter verder moeten getekend worden. Als dan je volgende frame klaar is in 10 of 40 ms zit je dus verkeerd en lijkt de wagen in schokken te bewegen (is ook zo).
En dan is het ook nog eens nutteloos om zoveel frames vooruit te renderen omdat iemand tussen de frames nog iets kan doen (draaien, andere kant op lopen, schieten, switchen etc.) en het gerenderde frame dus niet meer klopt.
Ik geloof niet veel van die ondersteuning voor verschillende kaarten.

Het probleem is dat er altijd kleine aanpassingen zijn die de kwaliteit beïnvloeden, tussen mid-end en high-end kaarten. Dus dan zou je bij die chessboard rendering verschillen zien in één beeldje, en bij alternate rendering flikkert het tussen de twee.

Ook zouden ze zich dan voor de volgende generaties moeten beperken tot de huidige kwaliteit. Zelfs hardware-bugs zoals die met hun afronding van transparantie zouden dan moeten
blijven
.

Neen, dan gaan ze wel gewoon zoals NVIDIA opleggen dat twee dezelfde kaarten moeten gebruikt worden. 't Is ook het enige dat gaat werken bij alternate frame rendering (zie m'n posts hierboven).
Ik ben het met je eens,

Over ATi's idee over verschillende kaarten die in AMR schreef ik een tijdje geleden het volgende.


Ik ga uit van een X800 en een R520"Fudo" kaart.
in geval dat je Splinter Cell Chaos Theory gaat spelen laat je X800 alleen nog maar DX8.1 effecten toe, terweil je Fudo DX9.0c effecten wil doen. En blijkt dat je fudo + x800 nog maar 130% van de performance van alleen fudo is, en dat hij door die DX8.1 effecten niet alleen een lelijker plaatje laat zien, maar ook nog eens 30% trager loopt, uiteindelijk is die Fudo alleen veel beter af, nieuwe PSM laat hem sneller lopen en mooie plaatjes maken, die X800 is dan een blok aan zijn been.


Toelichting
R520"FUDO"wordt PSM3.0 kaart
X800 series kaart is een PSM2.0b kaart
Splintel Cell Chaos Theory gaat niet voor PSM2.0 apparte shaders schrijven, kaarten die niet PSM3.0 hebben zullen het met PSM1.4 moeten doen, onder sommige mensen beter bekent als de shader die DX8.1 voorschrijft.

Ik ga er in mijn performance voorbeeld al meteen vanuit dat verschillende shader versies niet op 1 beeld terecht kunnen komen, de artifacts zouden de pan uit vliegen....
@Jan

Laten we eens een extreem voorbeeld nemen: Het enige spel ter wereld dat wel PS3 heeft maar geen PS2. Niet geheel toevallig dat als voorbeeld gekozen?

Uiteraard gaat een MVP oplossing met verschillende kaarten begrensd worden door de "minste" kaart. (Net zoals een Raid array met verschillende hdd's)

Dus een R520 en X800 in MVP zullen maximaal PS2 doen. Logisch lijkt me. (En had je een extra X800 gekocht zoals bij SLI dan had je ook maximaal PS2 gehad) En in het geval van SCCT dan PS1.4

Maar waarom denk jij dat PS1.4 langzamer zou zijn dan PS3?
In spellen betekent PS2/PS3 ipv PS1.4 zelden tot nooit een performance winst, maar wel een beeldkwaliteit winst. SCCT zal er dus iets minder mooi uit zien, maar R520+X800 zal wel snel zijn.

(En Doom3 is een mooi voorbeeld hoe goed beeldkwaliteit kan zijn met alleen PS1.4)

Ik zou graag wat onderbouwing zien van jouw vermoeden dat ie 30% trager zou lopen door DX8.1 want in de praktijk blijkt dat niet.


En dan nog even in herinnering brengen dat alle andere spellen wel gewoon PS2 doen, en dat jouw vermeende probleem daar dus al helemaal niet aanwezig is.
De onderbouwing waarom verouderde pixel shader modellen trager lopen, technisch, heb ik geen onderbouwing.....ik weet alleen dat het zo is, toen Far Cry met patches ging gooien om de nieuwe generatie video kaarten van de juiste shaders te voorzien ging gewoon de performance omhoog.

Het kan komen door (maar dit is dan wel pure speculatie) dat in de nieuwere modellen meer gedaan kan worden per pass door de pipeline, zodat uiteindelijk minder passes nodig zijn en er meer "klaar om op het beeld gezet te worden" pixels per seconde.

Natuurlijk is SCCT een beetje een extreem voorbeeld, maar het maakt wel mijn punt duidelijk. Bovendien kan je in de toekomst vaker dat soort dingen gaan zien. GeForce 3 ondersteunt PSM1.0 GeForce 4 1.3 Radeon 8500 series 1.4 9500 tot X600 serie ondersteunt PSM2.0 GeForce FX 2.0A X800 en hoger 2.0B Als daar allemaal appart shaders voor geschreven moet worden, kan ik me best indenken dat alleen de grote gaten gedicht worden, makers van SCCT zeggen dat het toch niet veel uitmaakte kwa kwaliteit tussen 1.4 en 2.0.
Laten we eens een extreem voorbeeld nemen: Het enige spel ter wereld dat wel PS3 heeft maar geen PS2. Niet geheel toevallig dat als voorbeeld gekozen?
Dit is geen extreem voorbeeld, dit is de toekomst. ATi brengt niet voor niets een PS3 kaart uit, als ze niet zouden beseffen dat er meer en meer PS3 games gaan komen.
De FX reeks waren goede dx8.1 kaarten, op moment van release waren er amper dx9 games dus had nvidia een goede keuze gemaakt door een snelle dx8.1 kaart uit te brengen. Toen kwamen de dx9 games en was het over voor de FX kaarten.
Het verschil tussen dx8.1 en dx9 is natuurlijk van een andere orde dan PS2 - PS3 maar toch.
Blijft een feit dat de R520 een andere architectuur is dan de X8xx reeks met andere features en mogelijkheden. Het lijkt me dan ook zeer moeilijk om 2 generaties van kaarten met mekaar te laten samen werken.
Als het lukt, thumbs up for ATI.
De Far Cry patches vind ik een gevaarlijk voorbeeld, omdat daar zoveel andere zaakjes bij meespeelden. (de artefacten etc)

In principe heb je soms inderdaad minder passes nodig, maar in de praktijk blijkt meestal dat developers dan gewoon extra effecten aanzetten, zodat je besparing aan passes daaraan wordt gebruikt.

Dat zie je ook duidelijk aan al die mensen die roepen dat hun ti4200 kaarten het nog prima in huidige spellen doen. Dat klopt ook wel. Hun framerates zijn nog prima, maar de PS2 effecten zien ze niet.

Die uitspraak van de makers van SCCT zijn overigens wel zeer dubieus. Want het kwaliteitsverschil tussen PS3 en PS2 is veel kleiner dan tussen 1.4 en 2.0.
(Bij de keuze voor SM3 spelen heel andere belangen mee)
Maar je kan inderdaad heel veel mooie dingen al met 1.4 doen. Bij 3Dmark waren zoveel 1.4 shaders omdat ze ontdekten dat shaders die ze in 2.0 waren begonnen ook prima in 1.4 pasten.

Overigens denk ik niet dat je het in de toekomst vaker zal zien. PS1.1 en PS1.3 verschilden nauwelijk van elkaar was voor zowel consument als developer totaal niet interessant. Daarom dat alles gewoon voor 1.1 geschreven bleef worden.

PS1.4 werd genegeerd omdat alleen de 8500 het ondersteunde , en kreeg alleen een kleine opleveing omdat de 5800 in ps2.0 veel te traag was en wel snel was in 1.4 (zou het aan het nummer liggen? ;))

De kleine subversies van 2.0 zijn voor developers wederom niet interessant. Het is voor hun voor het verstandigste om gewoon standaard 2.0 code te schrijven. Vooral nu de huidige nvidia kaarten ook snel zijn met standaard 2.0 code.

Je ziet dus ook dat fabrikanten in hun spellen voornamelijk het onderscheid maken tussen 1.1 en 2.0 en verder niet. Dat SCCT nou net 1.4 en 3.0 gebruikt zegt meer over hun relatie met Nvidia dan over de trends bij developers.
Uiteindelijk is de userbase van 2.0 kaarten zo gigantisch groot dat een developers dat niet zomaar kan negeren, want dat kost ze veel te veel geld. Daar moet dan iets stevigs tegenover staan.

De vraag is een beetje wat er met SM3 gebeurd. Eigenlijk voegt het erg weinig toe, maar later dit jaar zowel ATI als Nvidia het ondersteunen heb je kans dat developers het alleen al als checkbox feature wel willen hebben. Een handige developer zorgt echter dat ie gewoon generieke code schrijf die ie kan compileren naar zowel sm3 als sm2.
Ik kan me echter ook voorstellen dat vanwege het kleine verschil een developer het gewoon bij sm2 houdt, vanwege de grote userbase en dan overschakelt bij WFG2 waarbij er weer echt grote veranderingen komen.
@aval0ne,

Gezien door jouw groene nvidia bril zijn spellen die alleen PS3 ondersteunen en geen PS2 uiteraard de toekomst. Maar laten we even realistisch blijven, anders heeft deze discussie geen zin.

De toekomst is de spellen die op dit moment in ontwikkeling zijn. Noem dan maar op welke er allemaal wel PS3 ondersteunen maar geen PS2. SCCT is gewoon de grote uitzondering.

De FX reeks waren inderdaad goede DX8.1 kaarten. Helaas waren er geen DX8.1 spellen, want Nvidia had die ontwikkeling juist gedwarsboomd omdat alleen de 8500 dat ondersteunde.
de FX werd dus een goede DX8.0 kaart.

Het verschil tussen DX8 en DX9 is nog een stuk groter dan 8.1 en 9.

Dat de R520 een andere architectuur heeft dan de X8xx valt wel mee. In alle geruchten ziet het er naar uit dat de R520 in weze gewoon een X8xx met 24 pipes is en SM3 ondersteunen. Dat is niet spectaculair anders.

Tenzij jij denkt dat de R520 lijkt op de kaart in de Xbox360. Die samen laten werken een X8xx lijkt mij ook lastig.
Uiteraard is Doom3 in OpenGL geschreven, maar de specificaties van de shaders die zijn gebruikt zijn van het PS1.4 nivo. Daar ging het even om.

Als SCCT theory er in SM3 echt zoveel beter uitziet dan is het des te meer een schande dat ze iedereen met een SM2 kaart afschepen met PS1.1
Het is immers al lang bewezen dat SM2 er net zo mooi uitziet als SM3 voor praktisch dezelfde snelheid.

Maar ja, als de zak geld van Nvidia maar groot genoeg is dan kan je wel een groot deel van je klanten schofferen.
Ik zal het spel daarom dan ook niet kopen of spelen. Er zijn genoeg andere goede spellen, dat ik SCCT niet zal missen.
@s_xero

Nee dat uitermate onwaarschijnlijke gerucht heb ik niet gezien.

Als je echter naar de rest van de geruchten kijkt van het afgelopen jaar, en dan met name naar betrouwbare bronnen, dan kom je tot de conclusie dat unified shader architecture pas in R600 komt, tesamen met WFG2, (dat ook op unified shaders gebaseerd zal zijn) en dat R520 gewoon een X8xx wordt met 24 pipes en SM3.
mjt de vries schreef
Als SCCT theory er in SM3 echt zoveel beter uitziet dan is het des te meer een schande dat ze iedereen met een SM2 kaart afschepen met PS1.1
Het is immers al lang bewezen dat SM2 er net zo mooi uitziet als SM3 voor praktisch dezelfde snelheid.


Waar haal je eht in godshemels naam vandaan, de makers van Far Cry patches hebben uitgebracht om hun PSM2.0 shaders op PSM3.0 te laten lopen omdat dat sneller gaat, das een ding, maar bewezebn dat PSM3.0 geen visuele verbeteringen met zich mee brengt, MIJN GOD, HOE HAAL JE HET JE IN HOOFD!!!!!
Hoe haal ik dat in mijn hoofd? Heel simpel, omdat het al vele malen aangetoond is.

Bv dus juist bij die Far Cry patches die je zelf noemt.
De SM3 versie was amper sneller (alleen via benchmarks meten) en was niet mooier.

DAAR haal ik het vandaan.

Waar haal jij het vandaan dat SM3 er zoveel beter uitziet dan SM2 terwijl er nog NOOIT enig bewijs voor is gegeven?
Doom3 is geschreven in OpenGL 1.5 -> SM2.0

Ennuh, als je Chaos Theory nog niet in SM3 hebt gezien.. Dan had je maar een 6800 moeten kopen, want het verschil is echt massive. 64-bit-blending en Virtual Displacement. Dat is mooi en nu zien de ATI-gangers dus dat ze die XXX0 helemaal niet hadden moeten kopen.
Tja...(al wordt die Fudo natuurlijk wel masterlijk, gezien de specificaties.
Heb je dan niet gehoord dat het waarschijnlijk ook de Unified Shader Architecture krijgt? (dat heeft de R500 in de Xbox360 ook) Dat is echt een vet goede architectuur. Bijna alles is direct met elkaar verbonden, dat is ook mooi en snel.
Jij gelooft het niet? Tja de wens is de vader van de gedachte nietwaar? ;)

Nvidia legt zelfs op dat het twee kaarten van dezelfde fabrikant van exact hetzelfde type en liefst nog met geheugen van dezelfde productielijn moeten zijn.

Als alleen die eis al vervalt bij ATI dan is MVP al veel interessanter voor mensen die van plan zijn MVP of SLI als goedkope upgrade te gebruiken.

Verder zul je uiteraard bij verschillende kaarten een beperking krijgen bij de laagste kaart. Als R520 SM3 ondersteunt en je hangt er in MVP een X800 bij, dan kun je uiteraard in MVP alleen SM2 gebruiken.

Maar rendering verschillen in chessboard rendering? Laat maar eens de rendering verschillen tussen 9700 en 9800 zien, tussen 9800 en X800 en tussen X800 en X850.

Ze hebben nu al zo lang beweerd dat je geen twee dezelfde kaarten moet gebruiken (en dat zijn geen geruchten) dat het uitermaaaaaaate onwaarschijnlijk is dat ze dat ineens zouden intrekken.
Tot nu toe zijn alle berichten louter gerucht geweest. Er is er ééntje begonnen over het ondersteunen van verschillende kaarten en dat is blijven weerklinken. ATI kan er geen kant mee op. Als ze het op dit moment ontkennen dan barst heel de hype ineen (ze kunnen dit wel op de officiele lancering, door de overblijvende kwaliteiten te belichten). En als ze wel verschillende kaarten willen ondersteunen... ja laat ze dan maar in hun eigen ongeluk lopen. Je zal onnoemelijk veel berichten horen van mensen die problemen hebben met een opstelling met twee verschillende kaarten. We praten hier niet over twee merken geheugen in je systeem he (en zelfs dat is af te raden).

Het is gewoonweg vragen voor problemen, en dat kunnen ze nu wel missen. Ze zitten zowiezo achterop. Ze kunnen rap iets ineenhacken maar dan neem je er niet het ondersteunen van verschillende kaarten nog eens bij...
Inderdaad is het een grote berg geruchten, maar ik dacht dat het ondersteunen van verschillende kaarten nou juist het enige was dat wel door ATI is bevestigt.

(In ieder geval komt dat ook niet alleen van een geruchtensite als Inquirer af, maar zijn er ook daadwerkelijk betrouwbare bronnen die dat al een jaar aangeven)

Maar waarom zouden twee kaarten zoveel problemen moeten geven. Uiteraard kun je geen SM3 gebruiken, dus je zal terugvallen op de features van de 'laagste' kaart.
Het snelheidsverschil tussen beide kaarten is met chessboard rendering ook geen issue.

Dan hou je alleen eventuele verschillen in rendering methode over. Bv evt verschillende methodes voor AF.
Maar ATI bepaald zelf welke AF optimalisaties gebruikt worden en dat zit niet in hardware vast. Dus die kunnen ze makkelijk op elkaar afstemmen.

Ik zie niet in waarom twee verschillende videokaarten zoveel problemen zouden moeten opleveren. Net zoals bij verschillende schijven in een raid array heb je natuurlijk wat beperkingen, maar geen aanleiding voor problemen.
Het probleem is niet beperkt tot Shader Model 3.0. Da's inderdaad relatief makkelijk op te lossen door de de features (caps) van de laagste kaart door te geven aan de spellen. Maar dan krijg je gegarandeerd klachten van mensen die een extra kaart kochten voor Shader Model 3.0 mogelijkheden. Vandaag is het aantal spellen dat dit gebruikt op één hand te tellen, maar binnen een jaartje... Ook zal Shader Model 3.0 gepaard gaan met extra features zoals nieuwe textureformaten en filtering, die wél veelvuldig gebruikt worden indien aanwezig.

Maar het probleem is nog veel uitgebreider. Laten ze toe dat de verschillende merken van kaarten ook verschillende geheugenconfiguraties hebben? Indien ja, dan zit je met zware technische problemen zoals hierboven beschreven. Indien nee, dan veroorzaakt het enorm veel verwarring onder de gebruikers en krijg je nóg meer klachten.
Ik denk niet dat zoveel mensen zouden klagen dat ze geen SM3 kunnen gebruiken in MVP.

Ten eerste hebben we het nog steeds over een niche markt.
Ten tweede is dat volgens mij best goed uit te leggen aan je klanten. Daar hoef je op de doos niet geheimzinnig over te doen.

Soms zijn mensen dom, maar vaak worden ze ook express dom gehouden. Je kan echt mensen wel uitleggen dat de PS versie van de oude kaart de beperkende factor is en het geheugen ook. (en als je het niet kan uitleggen waarom het technisch niet kan, kun je ze in ieder geval vertellen dat het "nou eenmaal zo is" en dat ze daar rekening mee moeten houden)
Zowiezo is MVP voor de "enthousiast" markt en die kan je dat zeer zeker uitleggen.

En binnen een jaartje? Ach, de mensen die serieus MVP overwegen en zich druk maken over SM3 die overwegen tegen die tijd toch al hun X8xx kaartje te vervangen door een R520 model ;)

Hoeveel mensen heb je horen klagen over SLI? Daar heb je immers soortgelijke problemen: het werkt uberhaupt niet in een boel spellen, je kan het niet upgraden met een moderne kaart maar moet een exact gelijke hebben. Sterker nog het moet hetzelfde merk en type zijn.
Ik hoor daar niemand over. Gewoon omdat de mensen die SLI hebben daar voldoende benul van hebben om dat te beseffen.

Eén kanttekening daarbij. Over 2 jaar krijg je wellicht dat de oude SLI/MVP systeempjes tweedehands bij mensen terecht komen die het niet begrijpen. Maar maken die zich druk over SM3? Zouden die uberhaupt zelf een videokaart toevoegen?
Hoeveel mensen heb je horen klagen over SLI? Daar heb je immers soortgelijke problemen: het werkt uberhaupt niet in een boel spellen, je kan het niet upgraden met een moderne kaart maar moet een exact gelijke hebben. Sterker nog het moet hetzelfde merk en type zijn.
Ik hoor daar niemand over. Gewoon omdat de mensen die SLI hebben daar voldoende benul van hebben om dat te beseffen.
Er is een zeer groot verschil tussen 'geen voordeel leveren', en 'niet werken'. SLI levert in sommige spellen geen voordeel (vaak doordat het spel CPU-gelimiteerd is), maar je systeem blijft wel werken en het gaat dan om spellen die zowiezo al vlot genoeg draaien. Daar hoor je inderdaad dan niemand om klagen.

Als ATI echter verschillende merken (en misschien zelfs types) kaarten toelaat dan kan je in situaties terecht komen waarbij de hardware moeilijkheden geeft, de driver mank loopt, of het spel niet correct weergegeven wordt. Dat valt onder de noemer niet werken. En dat wil een bedrijf ten alle koste vermijden.

Veel van dit soort systemen wordt gekocht door rijkeluiszoontjes die willen opscheppen, en die-hard gamers. Die zijn niet dermate geinteresseerd in de technische mogelijkheden dat je bepaalde beperkingen wel en andere niet oplegt. Ook zijn PC-verkopers niet al te snugger als het op de allernieuwste hardware aankomt. Die willen in weinig tijd een stabiel systeem samenstellen. Ook de OEM-markt vraagt niet naar compatibiliteitsproblemen, en koopt/verkoopt kaarten zowiezo in duo.

Dus de voordelen van kaarten van verschillende merken in dual-GPU te ondersteunen wegen niet op tegen de zeer mogelijke problemen. Ik hoop voor ATI dat ze daar op tijd achter komen. Het is niet onwaarschijnlijk dat ze in de originele specificaties het wilden ondersteunen maar nu aan het terugkrabbelen zijn. Bij NVIDIA zal de gedachte ook wel ooit eens opgekomen zijn...
De kaarten werken samen via een master/slave-systeem waarbij de slave een standaard PCI Express-kaart kan zijn en de master kaart een speciale Multi VPU-kaart moet zijn. De technologie zal wellicht Crossfire genoemd worden, maar dit is slechts een gerucht.
Dat is mooi.. Nvidea moet je twee SLI kaartjes kopen. om het zelfde effect te krijgen terwijl ATI netjes een normaal kaartje koopt met een extra kaart die over VPU beschikt...

dus zal de prijs klasse lager vallen... 2 dezelfde kaarten.. 1 goedkopere. 2e duurdere met een VPU functie..

helaas is dit een gerucht dus nog ff afwachten op Computex
De prijs zal lager uitvallen, omdat er meer verschillende karten komen zal de prijs lager uitvallen, sure, ben ik helemaal met je eens.

Dus voor alle X8XX - XX XX kaarten zijn er strax 3 versies
AGP
PCIe
PCIe Master

Klinkt mij heel goedkoop in de oren ja, iedere chip 3 keer uitbrengen.

Dit is ook een manier, maar op geen enkele manier nog superieur aan SLI, ik zeg ook niet inferieur, maar gewoon een beetje anders, het komt eigenlijk nog steeds op hetzelfde neer.
Hangt er vanaf wat jouw definitie van superieur is.

Als je alleen maar kijkt naar prestatie dan zal het wel niet veel uitmaken.

Kijk je echter ook naar praktisch nut voor de consument, dan is het wel veel beter, omdat je veel minder kans op problemen hebt als je sli of mvp gebruikt als upgrade optie.
Is dat hier dan wel van toepassing, is een van de twee echt handiger?
Oh je bedoeld specifiek master/slave vs gelijke kaarten met een kabeltje?

Tja, normaal gesproken zou je verwachten dat één productielijn goedkoper moet zijn dan twee modellen. (Tenzij je heel erg veel extra componenten op een kaart moet bouwen om 'm master te maken).

Aan de andere kant is er wellicht ook wel helemaal geen sprake van een apart master-model en een slave model.

ATI's oplossing zou dus een master en een slave kaart nodig hebben voor de chess board rendering.
Maar ik kan me goed voorstellen dat je een master kaart ook als slave kan instellen. (net zoals bij IDE disks)
Dan zou je dus gewoon twee master videocards kunnen gebruiken.

Uit de berichten van The Inquirer krijg je niet genoeg informatie, maar ik kan me voorstellen dat alle toekomstige kaarten van ATI als master kunnen opereren, en dat ze op die manier dus 1 productielijn houden.
"Een gewone PCI-Express kaart als slave" zou dan eerder duiden op alle "oude" kaarten.

Er zitten overigens verder nog wel meer onduidelijke zaken in het bericht van The Inquirer. Waarom zouden mobo producenten niet blij zijn met ATI's oplossing? Die heeft namelijk bijna geen impact voor hen?
Of willen ze graag een complexe oplossing, zodat ze een extra duur mobo aan de consument kunnen verkopen?
Wat ik ook bedoelde, dat vroeg ik dus niet.....
Maar wat nou als je als 2de "normaal" PCI-e een budget-kaartje pakt. Dan vormt deze zeker een bottleneck?
Zowel bij de 'chessboard' mode als de 'alternate frame' mode zal de VPU-Master kaart op het 2de kaartje moeten wachten tot deze zelf ook weer verder kan.

Dus uiteindelijk kom nog uit met 2 high-end, dure videokaarten als je er echt profijt van wilt hebben.
Bij chessboard mode hoef je niet te wachten. Je hoeft immers niet beide kaarten evenveel tiles te geven.
Hoewel ik niet hoop dat het hetzelfde zal zijn als een vergelijking tussen RAID 0 en JBOD. Je moet bij RAID 0 wel 2 dezelfde hdd's hebben, maar de prestaties zijn er ook wel naar. Bij JBOD maakt het niet uit maar heb je ook niet echt goede prestaties.
dat komt omdat bij jbod de HD's ook niet samenwerken, maar gewoon op de andere hd overgaan als de ene vol is.
De dag dat ATI multi-GPU technologie demonstreert zal NVIDIA z'n prijzen fiks verlagen. Puur logica.
Vreemde logica heb jij dan.

SLI /MVP is een niche markt. Zelfs al verliest Nvidia die markt geheel aan ATI dan zal dat op de jaarcijfers niet te zien zijn.
Als ze echter al hun prijzen fiks gaan verlagen dan is dat wel degelijk op de jaarcijfers te zien.

De prestaties en prijs van een enkele ATI videokaart vs een enkele Nvidia videokaart zullen de prijzen gaan bepalen.
Zou het met deze technologie dan ook niet (in de toekomst dan), méér dan 2 kaarten tegelijk te gebruiken? Net omwille van dat master/slave-systeem. Het enige dat nodig zou zijn is:
-meer PCIE lanes op de moederborden
-waarschijnlijk een aangepaste master card (met ondersteuning voor een connectie met meer kaarten)

Natuurlijk zou dit wel extreem hi-end worden... (hi-hi-end?)
Ik denk niet dat het mogelijkis om nog meer kaarten toe te voegen...

Master/Slave ondersteund er maar 2. wat wel zou kunnen is een zelfde principe als met de IDE poorten..

meerdere poorten beschikbaar stellen.. maar dat kan nu toch ook met PCI kaartjes?? alleen worden deze niet gelinkt...
Mja ik heb het dan ook over een 'aangepaste master card' he... Master + multiple slaves, waarom niet?
LoL dan krijg je Master die 3 of 4 slaves aanstuurd??

krijg je dan niet prestatie vermindering geloof dat elke slafe minder prestatie zal leveren aangezien er misch wel 4 kaarten voor hem gaan.. tevens vraag ik me af wie z'n systeem wil gaan gebruiken ???

misch een video bewerkings manetje die voor minder geld toch een high end systeem wil gebruiken om zijn Filmpies te plakken.. en natuurlijk gamers.....
Ik zei dan ook 'hi-hi-end' he :) :+

En in de newspost hebben ze het over 'Alternate Frame Rendering' en over 'chess board tile rendering', vooral bij deze laatste dus dat zou wel degelijk een positief effect kunne hebben, in plaats van het averechtse effect dat jij veronderstelt...
't Principe van Master/Slave zegt niets over het aantal masters en slaves. In de praktijk is het vaak het handigste om één master te hebben en een (of enkele) slaves.
Maar de techniek is op het oog minder afhankelijk van een aantal kaarten, dan SLI. Bij SLI zit je tenslotte vast aan dat bruggetje tussen je twee kaarten (waar dan wel meerdere gpu's op zouden kunnen zitten).
Ik denk dat dat wel mee valt, die bruggen worden uitgedeelt bij de moederborden, en uiteindelijk bepaald ook het moederbord hoe veel kaarten erop kunnen, de nForce 5 zou wel eens een andere brug mee kunnen krijgen, met 3 poorten, omdat het mobo dan ook 3x 16x PCIe ondersteunt (dit is allemaal vrij theorethisch heh), ik denk niet dat een van de twee bedrijven het bij 2 kaarten gaat houden.
ik denk dat er voor de mogenlijkheid van meer dan twee kaarten aan elkaar te kopelen een hogere bandbrete moet komen voor pci-e bij sli valt de poort namelijk van pci-e 16X terug op 8X en zelfs als het mogenlijk is ze gewoon met meerdere slaves aan elkaar te kopelen zal daar dus niet veel meer uitkomen dan er met twee uit komt veronderstelend dat er 1 master is deze zal namelijk alle andere kaarten moeten koördineren en het dus zwaar te voorduren krijgen
wat wil je proberen?

2 monitors op 1 pc met elk hun einge sli kaarten?

4 in totaal dus. je keyboard is toch maar goed voor 1 hoor :D
Mijn advies aan ATi is: Introduceer MVP en de R520 gelijktijdig.

Vergeet de X8xx en andere oudere kaarten. Op die manier heeft ATi een antwoord op SLi en op SM3.0, en zal het hele verhaal van de compatibiliteit ook geen probleem meer zijn. Ze kunnen zelfs gewoon een interne connector gebruiken.

Rot voor de mensen die nu met een X8xx straks geen MVP kunnen doen. Maar ATi loopt qua techniek nu echt achter, en ze maken het zichzelf met de dag moeilijker.

Want stel je nu eens het volgende voor:

ATi introduceerd MVP voor de X8xx serie op Computex. 2 X850XT's zijn absoluut sneller dan 2 6800 Ultra's. Vervolgens komt nVidia twee weken later met de G70 met SLi. De G70 is wellicht 1,5 zo snel als een 850, dus met SLi zeker sneller dan 2 850's. Heeft ATi twee weekjes van de voorsprong kunnen genieten. Wat moeten ze dan, meteen maar de R520 introduceren om die tegenover de G70 te zetten ?

Er zit dan zo weinig tijd tussen dat ze beter MVP en de R520 tegelijk kunnen introduceren.

Just my 2 cents....
Ik denk dat als ze R520 konden introduceren, dat ze dat echt wel gedaan zouden hebben. Ze willen gewoon hun multi-vpu eerst klaar hebben.
Maar je verhaal klopt wel natuurlijk, nvidia wint nu altijd. Tot de dag dat er 2 R520 kaarten in multi-vpu staan toch ...
Waarom denken jullie uberhaupt dat MVP en R520 los van elkaar geintroduceerd worden?

Alleen maar omdat The Inquirer er een vaag gerucht over heeft verspreid?

Vooral aangezien er support voor MVP in de videokaart moet zitten is het nogal vanzelfsprekend dat je het dan in de nieuwe R520 inbouwd.

Het zou nogal onlogisch zijn om nu R520 te introduceren en dan over een paar maand R520 met MVP.
Dan koopt natuurlijk geen hond een R520 maar wacht iedereen op een R520MVP.

Nu een X850 MVP introduceren is ook niet slim. Dan ga je een productielijn opzetten voor een kaart die over 2 maand end-of-life is. Dat is onzinnig.
Zowiezo, wie gaat er dan een dure X850MVP kopen als er met 2 maand een nieuwe kaart uitkomt? Niemand toch? Alleen al voor de prijs wacht je dan tot de R520 uitkomt.

Enige logische stap: Introduceer de MVP tegelijkertijd met de R520.
Logisch zou het wel zijn maar het is niet. De R520 komt pas eind dit jaar.

Andere bron: anandtech:
We aren't expecting to see the official R520 launch until later this year and not at Computex, based on information we've been hearing from Taiwan.
http://www.anandtech.com/video/showdoc.aspx?i=2421

The inq had weeral gelijk.
Zullen we eerst maar eens afwachten of het werkelijk zo is, voor je The Inquirer weer de hemel in gaat prijzen?

Inquirer beweerd wel dat MVP gelanceerd wordt op computex, maar in het verhaal zelf staat alleen dat ATI de MVP architectuur onthuld. Dat betekent nog helemaal niet dat er dan ook werkende hardware gelanceerd wordt.

Het kan dus nog net zo goed betekenen dat MVP gewoon op R520 komt te zitten die eind van het jaar in de winkels komt.

Overigens is The Inquirer in dit laatste artikel verdacht stil over de mogelijkheid om AGP kaarten te koppelen met MVP. Hadden ze daar toevallig ongelijk in?
Ik heb niet alle vertrouwen in ATI's oplossing voor meerdere kaarten te combineren.

Een X800 met een R520 samen gaan gebruiken lijkt mss wel leuk, maar de X800 ondersteunt geen PSM3.0
Hoe ga je dit dan renderen? Enkel PSM2.0 gebruiken? Leuk dan, koop je een dure R520 kan je niet alle functies benutten omdat je slave niet alles ondersteunt.

Of lost ATI dit op door maar enkele types te kunnen combineren? Zoniet, zal ATI de nodige informatie moeten meeleveren.

En kan je wel een snelle & trage kaart combineren? Gaat de snelle kaart dan niet te vlug willen renderen? Hoe verdelen ze de load dan over deze kaarten?
Miss dat ze dit oplossen door de delen die door de x800 met PSM1.0 gedaan kunnen worden door de x800 gedaan word, en dan de delen die perse PSM 3.0 nodig hebben door de R520.

Ik weet niet of het mogelijk is. Maar het zou in ieder geval een oplossing kunnen zijn
dit zou te moeilijk worden,
dan zou elk beeld wat berekend word eerst verdeeld moeten worden in ps3 dingen en ps2.0b dingen.
je hebt toch al het feit dat die r520 sneller is in zijn werk dan die ps2.0b kaart dus dan zou bij het berekenen van elk beeld die r520 moeten wachten op de slave.
ik denk dat je door al dit wachten het snelheids voordeel van MRA teniet doet en dan zou je net zogoed alleen solo met de r520 kunnen gamen als je de load op die manier wilt gaan verdelen.

maar ik kan niet wachten op de eerste benches want ik heb veel vragen zoals denk ik iedereen.

want wat gebeurt er als de snelheids verschillen tussen de master en slave te groot zijn? hoe gelimiteerd ben je in je upgrade mogelijkheden? in de richting van dat verhaal van: er zijn speciale master kaarten etc ik zie al dingen aankomen waardoor je dit limiteerd in je upgraden.
nVidia SLI ?
Ati multi VPU ?
. . . PPU ?

Trouwens de opvolger van de Good Old 3dfx Voodoo 3D kaart, staat ook al voor de deur ... niks geen dure SLI opstelling, maar een PPU - Physics Processing Unit kaartje erbij in steken. Deze PPU rekent alle realische effecten razend snel uit, en ontlast de CPU alswel de GPU. De Ageia PhysX chip is er in 128MB GDDR3 uitvoering zowel in gewone PCI als in PCI-Express x1. Deze PPU is voorzien van 125 miljoen transistors en verbruikt maar zo'n 25watt. De productie wordt gedaan door TSMC uit Taiwan. De eerste PPU kaarten zouden eind 2005 in de winkels moeten gaan liggen ...

Tim Sweeney is erg enthousiast over de PPU en gaat waarschijnlijk Unreal 3 ombouwen tot integratie van de PPU insteekkaart.

Zie ook Hardware.Info magazine #2/2005 :+
Zie ook tweaker.net waar dit al uitgebreid op besproken is:
http://www.tweakers.net/nieuws/36510/?highlight=PPU
nu maar kijken welke kaarten dit gaan ondersteunen. Ik hoop ook dat de X700 serie dit gaat kunnen. Dan kan ik goedkoop een X700 er bij zetten en dan wachten op de R520.

Nu maar zien of dit beter werkt dat SLI maar ik heb goede hoop :)
Ik zou graag nog iets toevoegen ivm. SCCT: het is of PS1.1 of 3.0. Geen 1.4...
The Inquirer bericht dat ATi officieel bevestigd heeft...
Dan wil ik wel eens dat officieel bericht zien. }>

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True