Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: Hexus.net

Hexus.net heeft nieuwe informatie bij elkaar weten te scharrelen over ATi’s Multi Video Processing units (MVP). Hexus.net claimt dat alle ATi-kaarten, vanaf de Radeon 9700 Pro, geschikt zijn om gebruikt te worden in een MVP-opstelling. Hierbij kan de bestaande kaart gebruikt worden als ‘slave’ terwijl een speciale MVP-kaart aangeschaft zal moeten worden die voor ‘master’ zal spelen. Tevens is een MVP-compatible moederbord een vereiste.

ATi logo (kleiner)De twee videokaarten zullen communiceren via een externe kabel, vergelijkbaar met wat we vroeger zagen bij de Voodoo2. Dit is in tegenstelling met eerdere berichten waarin geclaimd werd dat de communicatie via de PCI Express-bus zou lopen. Hexus.net suggereert dat de externe kabel wellicht gebruikt zal worden bij de high-end modellen om de PCI Express-bus niet te zwaar te belasten terwijl de low-end modellen wel gebruik kunnen maken van de PCI Express-bus.

Een ander verschil tussen nVidia’s SLI en ATi’s MVP is de mogelijkheid om MVP ook te gebruiken voor de low-end videokaarten van het bedrijf. Het is zelfs mogelijk om de in de chipset geïntegreerde ATI-videokaart te gebruiken om een MVP-opstelling te bouwen. ATi’s MVP zal gebruik maken van tile-based rendering om het werk te verdelen over de videokaarten. Hierbij wordt het beeld opgedeeld in kleine vierkantjes die verdeeld kunnen worden over de kaarten. Verwacht wordt dat ATi de MVP-kaarten officieel zal introduceren op de komende Computex-beurs en dat de kaarten in juni in de winkels zullen verschijnen.

Moderatie-faq Wijzig weergave

Reacties (53)

Ik vraag me wel af hoe ze dit gaan doen, vanaf een 9700 pro en hoger compatible, naar mijn weten is er geen 9700 pro PCI-E.
En aangezien alle high-end kaarten toch wel PCI-E zijn, en er geen dual AGP mobo's bestaan (en schaars PCI-E+AGP bordjes) kan je toch nooit dan 2 van die kaarten op 1 bordje prikken? :S
Zoals ik het lees gaat de MVP kaart in een pci-e slot en de 'gewone' kaart in het AGP slot. Maar echt duidelijk is het niet.
Misschien is het dat dus van de nieuwe mobo's, al zie ik het nut niet echt van een nieuw 2x agp moederbord terwijl de videokaart fabrikanten allemaal overstappen op pci-e.
Misschien icm de onboard videokaart zoals in het bericht wordt gezegd.
ik heb hier zo mijn bedenkingen bij.

dat de 9700pro geschikt is voor een MVP opstellen wisten we al langer. ATI leverd al veel langer systeemen met 16 of meer videokaarten (onderandere 9700pro's) aan BV het leger voor simulators.

echter worden daar idd speciale moederborden voor gebruikt, met een hoop AGP poorten en word er idd een extene connector gebruikt.

alleen is zeker dat moederbord niet echt practis voor de concument, en niet te betalen waarschijnlijk.
aangezien wat ze hierboven beschrijven zo gigantiesch veel lijkt op de techniek die ATI gebruikt voor o.a. het leger denk ik dat nexus wat door elkaar heeft gehaalt.
zeker ook omdat het totaal het tegenovergestelde zegt van alle andere geruchten en zelfs ATI zelf tegenspreekt.
die hebben namlijk op Cebit nog gezegt "Works with any PCIe north bridge" en "No physical connector requires between devices" tegen hun kaarten bouwers.
http://www.xbitlabs.com/articles/editorial/display/cebit2005-2.html

wat ook logisch is want PCI-express zelf voorziet in alles wat er nodig zou kunnen zijn voor MVP.
PCI-E voorziet niet helemaal in alles voor MVP, tenzei je genoegen neemt met een PCI-E 1x slot voor graphics, dat is op de meeste PCIe north bridge's wel het geval. ATi schreeuwd gewoon erg hoog van de daken, en kan het allemaal weer niet waarmaken.....
ik zou de pci-e specs nog maar eens nalezen als ik jouw was.
het kunnen opdelen van kanalen(dus van 16x naar 2keer 8x bv) zit gewoon in de specs
net als een point to point verbinding tussen de kaarten.
meer is er eigenlijk niet nodig. de kaart en software kan de rest doen.
dat niet ieder mobo maker 2 16x slots op het mobo plaats is iets anders maar het kan gewoon met iederen pci-express northbridge. (of je kan bv een 4x slot modificeren en de kaart erin doen dan werkt het ook prima)
Ok, dat wist ik niet, dan neem ik het terug.
Tevens is een MVP-compatible moederbord een vereiste.
Pff, prutsers, net als nVidia. 3dfx was helemaal geen speciaal moederbord nodig }>
De twee videokaarten zullen communiceren via een externe kabel, vergelijkbaar met wat we vroeger zagen bij de Voodoo2.
Dat is fout. De V2's communiceerden over een interne kabel. Die externe kabel was voor tussen de 2D kaart en de V2 om de 2D door te geven. De monitor werd op de eerste V2 aangesloten en de kracht van de 2de V2 werd aangesproken via de interne SLI kabel.
Prutsers? Hoezo? Ten tijde van de Voodoo kaarten gebruikten videokaarten dezelfde sloten als andere insteekkaarten. Er is naderhand gekozen om de videokaart een 'speciaal' slot te geven om deze zo wat meer bandbreedte te kunnen leveren. Je zult als je van de 'nieuwe' technieken gebruik wilt maken 2 of meer van deze 'speciale' sloten moeten aanbrengen op een moederbord die je voorlopig kunt aanduiden als 'speciaal' maar die binnen de kortste keren gewoon als normaal worden beschouwd.

Speciaal is dus maar betrekkelijk ;)

Ik zou nog wel een kanttekening willen maken t.a.v. een trend die de kop op steekt.Het ziet er naar uit dat processor ontwikkelaars steeds meer de richting op gaan van dual of multi cores. Dat doet een beetje armoedig aan en lijkt mij geen erg efficiente manier. Het lijkt wel of ze zelf Moore's Law in stand willen houden ;) Het is natuurlijk een dure oplossing. Je hebt meer componenten nodig die allemaal ook nog eens getest moeten worden. Ik vraag me dan ook af of deze ontwikkelaars aan het plafond zijn gekomen van de huidige technieken en ze vooralsnog geen nieuwe technieken voorhande hebben.

Ik ben maar een leek op dit gebied, deze kanttekening is slechts een hersenspinsel van mij.
Op zicht wel een intressante hersen spinsel, maar je kan het ook op een andere manier bekijken.

x86 is eigenlijk alleen maar zo groot geworden omdat het zo idioot porgrammeur vriendelijk is en dus werd er veel software voor geschreven, nadelen van x86 is dat het vergleken bij andere ISA's niet zo snel zijn, en amd heeft niet voor niets units in hun K8 gebouwd die geen andere functie hebben dan x86's nadelen 'omzeilen'. En nu lijkt een einde te komen aan de programmeur vriendelijkheid van de x86 computer, nu moeten programmeurs ineens multithreaded programmeren. x86 heeft altijd stand gehouden door de gigantische hoeveelheid software, en destijds de druk IBM.

Nu zou dit weleens het einde kunnen betekenen voor x86, zou ik neit erg vinden...

Aan de technische kant van het verhaal, op het moment kunnen ze niet meer units toevoegen om het sneller te laten gaan, de extra complexiteit zou het langzamer maken, mogelijker wijs wel mogelijk maken om hogere clocksnelheden te bereiken, maar dat doen ze gelukkig niet.

In plaats van 1 core sneller proberen te maken, wat nu bijn niet mer mogelijk is (meer stages in pipeline maken het langzamer, meer cache werkt langzamer) dus juist door Moore's Law, er kunnen meer componenten op de die, (zoals dus ook een memory controller), is er ruimte op de die, en op het moment weten ze even niet precies wat ze ermee moeten doen, dus zetten ze 2 cores op die die, om hem 2x zoveel ruwe rekenkracht te geven, is dis slecht? Ik dacht het niet.....

Een alternatief, zou zijn geweest system-on-a-die, meer intergreren dan alleen de memory controller. AMD heeft dat dus een klein beetje gedaan, en in de toekomst zal meer naar de die worden verplaatst, als blijkt dat quad-core niet zo makkelijk te realiseren is, en mogelijkwijs hebben we in de toekomst iets wat in de buurt komt van de Cell processor voor onze desktops.

Zolang de grote van transistors nog verminderd kan worden, zolang het voltage nog omlaag gaat, zolang de clocksnelheid langzaam toeneemt (zie AMD clocksnelheden, intel is buiten gewone clocksnelheid wegen gaan lopen) en zolang het verbruik van processor langzaam toeneemt, zijn de huidige techniken nog genoeg. En anders komt er iets in de richting van optronische computer :7.
en amd heeft niet voor niets units in hun K8 gebouwd die geen andere functie hebben dan x86's nadelen 'omzeilen'.
Lang niet alleen AMD doet dat hoor. x86 is eigenlijk heel onhandig en langzaam. Vanwege die reden hebben fabrikanten allerlei units ingebakken die van x86 RISC instructies maken die het voordeel hebben om sneller verwerkt te worden en tevens kun je met RISC van een paralelle executie gebruik maken terwijl dit bij x86 niet mogelijk is.
En nu lijkt een einde te komen aan de programmeur vriendelijkheid van de x86 computer, nu moeten programmeurs ineens multithreaded programmeren.
Dus omdat men nu ineens multithreaded moet gaan schrijven (vanwege dual-core ed) verdwijnt daarmee meteen de x86 ISA? Zeker niet, alle dual-core's en toekomstige dual-core's blijven gewoon x86 zowel bij AMD als Intel (Dual-core Itanium Montecito erbuiten gelaten, welke een IA-64 ISA heeft). Ook al moeten programmeurs dus nu multithreaded gaan programmeren, de x86 ISA blijft behouden en zal dus IN de x86 ISA proberen zo multithreaded mogelijk te schrijven.
meer cache werkt langzamer
Leg eens uit dan? Hoe meer data en instructies je kwijt kunt, hoe sneller het volgens mij word omdat je dan minder op het (langzamere) systeemgeheugen hoeft te gaan kijken of in het ergste geval: op de harde schijf.
is er ruimte op de die, en op het moment weten ze even niet precies wat ze ermee moeten doen, dus zetten ze 2 cores op die die, om hem 2x zoveel ruwe rekenkracht te geven, is dis slecht?
Absoluut niet mee eens. De fabrikanten hebben liever zo klein mogelijke cores. Dit betekend namelijk meer cores per wafer en waarschijnlijk hogere yields. Ze kunnen (zoals je zelf al zegt) de core haast niet meer sneller maken, daarvoor zitten ze nou eenmaal tegen de limieten van x86, een andere ISA zou zeker helpen en daar ben ik dan ook voorstander van. De grootste reden dat we dus overgaan op dual-core is gewoon omdat de huidige single-cores gewoon niet meer sneller worden. Niet omdat we plaats hebben, want in feite hebben we geen 'plaats'. Het is niet zo dat je een chip designed op een bepaalde grootte, want het liefst heb je natuurlijk een zo klein mogelijke want dat verbeterd de yields en meer geld per verkochte processor. Ze zullen juist noodgedwongen dual-core's moeten nemen, en nu het technisch mogelijk is dankzij steeds kleinere procédés zullen ze het niet laten om eindelijk weer eens vooruitgang te boeken in processorland.

Maar helaas gaat dit allemaal nogal erg offtopic.
meer cache werkt langzamer
Op een multiple CPU systeem heb je verschillende architecturen. Gedeeld geheugen en cache, gedeeld geheugen en eigen cache of eigen geheugen en cache. De eerste is langzaam omdat elke CPU op de cache moet wachten. De tweede heeft als probleem als een CPU iets naar het geheugen wordt geschreven, dat eerst naar de plaatstelijke cache gebeurd; cache bij de andere CPU's bevat dan dus verouderde informatie en dat kan er toe leiden dat een aantal berekeningen verloren gaan en opnieuwe gedaan moeten worden. Bij de laatste is meestal het probleem dat de communicatie tussen de CPU's op een heel ander niveau gebeurd en erg traag is.
Alle architecturen hebben dus hun probleem. Cache bied niet altijd een uitkomst.
Plus dat als je je architectuur veranderd naar een DSP of een Vector systeem je cache helemaal niet nodig hebt... /edit: GPU's maken vooral gebruik van vector of DSP architectuur
@Thamind,

Dat x86-64 backwards compatible is met x86 is niet helemaal waar, want dat klopt alleen binnen een OS wat de compatibility mode gebruikt, effectief zul je er weinig van merken maar eigenlijk is die compatibility slechts schijn.

Ze maken er geen RISC code van, want dan waren er maar een stuk of 6 stages in een pipeline, hooguit. Wat AMD bijvoorbeeld doet is van te voren de instrucites deels decoderen, en de extra info op slaan als meta data, x86 had als voordeel dat instructies geen vaste grootte innamen in het instructie cache, dus was er minder cache nodig, AMD's oplossing omzeilt die hele eigenschap, en kost transistors. Bijna elke nieuwe processor heeft tal van x86 omzeil technieken, AMD heeft wel een paar van de meest extreme, ze hebben een unit die probeerd pagetable look-ups in het ram (vanwege virtual memory) te ontlopen.

Ze hebben wel degelijk plaats, er is wel degelijk een reeele grootte van de die zorgt voor een goede kosten/opbrengts verhouding, ik zou niet weten waarom, maar de wet van Moore gaat daar juist over, en die wet houd al best lang stand, tehnisch kan het vanwege de transistors die steeds kleiner worden, maar waarom ze ook werkelijk continue ongeveer even grootte die's maken, geen idee.....

Vanaf de eerste Pentium x86 al de vooruitgang in processor performance op, maar, die werd een succes juist omdat hij x86 nog ondersteunde. Ondanks dat ik persoonlijk lciht gezegd niet zo'n fan ben van x86, het heeft weinig te maken met multithreading, er zijn genoeg multithreaded apps op gewone x86, en voor x86-64 zullen er nog wel meer komen.
@MeMoRy

Met Multicores kan gedeelt cache de boel JUIST extra versnellen, IBM heeft dit al een gedaan. Het idee van meerdere processors is ook niet dat ze aan 1 thread werken, dus dan ben je meteen van dat probleem af, iedere proc zijn eigen thread, als er dan toch op geheugen of of cache van andere cpu's moet worden gelezen, komt er inderdaad een aardige performance drop....Geen cache is puur een ontwerppers keuze, het vector systeem waar jij op doelt zal niet toevallig Cell zijn? Die heeft namelijk wel degelijk iets dergelijks dat op cache lijkt, iedere vector processor (SPU) heeft zijn eigen local ram, dat is ultra snel SRAM, hetzelfde spul als waar ze cache van maken, dit geheugen is alleen voor die ene vector processor, en daar mogen de ander niet bij, dus als je er een goed systeem in brengt, zal het met cache ook wel moeten lukken. Bij de Cell hebben om andere redenen geen cache gebruikt....

@Olaf van der Spek

Destijds waren er al veel x86 apps toen intel besloot de pentium ook compatible te maken met x86, het leverde ze toen al meteen een heel scala aan software op. Verder heeft windows ervoor gezorgt dat we ook nog wat konden met die x86 troep, dat heeft geleid tot een erg stabiel ontwikkel platform...

niet x86 is erg veel sneller, destijds was RISC al sneller, maar AMD en Intel hebben beide erg veel manieren bedacht om RISC na te doen. Ook hebben MMX SSE SSE2 en SSE3 een enorm bij gedragen aan de snelheid van x86, maar ik denk echt, dat het sneller kan op andere ISA's. bijvoorbeeld op Altivec....Maar met zekerheid kan ik dit natuurlijk niet zeggen, wat ik wel weet, x86 vanzichzelf, dat is dus zonder SSE, zonder AMD's en Intel trukendoos, is dramatisch langzaam.
Het wordt nu wel ontzettend offtopic, maar
Het idee van meerdere processors is ook niet dat ze aan 1 thread werken, dus dan ben je meteen van dat probleem af, iedere proc zijn eigen thread, als er dan toch op geheugen of of cache van andere cpu's moet worden gelezen, komt er inderdaad een aardige performance drop....
Nog nooit van een supercomputer gehoord? Daar heeft elke CPU zijn eigen proces, maar die processes kunnen wel degelijk hetzelfde doen. Als je met heel veel CPU's een probleem oplost heb je altijd overlappende gebieden. Die moeten uitgewisseld worden en dat vertraagt de boel.
Gedeeld cache werkt maar met een beperkte hoeveelheid CPU's twee, meer wordt moeilijk. Dit omdat je dualport (of meer) cache nodig hebt. Dit valt op een bepaald moment niet meer te bedraden.
De vector-processor cellen van de Cell architectuur hebben volgens mij geen echte cache nodig omdat ze niet echt wisselwerking hebben met het maingeheugen. Ze werken meer DSP achtig. Het locale ram is voor tussentijdse resultaten.
Ik doelde niet alleen op de Cell, er zijn genoeg andere voorbeelden.
Het idee van cache is ook eigenlijk niet bedoelt voor meerdere processors, maar het zou nog wel kunnen, localram is een prima vervanger van cache, cache zorgt er alleen maar voor die niet elke keer in dat trage DRAM gekeken hoeft worden, local ram doet effectief hetzelfde, maar dat is weer niet gedeeld.

AMD's Opterons met NUMA hebben niet alleen hun eigen cache, maar ook hun eigen geheugen, en toch gaat dat nog redelijk snel....het OS lost in dat geval het probleem op.

EDIT;
En nee, mijn kennis van supercomputers is, ligt gezegd, beperkt....
x86 is eigenlijk alleen maar zo groot geworden omdat het zo idioot porgrammeur vriendelijk is
Wat is er zo vriendelijk aan (qua instructieset) dan?
Ze kunnen (zoals je zelf al zegt) de core haast niet meer sneller maken, daarvoor zitten ze nou eenmaal tegen de limieten van x86, een andere ISA zou zeker helpen en daar ben ik dan ook voorstander van.
Zou een niet-x86 core sneller zijn dan?
Dat die kleiner is omdat x86 decoding niet nodig is, ok. Maar (direct) sneller?
Tja, maar aan de andere kant, voor ATi/nVidia maar ook voor Intel/AMD is het duurder om een nieuwe core te ontwikkelen als om van een reeds bestaande core een dual versie te maken, wat je nu dus ziet is eigenlijk voor de fabrikant een goedkope manier van extra performance leveren.
Ik denk dat ze met externe kabel hier bedoelen dat het dus niet via de PCIe bus verloopt...

edit: net artikeltje ff doorgelezen, ze spreken echt over iets externs, maar waar willen ze die op aansluiten dan? dsub? kan nooit genoeg snelheid leveren om echt data overheen te pompen...
het gaat wel enkel over de communicatie tussen de 2 kaarten .. dat houd helemaal niet veel in. (waarschijnlijk iets zoals ik doe de even jij de oneven .. ofzoiets) En ik had ergens gelezen dat het via de DVI aansluitingen ging gaan. Vandaar extern hé.
FF tussendoor:

Ik denk dat het hier WEL over dezelfde opstelling als een V2 gaat.

De OUDE kaart wordt EXTERN doorverbonden naar de accelleratiekaart...

wat jij beschrijft is het gebruik van V2 in SLI modus.. dus dan wordt de OUDE kaart naar de EERSTE V2 EXTERN doorgelust, terwijl de eerste INTERN naar de tweede gaat via de toen al aanwezige SLI-aansluitingen, terwij de TWEEDE V2 op het scherm werd aangesloten. Tenminste, zo werkte het bij mij toch :)
En hoe zit dat met de beeldkwaliteit ?

Volgens mij heeft iedere videokaart zijn eigen beeldkwaliteit (komt vaak in reviews naar voren), dus zou je dan voor verschillende 'tiles' verschillende beeldkwaliteit krijgen ?
Iedere kaart heeft zijn eigen ramdac (de output naar de monitor) en er wordt maar een gebruikt... en dat is juist waar de beeldkwaliteit van afhangt dus zijn ze identiek!
De de beeldkwaliteit is maar in zeer kleine mate afhankelijk van de ramdac. Pas bij zeer hoge resoluties met professionele applicaties wordt het van belang, maar met spellen is de invloed verwaarloosbaar.

Veel belangrijker is hoe de kaart het beeld renderd. En daarom zit er ook verschil in beeld tussen verschillende generatie kaarten. Speel maar eens hetzelfde spel op een GF2 en een 6800. Je zal enorme verschillen zien, simpelweg omdat de oude kaart niet met de nieuwe technieken om kan gaan(bv DX8 ipv DX9).
De ramdac is juist super belangrijk voor je beeldkwaliteit, mits je een analoog signaal naar je monitor gebruikt (de oude dsub/vga). De ramdac zet je digitaal signaal van de kaart om naar een analoog signaal. Als deze dus niet lekker werkt, dan krijg je een wazig beeld of zelfs verkeerde kleuren.

Wel is het zo dat de ramdac's tegenwoordig van zulke kwaliteit zijn dat je nauwelijks het verschil nog ziet. Bij de oudere generaties waren de verschillen veel groter, waarbij matrox werd aangeprezen vanwage hun goede beeldkwaliteit.

Maar ik denk niet dat ze de communicatie tussen de kaarten via het analoge signaal laten gaan, omdat je dan te veel verlies hebt op je beeldkwaliteit. Als ze de beelschermaansluitingen zullen gebruiken, dan is het via de dvi aansluiting, die is digitaal en dus geen ramdac meer nodig.
Met die RAMDAC's is vaak niet zoveel aan de hand hoor. Het gaat puur om de achterliggende filters die gebruikt worden door fabrikanten. Hier werden nogal eens el-cheapo componenten voor gebruikt. Mijn Club3D GF4 Ti4600 van 380Euro had dat bijvoorbeeld :)
Nou zit dat filter er eigenlijk alleen voor het filteren van storings-signalen. In veel gevallen is dit niet eens noodzakelijk!, echter je beeld is niet te lezen op 1600x1200 door die goedkope troep. Een simpele soldeertruuk, namelijk die achterliggende componenen verwijderen en gewoon doorverbinden met een bruggetje zorgde er bij mij voor dat het beeld haarscherp werd!. De RAMDAC heeft hier in mijn ogen dus vrij weinig mee te maken. De RAMDAC bepaalt eerder de maximale frequentie/resolutie/bpp van de output.
Een 230MHz RAMDAC was bijvoorbeeld instaat om 1600x1200x32bit 75Hz weer te geven als maximale waarde. Voor 2048x1536x32bit 100Hz heb je volgens mij een RAMDAC nodig van ergens borond de 400MHz. Ik noem maar wat loze getallen, maar dit is wel waar de RAMDAC het meest mee te maken heeft, de scherpte wordt vaak bepaald door de kwaliteit van de daaropvolgende componenten, en niet zozeer de RAMDAC zelf.

Overigens is door de vele ophef over deze waardeloze componenten de kwaliteit wel veel beter geworden. Volgens mij zijn er tegenwoordig geen kaarten meer te vinden die nog last hebben van dit euvel. Hoe dan ook ligt het probleem altijd bij de fabrikant van de kaart. De GPU van ATi levert perfect beeld, daar zal het niet aan liggen, het zijn altijd de overige componenten die het beeld 'verslechteren' zeg maar.
Aan het volgende te zien lijkt het me niet:
Nothing kinky here folks, the ‘Master/Slave’ reference tells you which card is in control of assembling the final image in its frame buffer
Er zal dus een finaal framebuffer worden gecomposite en deze via 1 kaart naar de video bron, dus via 1 ramdac van 1 kaart
ik denk niet dat fabrikanten zoals ASUS, MSI, ... op dit systeem zitten te wachten...

dit wil zeggen dat ze voor elk type kaart er nog een tweede in het assortiment moeten opnemen, vervolgens moeten de retailers ook deze twee soorten kaarten leveren.

en leg dan ook nog maar eens dat hele verhaal uit aan de eindgebruiker...

koop je ontwetend zo een MVP-master card... werkt die misschien niet eens stand-alone (staat niet in het bericht maar die kans bestaat wel)
koop je twee gewone "slave" kaarten vraag je je ook af waarom het niet werkt.
Ik vermoed dat, als het gerucht al klopt, dat je wel kan kiezen of een 'master' kaart ook als slave kan werken. Maar een 'oude' kaart zal enkel slave kunnen zijn.

In ieder geval weinig betrouwbare informatie hier... Dat oude kaarten geschikt zouden zijn voor multi-GPU (voor moderne spellen) lijkt mij onwaarschijnlijk. Waarom in iedere chip technologie inbouwen die je pas drie jaar later door consumenten laat gebruiken? En is die wel geschikt voor de laatste ontwikkelingen?

AGP kaarten zoals de Radeon 9700 komen zowiezo niet in aanmerking omdat die enkel efficient data kunnen lezen. En ik kan ook geen connector opmerken om die kaart rechtstreeks te verbinden: http://www20.graphics.tomshardware.com/graphic/20020819/images/radeon1 .jpg
Pff, alle geruchten spreken elkaar tegen. Volgens mij staan ze dus echt nog nergens.
ATi’s MVP zal gebruik maken van tile-based rendering om het werk te verdelen over de videokaarten. Hierbij wordt het beeld opgedeeld in kleine vierkantjes die verdeeld kunnen worden over de kaarten.
Wat dus helemaal niet werkt met shaders die over een groter deel van het scherm toegepast worden. MVP bestaat al lang maar werkt enkel met applicaties die er speciaal voor geschreven zijn en zich houden aan de beperkingen. NVIDIA heeft een veel flexibeler aanpak die afgestemd kan worden naar gelang de technieken die het spel gebruikt.
Verwacht wordt dat ATi de MVP-kaarten officieel zal introduceren op de komende Computex-beurs en dat de kaarten in juni in de winkels zullen verschijnen.
Petje af als ze tegen juni één modern spel efficient draaiend krijgen.
Pff, alle geruchten spreken elkaar tegen. Volgens mij staan ze dus echt nog nergens.
nergens?
ze hadden al MVP systeemen voor Nvidia ook maar op het idee van SLI kwam.
het meeste van wat ik hoor is dat ze drivers goed willen hebben, en dat vooral daar het wachten op is.
nvidia had een hoop problemen met SLI drivers in bepaalde(vrij veel) games. nog steeds wel trouwens
die misstap wil ATI niet maken.
Als ATi zoveel ervaring heeft met AMR, waarom moeten ze dan speciale kaarten er ineens voor bouwen, hadden ze niet voorzien dat na al die jaren, er misschien gebruik van ging worden gemaakt.
waarom moeten ze dan speciale kaarten er ineens voor bouwen
dat moeten ze dus niet.
daarom vond ik de geruchten hierboven ook zo ongeloofwaardig
ze hadden al MVP systeemen voor Nvidia ook maar op het idee van SLI kwam
Fout. De eerste SLI-experimenten dateren van 2001. Da's nog maar eens een reden waarom ATI niet zomaar MVP/AMR in een paar maand op de markt zal kunnen brengen voor games. Deze technologie kost jaren om op punt te stellen.
nvidia had een hoop problemen met SLI drivers in bepaalde(vrij veel) games. nog steeds wel trouwens
die misstap wil ATI niet maken.
ATI kan zulke problemen niet vermijden. Er zijn impliciete beperkingen aan multi-GPU en die moet je geval per geval, spel per spel oplossen. Het is dus bijlange geen misstap van NVIDIA. In tegendeel, ze staan een heel pak verder met het ondersteunen van bijna alle DirectX 9 games. Waar staat ATI? Nergens dus. Ze hebben MVP en die werkt enkel voor applicaties die er van in het begin voor geschreven zijn.

Als ze werkelijk iets hadden, zouden ze dit zeker al getoond hebben, want zo zouden ze vele ATI fans in spanning kunnen laten wachten, in plaats van ze in twijfel te houden. Aangezien ze nog niks getoond hebben mag je er gerust vanop uit dat ze nog niks -kunnen- tonen. Oh ja, en iets dat minder efficient is dat NVIDIA's SLI daar zit ook niemand op te wachten, dus ze hebben op vlak van performantie óók nog in te halen...
Fout. De eerste SLI-experimenten dateren van 2001.
en ATI verkocht al multi GPU systemen voor het legen since de 8xxx serie.
verder had in 2001 Nvidia net 3dfx overgenomen en zijn een aantal mensen daarvan bijgesprongen bij het opwerpen van de volgende generatie nvidia GPU's met ondersteuning voor SLI.
ik kan verder iniedergeval niks vinden over SLI in 2001, zelfs been beta's ofzo.
ATI kan zulke problemen niet vermijden. Er zijn impliciete beperkingen aan multi-GPU en die moet je geval per geval, spel per spel oplossen.
en dat kan niet VOOR je de drivers/MVP released?
zou iniedergeval beter zijn voor marketing, hun reputatie, de eerste beeldvorming van MVP bij mensen door de eerste benchmarks, schelen op support kosten, enzovoort enzovoort.
Verwacht wordt dat ATi de MVP-kaarten officieel zal introduceren op de komende Computex-beurs en dat de kaarten in juni in de winkels zullen verschijnen.
We weten al langer van ATI dat de datum van "introductie" en "verkrijgbaar in retail" niet echt hetzelfde is.
zullen we dat voor het gemak en de "eerlijkheid" maar meteen generaliseren naar:
"We weten al langer van de High-end graphics (nVidia, ATi) dat de datum van "introductie" en "verkrijgbaar in retail" niet echt hetzelfde is." ?
Wat dus helemaal niet werkt met shaders die over een groter deel van het scherm toegepast worden.
Ik denk dat ze daar heus wel iets op hebben gevonden. Die shaders kunnen bijvoorbeeld toch ook gewoon als laatst worden toegepast door de master op het gehele beeld.
Ik vraag me af of het wel zo'n goede keus is om een extern kabeltje te gebruiken. Persoonlijk vond ik die doorlus kabel aan de achterkand lastig. De oplossing van nvidia (intern bruggetje) vind ik een robustere oplossing.

Wat wel mooi is dat je niet zoals bij nvidia 2 sli compatible kaarten moet kopen maar "slechts" 1 nieuwe. Ik denk dat dit een goede zet van ati is, vooral voor de mensen die kort geleden een nieuwe ati kaart aan hebben geschaft en nu een SLI opstelling willen.
Volgens mij heeft iedere videokaart zijn eigen beeldkwaliteit (komt vaak in reviews naar voren), dus zou je dan voor verschillende 'tiles' verschillende beeldkwaliteit krijgen ?
Dat zal wel gecompenseerd worden, ik denk niet dat dat een groot probleem zal zijn. Wat betreft die extra kabel, moet er dan weer een nieuwe plug aan de achterkant komen? Dat zou dan geen TV-Out of VGA meer betekenen...
tis geen elegante , maar wel een goede oplossing imo.
Wat ik mij afvraag is hoe ze de veschillende mogelijkheden van die kaarten gaan gebruiken...
Bijvoorbeeld verschillende DirectX versies die ondersteund worden.
Met directX 10 in de nabije toekomst, zal je wel niet meer zolang iets aan je 9700pro hebben. Intussen moet je wel een nieuwe mobo en MVP kaart kopen. Die laatste is vast duurder dan een kaart zonder MVP. Volgens mij hadden ze beter zoals Nvidia kunnen werken... dat had de kosten gedrukt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True