Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nieuwe geruchten over ATi's Multi-VPU-technologie

Door , 53 reacties, bron: Hexus.net

Hexus.net heeft nieuwe informatie bij elkaar weten te scharrelen over ATi’s Multi Video Processing units (MVP). Hexus.net claimt dat alle ATi-kaarten, vanaf de Radeon 9700 Pro, geschikt zijn om gebruikt te worden in een MVP-opstelling. Hierbij kan de bestaande kaart gebruikt worden als ‘slave’ terwijl een speciale MVP-kaart aangeschaft zal moeten worden die voor ‘master’ zal spelen. Tevens is een MVP-compatible moederbord een vereiste.

ATi logo (kleiner)De twee videokaarten zullen communiceren via een externe kabel, vergelijkbaar met wat we vroeger zagen bij de Voodoo2. Dit is in tegenstelling met eerdere berichten waarin geclaimd werd dat de communicatie via de PCI Express-bus zou lopen. Hexus.net suggereert dat de externe kabel wellicht gebruikt zal worden bij de high-end modellen om de PCI Express-bus niet te zwaar te belasten terwijl de low-end modellen wel gebruik kunnen maken van de PCI Express-bus.

Een ander verschil tussen nVidia’s SLI en ATi’s MVP is de mogelijkheid om MVP ook te gebruiken voor de low-end videokaarten van het bedrijf. Het is zelfs mogelijk om de in de chipset geďntegreerde ATI-videokaart te gebruiken om een MVP-opstelling te bouwen. ATi’s MVP zal gebruik maken van tile-based rendering om het werk te verdelen over de videokaarten. Hierbij wordt het beeld opgedeeld in kleine vierkantjes die verdeeld kunnen worden over de kaarten. Verwacht wordt dat ATi de MVP-kaarten officieel zal introduceren op de komende Computex-beurs en dat de kaarten in juni in de winkels zullen verschijnen.

Door Hielko van der Hoorn

08-05-2005 • 15:37

53 Linkedin Google+

Bron: Hexus.net

Reacties (53)

Wijzig sortering
Ik vraag me wel af hoe ze dit gaan doen, vanaf een 9700 pro en hoger compatible, naar mijn weten is er geen 9700 pro PCI-E.
En aangezien alle high-end kaarten toch wel PCI-E zijn, en er geen dual AGP mobo's bestaan (en schaars PCI-E+AGP bordjes) kan je toch nooit dan 2 van die kaarten op 1 bordje prikken? :S
Zoals ik het lees gaat de MVP kaart in een pci-e slot en de 'gewone' kaart in het AGP slot. Maar echt duidelijk is het niet.
ik heb hier zo mijn bedenkingen bij.

dat de 9700pro geschikt is voor een MVP opstellen wisten we al langer. ATI leverd al veel langer systeemen met 16 of meer videokaarten (onderandere 9700pro's) aan BV het leger voor simulators.

echter worden daar idd speciale moederborden voor gebruikt, met een hoop AGP poorten en word er idd een extene connector gebruikt.

alleen is zeker dat moederbord niet echt practis voor de concument, en niet te betalen waarschijnlijk.
aangezien wat ze hierboven beschrijven zo gigantiesch veel lijkt op de techniek die ATI gebruikt voor o.a. het leger denk ik dat nexus wat door elkaar heeft gehaalt.
zeker ook omdat het totaal het tegenovergestelde zegt van alle andere geruchten en zelfs ATI zelf tegenspreekt.
die hebben namlijk op Cebit nog gezegt "Works with any PCIe north bridge" en "No physical connector requires between devices" tegen hun kaarten bouwers.
http://www.xbitlabs.com/articles/editorial/display/cebit2005-2.html

wat ook logisch is want PCI-express zelf voorziet in alles wat er nodig zou kunnen zijn voor MVP.
Tevens is een MVP-compatible moederbord een vereiste.
Pff, prutsers, net als nVidia. 3dfx was helemaal geen speciaal moederbord nodig }>
De twee videokaarten zullen communiceren via een externe kabel, vergelijkbaar met wat we vroeger zagen bij de Voodoo2.
Dat is fout. De V2's communiceerden over een interne kabel. Die externe kabel was voor tussen de 2D kaart en de V2 om de 2D door te geven. De monitor werd op de eerste V2 aangesloten en de kracht van de 2de V2 werd aangesproken via de interne SLI kabel.
Prutsers? Hoezo? Ten tijde van de Voodoo kaarten gebruikten videokaarten dezelfde sloten als andere insteekkaarten. Er is naderhand gekozen om de videokaart een 'speciaal' slot te geven om deze zo wat meer bandbreedte te kunnen leveren. Je zult als je van de 'nieuwe' technieken gebruik wilt maken 2 of meer van deze 'speciale' sloten moeten aanbrengen op een moederbord die je voorlopig kunt aanduiden als 'speciaal' maar die binnen de kortste keren gewoon als normaal worden beschouwd.

Speciaal is dus maar betrekkelijk ;)

Ik zou nog wel een kanttekening willen maken t.a.v. een trend die de kop op steekt.Het ziet er naar uit dat processor ontwikkelaars steeds meer de richting op gaan van dual of multi cores. Dat doet een beetje armoedig aan en lijkt mij geen erg efficiente manier. Het lijkt wel of ze zelf Moore's Law in stand willen houden ;) Het is natuurlijk een dure oplossing. Je hebt meer componenten nodig die allemaal ook nog eens getest moeten worden. Ik vraag me dan ook af of deze ontwikkelaars aan het plafond zijn gekomen van de huidige technieken en ze vooralsnog geen nieuwe technieken voorhande hebben.

Ik ben maar een leek op dit gebied, deze kanttekening is slechts een hersenspinsel van mij.
Op zicht wel een intressante hersen spinsel, maar je kan het ook op een andere manier bekijken.

x86 is eigenlijk alleen maar zo groot geworden omdat het zo idioot porgrammeur vriendelijk is en dus werd er veel software voor geschreven, nadelen van x86 is dat het vergleken bij andere ISA's niet zo snel zijn, en amd heeft niet voor niets units in hun K8 gebouwd die geen andere functie hebben dan x86's nadelen 'omzeilen'. En nu lijkt een einde te komen aan de programmeur vriendelijkheid van de x86 computer, nu moeten programmeurs ineens multithreaded programmeren. x86 heeft altijd stand gehouden door de gigantische hoeveelheid software, en destijds de druk IBM.

Nu zou dit weleens het einde kunnen betekenen voor x86, zou ik neit erg vinden...

Aan de technische kant van het verhaal, op het moment kunnen ze niet meer units toevoegen om het sneller te laten gaan, de extra complexiteit zou het langzamer maken, mogelijker wijs wel mogelijk maken om hogere clocksnelheden te bereiken, maar dat doen ze gelukkig niet.

In plaats van 1 core sneller proberen te maken, wat nu bijn niet mer mogelijk is (meer stages in pipeline maken het langzamer, meer cache werkt langzamer) dus juist door Moore's Law, er kunnen meer componenten op de die, (zoals dus ook een memory controller), is er ruimte op de die, en op het moment weten ze even niet precies wat ze ermee moeten doen, dus zetten ze 2 cores op die die, om hem 2x zoveel ruwe rekenkracht te geven, is dis slecht? Ik dacht het niet.....

Een alternatief, zou zijn geweest system-on-a-die, meer intergreren dan alleen de memory controller. AMD heeft dat dus een klein beetje gedaan, en in de toekomst zal meer naar de die worden verplaatst, als blijkt dat quad-core niet zo makkelijk te realiseren is, en mogelijkwijs hebben we in de toekomst iets wat in de buurt komt van de Cell processor voor onze desktops.

Zolang de grote van transistors nog verminderd kan worden, zolang het voltage nog omlaag gaat, zolang de clocksnelheid langzaam toeneemt (zie AMD clocksnelheden, intel is buiten gewone clocksnelheid wegen gaan lopen) en zolang het verbruik van processor langzaam toeneemt, zijn de huidige techniken nog genoeg. En anders komt er iets in de richting van optronische computer :7.
en amd heeft niet voor niets units in hun K8 gebouwd die geen andere functie hebben dan x86's nadelen 'omzeilen'.
Lang niet alleen AMD doet dat hoor. x86 is eigenlijk heel onhandig en langzaam. Vanwege die reden hebben fabrikanten allerlei units ingebakken die van x86 RISC instructies maken die het voordeel hebben om sneller verwerkt te worden en tevens kun je met RISC van een paralelle executie gebruik maken terwijl dit bij x86 niet mogelijk is.
En nu lijkt een einde te komen aan de programmeur vriendelijkheid van de x86 computer, nu moeten programmeurs ineens multithreaded programmeren.
Dus omdat men nu ineens multithreaded moet gaan schrijven (vanwege dual-core ed) verdwijnt daarmee meteen de x86 ISA? Zeker niet, alle dual-core's en toekomstige dual-core's blijven gewoon x86 zowel bij AMD als Intel (Dual-core Itanium Montecito erbuiten gelaten, welke een IA-64 ISA heeft). Ook al moeten programmeurs dus nu multithreaded gaan programmeren, de x86 ISA blijft behouden en zal dus IN de x86 ISA proberen zo multithreaded mogelijk te schrijven.
meer cache werkt langzamer
Leg eens uit dan? Hoe meer data en instructies je kwijt kunt, hoe sneller het volgens mij word omdat je dan minder op het (langzamere) systeemgeheugen hoeft te gaan kijken of in het ergste geval: op de harde schijf.
is er ruimte op de die, en op het moment weten ze even niet precies wat ze ermee moeten doen, dus zetten ze 2 cores op die die, om hem 2x zoveel ruwe rekenkracht te geven, is dis slecht?
Absoluut niet mee eens. De fabrikanten hebben liever zo klein mogelijke cores. Dit betekend namelijk meer cores per wafer en waarschijnlijk hogere yields. Ze kunnen (zoals je zelf al zegt) de core haast niet meer sneller maken, daarvoor zitten ze nou eenmaal tegen de limieten van x86, een andere ISA zou zeker helpen en daar ben ik dan ook voorstander van. De grootste reden dat we dus overgaan op dual-core is gewoon omdat de huidige single-cores gewoon niet meer sneller worden. Niet omdat we plaats hebben, want in feite hebben we geen 'plaats'. Het is niet zo dat je een chip designed op een bepaalde grootte, want het liefst heb je natuurlijk een zo klein mogelijke want dat verbeterd de yields en meer geld per verkochte processor. Ze zullen juist noodgedwongen dual-core's moeten nemen, en nu het technisch mogelijk is dankzij steeds kleinere procédés zullen ze het niet laten om eindelijk weer eens vooruitgang te boeken in processorland.

Maar helaas gaat dit allemaal nogal erg offtopic.
Ik denk dat ze met externe kabel hier bedoelen dat het dus niet via de PCIe bus verloopt...

edit: net artikeltje ff doorgelezen, ze spreken echt over iets externs, maar waar willen ze die op aansluiten dan? dsub? kan nooit genoeg snelheid leveren om echt data overheen te pompen...
En hoe zit dat met de beeldkwaliteit ?

Volgens mij heeft iedere videokaart zijn eigen beeldkwaliteit (komt vaak in reviews naar voren), dus zou je dan voor verschillende 'tiles' verschillende beeldkwaliteit krijgen ?
Iedere kaart heeft zijn eigen ramdac (de output naar de monitor) en er wordt maar een gebruikt... en dat is juist waar de beeldkwaliteit van afhangt dus zijn ze identiek!
De ramdac is juist super belangrijk voor je beeldkwaliteit, mits je een analoog signaal naar je monitor gebruikt (de oude dsub/vga). De ramdac zet je digitaal signaal van de kaart om naar een analoog signaal. Als deze dus niet lekker werkt, dan krijg je een wazig beeld of zelfs verkeerde kleuren.

Wel is het zo dat de ramdac's tegenwoordig van zulke kwaliteit zijn dat je nauwelijks het verschil nog ziet. Bij de oudere generaties waren de verschillen veel groter, waarbij matrox werd aangeprezen vanwage hun goede beeldkwaliteit.

Maar ik denk niet dat ze de communicatie tussen de kaarten via het analoge signaal laten gaan, omdat je dan te veel verlies hebt op je beeldkwaliteit. Als ze de beelschermaansluitingen zullen gebruiken, dan is het via de dvi aansluiting, die is digitaal en dus geen ramdac meer nodig.
Ik vermoed dat, als het gerucht al klopt, dat je wel kan kiezen of een 'master' kaart ook als slave kan werken. Maar een 'oude' kaart zal enkel slave kunnen zijn.

In ieder geval weinig betrouwbare informatie hier... Dat oude kaarten geschikt zouden zijn voor multi-GPU (voor moderne spellen) lijkt mij onwaarschijnlijk. Waarom in iedere chip technologie inbouwen die je pas drie jaar later door consumenten laat gebruiken? En is die wel geschikt voor de laatste ontwikkelingen?

AGP kaarten zoals de Radeon 9700 komen zowiezo niet in aanmerking omdat die enkel efficient data kunnen lezen. En ik kan ook geen connector opmerken om die kaart rechtstreeks te verbinden: http://www20.graphics.tomshardware.com/graphic/20020819/images/radeon1 .jpg

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*