Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties
Bron: [H]ard|OCP, submitter: neliz

[H]ard|OCP heeft een foto weten te maken van een ATi-refentiemoederbord met twee x16 PCI Express sloten en ondersteuning voor ATi Multi Rendering (AMR). AMR is ATi's antwoord op nVidia's SLI en maakt het mogelijk om twee grafische kaarten van ATi te clusteren voor betere 3D-prestaties. Het getoonde moederbord is geschikt voor Athlon 64-processors en maakt gebruik van de RD480-chipset. Opvallend detail is het gebruik van passieve koeling voor de north- en southbridge. Verder zijn er vier Serial ATA-poorten zichtbaar, twee PATA-poorten, één x1 en twee x4 PCI Express-sloten, en twee PCI-sloten. Volgens [H]ard|OCP zouden de eerste AMR-moederborden in mei op Computex in Taiwan gelanceerd worden.

ATi RD480 referentiemoederbord (klein)
Moderatie-faq Wijzig weergave

Reacties (77)

intressant om een Socket939 mobo te zien met 2 zo goed gekoelde chipsets...heeft AMR toch chipset ondersteuning nodig, en te zien aan de grote van de koeler van de northbridge hele flinke ondersteuning.
Dat vind ik een hele vreemde opmerking.
Heel veel s939 borden hebben qactieve koeling. Dat deze het doet met passieve koeling, weliswaar groot blok, zegt juist dat minder warmte afgeeft.

Mogelijk is de chip op een kleiner procede gemaakt dan vorige.

AMR heeft inderdaad chipset ondersteuning nodig, maar of dat nu een beetje is of een boel, is onzin. Je moet immers toch een chipset aanschaffen die het ondersteund.

Wat ik me wel afvraag is of AMR ook gebruik maakt van 2x 8lanes PCI expr. zoals nvidia of 2x 16, dit zou ze wellicht een klein voordeel kunnen opleveren.
Dan zou hij 42 lanes ondersteunen ofzo.
AMR heeft inderdaad chipset ondersteuning nodig, maar of dat nu een beetje is of een boel, is onzin. Je moet immers toch een chipset aanschaffen die het ondersteund.
alle "ondersteuning" die nodig is zijn gewoon standaard features van PCI-express.
dus all pci-e chipsets onderstuenen het.
Dit soort grote heatsinks waren normaal in de tijd dat er nog geheugen controllers in de northbridges zaten. Ati gebruikt niet zo maar een procede wat meer warmte op gaat leveren, het enige wat er in die northbridge hoort is een HT link, en 1 16x PCI-E controllers, dat hoort niet zoveel warmte te maken...

Met chipset ondersteuning bedoelde ik dat er erg veel transistors in die northbridge zouden zitten om AMR te laten werken, nVidia heeft in de GPU's iets zitten zodat ze kunnen SLI'en, ATi stopt dat blijkbaar in de Northbridge, gok ik dan maar, te zien aan de grote van de koeler en het feit dat er 2 chips aanwezig zijn.

2x16 zou kunnen, maar dat geeft nauwelijks echt een verschil, HT linkje kan toch maar 4GB/s hebben, en nee, de dingen inladen van je hardeschijf wordt ook niet door die PCI-E link bottlenecked.
Er zijn nF4 bordjes die ook al passief zijn hoor :)

Asus heeft er zo bv. één dacht ik.
Volgens mij is dit een referentiebord (dus een "preproductiemodel") en kan er in de toekomst best nog een actieve koeler op komen. Met weet het nooit...
De NB is wel passief gekoeld uiteindelijk maar het is inderdaad geen kleine koeler.
deze northbridge heeft ook onboard graphics van een "redelijk" formaat. een iets groter koeler is dat niet zo gek natuurlijk.
Toch vreemd om na al die tijd weer AMR sloten op je moederbord te vinden :o
Inderdaad...

Die 2 slots onder de PCI slots zijn geen PCI-e slots. PCI-e heeft altijd dezelfde lengte richting de achterkant van de kast, en een variabele lengte richting de voorkant. Bij de onderste 2 slots is echter het stuk richting de achterkant duidelijk langer dan van de 2 PCI-e 16x slots en het ene PCI-e 1x slot....
Die 2 slots onder de PCI slots zijn geen PCI-e slots.
In de tekst staat toch duidelijk dat het om PCI-E x4 sloten gaat.
En volgens mij is de afstand naar 'rechts' ook even groot als bij het x16 slot.
In de tekst staat toch duidelijk dat het om PCI-E x4 sloten gaat.
Maar teksten kunnen het mis hebben....

Als je de grote foto op HardOCP bekijkt zie je duidelijk dat de 2 onderste slots even hoog zijn als de PCI slots, terwijl de PCI-e slots lager liggen.

Daarnaast zie je ook dat de connectors in de slots vergelijkbaar zijn met die in de PCI slots, waar die in de PCI-e slots kleiner zijn en dichter op elkaar zitten.

Ik kan met zekerheid zeggen dat de 2 onderste slots geen PCI-e slots zijn. Wat het wel zijn weet ik niet, maar geen PCI-e....
Volgens mij is dat zo'n oud CRB slot ofzo, dat is een bepaald slot wat Intel ooit eens het leven in heeft geroepen voor oude troep zoals 56K modems enzo..alleen waarvoor je die 2 nodig hebt?
Eindelijk zijn ze ook gestart met hun AMR, maar voorlopig hebben we toch niet veel aan SLI en AMR, kaarten kunnen de spellen van nu toch nog goed trekken en eer je et nodig hebt, kan je al weer een kaart kopen met meer features
Het grote voordeel aan AMR is dat je niet 2 dezelfde kaarten hoeft te hebben en er (als je de verhalen mag geloven) geen rare bridge nodig is tussen de 2 kaarten.

In theorie zou je zelfs meer als 2 Ati kaarten bij elkaar kunnen clusteren. Kaarten die dit gaan ondersteunen zijn:
X300, X600, X700, X800, X850 en verder.

Je kunt nu dus bij je X600 een X700 plaatsen om extra power te krijgen en na een tijdje vervang je de X600 door een X900 bijvoorbeeld. Op die manier kun je dus makkerlijker upgraden.

Je past je dus gewoon aan aan de spellen ipv bij SLI waar je gelijk 2 hele dure kaarten moet kopen en ook als upgrade 2 dure kaarten moet kopen. Je loopt dan dus eerst een eind voor op de spellen en daarna vanzelf weer achter op de spellen.

Deze flexibele upgrade methode zorgt ervoor dat het niet zo enorm nutteloos is als SLI, maar je punt blijft gelijk:

Spellen van nu hebben er niets aan. Dit is ook de reden dat Ati nu pas met een alternatief voor SLI komt. (En ze waren nog bezig met zich te positioneren op de mobo markt waar nVidia al een lange tijd bezig was)
Even over je punt van SLI

Ik snap jou niet helemaal, waarom zou je persee 2 hele duren kaarten kopen?
6600GT is niet duur,
1 is meer dan zat.

Waarom zou je daarna nog 2 dure kaarten kopen?
Je had al 1 6600GT, het is herftst 2005 en 6600GT liggen voor 80 euro op de plank, 2 6600GT blijken ongeveer net zo snel als 1 7700NU, die voor 250 te koop is, dus je hebt effectief dankzei SLI (250-80) 170 euro gespaart.

En nog iets, spellen hebben nooit iets aan video kaarten, WIJ HEBBEN WAT AAN VIDEO KAARTEN.

WIJ, kunnen overal waar we nu 4xAA gebruiken overstappen op 8xAA, alles wat we met 1280x960 deden kunnen we nu met gemak op 1600x1200, SLI geeft geen hogere FPS als je 640*480 gebruikt, lijkt me ook niet meer dan normaal, men moet even wel het concept bottleneck kennen...

Over ATi's idee o*ver verschillende kaarten die in AMR schreef ik een tijdje geleden het volgende.
Ik ga uit van een X800 en een R520"Fudo" kaart.
in geval dat je Splinter Cell Chaos Theory gaat spelen laat je X800 alleen nog maar DX8.1 effecten toe, terweil je Fudo DX9.0c effecten wil doen. En blijkt dat je fudo + x800 nog maar 130% van de performance van alleen fudo is, en dat hij door die DX8.1 effecten niet alleen een lelijker plaatje laat zien, maar ook nog eens 30% trager loopt, uiteindelijk is die Fudo alleen veel beter af, nieuwe PSM laat hem sneller lopen en mooie plaatjes maken, die X800 is dan een blok aan zijn been.
je moet ook wel lezen
Je had al 1 6600GT, het is herftst 2005 en 6600GT liggen voor 80 euro op de plank, 2 6600GT blijken ongeveer net zo snel als 1 7700NU, die voor 250 te koop is, dus je hebt effectief dankzei SLI (250-80) 170 euro gespaart.

En DX9.0c schrijft PSM3.0 voor, die zit op x800's, die doen maximaal 2.0b, R520 doet weer wel PSM3.0, EN splintercell chaos theory heeft besloten voor PSM2.0 geen paden te schrijven, dus zitten X800 kaartjes met PSM1.1 effecten opgescheept, in de volksmond beter bekent als DX8.0b
Ik ken een rijmpje:

Kleine jongetjes, bier en weed
dan posten op tweakers, dat gaat dus niet!

;(
Ik geloof dat de x800 kaart zich dan gaat bezig houden met de DX 8.1 elementen die ook onveranderd in DX 9.0c voorkomen.

Op die manier houd de R520 meer rekenkracht over om zich te richten op de nieuwere DX 9.0c features.

Lijkt me het meest logisch om het zo te doen.
Zo krijg je namelijk niet dat de langzaamste kaart ook de snelste kaart vertraagd maar dat de langzaamste kaart als een soort co-processor voor simpele standaard berekeningen gezien kan worden en deze "simpele" standaard berekeningen hoeft de snellere kaart dan niet meer te doen.
Sorry Jan, jouw naam is niet compatible met de nederlandse spelling!

Volgens mij heb ik niks gezegd over 7700's ofzo, maargoed.

En wie heeft het over een 24 pipeline kaart met 1.4Ghz geheugen?

Ik verwacht de basisversie van de R520 (met inderdaad 24 pipelines, maar minder snel geheugen, max 1.2ghz ofzo) eerder in juni dan in de herfst van dit jaar.

NVidia's refresh komt pas eind dit jaar, en dan kost een 6600GT nog echt gewoon 200 eurotjes
@refragmental

right, erg logisch, maar een spelt stuurt gewoon de shaders via de API naar de kaart, waar worden dan die PSM3.0 shaders eruit gefilterd? In de chipset misschien :Y)?

Neen, onmogelijk, ooit gehoort van parralel pixel rendering pipeline, dat is dus een grote mieterslange pipeline van enkele honderde stages, waar zo'n pixel zijn kleur krijgt, die dus niet alleen afhangen van de texture (TMU's of TU's) maar ook nog ge-shade word, met pixel of vertext shaders, sommige pixel hebben meerdere textures (multitexturing) en gaan vaker door de pixel pipeline heen, sommige pixel hebben een hele grote shader om uit te rekenen, en ook die gaan vaker door zo'n pixel pipeline heen, net zolang totdat alles is uitgerekent, en dan kan die pixel op je scherm worden getekent.

Waarom zeg ik dit? Het is totaal onhaalbaar om ergens in dit proces de pixel naar de andere kaart te sturen, van idere pixel eerst kijken of ze een bepaalde shader gebruiken (en meestal hebben zo'n beetje alle pixels wel een bepaalde shader ovezich heen als een spel daar gebruik van maakt, ook al valt het in sommige gevallen niet op), dus helaas je co-videokaart idee werkt niet.
Vreemd.

Hoe hebben ze dat vroeger dan gedaan met co-processors en tegenwoordig met dual-procs en dual-cores? Ging dat niet eerst ook door een load balancer of één of andere chip die bepaalt wat waar naartoe gaat.

Ik neem aan dat die pixels eerst door die AMR chip heen gaan ofzo. Waarbij ze een soort tag krijgen waarop staat dat die pixel voor een bepaalde kaart is. Of niet eens een tag, deze AMR doet gewoon aan load balancing.

Kaart 1 (de langzame) rekent dan alleen pixels uit die deze tags hebben.
Kaart 2 (de snelle) rekent dan alle andere dingen uit.

Whatever!! Ik ben hier geen expert in. Maar dat ik dit soort dingen uberhaupt kan bedenken met m'n uberbeperkte kennis van de werking van videokaarten. Denk dat de mensen bij ATI dan ook wel over dit soort oplossingen hebben nagedacht.
Hoe hebben ze dat vroeger dan gedaan met co-processors en tegenwoordig met dual-procs en dual-cores? Ging dat niet eerst ook door een load balancer of één of andere chip die bepaalt wat waar naartoe gaat.
Co-processors zijn simpel... Er zijn gewoon een aantal instructies die automatisch naar de co-processor worden doorgestuurd, wanneer deze aanwezig is. Zo niet, dan krijg je een exception (en kun je via een exception handler de co-processor emuleren). De splitsing is dus van tevoren al gemaakt, in de instructies zelf.

Bij dual-proc/core is er weinig verschil met een single-core... Multitasking gaat nog steeds met timeslices, dus om de zoveel tijd wordt er van context geswitcht door de thread scheduler van het OS. Load balancing ed. is eenvoudig in te bouwen in de scheduler.
k neem aan dat die pixels eerst door die AMR chip heen gaan ofzo. Waarbij ze een soort tag krijgen waarop staat dat die pixel voor een bepaalde kaart is. Of niet eens een tag, deze AMR doet gewoon aan load balancing.
Je kunt nooit op zo'n laag niveau de workload proberen te verdelen... Stel je voor dat je bij een dualcore-systeem voor iedere instructie gaat kijken op welke core deze het best uitgevoerd zou kunnen worden... Dat is ongeveer hetzelfde idee. Dan ben je veel meer tijd kwijt met het verdelen van de workload, dan met het daadwerkelijk uitvoeren ervan.
Dat verdelen moet op een zo hoog mogelijk niveau. In het geval van AMR/SLI/Volari dual wordt het door de driver gedaan. De driver deelt ofwel het scherm op in meerdere delen, en laat iedere kaart een deel renderen, of hij laat de kaarten om en om een frame renderen... dus de even frames gaan naar kaart A, en de oneven frames naar kaart B.

Wat Jan Groothuijse zegt, klopt dus. De kaarten kunnen alleen samenwerken als ze dezelfde features gebruiken.
De applicatie weet namelijk niet dat er twee kaarten gebruikt worden, dus gaat hij ervanuit dat het 1 kaart is, en dus 1 set features (de driver voegt de kaarten samen tot 1 virtuele kaart, voor de applicaties).
Als twee verschillende kaarten al samen kunnen werken, dan zou dus de minste van de twee bepalen welke features er gebruikt kunnen worden.
Het lijkt me persoonlijk niet zo waarschijnlijk dat dat gaat gebeuren... verschillende cores berekenen dingen meestal ook net even anders, verschillen in precisie en dergelijke... Dus dan zou je misschien kleurverschillen zien, of polys die niet meer netjes op elkaar aansluiten en dergelijke.
Wat ben jij een rekenwonder zeg :P
2x¤80 is geen 80, maar 160 euro, dus je bespaart geen ¤170, maar ¤90.
Bovendien zal een 6600GT dan geen 80 euro kosten. De goedkoopste die je momenteel kunt vinden zijn rond de ¤165. Tegen die tijd zal dat rond de ¤130 zijn.
Met een beetje helderder nadenken zou je ook bij deze waardes gekomen zijn :+
Normalo als je een AGP 6600GT koopt kost je dat 200 euri, als je dan over een half jaar een 7700NU koopt, kost je da 250euri, totaal 450euro voor een jaar lang mainstream graphics. Als je een PCI-E 6600GT koopt, voor 200euri, en een half jaar later nog eentje erbij voor 80 euri, ben je 280 euri kwijt voor een jaar lang mainstream graphics.
Besparing: 170 euro, en ja ik ben een rekenwonder.

6600GT 80 euro, eeen relatief kleine die, 128bit geheugen, niets duurs aan om te producren, 80 euro moet kunnen.
Oeps, mijn excuses, ik met men lompe kop dacht dat het daadwerkelijk herfst was, terwijl het natuurlijk lente is.
En ja, het PS verhaaltje klopt natuurlijk ook, excuse me for not knowing everything... ;)
Waar kan jij een 6600GT kopen voor 80¤? En sinds wanneer kan een Radeon X800 geen directx 9.0 effecten weergeven? Dat kon de Radeon 9x00 serie zelfs al hoor, m.a.w. je uitleg slaat nergens op man...
Eindelijk zijn ze ook gestart met hun AMR
hun moederboarden/chipset hebben helemaal niks met de start van AMR te maken.
AMR gaat namelijk werken op elk willekeurige chipset die 2x 8-lane PCI-E ondersteunt, (dat heeft ATI iniedergeval gezegt tegen hun vidkaart bouwers)

komt er dus op neer dat AMR werkt op zo ongeveer elke PCI-E chipset, ook die van Nvidia bv, en ook de NF-4-ultra, die geen SLI kan volgens nvidia.
Voorlopig? Hoezo, wilde je zeggen dat er ooit een tijd komt dat je er wel iets aan hebt?

Dit is puur en alleen marketing, niets meer.
Dubbel .... raar
2x x16, 2x x4 en x1, is dit de eerste 'consumer' chipset met 25+ lanes?
geen 2x 4, dat zijn geen PCI-E dingen, verder ja, waarschijnlijk wel, alleen server/pro mobo's hebben er nog zoveel gehad.
Als het geen PCI-E sloten zijn, is het aantal lanes ook niet bijzonder. Maar wat zijn het dan wel?
33 lanes is best bijzonder,
die twee dingen lijken wel erg veel op CNR sloten.
Andere AMR's , niet de ATI dingen maar als in "Audio-Modem Riser"?? Zou kunnen...

Edit: net te laat :{ ... het kunnen idd ook CNR's zijn ... Ik weet niet meer ... niemad gebruikt die dingen behalve misschien computerbouwers om er iets goedkoops qua analoge modem in te gooien
33 lanes is best bijzonder,
Is het echt 2x x16 dan? Ik neem aan dat het logisch 2x x8 is.
Nee, *MEER*

Als het goed is heeft de RD400 (de intel variant) standaard twee PCIe lanes voor integrated video onboard, dat is het moederbord dat Asus op de Cebit liet zien.

Als het goed is komen er in mei stapels nieuwe moederborden uit die niet SLI gecertificeerd zijn maar via AMR wel de mogelijkheid bieden voor meerdere grafische kaarten, plus onboard nog eens over een redelijk grafische processor beschikken (ga uit van meer dan een Radeon 9600Pro)

Deze informatie heeft al op meerdere sites gestaan, maarja, om nu te zeggen dat Tweakers nog van deze tijd is (en ik weet het, ben geregistreerd lid nummer 239!)
de onderste 2 slots zijn geen pci-e sloten. ze staan op zijn minst verkeerd om
het korte stroom toevooer gedeelte hoort voorin te zitten, apart van de rest. bij die onderste 2 zit het achterin (als het idd nogsteeds voor de stroom toevoer is)
dit bord heeft ook grafisch aan bord als ik het goed zie.
Verder is het goed dat ati ook met meerdere videokaarten op 1 mobo kan gaan werken. Dit komt de concurrentie alleen maar ten goede.

Het is toch zo dat de huidige grafische kaarten die pci-e x16 nog helemaal niet nodig hebben?
Idd, acht keer zou meer dan voldoende moeten zijn.
Ja, WTF? een on-board videokaart?
Dat AMR is zeker zo buggy dat je regelmatig moet switchen naar je onboard VGA om te debuggen :P
Nee, misschien denk je "He?" Maar geloof het of geloof het niet, die onboard GPU kan ook nog een beetje meerekenen, dus heb je zelfs een tripple GPU opstelling!
Tenminste, toe enkele maanden geleden de chipsetspecificaties uitkwamen toen werd dat er expliciet bij genoemd.
@Jan Groothuijzen.

ik denk dat jij de kracht van de G70 en de R520 onderschat!

wat haalt een 6600GT combinatie in 3dmark05?
ik kan je verklappen dat de R520 meer dan 14.000 punten haalt en de G70 (die pas eind dit jaar beschikbaar wordt) meer dan 15.000 punten...

Ik heb met m'n x800xt-pe dan gewoon een midrange kaart, zelfs MINDER dan dat...
JA, maar nvidia schuift eens in de zoveel tijd de nummering op,
Ooit zat budget in nummering er een decimaal naast (GF4), ooit was de 4800 de refresh, nu beginnen ze meteen al met de #800 (ik zet express geen x neer, maar het zou een x kunnen zijn waren het niet dat er een zekere kaart is...)

Dus ik had bedacht dat de 7700 net zoiets is als wat de 6600 nu is, dus 12 semipipeline de helft van de 7995 Ultra Deluxe :D, ik was speculatief, maar je hoe kom je erbij om te denken dat ze het nieuwe top-model 7700 gaan noemen, neliz, ga nooit op een markteting afdeleing werken! En je dacht toch niet werkelijk een 24 pipelines tellende kaart met op 1,4GHz geheugen voor 250 euro te kunnen kopen in de herfst van 2005?

Oja, het is Jan Groothuijse, met een s, ssssssss EN GEEN N
Je schreef

ik denk dat jij de kracht van de G70 en de R520 onderschat!

Ik dacht dat je het had over dat ik op merkte dat 2 6600GT's ongeveer even snel zouden zijn als 1 7700.....7700 is misschien verwant aan de G70, maar wordt niet het top-model (wederom pure speculatie)
Klinkt allemaal mooi op papier, maar ATI staat nog nergens. Multi-GPU technologie is helemaal niet triviaal met moderne technieken zoals render-to-texture, post-filtering, deferred shading, etc. ATI heeft niet zo'n denderende reputatie voor z'n drivers, en nu gaan ze er vlotjes al die technologie bijnemen? De roadmaps duiden kerst 2005 aan als release, dus doe er maar een paar maanden bij voor ze AMR op de markt krijgen...

Ondertussen staat NVIDIA lang niet stil. De tweede generatie SLI komt er aan en die zal ongetwijfeld ook werken met verschillende kaarten en geen verbindingsbrug meer nodig hebben. Die diende enkel om bij de eerste generatie moederborden met 2 x 8 PCI-Express lanen niet nog meer bandbreedte te verliezen (dan was het 2 x 4 lanen). De drivers verbeteren met elke versie en de spellen beginnen zich ook op goede SLI-ondersteuning te richten. Dus ATI heeft nog heel wat in te halen!

Soit, wel mooi van ATI dat ze snel een chipset voor 2 x 16 lanen op de markt brengen, maar AMR is momenteel enkel een marketingterm en zal dat nog een lange tijd blijven. De kans is groot dat NVIDIA kaarten eerder gebruik gaan maken van die extra PCI-Express bandbreedte...
ATI heeft al VEEL langer ervaring met multi GPU als Nvidia.
ATI doet het al jaren voor de profesionele markt (tot 24 kaarten die samen werken)
hun ARM is op die zelfde technieken gebazeerd. moet alleen nog even geschikt gemaakt worden voor de consumenten markt.

en ATI's (windows) drivers zijn since de 9700PRO uitstekend geweest, en op het moment durf ik zelfs te zeggen beter als die van Nvidia die er de laatste maanden een potje van heeft gemaakt.
Er is een gigantisch verschil tussen multi-GPU voor professionele toepassingen, en games. ATI's huidige technologie is enkel geschikt om het scherm in even grote delen te splitsen en appart te renderen. Bijvoorbeeld een vliegtuigsimulator kan vier deelschermen gebruiken, die elk door een Radeon gerenderd worden. Dit is bijna triviaal te noemen, je rendert gewoon vier keer de scene vanuit een ander camerapunt. Voor dit soort applicaties werkt dat perfect omdat er geen speciale effecten gebruikt worden. Last but not least, deze applicaties zijn van in het begin voor multi-GPU geschreven.

NVIDIA's SLI kan voor één scherm het werk balanceren tussen twee kaarten. Het kan alle eerdergenoemde speciale technieken aan en de driver ondersteunt steeds meer spellen. Ook zorgt SLI dat ervoor dat zaken zoals vertex shaders niet tweemaal dezelfde hoeveelheid data (de ganse scene) verwerken. En het is ook het vermelden waard dat SLI voor de huidige generatie spellen werkt zonder dat die ervoor ontworpen zijn.

Dus als ATI's AMR technologie zels maar een klein beetje geschikt was om games te renderen hadden we al lang een demo-opstelling gezien. Zonder enige vorm van bewijs blijft AMR een marketingterm om geen klanten te verliezen en SLI technologie te relativeren. En echt, de dag dat ATI toch iets werkends toont, staat de tweede generatie SLI klaar.
en ATI's (windows) drivers zijn since de 9700PRO uitstekend geweest, en op het moment durf ik zelfs te zeggen beter als die van Nvidia die er de laatste maanden een potje van heeft gemaakt.
Welk potje? Trouwens, er komt maar om de drie maand of zo een nieuwe driver uit, dus heb je het over de laatste of de voorlaatste? ATI gooit elke maand een nieuwe driver op z'n site met telkens wisselende kwaliteit en snelheid. Da's pas een potje, om er een uit te halen die stabiel en snel is. NVIDIA houdt z'n drivers langer in beta, dus tegen de WHQL certificering staan ze al weer een eind verder.
Dat ATI er al lang ervaring mee heeft wil niks zeggen, het feit dat het zolang duurt voor AMR of MVP op de markt komt is een teken aan de wand. Dat "even geschikt maken" duurt toch wel heel lang. Intussen is het al SLi wat de klok slaat.
Bovendien heeft ATi nog altijd geen moederbord dat ook maar in de buurt van de nforce4 komt. Hun laatste AMD moederbord is bedroevend van kwaliteit, het bullhead overclockers bord is al in nov 2004 gereleased maar nog steeds niet te krijgen in de winkel.
@countess:

Het gaat niet zozeer om het certificaat alswel het al dan niet mogen enabelen van SLI in de bios van de Nforce4 chipset.
Doe je dit zonder SLI certificering dan claimt NV je kapot... :*)AT* is nu de kracht van een certificaat
volgens mij is het toch echt puur driver white/black list.

van een DFI-ultra kan je door 1 verbindingtje te make een SLI maken, zonder bios verandereing of niks. het enige wat er veranderd is is dat de chip zichzelf in identificeert als NF4-SLI ipv ultra naar de drivers toe.
ik snap dat hele sli/amr gedoe niet. voor de professionele markt is het te min om het te benaderen tevens zijn deze kaarten er niet geschikt voor en voor gamers is het voor 95% te duur om het te doen. verder als tijdelijke upgrade mogelijkheid tegen de tijd dat ij denkt de tweede erbij te prikken is ie niet eens meer in de winkel en is de winst marge zo minimaal met 2 stuks dat het ook niet meer interessant is.
amr... idem ga je een leuke kaart naast wat oude rommel prikken. is zoiets als een ddr naast een edo prikken. beetje onzinnig. geef mij maar gewoon een leuke grafische kaart maar net niet de nieuwste. doet het al goed genoeg
SLI is eerder een soort statussymbool, voor de consumentenmarkt (aka. gamers). Velen kopen het om te kunnen opscheppen tegen hun vrienden. Het is de Ferrari of Porche onder de grafische kaarten.

Anderzijds is het de kroon op NVIDIA's Geforce 6 Series. De 6200 is een prima low-end kaart, de 6600 domineert de mid-end markt, de 6800 kan de strijd aan met de concurrentie, en de 6800 SLI is niet te kloppen. Voor de marketing is dit heel belangrijk omdat de mensen nu eenmaal willen weten wie de snelste hardware bouwt en daar hun keuze op baseren (ookal kunnen ze die snelste hardware niet eens betalen). Zo kan NVIDIA de Series 6 ook als één geheel promoten. Superieuriteit in plaats van twijfel.

Dus inderdaad, voor de gemiddelde gebruiker is SLI / AMR van geen belang. Voor NVIDIA geeft het een zekere voorsprong, en ATI voelt dit duidelijk ook zo aan...
Wat is dat eigenlijk tussen die twee PCI sloten in??? lijkt dat een s-ata poort? of is het iets van een jumpertje??
wat dacht je van een x1 slot?

beetje teveel gerookt jongeman, oogjes dicht?
jij beschuldigd iedereen van dat soort dingen, maar heb je dat plaatje in je BIO wel eens gezien?
Niemand weet hoe de G70 gaat heten, maar wat we wel weten is dat de 6800Ultra Mobile er een close broertje van is... en iedereen weet hoe sterk die kaart is, zeker gezien het feit dat 'ie in een laptop zit opgesloten!


en


Ja hoor, maar dat was in 1998 toen de meesten van jullie nog niet wisten wat internet was.. kek

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True