Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: OC Workbench, submitter: Thandor

In een interview met OC Workbench heeft Jon Carvill, PR Manager bij ATi, verklaard dat het overweegt om een eigen multi-GPU technologie te introduceren. Hoewel het volgens Carvill nog te vroeg is om hier meer over te zeggen, laat hij wel weten dat het waarschijnlijk een 'chipset-side' oplossing wordt. Dit zou er op kunnen duiden dat ATi een chipset in de ontwikkeling heeft die SLI implementeert. Het is dan ook maar de vraag of deze technologie ook gaat werken op moederborden zonder een chipset van ATi. Uiteraard laat Carvill weten dat hun grafische kaarten reeds in dual-GPU opstelling kunnen worden gebruikt in systemen zoals het Alienware ALX-systeem. Het lijkt er trouwens op dat ATi de benodigde logica voor multi-GPU systemen al in hun grafische processors heeft opgenomen. Zo introduceerde Evans & Sutherland Computer Corporation, maker van vliegsimulators, eind 2002 een grafische kaart met vier ATi Radeon 9700 Pro cores.

ATi hoofdkantoor
Moderatie-faq Wijzig weergave

Reacties (49)

Hieruit concludeer ik dat ATi het accent gaat leggen op nog sneller tegen alsmaar stijgende kosten. De gemiddelde prijs voor een videokaart zal hierdoor stijgen.

Wat ik zelf liever zie, is dat de ontwikkelingen minder snel gaan en het accent gelegd wordt op goedkopere videokaarten. Een videokaart rond ¤100-120 zou dan een zeer modale prestatie moeten leveren, waar dat niveau nu nog rond de ¤150-200 euro ligt.

Kennelijk heeft de strijd tussen ATi en nVidia dus niet alléén voordelen opgeleverd voor de consument.
Wat ik zelf liever zie, is dat de ontwikkelingen minder snel gaan en het accent gelegd wordt op goedkopere videokaarten. Een videokaart rond ¤100-120 zou dan een zeer modale prestatie moeten leveren, waar dat niveau nu nog rond de ¤150-200 euro ligt.
Helemaal mee eens... als je nieuwe spellen goed wil kunnen spelen ben je meer dan 150 euro kwijt...
een PS2 kost wat... 130e ofzo... kan je al jaren de nieuwste spellen spelen
beetje kromme vergelijking misschien omdat die spellen specifiek voor de ps2 zijn gemaakt, maar het gaat erom dat je voor veel minder geld hardware hebt waarmee je nieuwe spellen kan spelen, in vergelijking met de honderden euro's die je kwijt bent voor een videokaart.
Dus?

Er is niemand die je dwingt die videokaart te kopen. Koop dan een PS2.

Voor kantoortoepassingen zijn al deze videokaarten al vrij zinloos, een standaard on board intel chip is meer dan voldoende. Bedrijven weten dat, intel weet dat en vandaar dat Intel de grootste producent van grafische kaarten is. Het is misschien niet sexy maar wel rendabel. Aan de andere kant zijn er heel veel mensen die graag een supersnelle videokaart willen hebben. Dat zijn de NVidia en ATI klanten. Ook redelijk winstgevend.

Wat niet winstgevend is, is een 6800 Ultra voor ¤ 100,- te verkopen. En dat zal dan ook niet gebeuren. Als je het wil zul je er toch echt voor moeten betalen.
Ik vraag me af gaat er een tijd komen dat men ook nog eens de nieuws infomatief gaat vinden of is elke nieuwe ontwikkeling standaard verkeerd? Er is altijd wel iemand die schrijft "Ze kunnnen/hadden beter ... kunnen doen"

Als je het zo goed weet doe het dan zelf.
Al dat negativiteit begint me echt de keel uittehangen.

En op je punt te komen nee ze moeten lekker door gaan met nieuwe ontwikkelingen.
Multiple cores kan ook beteken lagere productie kosten omdat alles niet op 1 cm geproped zit.
Btw is het ooit voor gekomen van nvidia of ati dat ze geen goedkope bagger kaart op de markt heeft gebracht van onder de 100 euro speciaal voor de gierige nederlander ?
Denk je echt dat de productiekosten van een videokaart zo hoog liggen?

al die prijzen worden voor 90% marketing-technisch bepaald
ATi zal zijn investeringen in R&D toch terug moeten winnen, en reken maar dat een multi GPU oplossing het één en ander vereist qua onderzoek.

Ook AMD en Intel zien hun brood in dual core. Multi-GPU kan daarmee vergeleken worden. Het verhogen van de prestaties kun je op een slimme manier doen, door de processor efficienter te maken of met geavanceerdere technieken uit te rusten. Of je kunt het met bestaande technieken doen en twee GPUs op een kaart proppen. Dan hoef je alleen maar een geschikte interface te maken die het zaakje redelijk laat lopen. Gevolg is wel dat de prijs omhoog gaat, maar het voordeel is dat op korte termijn je de prestaties verder omhoog kunt duwen.

Ik vind dit geen nette oplossing. Ik zie liever gestage vooruitgang en daarbij gepaarde voordelen zoals veel geringer energieverbruik en lagere productiekosten resulterend in een lage verkoopprijs.
en toch denk ik dat dual GPU véél minder R&D kost dan een totaal nieuwe core
zoals je zelf al zegt, het gaat alleen maar om een interface
bedrijfskundig gezien is dit dus heel slim
ze halen juist veel rendement uit hun R&D. Ze besparen kosten en verlegen de levensduur van een bestaand platform.
En dit lijkt me dan nog een stuk netter dan de dubbele videokaart van nvidia
De dubbele videokaart van nVidia is ook niet bedoelt als vervanging van dual GPU plankjes. Die technologie is bedoeld om gebruikers de mogelijkheid te geven om in de toekomst goedkoper te upgraden. (ze kopen er eenzelfde, inmiddels goedkope, kaart bij ipv een nieuwe dure)
edit:
typo
Nee, die dubbele videokaart van Nvidia is helemaal niet bedoeld om jou in de toekomst goedkoper te laten upgraden. (De bedoeling is juist dat je dan een nieuwe kaart koopt)

Het nut van die dubbele videokaart is zuiver PR.
Met SLI staan ze bovenaan in de benchmarks, en dat is gunstig voor je verkoopcijfers.
Ik denk eerder dat dat een combinatie van marketing en R&D kosten is. Een kaart maken kost misschien niet zoveel maar de research en development wat vooraf lag in de technologie moet er uiteindelijk wel mee bekostigd worden. Reken maar dat die kosten voor de high end kaarten er nu nog niet uitgehaald zijn.
Wat een M.C.Esher achtig gedoe daar aan de rechterkant van het ATi gebouw :D

Dit is wel weer een ontwikkeling die te verwachten was. Ze kunnen natuurlijk weer niet achter blijven. Vind het hele idee alleen wat achterhaald.

Het zou wel onmogelijk te implementeren zijn hoor, maar mij leek het altijd een leuk idee als een videokaart gewoon meerdere sockets en/of uitbreidingssloten heeft voor geheugen en gpu's.
Er moet dan uiteraard wel speciale hardware voor komen die ATi dan ook weer los aanbiedt.
Kan je er gewoon zelf een gpu'tje bij gooien enzo. Neemt niet weg dat de printplaat dan nogsteeds vreselijk lastig te ontwikkelen is met al die banen die er natuurlijk wel al in moeten zitten.
Misschien moeten ze de prijs van de losse kaart met enkele (of geen) gpu en geheugenbank daarom lekker hoog houden, maar de extra gpu/memory combo weer relatief aantrekkelijk geprijst houden. Met een extra gpu zal ook een extra geheugenbank gevuld moeten worden om echt van performance te kunnen genieten natuurlijk (denk pipelines).
Het lijkt mij niet zo'n vervelend idee. Het is meer 1 maal veel geld uitgeven, maar je kunt nog wel behoorlijk uit de voeten in de toekomst door veel minder uit te geven. Als deze gpu's dan later ook nog in zijn geheel te vervangen zijn door verbeterde exemplaren met hogere clocksnelheden (en bijv DX10 support) wordt het helemaal leuk.
Maak van een videokaart maar een soort moederboard, mij lijkt het wel wat. Maarja wie ben ik :) En als ze nou eens verschillende moederboarden maken, met 2 , 4 , 6, 8 sockets. Kan je toch nog een beetje in je eigen prijscatagorie zoeken. Een 8 socket plank is natuurlijk niet te betalen :)
Ze moeten die zooi gewoon van elkaar gaan scheiden, maken we zelf wel uit wat er op komt. Heb je ook nog eens keus tussen retesnel geheugen en modaal geheugen enzo.

Zo'n dergelijke ontwikkeling vind ik interessanter dan een soort van SLI techniek van 10 jaar geleden weer opnieuw introduceren.
dan moet je even overwegen hoeveel mensen dit nou daadwerkelijk zullen gebruiken
en hoeveel (onnodig?) complexer dat je computer maakt, en dus het samenstellen van een computer.
hoeveel dit een fabrikant kost om dit te maken, te ontwerpen, en te blijven ondersteunen.
Je moet een compleet platform ontwerpen met eigen sockets, verbindingen, drivers, etc. terwijl maar een klein gedeelte van de markt dit daadwerkelijk zal gebruiken.
Lijkt me absoluut niet rendabel.
Ik ben juist blij als ze pc's alleen maar makkelijker maken voor de consument, en dat is ook de trend. Zie ook de home-theather pc's e.d.
Heb je helemaal gelijk in. Iets wat ik graag zie zegt ook niet dat het zo zou moeten zijn en dat het rendabel is. Dit geef ik zelf al aan op het moment dat ik er over begin :)

Het lijkt opzich ook complex, maar ik vind het er tegenwoordig niet minder complex op. Een leek snapt zowieso niet wat hij moet hebben. Met al die verschillende naamgevingen snap je er toch ook niets meer van. Alleen als je echt geinteresseerd bent en je de hele ontwikkeling volgt begrijp je er genoeg van om echt een keuze te kunnen maken.

Ik zoek liever een oplossing om op een goedkopere manier toch een enorme variatie aan kaarten te krijgen en om zelf meer je eigen keuzes te bepalen zonder dat 4x zoveel performance ook 4x zo duur is en om te voorkomen dat er 1000 verschillende versies zijn. Het moet wel rendabel zijn.

Als (ik zeg als) ze ooit zoiets zouden doen moeten ze inderdaad hele platforms en standaarden gaan ontwikkelen. Als ze dit echter goed doen, kan het er juist een stuk duidelijker op worden voor de leken.
Dan is het namelijk gewoon de keus tussen plank A,B of C. met correspondernd GPU/MEMORY voor plank A,B of C. De hoeveelheid bepaal je zelf. De kosten is een simpele rekensom. De computerboer haldelt alles wel voor je af, want dat geld voor de leek nu precies hetzelfde (denk cpu/mobo/geheugen combo's). Voor de echte cheap-ass'es kunnen ze dan nog wel 1 enkele uitvoering maken met 1 gpu en geheugen en zonder sockets. Dat is dan het budget model van onder de 100 eur.

Je zou voor goed af kunnen zijn van al die verschillende benamingen en typenummers van leveranciers waar niet meer uit te komen is. De tijd zal het leren... kon ik maar toveren :D
Waarom zou deze kaart het niet doen op moederborden met een non-ATi chipset? Het principe is hier toch heel anders dan bij SLI. Het gaat niet om twee kaarten die aan elkaar gekoppeld moeten worden, waardoor de chipset een belangrijke rol hierin speelt. Maar het zijn gewoon twee GPU's op één PCB.

Het lijkt me dan erg sterk dat hiervoor het type chipset van belang is.
"Uiteraard laat Carvill weten dat hun grafische kaarten reeds in dual-GPU opstelling kunnen worden gebruikt in systemen zoals het Alienware ALX-systeem."

dus in andere woorden t gaat om een 2 pcb opstelling net als SLI, en niet om 2 gpu's op een kaart.

En voor iedereen die hier over dual-core zit te praten, dat staat nergens in t artikel en zal ook nooit gebeuren, in de tijd dat t kost om dual-core te ontwerpen en werkend te krijgen zijn we alweer een volledige generatie verder, en tevens kunnen ze dan beter gewoon meteen de chip met dubbel zo veel pipes en vertex units uitrusten, ipv dual core (waarbij geheugenbandbreedte een serieus probleem zou zijn) te doen.
We gaan weer naar de Dual Core dus, welke kaart was dat ook al weer van ATI die 2 GPU's had? machtig kaartjes was dat in die tijd :Y)
De Ati Rage Fury ;) (I stand corrected: Rage Fury Maxx idd ;))
AtiRage Fury MAXX ;)
3DFX (RIP) had al Voodoo kaarten de 5 6000 met 4 GPU'S !
Machtige kaarten waren dat .
Btw jammer dat ze toen opgekocht zijn door Nvidia

http://www.tweakers.net/nieuws/28160/?highlight=3dfx

;(
Als je hem werkend kreeg wel ja, er waren nogal wat driver problemen ;)
De dubbele videokaart van nVidia is ook niet bedoelt als vervanging van dual GPU plankjes. Die technologie is bedoeld om gebruikers de mogelijkheid te geven om in de toekomst goedkoper te upgraden. (ze kopen er eenzelfde, inmiddels goedkope, kaart bij ipv een nieuwe dure)
Weet je wel niet wat voor voeding je nodig hebt als je bijv. 2 stuks 6800GT in Sli wilt laten draaien? :9 (en wat voor stroom dat gaat gebruiken... :'( en even niet te vergeten in wat voor herrie (2 koelers) je terecht komt.)
Het lijkt me dus beter om straks je huidige 6800GT te verkopen, geld bij te leggen en de nieuwe generatie kaart te kopen. Waarschijnlijk ben je hiermee nóg sneller dan Sli, je hoeft geen kerncentrale als voeding aan te schaffen en je bent weer voorzien van de nieuwste snufjes.
Ah wat is nu 3db erbij :D
Hi,

Allemaal heel erg leuk hoor, meer en meer Power in die Video kaarten .... maar zou het niet leuker en interressanter worden als die "POWER" in bijv een SLI opstelling wat 'ruimer' te gebruiken is. Ik hoor iedereen ( en niet in de laatste plaats de kaart bakkers NVidia en ATI ) het alleen maar hebben over pure power. FPS die BIJV. rond de 200Fps liggen zijn leuk als 'benchmark' maar zelfs bij een 22" CRT kom je met je 1600x1200 res. niet veel hoger dan een 120 Hz refresh .... wat heb je dan aan die 80 FPS extra :D .... ,

Wat mij veel meer interresseert is waarom laat je die 2 videokaarten niet 'anders' samenwerken, bijv dat 2 uitgangen ( of 1 kaart) de MAIN monitor aanstuurt, met zeg een 100 FPS ... dus vloeiend en mooi speelbaar, en je die 2 extra uitgangen ( van de 4 ) ... kan gebruiken voor 2 extra (zij)monitoren ;) .... dus een opstelling met 3 Monitoren die bij FlightSims en Race Games natuurlijk voor een ultiemere beleving zorgen dan 200 FPS op een single monitor. Dus een soort Pharhelia wat Matrox heeft maar dan WEL met de power to play !!

Ik zie nu nog niet zoveel in een 'super' systeem met 1200 Euro aan videokaarten , als dit soort opstellingen niet mogelijk zijn. Tuurlijk heeft niet iedereen 3 monitoren ... maar hoeveel hebben er niet al 2 staan... sinds ATI dat goed ondersteund ik in ieder geval wel.... dus een 3e ... ach dat is best te regelen als je SLI zou kunnen bekostigen .. :D ....

Tot die tijd red ik me wel met een nieuw 'single' GPU system...

Greets Patwo
Allemaal heel erg leuk hoor, meer en meer Power in die Video kaarten .... maar zou het niet leuker en interressanter worden als die "POWER" in bijv een SLI opstelling wat 'ruimer' te gebruiken is. Ik hoor iedereen ( en niet in de laatste plaats de kaart bakkers NVidia en ATI ) het alleen maar hebben over pure power. FPS die BIJV. rond de 200Fps liggen zijn leuk als 'benchmark'
Welke game, die nieuwe games liggen kwa gemiddelde fps onder de 100.
Met SLI komen ze er weer iets boven.
Denk aan Doom3, dus nieuwere titels zullen wat zwaardere eisen hebben 200 is voor lichte of oudere spellen.
maar zelfs bij een 22" CRT kom je met je 1600x1200 res. niet veel hoger dan een 120 Hz refresh .... wat heb je dan aan die 80 FPS extra .... ,
ooit gehoord van gemiddelde 200 word niet gehaald bij elk spel laten we zeggen 150fps maar dit is in lichte stand.
dan zijn de dips belangrijk als die op 80fps zitten heb je ene heel spoepelde game.

Maar SLI schaf je aan om verschillende redenen.
A ) te patsen.
B ) om je 21" Crt ten volle benuutten.
C ) om FSAA en AF bij 1280x1024x32 met voldoende minimale fps te halen(die irritante fps dip's)
D ) Om heel lang met je rig uit te houden 2 á 3jaar of langer.
Wat mij veel meer interresseert is waarom laat je die 2 videokaarten niet 'anders' samenwerken, bijv dat 2 uitgangen ( of 1 kaart) de MAIN monitor aanstuurt, met zeg een 100 FPS ... dus vloeiend en mooi speelbaar, en je die 2 extra uitgangen ( van de 4 ) ... kan gebruiken voor 2 extra (zij)monitoren .... dus een opstelling met 3 Monitoren die bij FlightSims en Race Games natuurlijk voor een ultiemere beleving zorgen dan 200 FPS op een single monitor. Dus een soort Pharhelia wat Matrox heeft maar dan WEL met de power to play !!
Lijkt me ook wel leuk en zeker al ana egdacht. volgens mij is dit mogelijk door die SLI bridge gewoon weg te laten. dna krijg je dual dual DVI head.
'n nadeel veel games gebruiken de spanning methode aangezien Matrox en nVidia dit wel gebruiken. Wat inhoud verschillende monitoren op één kaart worden als één device gezien.

Of dit met twee kaarten ook zo is. Ben bang van niet.
Dat is het verschil met parhilia triple head.

ATI ondersteund helaas geen spanning elke monitor wordt gezien als één device.
Reden dat ik voor nVidia ga voor mijn multymon systeem.
MAa rof twee G-kaarten ook spanning ondersteunen? hoop van wel maar ben bang van niet.

Daarnaast kan je met SLI twee monitoren gebruiken waarbij de tweede kaart beide monitoren ene SLI boost geven.
Probleem van Pharilia was de zwakke 3d performance en dan drie monitoren.
6800U is al krachtig en kan met SLI ook bijgestaan worden voor Dual head performance verbetering.
De verschillende load van twee schermen worden dan evenredig verdeeld.
Ik zie nu nog niet zoveel in een 'super' systeem met 1200 Euro aan videokaarten , als dit soort opstellingen niet mogelijk zijn.
Geen idee zodra SLI mobo's beschikbaar zijn en ook 6600GT SLI kaarten dan weten we meer aangezien mee rmensen prijswise meer voor de SLI midrange gaan.

Ik hoop iig van wel.
Tuurlijk heeft niet iedereen 3 monitoren ... maar hoeveel hebben er niet al 2 staan...
Ik heb er drie naast mekaar alleen elk met ene Pc eraan. :)
De middelste Pc kan twee aansturen één monitor heeft twee ingangen heb optioneel dual head.
sinds ATI dat goed ondersteund ik in ieder geval wel.... dus een 3e ... ach dat is best te regelen als je SLI zou kunnen bekostigen .. ....

Tot die tijd red ik me wel met een nieuw 'single' GPU system...

Greets Patwo
Ik mis spanning bij ATI
X2 The Treat is zo'n game dat monitor spanning gebruikt. Dus geen multimon gaming met ATI helaas met mijn favo games.
Games die wel de officiele methode gebruiken zoals ATI die wel ondersteund kan je ook multimon doen helaas zijn er veel games die de matrox en nVidia method Alleen ondersteunen.
ATI ondersteund helaas geen spanning elke monitor wordt gezien als één device.
Reden dat ik voor nVidia ga voor mijn multymon systeem.
Dit klopt niet meer. :)

ATi ondersteunt nu ook spanning sinds de release van het Catalyst Control Centre. Er zit nu bv gewoon een optie op voor 2048x768 ipv 1024x768. En het leuke is dat dit gewoon via een wizard allemaal is in te stellen. :7

Dus "geen dualspan ondersteuning" is geen reden meer en je kan dus prima voor ATi gaan. 8-)
Leuk bedacht, maar spelletjes spelen is volgens mij echt verschrikkelijk met 3 monitoren. 'Gewone' toepassingen met CAD en programmeren enzo is natuurlijk wel handig.
Bovendien haal die 200 fps alleen maar bij oude spellen. Maar voor spellen als doom3 heb je die 'pure power' toch echt wel nodig hoor.
koop een matrox parhelia ;)

maar je hebt gelijk, veel spellen zien er fantastisch uit, maar heb je ooit gekeken hoeveel een 22" verbruikt? laat staan drie van die bakken, en dan moet je ook nog een bureau hebben waar er 3 op passen. Maar het is wel vet :P

er was eerst sprake van dat ati ook met een 3 monitor oplossing zou komen met de hulp van de IGP die aan zou kunnen blijven als er een ati kaart in t AGP slot gedaan werdt.
Ik vind het allemaal maar een beetje onnodig voor het moment, al dat SLI gedoe.

Laat ze nou maar eerst eens alle geavanceerde 3D technieken in de hardware implementeren zoals bijvoorbeeld Sub Surface Scattering en dat soort zaken. Er zijn nog zoooveeeel technieken, effecten, etc die nog niet geimplementeerd zijn in de huidige generatie kaarten en API's (OpenGL, DirectX)

Daarna mogen ze de echte grens gaan opzoeken wat betreft het laatste beetje performance er uit persen wat er in zit.

Zodra ze alles uit de hardware hebben gehaald wat er in zit, mogen ze van mij SLI gaan implementeren. Maar voordat ze dat doen, moeten ze eerst de grens bereikt hebben vind ik.
Welke grens? waar ligt die grens?

Volgens mij kun je in de computerwereld, en vooral qua chips enzo zal er waarschijnlijk nooit een einde komen. Programma's, games en andere applicaties vragen steeds meer cpu power en mensen willen ook steeds snellere pc's dus daar is geen dak te vinden. Bij de GPU wereld moet het steeds realistischer. In feite denk ik zelfs dat we qua grafische kaarten nog vrij in de kinderschoenen staan. Waarom? alles is zo 'plastic'-achtig, eerdat het écht gewoon een landschap is zoals je het zou zien op een foto bv maar dan realtime zijn we echt héél veel verder.
Laat ze nou maar eerst eens alle geavanceerde 3D technieken in de hardware implementeren zoals bijvoorbeeld Sub Surface Scattering en dat soort zaken. Er zijn nog zoooveeeel technieken, effecten, etc die nog niet geimplementeerd zijn in de huidige generatie kaarten en API's (OpenGL, DirectX)
Waar heb je het over? Sub-surface scattering is al lang geimplementeerd met shaders.
Oke, dual cores. De temp wordt natuurlijk hoger en
Ik hoop maar niet dat er een stofzuiger op je grafische kaart moet hangen :P
Niet zeker... Ze kunnen altijd de kloksnelheid terugschroeven en toch betere resultaten halen
En dan is het natuurlijk aan de Tweaker om die kloksnelheid weer omhoog te krikken, inclusief stofzuiger :p

Of waterkoeling natuurlijk :)
dual GPU, dat hoeft niet dualcore te zijn.
Valt wel op dat ze net nu NVIDIA zoveel succes heeft met SLI ze ook van zich laten horen. Alsof ze het binnen de korste keren kunnen doen werken. De ontwikkeling van SLI heeft jaren geduurt.

En dat van die vliegsimulator stelt niks voor. Daar wordt softwarematig in de applicatie het beeld verdeelt. Dat kan dus net even goed met NVIDIA kaarten. SLI werkt volledig zonder dat de applicatie daarvan weet heeft, en is voornamelijk hardware.

ATI verkoopt veel FUD de laatste tijd...
Het lijkt er trouwens op dat ATi de benodigde logica voor multi-GPU systemen al in hun grafische processors heeft opgenomen.
Ze hebben het al hardwarematig d'r in gebouwd ;)
Neen, het is juist uit die vliegsimulator dat men valselijk concludeerde dat het hardwarematig is. Let op het woord "lijkt" in hun verwoording. Je hebt je laten vangen door deze onzin van ATI.
Tot zover boden de Ati IGP chipsets weinig verassends, en waren ook meestal niet erg snel als je kijkt naar de concurrentie. Denk dat ze dus beter hun geld ergens anders in kunnen steken, want een gamer die voor een dual-gpu opstelling gaat, wil toch graag ook wel een fatsoenlijke snelle chipset boordevol leuke features. Tenzij Ati binnenkort met een erg snelle en mooie chipset komt, zie ik weinig heil in het systeem omdat het alleen werkt met een Ati chipset. Dan is het idee van Nvidia toch stukken beter, waarbij alle chipset fabrikanten in feite een SLI chipset kunnen maken, maar ws is daar het ontwerp van de x800 serie niet op gemaakt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True