Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties
Bron: X-bit Labs

Op X-bit Labs kunnen we lezen dat de komende generatie van grafische processors van XGI Shader Model 3.0 zullen ondersteunen. Ook zal XGI geen multi-GPU-technologie meer gebruiken in de volgende generatie. Met behulp van deze techniek konden twee GPU's op een kaart worden aangebracht die vervolgens samenwerkten om betere prestaties neer te zetten. Het nadeel is echter dat kaarten met meerdere GPU's moeilijker en duurder zijn om te fabriceren. Dit is dan ook de reden die XGI opgeeft om af te stappen van deze techniek. Volgend jaar zullen deze chips uitkomen. De XG45 wordt het topmodel, waarvan ook een afgeslankte versie zal komen de XG47. Ook komt er een versie voor mobiel gebruik, de XG10.

XGI-logoShader Model 3.0 werd door nVidia als eerste toegepast in de GeForce 6800 Ultra. ATi liet echter weten dat ze geen brood zagen in GPU's met Shader Model 3.0 en kwam met een uitbreiding op Shader Model 2.0. Deze versie 2.0b heeft een aantal features van Shader Model 3.0 en kan ook overweg met de langere pipeline van de Radeon X800. Uit testen met bijvoorbeeld Far Cry bleek dat ATi hiermee waarschijnlijk een goede keuze had gemaakt. ATi's komende generatie van grafische kaarten zal wel Shader Model 3.0 ondersteunen. Het lijkt er dus op dat fabrikanten van spellen met een gerust hart Shader Model 3.0 kunnen gaan gebruiken in spellen die in 2005 moeten uitkomen.

Moderatie-faq Wijzig weergave

Reacties (60)

Waarom geen 2 GPU's?
dit zou toch eigenlijk hetzelfde zijn als SLI?
en wat als mensen er wel geld voorover hebben?
als dit net zoals de Dual core processors is
dan zou dit nog sneller werken dan SLI ook nog.
(en Dual GPU zou wel handig zijn voor als er meerdere Units tegelijk weergeven moeten worden)

of is dit gewoon een uitstel om ons later nog te verassen?
en niet meteen hun nieuwste kaarten van de baan te schrapen.
Dual GPU heeft niet uitgepakt zoals men gehoopt had. Een basisfout die men gemaakt had bij de Volari Duo was dat slechts 1 GPU direct toegang had tot het geheugen, de andere GPU kon alleen maar aan het geheugen via de eerste wat voor vertragingen zorgt. Ook verlies je veel ruimte op de PCB en is een dual GPU blijkbaar veel te duur. Dual Core heeft misschien nog een toekomst als men dan niet dezelfde fout maakt. In feite komen de basisprincipes van dual GPU of dual core wel overeen. SLI is beter geimplementeerd dan de dual GPU bij XGI aangezien bijde kaarten volledig afzonderlijk van elkaar werken en ook allebij beschikken over de volledige capaciteit van de kaart zonder met elkaar rekening te moeten houden.
Het dual/quadro chip ontwerp van 3dfx werkte wel goed. Je kon op een Voodoo 5 6000 gerust FSAA op 4x zetten, de FPS bleef goed. De 4 VSA-100 chips die erop zitten kunnen veel verwerken en hadden hun eigen geheugen (32MB per chip).
maar dan zat je wel met het probleem dat je er dubbel zo veel geheugen op moet stoppen.
mijn voodoo5 5500 had totaal 64mb geheugen maar windows en alle games zagen maar 32, omdat alles verdubbled moest worden.
Dat probleem had XGI ook al.
Ik denk dat we dan te maken krijgen met het SLI tm gedeelte. Ik verwacht namelijk dat Nvidia hier wel patent op heeft aan gevraagd en enkel zijn geheimen prijs geeft wanneer licentie kosten zijn betaald, wat hoogst waarschijnlijk de prijs van de videokaarten niet ten goeden zal komen.
Geen patent op aangevraagd, ze hebben jaren geleden gewoon 3DFX overgekocht en daar behoorde onder andere de Scan Line Interleave (SLI) technologie bij, welke ik aanneem dat 3DFX hier wel een patent op had. Ondertussen mag Nvidia die naam en techniek dus gewoon gebruiken. Verschil is echter dat Nvidia's variant van SLI Scalable Link Interface heet, maar het blijft gewoon marketing.
Qua techniek is ook nog dat 3DFX het beeld (horizontale) lijnen om en om door beide kaarten liet renderen, terwijl Nvidia iedere kaart de helft van het beeld laat renderen.
Bij SLI van nVidia wordt niet de helft van het beeld door iedere kaart gedaan. Het zou wel kunnen dat dit een keer voorkomt, maar vaker zal de verdeling ongelijk zijn.

Kaart 1 begint met het beeld renderen van bovenaf en kaart 2 begint met het beeld renderen van onderaf, zodra het beeld af is beginnen beide kaarten op de zelfde manier aan het volgende te renderen beeld. Op deze manier wordt de workload namelijk verdeeld in tweeën in plaats van alleen het beeld.

Voorbeeld: als de bovenkant van je beeld de lucht is en nog wat toppen van bomen, de onderkant een rivier, struiken, gras, je character, enemies en nog wat gebouwtjes... dan zal kaart 1 waarschijnlijk 3 kwart van het beeld van bovenaf renderen terwijl kaart twee alleen de onderste kwart doet.

Dit is ook waarom ze van beeldlijn om en om af zijn gegaan, door ongelijk het beeld te verdelen worden véél hogere performance gains gehaald.
Als voorstander van bijna elke underdog moet ik ook hier even XGI een handje helpen.
Was de TNT van nvidia een flop? JA
Was de TNT2 van nvidia een flop? NEE
^^
Op zich zijn die drivers van XGI niet eens zo slecht. Ze kunnen al opmerkelijk veel spellen draaien, want er is flink (soms te veel, lees te veel corruptie / cheats) getweaked.
Doom 3 draait zelfs met de nieuwste drivers.
Waar ligt het probleem bij de volari v8 GPU ?
-Aan de slechte shaders, in princiepe is het een Xabre II Gpu, wat aangepast, maar nog steeds veel oude architectuur met weinig inbreng van trident. De GPU is meer DX 7 met enkele shaders ingebakken. Ook zijn er maar 4 pixelshaders beschikbaar voor 8 pipelines.

Ik denk dat veel van deze problemen met de nieuwe kaart zullen verdwijnen, en dat het concentreren van het werk in slechts 3 chips ook zijn vruchten gaat afwerpen.

EDIT:
Ze hebben net een nieuwe website gelaunched voor developers! http://developer.xgitech.com/
Was de TNT van nvidia een flop? JA
Wat een onzin, ik kan me nog heel goed herinneren hoe goed deze kaart ontvangen werd en de vloer aanveegde met de rest van de kaarten op dat moment, iets wat ik XGI dus niet zie doen
De vloer aanvegen deed ie zeker niet.
De concurrentie was duidelijker sneller, mar de TNT kon hogere resoluties aan, en kon 32bit kleur gebruiken.

En op basis van alleen die twee zaken prefereerden sommigen de TNT boven de concurrentie.

Pas de TNT2 Ultra was onbetwist de concurrentie de baas.
En goed te betalen.
550 gulden voor een topkaart :9
en van het getal 550 zijn ze nog steeds niet afgeweken in al die jaren voor een topkaart ;)
Mja, ik kan me weinig concurrenten herinneren die sneller waren (zowel de voodoo2 als de banshee iig niet)
zouden ze die 550 ook in rusland aanhouden? Zo'n russische rommel (ofzoiets) is geloof 0,0001 euro ofzo.
waarom is XGI nooit groot geworden zoals Nividia en Ati???
Uh, omdat hun vorige generatie gpu's pas hun eerste was? Omdat ze nog niet zo lang bestaan? Omdat hun kaarten nog niet zo goed presteren als de high-end kaarten van ATi en nVidia?
Je maakt 1 fout in je redenering.
Niet de prestaties van de high-end kaarten maar de verkoop van de midrange consumentenkaarten maken je groot.
De verkoop van bv de GF 5990FX verdwijnt in het niets naast die van de 5700FX.

Voor de rest heb je wel gelijk. De consument zal eerder geneigd zijn een midrangekaart te kopen waarvan het grote broertje beter presteerd dan de concurrentie terwijl het midrange model van de concurrentie eigenlijk beter is.
@ XyritZz : Lees de laatste 3 regels van m'n post ook eens.
Makkelijk he. Zo vlug vlug een reactie even zonder heel de post te lezen.
@ KRIS

jij maakt ook 1 fout in je redenering.

Zodra je de "kroon" in performance pakt krijg je meer naamsbekendheid, en gaan veel mensen er van uit je je goedkopere midrange kaarten ook beter zijn als de midrange kaarten van Ati/nividia. Dan gaan de verkopen harder omhoog.

Dus het pakken van de performance kroon heeft wel degelijk een grote invloed!
XGI bestaat pas sinds vorig jaar Juni en hebben toen een groot aantal personeelsleden overgenomen van de grafische afdelingen van Trident en SiS, 'ooit' 2 best wel grote namen in de IT markt.
Dit wordt eigenlijk pas de 2e generatie kaarten van deze kaarten bakker en ze moeten hun plek dus nog zien te veroveren binnen de markt, alhoewel ik betwijfel of ze er ooit zullen komen.
Ik hoop echt dat ze deze keer een wat beter videokaart met wat betere drivers maken. Zou niet slecht zijn, wat extra concurrentie voor Nvidia en Ati, gaan de prijzen misschien ook wat omlaag. :z
Wat was er mis met die drivers dan?
Drivers maken met cheats die de framerate vertienvoudigen terwijl 95% van de review sites het niet in de gaten hebben is echt niet makkelijk hoor.
Dat was een puik stukje programmeer werk. ;)
wat heb je aan een prijs als ze niet leverbaar zijn ook al waren ze 1 gulden (euro sorry) :Y)
Nutteloze opmerking. Een hoop videokaarten van de nieuwe serie zijn wel degelijk leverbaar. Een van de redenen dat ze niet leverbaar zijn was oa dankzij een tekort aan flipchip onderlage (het stuk pcb waarop de core gemound wordt). Om zo'n nieuwe videokaart meteen te hebben, zul je gewoon ff wat meer aandacht moeten besteden aan het zoeken naar een juiste shop, waar ze wel op voorraad zijn.
Daarbij is het voor de consument natuurlijk altijd beter als de prijzen dalen!
vertel mij over zoeken naar de juiste shop ik heb onder tussen ongeveer 80 mails gestuurd en NIEMAND heeft de X800XT op vooraad en kan het ook niet op korte termijn leveren

ik heb hem nu via ebay uit de VS gekocht

trouwens deze kaart heeft een tekort aan geheugen niet aan onderplaatjes

en jij zegt dat nieuwe kaarten degelijk leverbaar zijn ja de PCI express en de x800 pro
maar de pci express is op vooraad omdat die sinds mei ofzo ook nog niet uitverkocht zijn omdat niemand en een mobo en cpu en videokaart wil kopen
het lijkt mij dat nvidia dan de goeie keuze heeft gemaakt met in de 6800 enz al 3.0 intevoeren
omdat ze dan beter zijn voorbereid op de games van 2005 en omdat ati 2.0b heeft genomen in de x800 enz presteren die toch slechter in de de games van 2005 als die 3.0 nodig hebben en de mensen die nu een x800 pro ofzo hebben gekocht dan de mindere kaart hebben in die games of heb ik het nu mis
3DMark05 laat naar verwachting zien hoe games er in de komende 2 jaar uit gaan zien. De shader instructieset die nodig was voor 3DM05 overschrijdt die van sm2.0 niet, en nu al lopen de huidige topkaarten (x800xt/6800u) op hun tandvlees. (De X800XT wat minder, dankzij zijn hogere fillrate/clockspeeds). Wat denk je dat er gaat gebeuren met je framerates als sm3.0 (en 2.0b) daadwerkelijk nodig zijn? (dus wanneer ze de instructieset van 2.0 gaan overschrijden) De kaarten zullen een dia-voorstelling laten zien.

In 3DM05 is ook een SM3.0 pad speciaal voor de 6800 series. Diverse benches laten zien dat de 6800 reeks hier trager is als in sm2.0, simpelweg omdat de kaart bij 3.0 gedwongen wordt om alles in 32 bit te doen. In sm2.0 gebruikt de kaart een mixed pad (16/32bit).

Conclusie; de huidige generatie kaarten is simpelweg te traag om een game te renderen die de instructieset van sm2.0 overschrijdt, Ati heeft echt niet haar ogen dichtgehad wat dat betreft. Natuurlijk is 3.0 wel nuttig op dit moment, om meerdere lights in one pass te verwerken, maar ditzelfde kan 2.0b ook. 2.0b is Ati's aas die Nv's sm3.0 "voordeel" volledig pareert in deze generatie.
3dm05 is totaal geen geschikte benchmark om je real game performence te meten. Dat zou toch iedereen moeten weten intussen. Check [H] maar eens, omdat zij dat zeiden kregen ze bijna een proces aan hun broek.
Maar ATi fanboys verwijzen graag naar 3dm05 omdat ze daar hoger scoren, terwijl het wel duidelijk is dat de 6800 op de resolutie en AA/AF setting waarbij 3dm05 gedraaid wordt, in elk dx9 spel sneller is dan de X800 tegenhanger.
Het is pas in hogere resolutie en hogere AA/AF setting dat de X800 kan winnen. Ja zelfs in de CS source benches.
Om maar over OGL te zwijgen, dat test 3dm05 niet eens.
En dan zeggen dat 3dm05 representatief zou zijn.... |:(
Maar toen kwam SLI en was de discussie gedaan over wie nu de beste is.
Jij en [H] maken één kapitale fout waar het gaat om de 3DMark benchmark.
3DMark laat namelijk niet de real-game performance van huidige games zien, maar de performance in toekomstige games.

Het probleem daarbij is uiteraard dat de toekomst voorspellen niet makkelijk is. Maar bij 3DMark03 is dat uitstekend gelukt. (Hoewel [H] toen al hun kruisvaart tegen 3DMark zijn begonnen)
Bij 3DMark05 moet je dat maar afwachten. Persoonlijk moet ik zeggen dat er in 3DMark05 wel een stel heel erg dubieuze aannames zijn gedaan wat betreft de toekomst, die nogal Nvidia biased zijn. Ik betwijfel dan ook of hun voorspelling dit keer net zo goed zal zijn.
Maar dat is niet waarop [H] hun kruisvaart baseert.
Toekomstige games zijn inderdaad bv games die met 1 of 2 jaar verschijnen.

En als je op basis daarvan zegt dat je 3DMark niet interessant vind als benchmark dan kan ik daar in komen.
Maar dat is niet wat [H] zegt, en het is ook niet wat jij zei!


[H] zegt gewoon dat alle synthetische benchmarks nutteloos zijn en niets kunnen zeggen over real-game performance. En dat is gewoon niet waar.
Maar je moet je wel goed realiseren wat een synthetische benchmark nou precies meet en daar moet je rekening mee houden bij de uitkomsten.
Maar dat moet je bij real-game benchmarks net zo hard, want daarbij kan het ene level een totaal ander resultaat opleveren dan het andere level.

Overigens zijn de reviews van Brent bij [H] zo ongeveer de beste reviews die je op het net kan vinden. Jammer dat Kyle zo ongenuanceerd is, want anders was [H] veel populairder geweest.
Maar wat zijn toekomstige games? Games die binnen 2 jaar verschijnen? Je koopt nu geen setup om binnen 2 jaar mee te kunnen gamen. Je koopt nu een setup om de huidige games te spelen, games die de HL2 en D3 engine gebruiken. En dat is het punt van [H].
Volgens 3dm05 is een P4 een betere keuze dan een AMD. Terwijl talrijke real game benchmarks anders doen uitschijnen. Nee sorry, 3dm05 is geen goede referentie. It's just a fun game zoals ze bij [H] zeggen.
het lijkt mij dat nvidia dan de goeie keuze heeft gemaakt met in de 6800 enz al 3.0 intevoeren
omdat ze dan beter zijn voorbereid op de games van 2005 en omdat ati 2.0b heeft genomen in de x800 enz presteren die toch slechter in de de games van 2005 als die 3.0 nodig hebben en de mensen die nu een x800 pro ofzo hebben gekocht dan de mindere kaart hebben in die games of heb ik het nu mis
Het verschil tussen SM 2.0 en 3.0 is erg klein en ik neem aan dat de games die SM 3.0 gebruiken ook nog ondersteuning hebben voor SM 2.0 :Y)
Daarnaast heeft 2.0b een aantal features van 3.0 dus dat zit wel goed.
ik heb net ff de vergelijking tussen shader 1,1 en 3,0 bekeken nou zo kan ik ook wel wat vergelijken zeg

kijk dit is 640x480 alles low en uit zonder FSAA en ANI
en dit is 1600x1200 met alles ultra high en alles aan + 4 FSAA en 8x ANI

oooh wat mooi :Z

ik heb farcry gespeeld met een 9700pro en daar zag het er net zo mooi uit als op die screens van shader 3.0

en trouwens als dat de nieuwe trend is dat doom3 en farcry rubber-alles-geplastificeerde textures nou dan mag van mij part die shader models gestolen worden |:(
Het belangrijkste verschil tussen shader modell 2.0 en 3.0 zijn de zogenoemde 'logic'. SM 3.0 kan gebruik maken van if, while, for en meer van zulk soort loops waardoor het programmeren van een game gemakkelijker verloopt en dus beter geoptimaliseerd kan worden, en tevens (zogauw dus de games optimized zijn voor SM3.0) sneller gerenderd worden.

Qua beeldkwaliteit zijn er maar bar weinig dingen veranderd (eigenlijk geen), en dus zul je in games zogoed als geen verschil zien als een kaart die met SM2.0 renderd, en eentje met 3.0. Daarom is er geen beeldkwaliteit verschil te zien tussen die 9700 en een Nvidia kaart met SM3.0. Echter, in de toekomst wel degelijk sneller!

Overigens twijfel ik of Displacement Mapping, een andere techniek van Nvidia (hardwarematige 'bumpmapping') ook bij SM3.0 hoort of dat dit een eigen techniek is. Als deze namelijk erbij komt dankzij SM3.0 is dat volgens mij wel een behoorlijke uitkomst in toekomstige games (visueel).

Overigens heb ik het liever netjes 'rubber-alles-geplastificeerde textures' dan dezelde textures maar compleet met kartels en al, dus wat zeur je nu?
Tuurlijk zie je dat ook met die 9700pro, omdat het ook softwarematig gedaan kan worden. Nvidia ondersteund het met SM3.0 alleen hardwarematig, wat veel sneller is. Displacement mapping is overigens het structuur aanbrengen in textures. Bijvoorbeeld neem muurtegels: de tegel inclusief voegen is 1 texture, maar de tegen zelf steekt verder uit dan de voegen, zoals in de werkelijkheid. Dat noemde men eerst Bumpmapping (softwarematig) maar Nvidia ondersteund het nu hardwarematig (Displacement Mapping)
Leuk dat je if while etc in SM3 hebt, maar shaders zijn nu zo klein dat dat bijna geen nut heeft.
Dat merk je dus ook meteen in alle vergelijkingen in bv FarCry.
De verbeteringen die er gemaakt konden worden hadden daar eigenlijk niets mee te maken, en konden ook gewoon gemaakt worden voor de X800.

In de toekomst zal het ook niet sneller zijn. Tenminste niet voor een 6800. Die 'logic' wordt namelijk belangrijk als je shaders langer worden.
Maar dergelijke lange shaders zijn veel te zwaar voor de huidige generaties GPUs. Dat een X800 dan op 3 fps draait en een 6800 op 4 fps is dan aardig, maar daar heb je in spellen dan helemaal niets aan.

Die voordelen van SM3 zullen dus pas gaan komen in volgende (snellere) generaties GPU's die niet op hun knieen gebracht worden door langere shaders. En dan hebben XGI en ATI het dus ook.
@ThaMind
Laat maar eens tests zien waaruit blijkt dat het bij Nvidia veel sneller is omdat het hardwarematig gebeurd.
Dat is namelijk nou net het probleem: Het is in FarCry niet veel sneller.
hee tussen de shader shit (glansjes) en kartels (Full Screen Anti Aliasing) zit wel een hele wereld van verschil

ik vind het alleen dom dat alle zogenaamde "NEXT GENERATION" games in een keer overal een glasje op moeten hebben e.g. Doom³ en FarCry

trouwens de displacement mapping (hetelucht simulatie of "Minority Report sonic weapon" blast effect) zie ik ook met een 9700pro daar heb je ook geen SM3 voor nodig
hebben julie allemaalde presentatie van de unreal engine 3 gezien datt zijn pa mooie beelden daar zie je ook veel voorbeelden van displacement mapping zoals die stenene met voegen en dan een licht in een glas-in-lood-raam-blok die alles daar op projecteerd en op een 3d model die er tussen staat
SM3.0 heeft op dit moment een zeer beperkt snelheidsvoordeel. Enkele limitaties van 2.0 worden weggewerkt. De impact is spijtig genoeg in de huidige generatie games beperkt en FarCry heeft aangetoond dat de beeldkwaliteit ongewijzigd blijft.

2.0b van ATi is helemaal nutteloos. De uitbreidingen van 3.0 die overgenomen zijn zijn op dit moment vrij waardeloos te noemen aangezien het functies zijn die nog nergens gebruikt worden.
Sm3.0 wordt nog vrijwel nergens gebruikt. Ook bij FarCry is de SM3 ondersteuning er later aan toe gevoegd. Bij software waar bij het ontwerp met SM3 rekening is gehouden kan het wel degelijk een redelijk grote impact hebben.

Ik denk ook dat ATI dat ondertussen inziet en daarom ook SM3 gaat toepassen. Maar goed we hebben het over XGI en die gaan ook SM3 ondersteunen. Dus waar blijven de SM3 optimized games
beperkt? Ik heb met far cry met SM3.0 wel 10% meer fps dan met SM2.0. Miss dat het nog aan andere dingen kan liggen van patch 1.1 ->1.2 maar ik dacht toch echt dat SM3.0 het belangrijkste verschil was.
2.0b van ATi is helemaal nutteloos
eigenlijk is 2.0B heel nutig.
alle snelheids funties van 3.0 zonder de nu nuttelose, transistor verspillende logic gedoe waar deze hardware toch veel te langzaam voor is.
Precies wat je ook in FarCry ziet.
De snelheidswinst van de patch die aan SM3 toegeschreven werd, bleek ook gemaakt te kunnen worden in SM2.0b
als ze 2 gpu's nemen dan heb je ze achter elkaar zitten (een bovenop en een onderop) op de zelfde plek?

ik denk niet dat shader model 3.0 echt zo erg n odig zal zijn voor presaties want met meer core en mem mhz kun je meer als met een extra technologie

en wat zijn de voordelen eigenlijks van 3.0?

(trouwens ati's true form wordt tot op de dag van vandaag nog nooit gebruikt)
true form wordt wel gebruikt bevoorbeeld in unrael serie's.
Ik geloof dat je iets in een ini bestand moet wijzige.
ik heb het nog nooit gebruik maar ik weet dat het kan.
en de myth van de extra mhz is er bij jou nog niet uit :Z want extra tegnologie help wel!!!

meer pipeline bijv.
extra vertex units

meer mhz is meer warmte
dus geef mij maar tegnologie. ;)
ja pipe lines dat weet ik maar smartshader 3.0 op nvidia clocks en sm 2.0b op x800xt clocks ik denk dat ati dan toch wint..

en bij the way de x800xt presteerd WAY BETER op het gebied van FSAA en ANISO en daar heb ik meer aan dan aan extra snelheid voor shaders want dan kun je het beeld wel nog zo mooi hebben zonder FSAA ziet het eruit als POEP (ik kon me er al vanaf de monster3D aan ergeren en nu kan ik niet meer zonder)

oh ja de enige games die beter presteren op een 6800 zijn openGL based dus COD en DOOM³ etc
Mja, ook in direct3d games presteert nvidia met regelmaat beter/gelijk dan de tegenhanger van ati, en FSAA in first person shooters (toch bij uitstek de games waar je gpu power gebruikt wordt) is imho zwaar overrated, zeker als je een resolutie van 1280 of hoger gebruikt

En voor de monster3d is het logisch dat je je daar aan zou ergeren omdat die alleen maar op 640x480 draait, en onder de 1024 is FSAA wel weer interessant
Waarom zou je een afgeslankt model een hoger versienummer geven, dit lijkt me niet zo handig, althans, ik denk dat iedereen die dit leest, ff 2x keer leest of ze het wel goed lezen.

(net zoals met mijn bericht nu, denk ik ) :+
Misschien om dezelfde reden dat het 'XT' model bij nVidia sneller dan de 'gewone' was, en bij ATi langzamer... Of was het nou andersom :?

;)

(edit: maar zal wel een typefoutje zijn denk ik? Staat ook zo in het originele artikel: XG45/XG47/XP10 waarbij XG45 highend is, en XG47 low end; XP10 is voor de mobiele markt)
volgens mij was het andersom :P

(tenminste, als je ziet dat de 9800 XT duurder is dan de pro, lijkt me sterk dat jee een slechtere kaart een hogere prijs meegeeft, niet ;))
och ja prop overal maar een x bij en het verkoopt wel
Als je zag hoe traag XGI met de huidige shaders al was, vraag ik me af of ze Shader Model 3.0 sneller kunnen maken??
De traagheid kwam gewoon door het hele ding. Niet alleen door de shaders. De chip was niet snel genoeg, werd veelste heet, en het dual-chip design was oa dankzij geheugen acces-problemen een flop. Bovenop alles verstookte die behoorlijk veel energie (ik geloof dat er 2 molex aansluitingen waren) en waren de drivers erg brak. Uiteindelijk begonnen ze bij XGI ook nog te cheaten met de drivers wat de emmer deed overlopen. Ook maakte het ding nog een behoorlijke herrie dankzij de 2 fans om het zaakje nog te koelen.

Het hele concept was gewoon niet goed, shader model 2.0 of 3.0 zal daar weinig aan veranderen.
Komt er waarschijnlijk op neer dat je met je Nvidia kaartje een ander beeld krijgt als met je ATi kaart ...
Effecten worden dan gewo0n omgezet of weggelaten ;)
nou ik heb vergelijkende screenshots gezien tussen de 6800U en de x800xt pe

en daar had de x800 duidelijk veel mooier beeld kwalieteit de 6800 was dan net een lelijke windvd movie net zulke vlakken en blokken

helaas kan ik de site niet meer vinden
Gezien de onzin die je post nam ik heel even aan dat je het sarcastisch bedoelde ;)

Maar gezien je vorige posts vrees ik van niet (misschien beter om terug te gaan naar gamer.nl oid?)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True