Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 145 reacties
Bron: X-bit Labs, submitter: loodgieter

Op verschillende websites zijn foto's opgedoken van een dual-GeForce 6800 Ultra SLI grafische kaart die Asus aan het ontwerpen is. Naast twee GeForce 6800 Ultra GPU's die op 400MHz draaien, zou de kaart uitgerust zijn met 512MB DDR3-geheugen op 1100MHz. Eerder toonden Asus en Gigabyte al een grafische kaart met twee GeForce 6600 GT GPU's. Deze kaart lijkt dus een logisch vervolg hierop te zijn.

Het prototype zou op dit moment uitvoerig getest worden en het zou best wel eens kunnen zijn dat er binnenkort een officiële aankondiging komt. Wat meteen opvalt, zijn de enorme afmetingen van de kaart. De kaart is namelijk groter dan de maximale afmetingen zoals die zijn vastgelegd in de PCI Express-standaard. Dit zou problemen op kunnen leveren bij het plaatsen van de kaart in een systeem. Er wordt dan ook aangenomen dat de uiteindelijke versie een stuk kleiner zal zijn.

Ondertussen heeft nVidia laten weten dat er binnenkort ondersteuning voor vier GPU's in SLI-configuratie in de drivers zal worden ingebouwd. Daarnaast werkt nVidia ook aan de nForce4 Pro-chipset die onder andere twee volwaardige 16x PCI Express-sloten zal ondersteunen. Het gerucht dat twee Asus EN6600GT, met twee GeForce 6600 GT GPU's, in SLI-opstelling gebruikt kunnen worden lijkt hiermee dus bevestigd te worden. Of dit ook mogelijk zal worden met deze dual-GeForce 6800 Ultra is echter niet duidelijk, daar op het prototype geen SLI-connector aanwezig is. Hoewel dat natuurlijk op een retail-versie anders zou kunnen zijn.

Asus dual-GeForce 6800 Ultra SLI prototype

Lees meer over

Gerelateerde content

Alle gerelateerde content (26)
Moderatie-faq Wijzig weergave

Reacties (145)

-11450142+1107+227+310Ongemodereerd55
1 2 3 ... 6
Op dat plaatje kan je trouwens zien dat er gaatjes zitten waar normaal gesproken een SLI connector zit... Ze zouden hem na een kleine aanpassing zo kunnen plaatsen, waardoor het vermoeden dat deze kaart ook weer in SLI kan draaien groter wordt. :)
plaatje van de benodigde energie voor 6800 Ultra SLI in SLI modus :)
GForce.. nu met handvat.. :+
is die linkercore half afgebroken? Zal ook wel de reden zijn dat Asus 'm zomaar weggeeft ;)
Die is niet afgebroken, als je goed kijkt zie je dat het een reflectie is van het mobo.
Hij bedoeld de linker core, het linker opvallende blokje... Niet de kaart an sich |:(

Ik vraag me eigenlijk af...
Intel en AMD zijn verwikkeld in '' een strijd' om de eerste te zijn / worden met dual core technologie in hun CPU's...

Waarom doen nVidia en ATi dat dan ook niet? :?
Dual core videokaarten lijken mij namelijk ook wel heel erg performance winst gevent... ;)
@G-tje , ik weet niet waar jij het over hebt hoor, maar Moesjken heeft gelijk, als je goed kijkt zie je de reflectie van de PCI blocks op de core.
Als ze nog groter worden en dubbele koelers erop breekt t slot van je moederbord en is je kast verbogen!
Welke is de videokaart? die horizontale of verticale printplaat? :o
Een A8N-SLI (deluxe?) met passief gekoelde nForce4 stock?
Hmm die krijg je niet in je barebone dus...
He Tweakhams,

Kun je even aangeven wat nu de videokaart en wat het mobo is op die foto? Ik kom er niet meer uit :7
Er is zeker nog wat te optimaliseren aan de layout, zie deze snelle photoshop:

http://img163.exs.cx/img163/4130/kaart3fr.jpg
Mooi kan er misschien een 3rde GPU bij :+
Huuu welke van de twee is nu het moederbord :+

Heee verrek dacht ik origineel te zijn... lees ik een paar posts terug an sich hetzelfde |:( :o
Is dit nou echt wat we allemaal willen? Willen we niet liever ECHTE ontwikkelingen zien?
Wat is échte ontwikkeling? Het aantal pijplijnen verdubbelen? SLI doet exact dat. Het enige verschil is dat ze fysiek gescheiden zijn in twee chips. Hierdoor kan de geproduceerde warmte nog enigzinds deftig afgevoerd worden.
SLI verdubbelt niet het aantal pijplijnen ... Er is nog steeds een verschil tussen 2x16 en 1x32 'pipes'. SLI verdeelt het rederen van je beeld over de 2 GPU's. Je de bovenkant van je beeld wordt echt niet alleen maar door een helft van je GPU gedaan, want dat is wel wat je loopt te verkondigen.
Is dit nou echt wat we allemaal willen? Willen we niet liever ECHTE ontwikkelingen zien?
Mag ik ff benadrukken dat Asus werkt aan deze kaart? Zij proberen nog steeds te concurreren met andere bedrijven die nVidia kaarten produceren maar zij kunnen geen nieuwe GPU's ontwikkelen ofzo |:(. Dat is namelijk de taak van nVidia, die wel zorgt voor ondersteuning maar je moet niet denken dat de ontwikkeling van GPU's bij nVidia stilgevallen is hoor! :z
idd!!!
wat hebben we aan meerdere cores op 1 plank, of überhaupt SLI?

laten ze maar gewoon snellere/betere NIEUWE cores ontwikkelen!
Me mag niet vergeten, dat techologie altijd beperkingen heeft.

Je kan niet zomaar iedere generatsie de pipeline's etc verdubbelen van de gpu's. Verkleinen van de core's, etc kan maar zover gaan.

Je merkt dat het een trent aan het worden is in de hardware om nu meer & meer naar multi core's te gaan. Nvidia hun SLI, AMD/Intel hun multicore cpu's, xbox2 zijn 3 powerpc cpu's, ps3 zijn cell cpu met multi core's, hell, zelf dual channel memory layout's zijn een manier om meer performance te halen die niet mogelijk is met 1 memory sim.

Het is vrij duidelijk dat de huidige hardware langzaam meer & meer beperkingen begint te kennen. Toepassingen zoals multi core's, of sli setup's zijn daar een logise gevolg van.

Dit is de toekomst. Verbetering van de technologie, mechien niet meer met zo een grote sprongen, gecombineerd met meer & meer core's die samenwerken.

Mechien binnen 10 jaar hebben we pc's met cpu's die 6 subcpu's bevatten ( die elk een deel van het werk doen, vb: cpu1 ai, cpu2: physics, cpu3: xx), gpu's met multi core of sli toestanden waar je dan een dozijn in je pc hebt. Zou men 5 jaar geleden durven dromen hebben dat het mogelijk zou worden om 4 high end gpu's in je pc te kunnen stoppen ( kost factor niet meegerekend :) ), ik denk het niet.

SLI toestanden, multi cpu's, dat is iets voor bedrijven die mega pc's willen, of flight simulator's voor het leger/luchtvaart, dat was de gedachtengang. Maar als je beziet, dat een aantal jaar geleden een bedrijf mechien 100 Pentium 1's in een cluster zette, en dat we vandaag CPU's hebben in onze gewoon pc'tjes die dat werk aankunnen. De monster cluster systemen die miljoenen kosten vandaag, zijn de desktop pc's van de gewoon burgers binnen een jaar of 5 a 10.
3dfx had het idee met meerdere chips al in 1994. Anderhalf jaar later waren er al Voodoo 1's. (Ze waren er al langer, alleen was er nog niemand die de kaarten kon leveren. Later deed Diamond dat)

De Voodoo 1 zelf bevat 2 losse verschillende grafische chips.
Echter heeft de Voodoo 1 de mogelijkheid om in SLI te werken, Quantum 3D heeft bv. een Voodoo 1 in SLI gemaakt.

De Voodoo 1 kan ook met meerdere texture units overweg. Standaard zit er 1 texture unit op de kaart, de Voodoo 1 kan er 2 of 3 aansturen op 1 kaart :)
@PuzzleSolver
Beetje kromme vergelijk met je Moore's law. De Moore's Law ging over het aantal transistoren op een CPU (hij zei dat dit aantal elk 1,5 jaar verdubbeld) en niet over het aantal GPU's op 1 videokaart.

Dit jaar hebben we allemaal 1 mobiel. Over 1 jaar 2, over 3 jaar 4.... enz. Dit is een soort gelijk iets wat jij probeert te zeggen!
5 jaar geleden had ik een kaart met 4 gpu core's ...oke, ik werkte wel bij een gamedeveloper voor vr spul,(t was dus geen consumentenproduct) maar t is echt niet zo nieuw als je denkt hoor
Binnen tien jaar zitten we op

1: 2
3: 4
5: 8
7: 16
9: 32
10: 64

64 CPU's per core (op basis van more's law (ja is eigenlijk 18 maandern per verdubbeling, maar voor de zerkerheid maar 2 jaar genomen)). Maar goed dat hangt er vanaf wat er gebeurt op basis van die ontwikkeling. Persoonlijk denk ik dat we meer gaan naar 4 All purpose CPU's en een heleboel special purpose CPU's (denk aan meerdere FPU's en dan vooral in de trend van de CPU's genoemd in dit artikel http://www.tweakers.net/nieuws/36510).

Wat betreft de GPU, die is al tijden op te schalen in pipelines, het probleem met GPU's is meer de benodigde geheugenbandbreedte. Met een SLI wordt dit eigelijk opgelost door vroegtijdig naar een 2*256 bit's bus over te stappen. Als NVidia het echt zou willen zouden ze ook een core kunen bakken met 2x zoveel pipelines shaders en een 512bits bus en dan zou dit beter presteren dan een SLI kaart met 2 procs. Maar dit is niet waar NVidia op richt met de volgende core aangezien er ook betere ondersteuning moet zijn voor nieuwe technieken en 512bits voor een core een zware last zou leggen op het ontwerpen van de PCB etc. Dus wachten ze ff af bendenken en speculeren ze op nieuwe geheugen technieken en bandbreedte besparende technieken om vervolgens een nieuwe generatie GPU's uit te brenken

Dus om terug te komen op de root post van dit geheel, Ja we willen liever nieuwe technieken zien maar tot die tijd is dit ook welkom als snelheidsverbetering (en idd ook goed om de prijs van huidige topline kaarten naar beneden te brengen).
Vandaar die problemen met overgewicht... Moore's Law... :+
@s2c

ik reageerde op
Mechien binnen 10 jaar hebben we pc's met cpu's die 6 subcpu's bevatten
En dit jaar hebben we inderdaad 1 mobiel en over een paar jaar liggen er een heleboel voor schroot in de kast maar dat heeft inderdaad niets te maken met wat ik probeer te zeggen.
64 CPU's per core
Andersom ;)
Het maken van een core kost niet zoveel, het is het ontwikkelen waar enorme bergen geld in gaat zitten. Als men de levensduur van een core op deze manier simpel kan verlengen, worden de ontwikkelingskosten over meerdere cores verspreid. Dat betekent dat de cores per stuk goedkoper kunnen worden, als nVidia niet besluit om het verschil als pure winst te gelde te maken.

In elk geval: Als een core langer mee kan gaan dan vooraf geplanned, is er de ruimte om de prijzen te verlagen.

In dat geval zit ik helemaal niet zo te springen om een videokaart die precies even snel is, maar anderhalf keer zoveel kost.
maar als je 4 GPU core s in je PC hebt zitten wat gaat dit inhouden voor het stroom verbruik
of gaan we ze langzamer laten lopen zo dat ze minder stroom verbruiken ?
2 x 75w = 150w @ 100% (clock = 200% edit)
of
4 x 25w = 100w @ 65% (clock = 260% edit)
maar als je GPU 4 core s in je PC hebt zitten wat gaat dit inhouden voor het stroom verbruik
of gaan we ze langzamer laten lopen zo dat ze minder stroom verbruiken ?
2 x 75w = 150w @ 100% clock
of
4 x 25w = 100w @ 65% clock
Als je 4 van die dingen kan betalen dan is de stroomrekening ook niet meer zo'n probleem lijkt me.

edit: en een GPU is een core.
Nou, je zou toch in lijn met ontwikkelingen op de processormarkt je best een multi-core gpu kunnen vorostellen. Een GPU is dus niet een core. (Zo is een CPU ook geen core... Cache bijvoorbeeld zit ook op je CPU, maar maakt geen deel uit van je core)
Nou, ik wil wel een moederbord met 4x en PCIe 8x slot met in alle vier de sloten een dual 6800GT. Liefst samen met een dual core, dual CPU systeem. Één CPU voor OS, één CPU voor de game, en één cpu voor de physics. De laatste CPU gebruiken we dan maar voor de server, via vanderpool technologie.

De vraag is of ik niet beter kan wachten met de volgende generatie CPU & GPU, daar die ongeveer net zo snel zal zijn als deze config. Heb ik de 1 KW voeding ook niet nodig...
Ander punt is dat die volgende generatie cpu&gpu net zo snel zullen zijn, maar voor een lagere prijs.

Een nogal belangrijk punt imo!
Is dit nou echt wat we allemaal willen?
Nee, alleen de mensen die een vette videokaart willen hebben.
Willen we niet liever ECHTE ontwikkelingen zien?
SLI is een echte ontwikkeling... en zoals Sir_Eleet al zegt: ze zijn bij nVidia echt niet in slaap gevallen :P.
Jij hebt zeker een ATI ;)
Ik ben het wel een beetje met iedereen eens eigenlijk, dit ding zo zouveel stroom trekken en zoveel warmte produceren dat het gewoon te belachelijk voor woorden is. Ik denk dat er beter geld besteed kan worden aan alles efficienter maken. Dit geld zowel voor hardware als software. Kijk maar eens hoe goed sommige spellen op consoles draaien, die in verhouding met veel PC's extreem gare componenten hebben. En ja, ik weet dat het lo-res is en ja, ik weet dat ze geoptimaliseerd zijn voor een console, maar das juist mijn punt: het KAN blijkbaar wel efficienter.
Het grootste opstakel daarvoor blijft toch altijd de grote verscheidenheid van onderdelen in de verschillende Computers, dus het zal altijd wel zo blijven dat games op verschillende computers anders presteren.

Game ontwerpers hebben er veel baat bij als zo veel mogelijk Pc's hun spel kunnen draaien. Ze stemmen zich meestal af op markt onderzoeken, naar wat nu de mid end, game Pc config is en zo.
Neem B.V. Doom 3 Beta, en Doom 3. ik heb ze allebij op mijn 1,7Ghz R9700p bakkie geprobeerd, en je kan goed merken dat de Final toch beter draade dan die Beta.

In the end, blijft het echter de keuze van de ontwerpers, hoe schaalbaar ze hun game willen maken, zonder dat het er op high end Pc's slecht uit gaan zien ( tenopzichte van concurerende games ).
Neem b.v. de Caracter dezign van Doom 3, Ik kan me de tesselatie van die Hoofden goed herrineren.
Vind ik ook.
Helaas zijn er veel mensen het niet met je eens, waarschijnlijk. Die rijden graag rond in een halve tank (die SUV's), dus ik zou het niet vreemd vinden dat ze een superstroomverbruikende PC in huis willen, puur als statussymbool. Zo van: "kijk eens wat wij kunnen betalen?".
Whoa.... het moet niet veel gekker worden...
Kunnen we niet beter geld gaan storten in het beter coden van spellen, zodat ze beter draaien op huidige kaarten? |:(
Leuke ontwikkeling, maar loopt wel beetje uit de hand. Maarja er is al een 6600GT, waarom geen 6800 Ultra.

4x GPUs zal zon min 50-80Amps aan 12v moeten hebben?!
Zoveel belasting op de 12V.

Is binnenkort een 1KiloWatt voeding pas genoeg, voor dat zulk grafische geweld.
Hmm beetje rare beredenatie
Leuke ontwikkeling, maar loopt wel beetje uit de hand. Maarja er is al een 6600GT, waarom geen 6800 Ultra.
Er is al lang een 6600GT en ook al lang een 6800GT

Verder vind ik dit wel een positieve ontwikkeling er is op dit moment geen vraag naar veel sterkere kaarten dus waarom niet rekken wat je toch al hebt. SLI is nog niet eens verwerkt in consumenten pc's. en eigenlijk maken ze nog niet eens gebruik van PCIe.
Hij bedoelde een 6600GT in SLI opstelling op 1 board. Gigabyte heeft er eentje, werd er mee dood gegooid op het gigabyte event. Ook fijn voor de ATi gast die daarna z'n preek mocht doen :)
SLI is nog niet eens verwerkt in consumenten pc's. en eigenlijk maken ze nog niet eens gebruik van PCIe.
Ik denk dat deze kaart ook niet echt bedoeld is voor de gemiddelde consument.
En d'r zijn inmiddels zat nforce 4 sli borden dus ik zie eigenlijk niet wat je probleem is.
Meer een extra stopcontact, zoals op de Voodoo5 6000, die had ook al meerdere chips op dezelfde kaart.
Hoop alleen dat het voor nvidia anders afloopt :P

mag ik trouwens aannemen dat je watt bedoelt ipv ampere? anders mag je wel ff met je elektriciteitsbedrijf bellen over een extra aansluiting
Ik denk dat ie wel degelijk Ampere bedoelt:

50 Ampere@12Volt != 50Ampere@220Volt

Het eerste geval is 50 x 12 = 600 Watt, en het tweede geval 50 x 220 = 11.000 Watt.
Tja, op 220 Volt heb je wel een belletje naar de energie leverancier nodig.
Allemaal leuk en aardig, al die GPU's op een PCB. Maar wat hebben we eraan?Geen hol. Ten eerste, waarom zou je 800+ euro gaan uitgeven voor een kaart? Wordt dat dadelijk zeker de standaard. In 2002 was 300/400 euro veel voor een high end 9700 Pro, daarna 400 voor de 9800XT en nu al 450/500 voor de X850XT Pe. Stijgt alleen maar.

Niet dat ze zorgen voor:

1. Beter leverbaar van de gpu's.
2. Ontwikkeling van zuinige gpu's dus soort Dothan, Turion op GPU gebied.
3. Meteen degelijke kaarten maken zodat je niet om de 2 jaar hoef up te graden.

Immers je kan wel zo een krachtige GPU hebben, je hebt er niks aan als je geen Athlon 64 FX-55+ hebt.

Maar jah, stel ik wil performance want ik speel immers op 1600 x 1200 @ 16 AF en 8x FSAA. Koop ik me dat ding, wat blijkt hij heeft alleen SM3.0, de standaard is weer DX 10 met SM4.0. (bij wijze van spreken)

Beetje dure investering.
Waar ik stiekem op hoop, dat dit een dikke flop wordt.
Sli is zowizo nog niet aantrekkelijk, ik heb al een 6800 Ultra ik kan dan alle games spelen. Er zijn nog niet te zware spellen uit, waarbij de FPS van een spel beneden de 30 droppen.

Maar jah, wat doe je ertegen niks?Boycotten helpt toch niet, er zijn altijd wel mensen die zo een ding willen hebben.

(edit) en nog maar te zwijgen over de warmte.
@Barco, valt allemaal wel mee de prijzen?Zou een gemiddele gamer een kaart kunnen betalen van 500 euro?Ik denk dat een gemiddele gamer niet wil blijven upgraden, oke er zijn tal mensen met een baan en die veel geld in hun pc steken, maar er zijn ook tal mensen die ook performance willen maar niet 800 euro voor een kaart kunnen en willen neerleggen. Owja, we zijn nu ongeveer 4 a 5 maanden verder, hoeveel kost een X800XT PE nu nog?Prijsdaling is niet echt 'je van het', en dan nog maar te zwijgen dat gewoon bedrijven hem voor 600 + euro te durven verkopen, dat vind ik echt zielig, maar dat is weer wat anders.

500 euro of 800 euro is veel geld, je zou gewoon lekker op vakantie kunnen gaan. Maar je hebt wel gelijk, dit is zo een kaart van: 'ow wij kunnen de hoogste 3dmark05 score binnen halen'.

(edit 2) @ Original Flying Dutchman, Everquest II is nog niet uit, wel de beta, dat telt niet.
Recommand is dit:
- 2.0 GHz or greater
- 1 GB
- Pixel shader & vertex shader compatible 128 MB textur.

Maar jah dit staat er ook bij:
'EverQuest® II in all its glory! NVIDIA’s GeForce FX5700, GeForce 6800, GeForce 6800 GT or a Geforce 6800 Ultra are the cards recommended by NVIDIA to achieve full performance'

Of je hem op full detail kan spelen ligt denk ik ook voornamelijk aan cpu + mem.
Gezeur altijd over prijzen... De top zit al ontzettend lang op +/- 500 euro. Het hangt er vanaf of je naar introductie prijzen kijkt of naar de prijzen een half jaar later. Ik heb 500 euro betaald voor mn geforce 4 ti4600. Dat was dan ook toen ie net uit was maar ik heb er nog steeds plezier van (en het valt me erg mee hoe ik alles nog kan spelen). Ik heb ook ooit 650 gulden betaald voor een voodoo rush met 6 mb. Het valt allemaal wel mee met die prijzen.

Dit lijkt me dan ook meer een "kijk eens wat wij kunnen maken" wedstrijd dan een realistische produkt.

Er zijn inderdaad altijd mensen die t kopen maar jij behoort ook al redelijk tot die groep als je een 6800 ultra hebt.

Vragen om "degelijke" kaarten zodat je niet om de 2 jaar hoeft te vervangen is een beetje onzinnig. Het is niet alsof ze slechte dingen maken, ze maken alleen steeds weer nieuwere/betere dingen. Ik vind niet dat je moet klagen omdat er veel gebeurd op gpu gebied.

Ik denk dat deze kaart en het dubbel sli idee veel te veel stroom gaat vragen en dus erg moeilijk haalbaar zal zijn.
Inderdaad, ik herinner mij levendig dat een Geforce 2 Ultra voor 1500 Gulden in de pricewatch stond, was dat, ruime 600 euro?

zeur niet over die prijzen, de high end kaarten zijn nu zelfs goedkoper! (6800 ultra voor rond 500 euro oid toch)
500 euro is wèl 1100 gulden. Zowiezo extreem duur. Het was niet lang geleden dat 300 gulden normaal was voor een nieuwe kaart en 400 gulden als je een superkaart wilde.
is dat nie zo lang geleden? waneer dacht je dan aan, wel de prijs bij de introductie nemen he? Ik weet nog dat de gf3 een dikke 1200 gulden koste, wat zo'n 545 Euro is en dat is duurder dan de huidige top vid kaarten, en reken dan nog eens de inflatie mee, dat zal dan ook nog uit maken!
Wacht even, tien jaar geleden heb ik ooit een Diamond Viper VLB gekocht. Koste me toen ruim 1400 gulden... Dat was dus in het 468DX2-66 tijdperk. Wat toen 1400 gulden was, is nu waarschijnlijk 2000 gulden. Het was dan ook de snelste kaart die je voor Windows 3.1 en een van de snelste die je voor Autocad kon krijgen.

Zo gek als toen ben ik nooit meer geweest. Tegenwoordig vind ik 200-250 euro voor een grafische kaart meer dan zat. Maar er zijn zat mensen die er wel meer voor over hebben.
maar er zijn ook tal mensen die ook performance willen maar niet 800 euro voor een kaart kunnen en willen neerleggen.
Als ze dat niet kunnen en/of willen dan doen ze dat toch gewoon niet?

Maar jij vind ook dat er geen ferrari's ed. gemaakt mogen worden omdat er mensen zijn die alleen maar een fiat panda kunnen betalen? |:(
@Barco, valt allemaal wel mee de prijzen?Zou een gemiddele gamer een kaart kunnen betalen van 500 euro?
Ik denk ook niet dat de videokaarten die richting of over de 500 euro heen gaan gericht zijn op een 'gemiddelde gamer'. Kijk eens op de site van nVidia, die zet het zelfs netjes in een rijtje voor je: http://www.nvidia.com/page/geforce6.html . De 'meeste' hard-core gamers hebben het er best voor over om bijvoorbeeld 500 euro voor een X800/X850 of een 6800GT/Ultra neer te leggen. Zo werkt de economie nou eenmaal, wat heb je er voor over?
3. Meteen degelijke kaarten maken zodat je niet om de 2 jaar hoef up te graden.
En waar hadden ze de poen vandaan gehaald om een 6800GT te ontwikkelen, als jij nu nog steeds die TRIO kaart uit (?)1990 had gebruikt ?
Kom op, ontwikkeling komt voort uit winst maken en andersom.
Zo groot is die kaart niet hoor alleen de bracket zit er ook nog niet aan dan had je de verhoudingen beter kunnen zien.

Wat ik nog niet gehoord heb is dat of die 512mb gedeelt wordt of dat er gewoon per gpu 256mb op zit?
Als je het over de cover hebt bij de poorten: die zit er al :P
zoals je kan zien zit er rond elke gpu een aantal geheugen chips, dus ze zullen waarschijnlijk appart geheugen hebben
FF lachuh hier, is de mensheid echt aan het doorslaan ? Ze schatten dat over 40 jaar al de natuurlijke energie voorzieningen op zijn en geen alternatief hebben. Of maakt deze mensen het niets uit, de ontwikkelaars, en is het ieder voor zich en god voor ons allen, waarmee de vogende generatie het maar mag uitzoeken ?

En nee, het lijkt me niet bedoeld voor de Pro industrie deze kaartjes, die hebben toch immers al hun eigen lijnen voor Pro bewerking zoals Cad ?

En dit allemaal om een spelletje te spelen. Hou me ten goede, ben zelf ook gamer, maar moet het dan straks allemaal ten koste gaan van alles ?

En nee, SLI vind ik zeker geen nieuwe technoligie, het is niet meer dan een uitbreiding van een bestaande technoligie !!! maal 2, duuuhhhh, eb tweakers maar hier beweren dat ze iets nieuws zien :z

Het is afwachten op de het antwoord van de gebruiker of dit doorzet, aanschaffen al dan niet. Ik schaf het niet aan, al kan ik straks HL3 en Doom4 er niet meer op spelen. Overal is een limiet, zo ook aan energie verbruik. De grens is bereikt ? Voor mij wel, dan liever een console happen dan nog langer een machine gebruiken die voor office werkzaamheden ontwikkelt was, tegen een degelijke afgewogen prijs.

Vreemd eigenlijk dat mileu bewegingen hier eigenlijk nooit tegen in gaan, maar goed, die strijken de poet toch wel op van gulle gevers, of ze het mileu nu redden of niet ;)
Mischien wanneer je beseft dat zon kaart ongeveer net zoveel energie verbruikt al 2 felle gloelampen, en dan alleen als hij op volle toeren werkt, zal je snappen dat geen mileu organisatie zich er druk om maakt.

Energie verbruik is hier totaal niet een issue. Als je 1 keer gaat lopen ipv van de auto pakt kan je alweer een jaar met zon kaart gamen.
Alle energie binnen 40 jaar op? En kernenergie dan?
Dit terzijde.

Deze kaart is ook helemaal niet bedoeld voor milieubewuste mensen (zo schrijf je dus milieu), deze kaart is geen mainstream kaart die iedereen gaat kopen. Waarom mag een high end kaart, in dit geval zelfs de topkaart, niet wat extra verbruiken in ruil voor extra prestaties. Topauto's verbruiken in verhouding ook veel meer dan gewone middenklassers.
Het is niet dat de mensheid verplicht wordt van deze kaarten te kopen.
Biposto gaat mee met Parabellum. Door dit soort acties zul je zien dat men overstapt op consoles. Ik zie mij over 2 jaar waarschijnlijk niet meer gamen op een PC. Tenzij ik ergens gaanderweg de jackpot win of promotie maak waar je u tegen zegt. Realistisch gezien worden dit soort dingen voor veel gamers gewoon onhaalbaar. Ik kan wel wat opgeven voor zo een kaart. Maar als ik naar het huidig stroomverbruik kijk en de stijgende prijzen. Nah, sorry mensen. Mijn PC wordt in de toekomst van 1 taak ontlicht. En dat is vrijwel zeker weten GAMEN :'(
Hmm, ieder heeft hier zijn eigen bedenkingen op "Parabellum". Ik denk eerlijk gezegd niet dat het zo snel voorkomt dat dat onze natuurlijke energie bronnen op raken.

waar het mij wel om gaat met dit kaartje... (alhoewel, laten we het maar een kaart noemen..)
is dat ze vooral door moeten gaan met dual gpu plannen en SLI. ik ben helemaal geen voorstander van SLI of dual GPU, maar da komt omdat het gewoon allemaal te duur nog is. maar zolang ze dit blijven doen gaat iig de prijs van de normale plankjes een stuk achteruit waar ik wel blij mee ben.
Ik zou graag willen weten wat het totale oppervlakte van die kaart is. :7

offtopic:
Want het kan zijn die net in mijn kast past. :+


[Edit:]
De naam M-SLI (Multie-SLI)zou wel goed passen bij de configuratie met 4 gpu's.
[/Edit]

Overbodig!? Stel dat nVidia dat ook werkelijk gaat doen, dan verbaast het mij niks.
Dit is natuurlijk nog een concept, snel je voor :D

Er is als je goed ziet niet echt efficient omgegaan met beschikbare ruimte :)
Ik kan me een tijd herinneren dat iedereen (naar mijn idee onterecht) spontaan begon te lachen als ze zo'n kaart op de markt brachten. Toen waren de kaarten groen en stond er ergens de tekst '3dfx' op die kaarten.

De geschiedenis herhaalt zich geloof ik weer... exit nVidia?
Toen 3dfx met de voodoo2 SLI uitpakte waren ze wel nog heer en meester - pas na de voodoo3 is't fout gelopen.
Hij doelt ook op het Voodoo5 6000 debacle :P. Het ontwerp van >2 VSA100's in SLI was ook iets te ondoordacht om een succes te worden, en toendertijd had men ook niet de huidige chipfabricageprocessen die t nu mogelijk maken om deze geintjes nog een beetje stroomefficient uit te voeren.
Nee, toen waren ze rood en heten ze ATi Rage Fury Maxx. Is er inmiddels exit ATi gekomen?
Ja toch?
Voorbijgestreefd (tijdelijk dan) door nVidea
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True