Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

GeForce 6800 Ultra 512MB SLI-kaarten te zien op CeBIT

Op CeBIT 2005 zal Gainward de CoolFX PowerPack! Ultra/2800PCX voorstellen, zo meldt het bedrijf in een pdf-document. Deze GeForce 6800 Ultra zal over maar liefst 512MB geheugen beschikken en in staat zijn in SLI-configuraties gebruikt te worden. Bovendien zal deze videokaart uitgerust zijn met ingebouwde Gainward CoolFX-waterkoeling. De gpu zal op 450MHz tikken en de aansluiting van beeldschermen gebeurt via de twee DVI-connectoren. Eind maart zou de PowerPack! Ultra verkrijgbaar moeten zijn, samen met een goedkopere versie die met traditionele koeling met een koperen heatsink werkt. Voor foto's of benchmarkresultaten van deze krachtpatser, die zowel alleen als in SLI-mode gebruikt kan worden, moeten we nog even geduld oefenen tot CeBIT van start gaat op tien maart.

Gainward PowerPack! CoolFX Ultra/2600

Door

Eindredacteur

75 Linkedin Google+

Submitter: timdeh

Reacties (75)

Wijzig sortering
Wat een bakbeest zeg :9

En met twee van deze kaarten heb je 1 gieg videogeheugen, da's meer dan ik nu in mijn pc heb :D

Maar wat is nu het nut van 512 mb geheugen erop? Zelfs over een jaar zal het nog niet benut worden volgens mij... Mensen met een 256mb kaart kunnen sinds kort pas (Doom3, HL2) de vruchten plukken van hun grote krachtpatsers...

@Eagle1980: Dan moet dat hele SLI gebeuren wel aanslaan... Je ziet dat het nu nog voor een (te) geringe prestatiewinst zorgt, want de games worden er niet op geprogrammeerd. En als er te weinig SLI kaarten worden verkocht, dan... tsja... :P
Het nut is dat je over 2 jaar ook nog de nieuwste games kan draaien. Al dan niet door een SLI opstelling te maken.
Laten we even van het meest optimistische scenario uitgaan:

- SLI is 2 keer zo snel als 1 enkele kaart;
- Deze Nvidia is de snelste op de markt nu;
- Elke 6 maanden komt er een nieuwe generatie kaarten uit;
- Bij elke generatie wordt er een snelheidswinst van 50% geboekt.

1,5*1,5*1,5*1,5 (4 maal 6 maanden is 2 jaar) = 5,0

Oftewel de nieuwste generatie kaarten over 2 jaar is 5 keer zo snel als de huidige snelste kaarten (of 2,5 keer tov SLI).

Of dat voldoende is voor de nieuwste spellen betwijfel ik (maar dat ligt er natuurlijk aan in welke q vs. framerate die games wilt gaan spelen.

Oftewel: het praktisch nut van dit ding in SLI ontgaat me gedeeltelijk, natuurlijk is het wel een mooie marketingstunt en interessant om te zien wat dit kaartje kan presteren.
Kan je er ook 6 maanden bijoptellen voordat die generatie echt leverbaar wordt.
En meestal duurt het wel langer dan 6 maanden tot er een nieuwe generatie is hoor, kijk maar bij de Geforce 4 serie, voordat de FX serie kwam waren we toch al weer een jaar (als het niet meer is) verder.
Ik kan me wel iets bij SLI voorstellen bij deze kaart maar meer om redenen van kostenreductie. Over een jaar zijn alle spellen natuurlijk flink meereisend geworden. Deze kaart is voor huidige spellen net iets te goed, maar over een jaar niet meer. Dan koop je tegen die tijd een veel goedkoper (misschien 1/5e) geworden 2e kaart erbij en kan je nog wel zeker een half jaar verder voor weinig geld extra. En omdat ie waterkoeling heeft maakt het dan geen extra herrie.

't Is dat het me een beetje teveel zal kosten nu
512MB!

Ze gaan wel erg snel de hoeveelheid geheugen verhogen. 256MB wordt nauwelijks gebruikt door spellen. Pure marketing lijkt me...
Maar wel nuttig voor mensen die met CAD/CAM werken maar niet het geld hebben om te investeren in een dure professionele kaart.
De enige professionele kaarten metzoveel geheugen zijn de Wildcat VP990 en de Wildcat Realizm 200 en 800 van 3D Labs en de Quadro FX4400 van nVidia.
Maar deze kaarten kosten ¤500, ¤900, ¤1400 en ¤2600. Die van ¤500 is nog aanvaardbaar maar je moet het daar stellen zonder bv. DX9 of OpenGL 2.0. Zeker gezien OpenGL2.0 (wat in de volgende releases van professionele software zal gebruikt worden) zeer intressant is.
3DS Max, Smoke,... gebruiken als ik me niet vergis al een aantal DX9.0 effecten.
No offence,

maar ik werk elke dag met CAD/CAM en het geheugen van je systeem is vele malen belangrijker dan die op je grafische kaart.
Zou dus ook geen programma weten (CAD/CAM) die voordelen bij deze kaart kan hebben.
Maar wees vrij om er een paar te noemen.

Uiteraard lijkt me dit met marketing te maken te hebben.
Maar die waterkoelblok vind ik wel helemaal :9~ :9~
Lijkt me voorlopig alleen interessant om bvb. Doom 3 te spelen op Ultra met 6xAA en 16xAF. Maar in SLI heb je dan 1GB videogeheugen en dat lijkt me (voorlopig) wel te veel van het goede.
Je hebt geen beschikking over 1 GB, maar over 2 keer 512 MB. Veel textures e.d. zullen gewoon dubbel staan.

Oeps, reactie staat iets verkeerd.
Ik werk dagelijks met Autodesk ADT. Ik heb ruim voldoende (zoniet overschot) aan m'n 256mb.
Maar ik weet dat mensen die met Catia werken bv. vaak met zeer grote modellen zitten die wel degelijk een framebuffer van 512mb kunnen vullen.
Natuurlijk gaan mensen die met Catia werken zelfs niet denken aan een dergelijke kaart.
Maar als je als zijnde student met een zeker "CAD-verslaving" een kaart moet kopen je geen ¤1500 op tafel gaat leggen.
En zo'n entry level kaart neem een Quadro FX500 heeft geen performance om over naar huis te schrijven. En ze is niet eens zoveel goedkoper dan een dergelijke kaart. Maar van de quadro weet je wel dat ze rotstabiel zal draaien. Van deze weet je dat niet in CAD aplicaties.
Maar dit alles rechtvaardigt nog steeds niet die 512 MB... Tenzei je inderdaad 10 vierkante kilometer textures tegelijk in realtime wilt renderen, maar dat lijkt me meer typisch iets voor de volgende spellen generatie.
ja dat hangt ervan af.
Bij deze kaart is het idd minder nuttig. Tenzij ze een functionaliteit in de drivers/software inbouwen waar je zelf geheugen kan gaan toewijzen.
Neem als voorbeeld de kaarten van 3D Labs. Wildcat 2,3 , 4 en Realizm.
Een deel van het geheugen wordt als framebuffer gebruikt, het andere deel als texture buffer.
In het geval wildcat beschikken die zelfs over gescheiden geheugencontrollers.
Er zijn videokaarten waarbij je dit handmatig kan instellen. Wat voor mensen die hun vak kennen wel voordelen opleveren. Certified drivers voor bekende aplicaties doen dit automatisch. Ze gaan het geheugen optimaal verdelen voor die aplicatie.
Maar wel nuttig voor mensen die met CAD/CAM werken maar niet het geld hebben om te investeren in een dure professionele kaart.
De enige professionele kaarten metzoveel geheugen zijn de Wildcat VP990 en de Wildcat Realizm 200 en 800 van 3D Labs en de Quadro FX4400 van nVidia.
Enige is wel, dat die kaarten voor die applicaties geoptimaliseerd zijn, en kaarten zoals deze, meer geoptimaliseerd zijn voor games, etc.

Aan kwaliteit hangt immers altijd een prijskaartje, en als je die kwaliteit ook wilt, heb je het er vaak wel voor over... ;)
De unreal3 engine die voor 2006 geplanned staat heeft pas de mogelijkheid goed te draaien met minimaal 1 Gig op je videokaart, aldus de hoofd-ontwerper van de engine.

Als je nu een peperdure kaart koopt, is het mooi dat je em in '06 nog kunt gebruiken, al was het alleen al door er een zelfde naast te zetten en zo op 1024 MB te komen.
Geef mij maar die 32pipe 1GB G-kaart die kan wel games spelen die 1GB aan kunnen dat kan een
2x SLI 512
of
4x SLi 256 niet
Omdat de texture ook nx gecopieerd moeten worden.
Je effectieve geheugen is zo groot als een kaart
Zonde van al de vidmem.
Nou, dan zal het spel zeker wel erg goed gaan verkopen... in 2010 |:(
Doom 3 Ultra quality kan alleen met een 512 MB videokaart vloeiend gedraaid worden. Met m'n 256 MB GF 6800GT loopt het bij vlagen goed en het volgende moment kan het beeld ineens stilstaan. Nadat je een deur hebt geopend moet ie iedere keer weer gaan cachen ofzo. Ultra quality in Doom 3 wil zeggen: uncompressed textures. Dat heeft gewoon veel (meer dan 256 MB) geheugen nodig.

Chronicles of riddick (renderpath PS 2.++ ) loopt ook nog op geen enkele videokaart vloeiend.

512Mb heeft dus wel degelijk al nut in enkele games op dit moment.
de NV40 heeft een losless compressiealgoritme wat textures tot 1:5 kan compressen. Dat is dus 5 (!) keer kleiner dan de orginele texture is. In veel moderne games wordt die 256mb grotendeels wel gebruikt, maar dat is dus met die compressie ingeschakeld. Ga je dus 512mb gebruiken zonder compressie kom je alsnog geheugen tekort, en niet zomaar een beetje ook. Oke, die 1:5 compressie wordt natuurlijk niet altijd gehaald, maar toch...ongecomprimeerde textures zie ik niet snel gebeuren voorlopig. De reden dat Doom3 in Ultra Quality 512mb videogeheugen vraagt is omdat er momenten kunnen zijn (bijvoorbeeld bij het inlopen van een nieuwe ruimte) dat er in 1 keer veel textures ingeladen worden en dan kan het voorkomen dat die 256mb dan nét te weinig is. Er kan dus best gegamed worden met 256mb kaarten op Ultra quality, alleen moet je dan niet gaan lopen zeuren als je ineens enorme framedrop hebt wanneer net die laatste texture er niet meer bij past :).
Ik draai DoomIII op 1280*1024 2*AA in ultra quality perfect vloeiend op een ASUSV9999GT/TD(=6800GT met 128MB)

Nooit haperingen, zelf niet bij een deur die opent.
Chronicles of riddick (renderpath PS 2.++ ) loopt ook nog op geen enkele videokaart vloeiend
Op mijn computer loopt chronicles of riddick wel vloeiend (met DC++ aan) en ik heb niet eens zo'n geweldig high-end systeem. Asus socket A 3200xp+ 512 mb, 9800pro met alles op hoogste instellingen.
Waar bezeer je dit op ???

Op mijn 3500+ met 6600Gt 128Mb loopt Doom3 op hoge kwaliteid anders al heel soepel.
Ze gaan wel erg snel de hoeveelheid geheugen verhogen. 256MB wordt nauwelijks gebruikt door spellen. Pure marketing lijkt me...
Misschien wel, misschien niet. Feit is wel dat de nieuwere generatie spellen als Far Cry, Doom3 en Half/Life2 best 1GB intern geheugen lusten om hun textures in kwijt te kunnen. Zeker bij zaken als zware AA en AF in hoge resoluties (1280x1024 en 1600x1200) is meer geheugen op de videokaart wel degelijk nuttig, omdat de gerenderde textures ook groter worden.
Bij 4x-8x AA en 16x AF zul je in die resoluties wel degelijk performanceverschil zien naar mijn idee.

Ook kunnen gameproducenten hierop inspringen door in "Ultra High Quality" minder of misschien zelfs geen texturecompressie in te schakelen en zo de beeldkwaliteit te verhogen.

Gezien zowel nVidia als ATi deze stap nemen verwacht ik wel enige performanceverbetering, anders zou deze kaart nooit echt serieus genomen worden. De meeste mensen die zoiets kopen willen echt wel weten of er voldoende significant prestatieverschil is met goedkopere oplossingen...
Ik stel voor dat we de benches afwachten voordat we conclusies trekken ;)
Mijn idee; beetje overdone dit.
Doom3 highest quelity
Vergeet niet dat grotere LCD's resoluties van 1920x1200 en 2560x1600; Apple 30" Cinema Display.

Voor 1600x1200 en kleiner is 512mb dam mischien overdreven voor hogere resoluties op 23"-30" schermen kan het weldegelijk nut hebben.
Daar gaan je PCI x1 en x4 sloten.... jammer dat zulke beestjes tenkoste gaan deze sloten.
Met de moederborden van tegenwoordig heb je eigenlijk nauwelijks iets extra's nodig. Goed onboard geluid, raid adapter, GLan, Firewire.. :)
Leuk, in SLI 1 Gb geheugen en dan maar een kwart gebruiken/nodig hebben :? Leuke marketing truc maar de meeste mensen zullen er nog lang niks aan hebben.

Het zou pas interessant worden als je een deel van dat geheugen zou kunnen gebruiken als "shared werkgeheugen" dus via een tool ofzow een deel van het videogeheugen kunnen instellen als werkgeheugen. Dan kun je op het moment dat je het echt nodig hebt gebruiken als videogeheugen (gamen e.d.) en tijdens bijv. Photoshop als werkgeheugen.

Theoretisch lijkt me dit mogelijk want andersom kan wel al. Of het praktisch mogelijk is.....
Waarom moet het nou weer zo'n eeuwigheid duren voordat mensen er weer achter komen dat een SLI opstelling NOOIT voor meer geheugen kan zorgen!.
2x 512MB videokaart = 512MB videogeheugen, niet 1GIG.

Is dat nou zo moeilijk om te begrijpen?

Bijde kaarten hebben immers exact dezelfde geheugeninvulling nodig om het beeld te renderen. Als een spel dus 512MB aan geheugen nodig zou hebben worden bijde kaarten gevuld met data en is er niet ineens nog 512MB over voor andere dingen.

Dit was overigens met de Voodoo2's exact hetzelfde, daar spraken ook mensen van een 16MB of 24MB SLI opstellingen, terwijl dit gewoon 8MB of 12MB blijft. Soms dringt dat echt niet door bij mensen, zelf na jaaren en jaaren niet. Hoevaak het gezegd wordt maakt ook niet uit, want die gasten die zo blijven blaten hebben ook altijd last een leesstoornis geloof ik :P
Die mensen zijn de zelfde mensen die zeggen dat 4 x 100 watt boxen 400 watt is. je krijgt het niet aan hun verstand dat 4 x 100 4 x 100 is. ook de fabrikanten maken (moedwillig) deze fout
Lijkt me juist wel helpen, de ene kaart rendert slechts de helft en de andere kaart de rest. Allebei gebruiken ze geheugen.
Huh, daar kan ik ook even niet in meekomen. De ene kaart renderd het bovenste deel van het scherm, de andere het onderste deel. Dan hoeven ze toch enkel textures op te slaan van het deel dat ze renderen en hebben ze in verhouding minder ruimte nodig? Of bekijk ik het nu helemaal fout?
ik weet niet of je ervaring heb met mobo waar geen eigen videogeheugen op zit ... :r ??

Video geheugen is heel anders anders dan sytem geheugen....
zelf het goedkoopste losse vga is vaak sneller dan een redelijk vga chip met systeem geheugen...
brrr ,, vooral onder win98 was dat brak |:(
SLI?
Ik zie toch echt een AGP aansluiting hier op het plaatje. Vraag me af hoe je dat ding dan in SLI wil krijgen.

Maar ik neem aan dat ze op de PCI-Express versie doelen als ze het over SLI hebben. ;)
Als je je muis op het plaatje houd zie je dat dat een Gainward de CoolFX PowerPack! Ultra/2600 is. :)
En als je even het stukje leest:
Eind maart zou de PowerPack! Ultra verkrijgbaar moeten zijn, samen met een goedkopere versie die met traditionele koeling met een koperen heatsink werkt.
En die (goedkopere versie, zal wel de 2600 zijn dan) zou juist gekoelt worden, door een koperen heatsink, en niet door waterkoeling, dus ik snap het ook niet helemaal... ;)
De 2600 is de 256MB versie (met waterkoeling)
Dat is alleen maar mooi dat deze op de markt komen, want dat betekend dat de 256mb's goedkoper worden!!!! :)/
Misschien is het nog niet opgevallen met die euro's maar high(est)-end kaarten krijgen een steeds hoger introductie prijs(je) dus dat wil niet automatisch zeggen dat de voorgaande goedkoper wordt.
Dat is nogsteeds gelul, ik kan me nog goed herinneren dat de GeForce2 Ultra een introductie prijs had van 1600 gulden, en daar kun je nu makkelijk een 6800 Ultra voor krijgen, misschien zelfs de hierboven genoemde...
Wat ik NU al een groot nadeel vind zonder die kaart gezien te hebben is de waterkoeling; heel leuk, maar zit de pasta eronder wel een beetje normaal?
Heb aardig wat kaarten uitelkaar getrokken laatste paar weken en bij iedere kaart zat er OF teveel koelprut tussen, of alleen op een van de hoeken een klein drupje.
Ik hoop dat ze daar wat meer aandacht aan gaan besteden; mijn kaart was eerst idle en niet overgeklokt 59 graden, nu heb ik heel netjes Arctic Silver op de GPU gesmeerd (heeeel dun dus) en de koeler netjes erop terug gezet. Resultaat; idle: 42 graden, overgeklokt en stressed 55 - 60 (das een heel verschil).
Het is toch niet onmogelijk deze waterkoeler er af te halen? Als je daarvan dus zeker wilt zijn haal je dit waterkoelblok er gewoon af, en doe je er arctic silver tussen, wat ik trouwens zoiezo altijd doe. De standaard rommel haal ik er eigenlijk altijd tussenuit, en daarna AS5 ertussen.
Waanzig...512MB...

Het lijkt een beetje dezelfde kant op te gaan van de processor MHZ'en. Meer geheugen = beter.

Wat gaat zo'n kaart (in SLI !) aan stroom trekken. Even die 750 Watt voedig inbouwen.

Laat eerst eens aandacht besteed worden aan het energieverbruik...die koelers worden ook iedere 6 maanden 2x zo groot...
Met de omvang en de grote van de koelers valt het wel mee hoor. Kijk maar eens wat voor koeling de fx5800 had die was ook al zo groot als de stock koeling van een stock 6800ultra.

En ik denk dat het met het stroomverbruik niet erg veel boven een 6800 met 256 mb gaat zitten. Geheugen verbruikt wel wat energie maar niet zoveel als de core van zo'n kaart.

(Weet iemand eigenlijk hoeveel het geheugen uitmaakt van de totale energie verbruik op een videokaart ?)
So what? Dit is de top range kaart. Energieverbruik, grootte van koelers, ed spelen hier geen rol. Prestaties tellen. Er zijn genoeg zuinige en kleine kaarten als je er zo eentje zou willen. Een porsche verbuikt ook meer dan een lada.
Was het trouwens niet Gainward die zou stoppen met videokaarten? Of was dat alleen de 6600gt?

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*