Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties
Bron: HKEPC

Dat Gigabyte met een opvolger van de 3D1-videokaart zou uitbrengen was al een tijdje bekend, maar nu is deze voor het eerst op het web te bewonderen. De collega's van HKEPC wisten een productfoto te scoren van de met twee 6800GT-gpu's uitgeruste GV3D1-68GT. Op de kaart bevindt zich twee maal 256MB aan videogeheugen, 512MB in totaal dus. Gezegd wordt dat een score van 9500 in 3dMark05 en rond de 24.000 in 3dMark03 tot de mogelijkheden zouden horen. Opvallend is de grote heatsink. Ongetwijfeld zal de kaart binnenkort op Computex in Taipei (Taiwan) - gehouden van 31 mei tot en met 4 juni - te bewonderen zijn.

Gigabyte GV3D1-68GT
Moderatie-faq Wijzig weergave

Reacties (62)

Zou je zo iets ook in SLI kunnen steken?
4x 6800.. Dan kan je wel effe verder denk ik!
Als dat mogelijk zou zijn.
Dan zou dat in combinatie met de gigabyte mb die ondersteuning bied aan 4 video kaarten.

(Zie http://www.tweakers.net/nieuws/37474 )

Wel een hele fijne setup worden, behalve voor de portomonee.
:Y)

-Edit-
Helaas
-qoute-
Op het merkwaardige moederbord zouden tevens de dual-GPU kaarten van het bedrijf in SLI kunnen werken, maar in dat geval niet met vier tegelijk.
-qoute-
dit geval is ook zo dik als 3 videokaarten :Z
ja dus op dat nieuwe mb van gigabyte :)

2* dual 6800 of 4* single 6800
kan allebei, maar 4*dual 6800 (8*6800 dus) dat kan ie niet :)
Dit noemen ze nou extremisme :z
Wat heb je sowieso aan 4 6800's? Pak dan 4 X850's...
*patsen* FX-55 heb ik al, en SLI mobo ook (MSI K8N Diamond).... nu nog 2 van die kaarten ;) */patsen*

Zouden deze kaarten nu ook al op 'oudere' borden passen, of is dit meer een Gigabyte geintje waarbij je de 2 GPU's pas kunt gebruiken met een speciaal mobo dat dit soort kaarten ook ondersteunt.
Hmm, ik betwijfel of er genoeg ruimte is op dat Gigabite moederbord om 4 van deze joekels naast elkaar te laten werken. (of neemt dit beest geen 3 PCI ruimtes in?)
En dan het gewicht van dat zaakje is ook niet te zuinig denk ik.
Het lijkt wel of je hier 3 sloten voor kwijt bent aan ruimte om hem te kunnen plaatsen en ook de lengte van de kaart is vrij fors te noemen.
Het is niet een kaart die je zomaar in iedere computer kan stoppen naar mijn idee zonder eerst eens goed te kijken naar hoeveel ruimte je over hebt in je kast.
Nee, maar als je 2 6800GT of Ultra's in SLI hangt dan ben je 4 sloten kwijt...

Ik vraag me alleen af of een PCI-E 16x slot het gewicht van deze kaart kan houden. Ik heb ernaar gezocht maar nog niet gevonden, maar licht lijkt me dit kaartje absoluut niet te zijn, integendeel met zo'n koeler erop.
Tsja, ik kende wel al mini atx borden, maar als je dit soort spaceships in sli wilt gebruiken wordt het tijd voor maxi atx borden...
Dus met een mobo waar 2x zo'n kaart in past kan je dualscreen dual gpu draaien. I.c.m. dual dual-core cpu heb je dus een monster pc (met een monster verbruik)

Het lijkt wel bijna of dual dè oplossing is.
Lijkt?? dual IS de oplossing!
Hmmm.. ziet er strak uit maar wéér zie ik het fan-stroomdraadje gewoon tussen de koelribben uitkomen.

Zolang de fan((s)zie ik er maar één?) draaien is er hopelijk niks aan de hand, maar bij mijn Gigabyte Radeon (en anderen) 8500 Pro ging de fan stuk en smelte het draadje. In welke volgorde weet ik niet, denk dat het fannetje het koelblok niet goed genoeg koelde en de draad begon te smelten.

Iig vind ik het géén prettige gedachte, die draden zo.
Is 9500 punten in 3DMark 2005 niet hetzelfde wat ze ook met de 6600versie verwachtten?

Verder lijkt het me een geen fantastische kaart om te hebben, je hebt hier minimaal een big-tower voor nodig...

EDIT:
Zou je zo iets ook in SLI kunnen steken?
4x 6800.. Dan kan je wel effe verder denk ik!
nee, NVidia SLI ondersteunt 2 GPU's, tenzij je de Intel Edition erbij zet, zoals ze al eerder hebben geprobeerd

http://www.tweakers.net/nieuws/37474
Waarom bigtoweR? Neem aan dat het allemaal gewoon ATX/BTX is hoor
In mijn midi tower past die probleemloos.
Zelfs een Wildcat 4 heeft daar tot ik pci-e ben gaan gebruiken zonder problemen ingezeten.
Maar je hebt deels wel gelijk : een hoop fabrikanten van behuizingen houden geen rekening met een uit de kluiten gewassen videokaart. Laat staan met zo'n Wildcat.
Mijn behuizing is een TT Xaser III.
wat dacht je van waterkoeling, er is al een fabrikant die zijn kaart standaard uitrust met waterkoelingsmogelijkheid...
Idd : Gainward.
Ik hoop dat er op deze ook een blok als de Koolance VID-NV2-L06 past. Dan zou ik deze kaart wel in m'n kast willen.
ik denk niet dat die gaat passen want er zitten toch 2 GPU's op die pcb en dat blok is er voor toch maar 1?!
Ik zeg dan ook niet "dit blok" maar "een blok als dit".
desnoods of de CNC freesmachine zelf een massief koperen blok omvormen tot geschikte koelblok. Plexi afdekplaatje en klaar is kees.
:)ik heb de 3d1 met het bijbehorende mobo amd 3500+ en 1 gb geheugen en ik heb 3d mark 2003 van 14438, en een 2005 van 6892, en alle spellen kan ik op 1600x1200 spelen met alles open AA en heel de rest, en op dit mment heb je nog niet echt 512 mb nodig, beter 1/2 -1 jaar wachten tot prijs wat beter is en er spellen voor zijn.
Of je moet graag benchmarks draaien
Het blijft gewoon 256mb effectief aan geheugen.
Nogsteeds veel hoor, maar 512MB effectief lijkt mij vandaag de dag ook overkill, maar in dat geval zou er dus 1gig op moeten zitten. Onbetaalbaar dus.
Is dit wat we bereiken met vrije marktwerking ? Of gaan ze nu echt eens opnieuw naar de tekentafel om wat nieuws te maken ? Ik d8 dat het de bedoelng was om alles kleiner te maken, maar de GPU fabrikanten denken hier dus blijkbaar anders over, lekker voortborduren op oude concepten. Word een beetje moe van de oplossingen waar ze mee komen sinds de GeForce-2 serie. Steeds een beetje sneller, en we rekken het tot in het einde :r

Nvidia en ATI, terug naar de tekentafel, en nu eens met iets ECHT nieuws komen :( zoals op zijn minst dual cores of Cell achtige chipset's. Dit is om je te schamen !!!

Zou wel eens willen weten wat de belasting op het stroom netwerk wereldwijd is geworden na de intrede van de computer, en maar klagen dat het mileu vuiler word en de olie schaarser word, en dan te bedenken dat Amerika niet wil bijdragen aan het terugdringen van energie verbruik. Ach, tegen die tijd is de huidige generatie toch al dood, toch ? Leuk testament voor de volgende generatie's ;(
Word een beetje moe van de oplossingen waar ze mee komen sinds de GeForce-2 serie. Steeds een beetje sneller, en we rekken het tot in het einde

Dus je wil zeggen dat er sinds de invoering van de Geforce 2 niks vernieuwends meer gebracht is? Sorry, maar dat is gewoon lachwekkend.

Nvidia en ATI, terug naar de tekentafel, en nu eens met iets ECHT nieuws komen zoals op zijn minst dual cores of Cell achtige chipset's. Dit is om je te schamen !!!
Geef asjeblieft de goede mensen de schuld. Dit is niet nVidia's initiatief, maar dat van Gigabyte dat simpelweg de mogelijkheden van door andere bedachte techniek tot de bodem uitbuit. En dual cores? Bestaat al lang, in wezen is SLI niks anders. Op dual core niveau zijn videokaarten zelfs al veel verder dan CPU's. Die werken nog steeds met 1 pipeline terwijl de GPU's van de heren die blijkbaar niets innovatiefs weten te verzinnen 48 van die dingen naast elkaar weten te leggen.

En inderdaad, PC's slurpen stroom. Maar wat wou je er nou precies aan doen? Van elke energiezuinige chip is een chip te maken die betere prestaties levert. Ten koste van een groter vermogen. Zolang prestaties voor de consument belangrijker zijn dan stroomverbruik blijven we dus met dit soort videokaarten zitten. De innovatieve dual cores en Cell's van deze wereld zijn wat dat betreft trouwens ook geen lieverdjes hoor...
Wel kicke zo'n kaart :). Alleen jammer dat zo'n kaart niet longhorn ready is, wat waarschijnlijk de G70 wel zal zijn.
Vandaar dat ik dus deze kaart niet zal kopen (heb zelf een single geforce 6800GT momenteel) maar ik wacht tot de G70 te koop is (mits het echt waar is dat ie longhorn ready is) dan haal ik die wel.
WTF denken ze eigenlijk wel niet met 'longhorn ready'?!? Dus elke pummel die alleen maar een beetje tekst wil verwerken, maar wel een nieuwe operating system wil moet daar een videokaart uit het topsegment tegenover leggen? Echt van den zotte in mijn bescheiden opinie..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True