Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties

Videokaartfabrikant Galaxy heeft op Computex een videokaart met twee GF100-gpu's van Nvidia tentoongesteld. De Galaxy GeForce GTX 470 Dual is echter nog een prototype waarvan de kloksnelheden onbekend zijn.

Door het hoge verbruik en de hittevorming van de GF100-gpu op basis van de Fermi-architectuur was het de vraag of, en zo ja wanneer er een kaart met twee chips zou verschijnen. De variant van de GTX 465 die maandag verscheen, werd als meest logische kandidaat gezien, maar Galaxy probeert het nu toch met de gpu zoals die in de GTX 470 wordt gebruikt. De gpu van deze kaart heeft 448 streamprocessors, een geheugeninterface van 320bit en een tdp van 215W.

Het is onbekend of Galaxy de kloksnelheden van de chips heeft teruggeschroefd om de warmteontwikkeling en het verbruik binnen de perken te houden. Wel is uit de foto's van HotHardware duidelijk dat de kaart twee pci-e-connectors met acht pinnen en drie duallink-dvi-poorten heeft.

Galaxy Dual Core GTS250 Galaxy GTX 470 Dual Galaxy GTX 470 Dual Galaxy GTX 470 Dual Galaxy GTX 470 Dual
Moderatie-faq Wijzig weergave

Reacties (39)

3 DVI connectoren?

Heeft NVidia eindelijk een antwoord op ATI's EyeFinity?
Mijn nieuwe PC nog even uitstellen?
Zijn die 3 DVI connector niet gewoon mogelijk dankzij SLI ?
Duidelijke antwoord is er nog niet echt, maar er is wel iets vergelijkbaars:
2 Nvidia kaarten (of meer) in SLi kan je koppelen aan 3 beeldschermen en met Vision Surround krijg je hetzelfde effect als Eyefinity opstelling met 3 beeldschermen. (Dit is dus niet mogelijk met 1 Nvidia kaart, wat wel het geval bij ATi is.)

6 Beeldschermen ondersteuning ontbreekt echter nog bij Nvidia.

Natuurlijk heeft Nvidia daar weer iets op verzonnen om tegen te brengen: de 3D Vision technologie. Wie extra geld kan neerleggen voor 6 beeldschermen en Eyefinity editie kaart van ATi, kan ook de mogelijkheid bekijken met 3 beeldschermen en 3D bij Nvidia. Prijs verschil is niet zo groot als je die twee mogelijkheden vergelijkt, het is dus aan de consument om de keuze te maken.

PS: Nvidia heeft verder nog niks gemeld over 6 beeldschermen ondersteuning, maar ATi liet eerder dit jaar al los dat ze aan (openbaar) 3D technologie werken.

[Reactie gewijzigd door PetrPetrov op 2 juni 2010 23:44]

Kansloze bedoeling dit.. 1 GF100 chip trekt al veel te veel stroom voor z'n prestaties. Dit gaat geen gamer, ook niet de hardcore gasten, draaien om serieus mee te gamen. Dit trekt gewoon te asociaal veel stroom.
Ik heb het idee dat ze krampachtig kost wat het kost AMD willen voor blijven en dat ze zo tot dit soort debiele producten komen. Ze zouden eens moeten nadenken over een peformance per watt richtlijn oid.
Fabrikanten zoeken vanzelf wel een mogelijkheid om iets unieks uit te brengen waar de chipfabrikanten zelf niet mee komen. Een soort statement zou je het kunnen noemen, en Galaxy zou het niet aankondigen als ze vantevoren zouden weten dat het niet haalbaar is... Tot zover weten we niks, en kunnen we alleen speculeren.
Dat bepaal jij? Er zullen altijd uitzonderingen zijn tussen gamers, en die geven niet echt om een budget, maar zetten het liefst gewoon de rauwste performance neer.

En daarmee willen ze bij hun nV blijven, ook al weten de verstandige kopers dat ATI op het moment de beste keus is... Hardcore gamers zullen het echt wel kopen hoor ;) Al is het zoals freaq hieronder zegt voor de patsfactor :)

[Reactie gewijzigd door Fid3lity op 2 juni 2010 20:09]

dan nog haal je hiermee minder prestaties dan met 2x een goed geklockte gtx480.
dus dat gaat niet op.

deze kaart kan niet hoog geclocked worden.
valt buiten de specificaties van PCIe
is niet gemaakt door Nvidia (die snappen dat dit eigenlijk niet kan)

deze kaart is dus niet eens voor de persoon die de meeste performance wil.
hij heeft maar een target audience en dat is de patser,
en pats factor heeft deze kaart wel....

echter verkopen zal hij wel, (ondanks dat de prijs extreem zal zijn..)
en vergeet niet het is goede reclame voor galaxy,
net als de Mars en Ares dat zijn voor asus.

[Reactie gewijzigd door freaq op 2 juni 2010 18:53]

Het is een prototype. Misschien weet galaxy wel dat nVidia haar productlijn aan het verbeteren is en er via bv cherry picking zuiniger chips beschikbaar zijn of komen. Eerst maar eens zien wat het uiteindelijke product is voordat er conclusies getrokken worden.

De verwachting is natuurlijk wel dat de kaart extreem veel stroom gaat verbruiken, maar hoeveel precies en wat voor performance dat oplevert is een groot vraagteken.

Trouwens de kaart haalt waarschijnlijk gewoon de maximale hoeveelheid stroom van de PCIe connector af. Hoeveel stroom er vanuit andere bronnen komt zou voor de PCIe specificatie niet hoeven uitmaken.
Stroomverbruik/hitte boeien me niet eens heel erg, maar als ze nou ook niet eens tegen ATi opkunnen qua bang voor je euro word het wel een heel moeilijk verhaal. Nogal overdreven uitgedrukt is dat zoiets als een Mustang even duur in de markt zetten als een Porsche 911 omdat 'ie even veel vermogen heeft.
Als er aan de achterkant van de PCB geen geheugenchips zitten, dan heeft deze kaart 8 geheugenchips per GPU. Dat komt dan neer op een geheugenbus van slechts 256 bit met waarschijnlijk maar 2x 1GB geheugen, net als de GTX465.

performance wise zijn er mijns inziens 2 opties:
1) het wordt een snelle gtx465 (omdat het aantal cores verhoogd is tov een gtx465 in SLI)
2) het wordt een traaage gtx470 SLI (omdat de kloksnelheid verlaagd is tov een GTX470)

ik ga voor optie 2: volgens mij wordt de performance van deze kaart door de smalle geheugenbus nogal een tegenvaller... :(

[Reactie gewijzigd door Mr. Bean op 3 juni 2010 00:24]

ddr5 is ook bij nvidia aangekomen? dat zou iig moeten helpen..

[Reactie gewijzigd door AlexanderB op 3 juni 2010 01:35]

dus als ik even snel reken krijgt deze kaart een TDP van 430 watt !!!! kan aan mij liggen maar dat gaat echt nergens meer over!
"Om de kaart van voldoende stroom te voorzien is er voor elke GPU een 4+1 fase stroomvoorziening en zijn er twee achtpins PCI-Express stroomaansluitingen gebruikt. Samen met de 75 watt die de kaart uit het PCI-Express slot zou kunnen trekken geeft dat een maximale stroomtoevoer van 375 watt. " bron hw.info
conclusie: ze hebben aan de kloksnelheid/voltage geprutst.
2 GPU's op 1 PCB verbruiken uiteraard wel iets minder dan 2x 1 complete videokaart. Het is dus niet zeker of, en zo ja, hoeveel de kloksnelheden teruggeschroefd zullen zijn.
Het verschil zal marginaal zijn lijkt me. Je wilt namelijk dat beide GPU's hun eigen geheugen aan kunnen spreken, en liever ook dat de stroomtoevoer gescheiden is. Eigenlijk zijn het gewoon twee kaarten op 1 PCB, het stroomverbruik zal daardoor wel ietsje lager liggen, maar veel zal het niet zijn.
Jij maakt hier al ontwerpkeuzes. Waarom zou men de stroomtoevoer "moeten" scheiden. Het is misschien stabieler maar als een gecombineerde toevoer zuiniger is en je de kaart dus sneller kan maken is dat een afweging tussen stabiliteit en performance.
Dat, of ze hebben de klok flink teruggeschroeft. Wat de TDP betreft, ben bang dat dat alleen maar erger gaat worden; naarmate ze meer performance gaan leveren .
Iig zal er een fikse koeling op moeten.
Ik snap niet waarom dit naar -1 word gemod. Het is zowel ontopic als de mening van een gebruiker, wat is daar -1 aan?

OT:
het lijkt me een mooi kaartje, maar ik vrees het ergste voor het verbruik, zoals velen. Ik ben gelukkig al voorzien van een fatsoenlijke kaart :)
SLI is niet veel anders toch?
Met dat verschil dat je twee afzonderlijke kaarten in je systeem hebt hangen, met twee koelers en luchtstroom ertussen. Dat scheelt nogal in de afvoer van hitte.
Het eerste plaatje is een Galaxy GTS250 Dual Core?

Ik verwacht dat deze kaart qua prijs-prestatie slecht zal uitvallen, vooral omdat er redelijk wat aan geknutseld moet worden om het verbruik binnen de perken te houden, wat resulteert in lagere prestaties per core.
ik wil de cooler van dit ding wel eens zien...
Misschien zijn de gpu's cherry picked en icm met lagere spanningen en snelheden kan het misschien rond de 375 blijven. Maar ga maar er vanuit dat er een leuk prijskaartje gehanden wordt. Het handmatig kiezen van core's neemt extra kosten met zich mee en het ontwikkelen van een nieuw PCB ook. Aangezien deze kaart niet zoveel zullen worden verkocht, kunnen de ontwikkelingskosten onder minder producten worden uitgesmeerd. Denk dat de prijzen hoger te komen liggen dan 2x een gtx470. De Nvidia liefhebbers zullen het gewoon gaan kopen, hoewel het eigenlijk niet verantwoord is als je kijkt naar bang for bucks verhouding. Maar wat is veranwoord?? Bij elke persoon liggen de grenzen anders.
zo'n kaart zou ik zelf wel eens willen testen wat betreft warmte in mijn wc opstelling. Ik denk dat het wel zal meevallen dan.

Deze zou wel in mijn wenslijst komen mocht ie uitgebracht worden. Tenzij hij echt tegen valt voor bang for buck. Blijf een nederlander ;)

wc nadeel is wel dat de meeste zo niet alle fabrikanten van fullcover wc blokken uitgaan van ref pcb.
Dat is deze zeker niet. Ben je weer aangewezen op losse blokken (zoals deze )met heatsinkjes op geheugen en i/o chip. dat ooit gedaan op een oude nvidia kaart. (weet niet eens meer het nummer ervan) maar was niet zo'n suc6.

Edit: linkje geplaatst.

[Reactie gewijzigd door Kinnie op 2 juni 2010 23:56]

Het duurde echt tot de derde keer dat je de term 'wc' gebruikte voor het kwartje viel en ik me realiseerde dat je watercooling bedoelde en niet bezig was met een lange jokepost over het gebruiken van deze dingen om je badkamer te verwarmen
Ligt het aan mij of klopt het plaatje van de achterkant niet met die van de voorkant? Let op de SLI connector
dat plaatje van de achterkant is van een dual gts250 ipv de dual gtx470
even de muis boven het plaatje houden voor de naam.
Klopt, het eerste plaatje is een foto van EXPreview. Dwz, waarschijnlijk een foto / render die gemaakt is voor het uiteindelijke prototype, wat door de fabrikant nog is aangepast.
Gigantisch veel hitte komt hiervan af. Voor hitte is energie nodig, elektriciteit in dit geval. Waarom zouden ze de chips niet zů maken dat er nog meer energie naar performance gaan dan hitte.
Denk aan de gloeilamp, die zend licht uit omdat het wolfraam zo ontiegelijk heet wordt. Een spaarlamp daarin tegen omdat gasatomen opgenomen energie weer afstaan.
Maar, ik hoor jullie denken, een spaarlamp moet opstarten!? Nou, de computer toch ook? Wat heb je aan de full performance van je videokaart voordat je pc of je game is opgestart? :)

Ik ben bang dat dit soort ideeŽn met moeite werkelijkheid zullen worden. Maar wellicht mogelijk. :+
De wet van behoud van energie dicteert dat alle energie die je ergens instopt, er ook weer op de een of andere manier uit moet komen. 'Performance' is op zichzelf helaas geen vorm van energie hoe leuk ik het ook gevonden vind :P Beweging, geluid, licht en warmte zijn wel vormen van energie.

Stel er gaat 400W in een videokaart Deze 400W zal compleet worden omgezet in elk van deze 4 vormen. Een videokaart heeft slechts een bewegend onderdeel en dat is/zijn de fan(s). Als ik daar 10 Watt voor reken ben ik al heel erg ruim, maar het rekent zo lekker makkelijk..

Geluid maakt een videokaart niet, afgezien van een enkel piepend spoeltje ;) Licht? Misschien 2 a 3 LEDjes hier en daar met een totaalverbruik van nog geen 1Watt. LEDjes geven bijna geen warmte af dus dat reken ik niet meer, dat zit al bij de 1W in.

Een gedeelte van de input-energie blijft gewoon in stroomvorm zoals bijvoorbeeld het signaal naar je monitor of TV. Dit is echter ook verwaarloosbaar op het verbruik. De rest van de energie, in dit voorbeeld 389W wordt in zijn geheel omgezet in warmte.

99% van de energie die je in een videokaart stopt wordt omgezet in warmte.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True