Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Submitter: deregtx

Chipontwerper Lucid heeft de tweede generatie van zijn Hydra-chip laten zien tijdens het Intel Developer Forum. De chip maakt het mogelijk verschillende generaties van ATI- en NVidia-kaarten onderling en met elkaar te combineren.

Hydra 200-chipLucid belooft al geruime tijd multi-gpu-opstellingen te vereenvoudigen met de Hydra. Deze chip moet het mogelijk maken grafische kaarten met elkaar te combineren. Anders dan ATI's CrossFire-techniek en Nvidia's sli-methode, waarbij vrijwel identieke videokaarten nodig zijn, belooft Lucid oude en nieuwe gpu's te kunnen combineren. Inmiddels heeft het bedrijf de tweede generatie van de chip, de Hydra 200, op het Intel Developer Forum gedemonstreerd.

De Hydra 200-chip zal in drie versies verkrijgbaar worden: de LT22012 krijgt de beschikking over 2x16 pci-e-lanes als 'ingang' en een x16 pci-express-uitgang. De LT22114 kan eveneens met twee gpu's overweg, maar doet dat via twee x8-lanen en een x8-uitgang. De LT24102 daarentegen kan met twee, drie of vier gpu's overweg via een of twee keer x16-pci-e-ingangen of een x16-ingang plus twee x8-lanen of vier x8-lanen. De uitgang is weer een x16-poort.

De Hydra200-chips worden op een 65nm-procedé geproduceerd en de SoC's hebben een tdp van slechts 6W. De Hydra's moeten op elk moederbord een plek kunnen krijgen, aangezien de footprint slechts ongeveer twee vierkante centimeter bedraagt. De Hydra 200-serie ondersteunt Windows Vista en Windows 7 en kan overweg met DX9-, -10 en in de toekomst ook -11-kaarten. De chips zijn voor moederbord-fabrikanten als samples beschikbaar. MSI zal de chip op zijn volgende maand te verschijnen 'Big Bang' P55-moederbord gebruiken.

Hydra 200-opstelling
Moderatie-faq Wijzig weergave

Reacties (55)

Dit is een hele mooie chip en hoop dat veel fabrikanten dit op hun moederborden zetten.
Op hardware.info was al te lezen dat de chips een aantal lanes beschikbaar stellen, bijvoorbeeld 2x 8 lanes of zelfs 2x16. Tevens is de chip in staat het standaard aantal lanes te verdubbellen :). Zo wordt trouwens ook de prijs berekent. de chip kost $2,50 per lane wat neerkomt op 74 dollar voor het topmodel. Ik ben best bereidt 70 euro meer voor een moederbord neer te leggen met zo'n chip :). eindelijk heb je dan nog iets aan je oude GPU en steek je hem gewoon naast je nieuwe erbij voor toch wat extra power :)

edit: Typo

[Reactie gewijzigd door NL-RaVeR op 24 september 2009 16:25]

Ben eigenlijk wel benieuwd dan hoe deze chip PhysX afhandelt.
Gewoon niet aankruisen? en dan via Nvidia driver voor PhysX aanwijzen
Niet.
Wat ik begrepen heb, is dat door die Hydra chip de videokaart word. Er zullen geen ATI of Nvidia drivers meer aan te pas komen. Dat is tevens de reden waarom LucidLogix een kans van slagen heeft, er is geen mogelijkheid om vanuit de ATI/Nvidia drivers die chip te blacklisten, want die drivers komen er helemaal niet op te staan.

Ik ben om die reden benieuwd hoe die chip het dan voorelkaar krijgt om dezelfde performance te krijgen (als hij dat uberhaupt al doet) als 'native' kaarten met hun eigen drivers.
De drivers zijn wel nodig.

Daarom kan een nVidia en AMD/ATi videokaart combinatie ook alleen via Windows 7 lopen, omdat dat OS als enigste in staat is om verschillende videokaart drivers tegelijk te draaien. Denk ook niet dat Vista daar een update voor gaat krijgen, tenzij het kan via de DirectX11 upgrade die aanstaande is voor Vista.

En buiten Hydra om, kan je daar dan ook gebruik van maken met een IGP+GPU combinatie. Ik heb zelf een GeForce 8100 moederbord om die reden, zodat de IGP de PhysX berekeningen kan doen in combinatie met een AMD/ATi videokaart.

Wat de Hydra chip doet is het opsplitsen in taken, in real-time kan het de stroom aan data bewerken wat een videokaart normaal doet. Het tekenen van de achtergrond staat bijvoorbeeld los van de karakters, en dat zijn dan ook taken die de Hydra dan kan opsplitsen tussen verschillende videokaarten om uiteindelijk aan het einde dan het beeld weer te combineren.

Voorbeeld:

Videokaart #1 rendert = http://www.pcper.com/images/reviews/607/screen1_big.jpg
Videokaart #2 rendert = http://www.pcper.com/images/reviews/607/screen2_big.jpg

Dit is puur een demo voorbeeld, want normaal zie je alleen het gecombineerde resultaat beeld, maar je kan dus duidelijk zien dat de taken opgesplitst worden door de Hydra chipset. Op die manier is het dan mogelijk om uit te zoeken welke kaart het beste is en het is dan zelfs mogelijk om een schaalvoordeel te verkijgen wat groter is dan de som.

SLi of CrossFire zullen nooit meer dan 200% behalen met 2 videokaarten, buiten het feit dat ze vaak moeite hebben om in de buurt van 200% te komen. Echter via Hydra is het theoretisch mogelijk om meer dan 200% te behalen, doordat met de juiste taakopsplitsing, een videokaart tot betere prestaties in staat is. Dit komt, omdat alle nieuwe GPUs ontzettend veel in parallel doen, maar dit vaak niet met optimale bezetting kunnen doen, omdat het aanbod aan taken verschilt. AnandTech laat dat redelijk zien via een grafiek op: http://www.anandtech.com/video/showdoc.aspx?i=3643&p=4 (onderaan). Als de Hydra chip de taken opsplits en alle blauwe taken door een AMD videokaart laat doen, omdat die daar zeer snel in is, maar alle rode/groene/oranje taken door een nVidia videokaart laat doen, omdat die daar sneller in is, dan kan het eindresultaat meer dan 200% worden, omdat beide kaart optimaal benut worden, wat anders niet mogelijk is.

Er is dan wel eventueel optimalisatie in het spel voor nodig, maar de huidige testen laten zeer mooie resultaten zien zonder enige optimalisatie door AMD/ATi, nVidia of de spel maker, dus puur op het analyserende vermogen van de Hydra chip en driver.
Ik heb ooit geloof ik een review gezien met 2 HD4850's die meer dan het dubbele scoorden in COD4 vergeleken met 1 HD4850..
Je ziet een aantal heel belangrijke details over het hoofd.

Werk over twee verschillende GPU's splitsen resulteert in het geval van object overdraw in een serieus efficientie verlies: GPU 1 heeft geen weet van de Z buffer van GPU 2, waardoor je in het geval van overdraw (heel courant) pixels zal renderen die je in een single GPU geval nooit moet renderen. Een Hydra systeem kan dat fundamenteel niet oplossen.

Ten twee is er nog steeds het probleem van render targets die als texture gebruikt worden: die moeten nu (net als bij SFR of soms AFR) over PCIe uitgewisseld worden. Een serieuze bottleneck.

Er zijn ook problemen op het geval van color en Z compression.

Tenslotte moeten twee beelden terug samengebracht worden, waardoor je Z buffer informatie moet uitwisselen, via PCIe. GPU's zijn daar niet efficient in.

Hydra is een prachtig verhaal, maar mijn geld staat nog steeds op de optie "het zal nooit echt goed werken."
Dus de hydra wordt in de ogen van Windows 7 de videokaart? Dat zou ik echt te gek vinden... Ik zit er nl. mee dat ik onder 3D Studio Max totaal geen baat heb bij SLI/Crossfire opstellingen of bijvoorbeeld een GTX295.
Als ik dadelijk mbv de LT24102 op één moederbord bijvoorbeeld 2x een GTX295 of 4x een GTX285 zou kunnen prikken en deze gecombineerd zou kunnen gebruiken voor realtime previews van mijn scenes i.p.v. te moeten sparen (ain't gonna happen) voor een Quadroplex van tigduizend euro dan ga ik daar wel van moeten lachen.
Kunnen ze het niet sneaky in de hardware inbouwen dan?
Lijkt mij een mooie ontwikkeling en kijk erg uit naar de eerste benchmarks met dat MSI board...

Vraag me af hoe het dan gaat met de physics... Met zo'n hydra zou je een ati en nvidia kunnen kombineren, maar kun je dan 1 de physics laten doen en de ander de grafics?

We zullen het zien als het eerste mobo er is... :)
Nee, zo werkt deze chip niet. De chip zorgt ervoor dat de load op je grafische kaarten evenredig wordt verdeeld, ongeacht welk type/merk gpu het is.

Dus als je een Nvidia 8800GT hebt een een Ati X800, dan zal de 8800GT zo'n 90% van het werk doen en de overige 10% komt voor rekening van de X800 (getallen verzonnen).

Dit heeft zover ik weet niks te maken met physics (correct me if im wrong).
Dacht nochtans dat als hij detecteerd dat een kaar physisc aan kan, hij die berekenigen dan ook door die kaart laat doen.
Zou mooi zijn als het die Physx load ook balanced over alle PhysX capable GPU.
Als dit een echte foothold gaat krijgen zorgt het wel voor een revolutie in de SLI/Crossfire markt! Wat ik alleen nog niet gelezen heb is of deze chip ook onboard graphics kan combineren met een willekeurige videokaart.

Opvallend gegeven wat ik nog niet had gelezen is overigens de lage TDP, erg netjes :Y
In principe moet je ook een onboard kaart kunnen gebruiken omdat die tegenwoordig ook via PCI-e zijn verbonden. Als je de onboard chip dus verbindt met die chip moet het kunnen.
Ik verwacht eerlijk gezegd van niet ..........

Zoals ik het verhaal lees, moet de Hydra chip tussen de grafische kaarten en een PCI-e lane in zitten om de kaarten gecombineerd te kunnen laten werken. Aangezien je onboard rechtstreeks op het MoBo zit en waarschijnlijk niet via die Hydra chip zal lopen gaat die vlieger hier niet op.

Als ze die Hydra er wel tussen zetten, zouden de chips met ondersteuning voor slechts 2 GPU's om kunnen niet meer dan 1 extra GPU aan kunnen. En je onboard GPU combineren met slechts 1 willekeurige andere GPU, lijkt me een enorme beperking.
Als je een mATX Bord hebt met maar 1 PCIe x16 slot is dit i-de-aal...
Als ze dan ook nog eens ondersteunen om je Slot kaart uit te schakelen kun je dan namelijk ontzettend veel stroom besparen... 2d modus... Alleen onboard, 3d modus alle geweld loslaten!!!

En of je nou een ATi onboard kaart hebt of een nVidia... je kan alles in je PCIe slot stouwen!
Nou ja.. als de fabrikant van het moederbord deze chip erop zet en op de juiste manier met de onboard graphics verbindt. Dat is niet iets wat 'je' achteraf kunt doen (zie ook CARman). Ik verwacht niet dat fabrikanten kosten gaan maken voor zo'n extra chip op een bord met onboard graphics; dergelijke borden zijn immers altijd de low end oplossingen die ze zo goedkoop mogelijk in de markt willen zetten.

Maar.. desondanks hoop ik dat thijs_cramer hierboven gelijk krijgt. Klinkt goed :D

[Reactie gewijzigd door Gwaihir op 24 september 2009 18:45]

De nieuwste Intel CPUs hebben de grafische chip gewoon in de CPU zitten. No way dat jij daar zo'n multi-gpu chip tussen gaat krijgen.
Ik heb gelezen over de hydra 100 dat het niet kan, maar misschien is er een kleine kans dat het wel kan met deze 200 versie.
Einde Crossfire en SLI monopolies.

Ik ben benieuwd hoe het met het stroomverbruik in idle zit en of onboard GPU's ook ondersteunt worden.

[Reactie gewijzigd door fevenhuis op 24 september 2009 16:24]

Lijkt me niet, lijkt me juist leuk als je veel PCI-e sloten hebt en zo'n hydra chip om dan juist kaarten in SLI/Crossfire te draaien zodat de Hydra chip ze als 1 GPU zien.
De LT24102 daarentegen kan met twee, drie of vier gpu's overweg via een of twee keer x16-pci-e-ingangen of een x16-ingang plus twee x8-lanen of vier x8-lanen. De uitgang is weer een x16-poort.
Dus dat je dan 4x2, 4x3 of 4x4 (GX2) GPU's aan kan spreken, nou weet ik niet of het al mogelijk is om 2x2 SLI/CF te draaien op 1 mobo dus met 2 setjes van 2 video kaarten maar er zijn nog wel ontwikkelingen mogelijk lijkt mij.
Het lijkt me onwaarschijnlijk dat je 4 x (g)x2 aan kan sturen, dat zijn dan 8 gpu's, ook al is het een kaart het blijven twee gpu's op een pcb.
Je moet het zien als een manier waarop je je kaarten kan combineren wat de kaart ook is, behalve minimaal dx9 capable.
maar, 2 9800GX2's kon je wel in sli zetten toen verder quad sli nog niet mogelijk was.
Hoe gaat dit dan driver-technisch in elkaar steken?
Een soort layer tussen windows en de grafische drivers?
Er komt inderdaad een tussenlaag die vervolgens beide drivers aanstuurt. Zelf heb ik hier weinig vertrouwen in. Ik denk dat deze driver nooit erg goed gaat werken en betwijfel of het wel snel en stabiel wordt. Ik zou lekker bij een GPU fabrikant blijven. Zowel ATI als Nvidia zijn met dit soort technieken voor hun eigen chips bezig en dat lijkt mij veel stabieler en beter.
Precies waardoor ik ook mijn twijfels heb. Als je ziet dat nvidia en ati steeds updates uit moeten brengen om een spel goed te laten werken met sli of crossfire, dan lijkt mij de kans erg klein dat zij het wondermiddel bedacht hebben waardoor verschillende kaarten samen werken en als je de verhalen gelooft nog efficienter ook...
En waar is versie 1 gebleven van deze chip? Is die uberhaupt op de markt gekomen?
Leuk dat ze steeds een sample laten zien maar als het "te mooi om waar te zijn" klinkt is dat helaas ook vaak.
Ik dacht even dat het een multicore product betrof. En waarom eigenlijk ook niet. Gaan ze de CPU-lijn achterna ;-)
je zou een ati radeon 4870X2 opzich ook multicore kunnen noemen, nvidia heeft ook van dit soorrt kaarten maar daar ben ik de naam even van kwijt :)
dan zou je eerder spreken van dual GPU en niet multicore waar er meerdere cores onder 1 dak zitten
2 Cores op 1 gpu valt toch onder de multicore naamgeving denk ik. in een dual core processor zijn het ook 2 cores op 1 cpu, zie ik weinig verschil in buiten dat het op een cpu allemaal dichter op elkaar zit. Tenminste, als het op 1 PCB zit. Als het 2 cores heeft met elk hun eigen PCB zoals de 9800gx2 heeft dan weet ik het ook niet meer :p
zit ook weinig verschil in. Bij de CPU's begon het ook met 2 aparte processors, maar toen de techniek verbeterde kon dat dus in 1 behuizing.
Nu is de techniek er dus, dus ik verwacht dat het niet lang duurt of ze voeren het in bij de grafische kaarten. Dual, quatro... het kan allemaal dus gewoon nog veel sneller!
9800 GX2 bijvoorbeeld ?
gtx295, 9800gx2, 7950x2
je vergeet er een paar maar die zullen de meeste van jullie niet kennen de 6800 en 6600gt x2 (heb ik zelf gehad.
verder, wat heeft het voor nut om een 9800 bij een 5780 te zetten?
Gaat dit werken onder VISTA met het WDDM driver model? WDDM 1.0 laat maar 1 driver toe op een VISTA systeem. Je kunt wel terug naar XPDM maar dan verlies je DX10 en AERO features.
Precies, een eindje hierboven maakte ik ookal een dergelijke opmerking. Ik volg ook even niet hoe ze dit willen oplossen. :?
2 verschillende ASIC's gaat gewoon niet werken in VISTA ivm driver model. Alleen met XPDM en het WIN7 driver model (WDMM 1.1) gaat het lukken.
Hoe wil men dit onder bijvoorbeeld Windows Vista gaan realiseren? Ik neem namelijk aan dat de specifieke drivers van de grafische kaarten ook gewoon geinstalleerd dienen te worden, zover mij bekend is kun je geen b.v. ATi en Nvidia drivers tegelijk in vista installeren. De laatst geinstalleerde driver/kaart wordt gewoon uitgeschakeld.

Zover mij bekend kun je onder Vista alleen meerdere VGA kaarten gebruiken als deze allen gebruik maken van de zelfde driver. Als er dus ook een te groot generatie verschil zit tussen bijvoorbeeld twee gebruikte ATi kaarten en de oudste wordt niet meer ondersteun door de drivers van de nieuwste kaart dan zal dit ook niet gaan werken.

Dit heeft verder niets met de hardware te maken maar met het driver model van Vista.

[Reactie gewijzigd door _Dune_ op 24 september 2009 17:37]

Maar je kan toch niet zomaar maar lanes maken? Althans, volgens een test van hardware.info bracht de NF200 chip alleen maar latency met zich mee met als resultaat dat de scores zelfs iets lager waren dan mobo's zonder die chip. Maar misschien is het wel helemaal niet met elkaar te vergelijken. Ik blijf het apart vinden dat je zomaar het aantal lanes kan verdubbelen.
Dit is een zeer mooie techniek als het werkt zoals het belooft te werken. Verschillende kaarten combineren :), alles wat je hebt liggen in je pc rammen en daarme een quad sli/crossfire setup te maken!
Moet het natuurlijk wel allemaal op je moederbord passen etc. :P
Maar zeker mooi dat dit kan.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True