Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 72 reacties

MSI zou nog twee nieuwe moederborden toevoegen aan de vier P55-moederborden die vorige week werden gepresenteerd. De opvallendste van de twee is de P55 'Big Bang', die een Hydra-chip van het bedrijft LucidLogix aan boord heeft.

De P55 Big Bang zou vrijwel identiek zijn aan MSI's high-end P55-GD80-moederbord, maar beschikt als extraatje over een Lucid Hydra-chip. Met de Hydra-technologie kunnen twee of meer videokaarten samenwerken zonder gebruik te maken van systemen als sli of Crossfire. Lucid claimt dat meerdere videokaarten bijna perfect schalen en het zou zelfs mogelijk zijn om een videokaart van Nvidia met een exemplaar van ATI te combineren. De chip neemt de load-balancing voor zijn rekening, nog voordat de drivers van ATI of Nvidia worden aangeroepen. Hierdoor zou sli- en Crossfire-ondersteuning op moederborden overbodig kunnen worden.

MSI Nederland wilde niet uitweiden over de G9P55-DC, maar gaf wel aan dat het bedrijf op een later tijdstip groots met het Big Bang-moederbord wil uitpakken. MSI lijkt de eerste fabrikant te worden die een moederbord met deze Hydra-chip uitbrengt. Wat de gevolgen zijn voor de performance van meerdere grafische kaarten zal nog moeten blijken, maar de claims van Lucid lijken bijna te mooi om waar te zijn.

MSI P55 Big Bang

Moderatie-faq Wijzig weergave

Reacties (72)

Ik ben even verder gaan zoeken, want dit moet iets anders zijn dan parallel tasking van twee GPU (daar heb je altijd twee dezelfde voor nodig), maar als Intel en MSI beslissen op zo'n chip op hun mobo's te plaatsen moet er wel iets speciaals mee zijn..

Qoute van Techgage:
Lucid's HYDRA Engine is fundamentally different from either of the extant solutions for GPU parallelism - SLI from NVIDIA, or Crossfire from AMD. Both SLI and Crossfire rely on split-frame or alternate-frame methods for dividing graphics tasks. While split-frame rendering can only divide up the actual task of pixel shading, requiring each of the arrayed GPUs to compute the complete set of geometry for the scene, alternate-frame rendering splits up the graphics tasks frame-by-frame.

.. bla bla.. volgend stukje

The Lucid Hydra Engine uses neither of the above approaches - instead, its algorithm evaluates the complexity of rendering tasks, and divides them evenly among video cards to achieve the best possible balance of loading between GPUs, allowing almost perfect scaling between any number of installed cards. That's right - any number. While CrossfireX and SLI are both inherently limited to four GPUs at this point, HYDRA Engine technology has no such limitation.

Source http://techgage.com/article/lucid_hydra_engine_multi-gpu_technology
Lucid homepage http://www.lucidlogix.com

P.s. Inderaad, Intel is ook bezig de Lucid Hydra op een Mobo te plakken (X58 Smackover II), of het ze gaat lukken is punt twee.
Zie http://www.theinquirer.net/inquirer/news/1050117/intel-puts-lucid-hydra-on-x58

[Reactie gewijzigd door rorydeleur op 12 augustus 2009 11:23]

Wel apart dat ze vervolgens op hun eigen site ook nog stellen dat HYDRA 4 GPU's support en dus niet unlimited.
Scalability
The HYDRA supports up to four GPUs so a user can choose the price and performance level of the graphics platform. The platform performance will improve in a linear proportion to the number of GPUs installed.
http://www.lucidlogix.com/technology/index.html
Dat moet dan wel een behoorlijk krachtige chip zijn als deze de load tussen twee verschillende videokaarten kan verdelen (bijvoorbeeld tussen een GTX285 en een HD4890). Ik vraag me echt ten zeerste af of dit wel serieus gaat werken. Maar mocht het inderdaad wél werken, dan zie ik voor multi GPU een rooskleurige toekomst. Zowel ATI als Nvidia hebben er dan namelijk een concurrent bij die een oplossing biedt die in feite oneindig veel flexibeler is dan zowel crossfire of SLI. Dat betekend dat ATI en Nvidia misschien weer eens wat meer gaan doen om multi GPU gebruiksvriendelijker en effectiever te maken.

Maar zoals wel vaker bij dit soort "schimmige"chips: eerst zien, dan geloven :)

[Reactie gewijzigd door rodie83 op 12 augustus 2009 10:40]

Ik geloof niet dat deze magic load balancer chip zou kunnen werken met 2 verschillende video kaarten, dit vanuit mijn eigen programmeer ervaring.

Als ik zelf shadercode schrijf om b.v. een lichtstraal door een volume uit te rekenen,
schrijf ik altijd aparte versies voor verschillende GPU kaarten, omdat elke GPU weer zijn eigen shader-profielen ondersteunt. Een NVIDIA GPU kan vaak enorm grote loops aan, en ATI kaarten ondersteunen vaak maar beperkte loop grote.

Dus voordat veel gebruikte dingen als shadercode niet zo ver zijn gestandariseerd dat willekeurige code op elke grafische kaart draait is dit niet mogelijk, helemaal niet met 2x performance...
Dat geldt niet alleen voor shaders, maar voor heel veel dingen (zoals backbuffer en depthbuffer formaten, e.d. - wordt leuk als je met nVidia hardware een door ATI gerenderde shadowmap moet samplen 8)7).

Dit nog even naast het feit dat twee plaatjes gerenderd door verschillende merken videokaarten niet pixel voor pixel overeen komen. Vooral anti-aliasing en anisotropic filtering technieken verschillen enorm. Als je dan de frames laat afwisselen per videokaart krijg je hoogstwaarschijnlijk een behoorlijk storend beeld.

[Reactie gewijzigd door .oisyn op 12 augustus 2009 11:09]

misschien dat de load balancer slim genoeg is om code die bedoeld is voor een AMD kaart, ook automatisch naar de AMD videokaart toe te sturen, en de Nvidia code naar de NVidia kaart. Maar ik denk dat dit meer in de trend gaat zijn van het ene pakketje gaat naar links, het andere naar rechts.

maar dan toch een sterk staaltje programmeerwerk, als ze de prestaties kunnen verhogen, zelfs als er twee verschillende merken videochips gebruikt worden.
Het heeft anders vrij lang geduurd (in computertijd) voor de chips op de markt zijn gekomen (dus ik neem aan gewoon goed getest) en we mogen dus aannemen dat MSI geen ongetest en onbruikbare chips op ee nmoederbotrd gaat zetten en dan ook nog van plan is er groots mee uit te pakken.

Nvidia & AMD zouden dus eventueel wel roet in het eten kunnen gooien door deze chips pertinent incompatible te maken in de drivers.

Ik meende dat de chips ook powersaving mogelijkheden hadden.

[Reactie gewijzigd door fevenhuis op 12 augustus 2009 10:48]

AMD bied crossfire min of meer gratis aan. dus het lijkt me sterk als die het zouden disableren.
Nvidia is een ander verhaal.
waarchijnlijk niet meer
SLI is nu ook bij andere borden vrijgegeven p55 en p57
http://www.fudzilla.com/content/view/15006/1/

en niet alleen fud bevestigd dit. (meerdere sites maar deze wist ik nog)
de vraag is of het nu dus ook op bijv een x38 p35 etc werkt maargoed

ik was eerst vooral blij met dit nieuws. (als het klopt )
dacht dat nvidia ineens een erg slimme zet had gemaakt.

maar ik denk nu eigenlijk dat Nvidia bang is,
anders hadden ze dit waarschijnlijk niet gedaan.
zeker niet gezien hoe dicht deze aankondiging en die bij elkaar liggen.

ps hydra werkt door per object te bepalen welke GPU wat rendert
en voegt ze and later zelf samen.

er was een presentatie van maar ik kan hem helaas niet vinden
wieweet zo voor een edit

edit
http://news.cnet.com/8301-17938_105-10021005-1.html

hier zie je hoe het werkt met UT3
de ene kaart rendert de vloer en de pilaren ( en nog wat spul)
de andere kaart doet andere delen.
en deze worden gecomposite door de chip

in principe is die taak niet erg zwaar.
gewoon een liniaire interpolatie gebaseerd op de Zbuffer (met hier en daar wat alpha's)

het knappe is load balancing wat hij per object doet.

maar als nvidia bang is }>
dan werkt het mischien wel echt :9

[Reactie gewijzigd door freaq op 12 augustus 2009 12:20]

Inderdaad de power van de 3870X2 interlink was al te weinig eigenlijk, bij de 4870X2 helemaal re-engineered en wel op orde zelfs nog met een reserve buffer voor geheugen uitwisseling.

Maar:

3Dmarks or it didn't happen ;)

Laat ze maar een beta resultaten posten:
4870 1GB + GTX260(216) 1GB

Sowieso vraag ik me af hoe dat gaat aflopen met 2 grafische drivers, in het verleden werkte dit gewoon NIET, vraag het me wel een beetje af want anders is een 9600GT een leuke PhysX kaart, heb toch een extra DVI uitgang nodig.
kan niet in vista/windows 7, probeer maar eens een nvidia & ati driver tegelijk te draaien: aint gonna happen ^^
Volgens mij gaat het juist wel in Windows 7.

Althans in de RC werkte dit toch heb ik gelezen.

Er staat nog een oud artikel op Anandtech:
http://www.anandtech.com/video/showdoc.aspx?i=3385&p=3

Volgens mij is het nogal onhaalbaar, en als het werkt gaat denk ik Nvidia of ATI er wel iets tegendoen...

[Reactie gewijzigd door aarondk1 op 12 augustus 2009 11:35]

Waarom zou men er iets tegen gaan doen?? Het enige wat de chip dus doet (veronderstelt dat het werkt) is kaarten, multi-vendor en multi-model laten samenwerken. Je hebt nog steeds ATI en NVidia nodig voor de kaarten zelf. Voor beide kan dit voordelig uitpakken. De klant kan namelijk ten alle tijde besluiten een NVidia kaart in zijn pc bij de ATI te zetten en andersom. Voor beide biedt het kansen. Veel mensen blijven huiverig voor crossfire en sli, je hebt gewoon geen garantie dat het gaat werken. Mijn laatste pc-build bleek er niet mee te werken terwijl alles crossfire ondersteunde. Als deze chip dat wel garandeert dan levert het alleen maar meer handel op voor beide.
In windows 7 kan je dat wel standart, ATI GFX + nVidia PhysX .

Kan ook in vista (had het al half werkend) door het nVidia gedeelte door de ATi driver te laten installeren. Was zelf ook bezig met zo'n Hybrid driver, het geeft idd op het moment nog wat problemen maar ik hoop binnen zeer korte tijd een werkende versie voor Vista te hebben.
Er staat dus in het artikel, dat het nog VOOR de drivers gebeurd. Dat wil zeggen dat de computer gewoon één superkaart 'ziet'.

(Met wellicht de drivers van Lucid? Iemand?)

[Reactie gewijzigd door Ch3cker op 12 augustus 2009 13:10]

De Hydra engine bevind zich tussen de chipset en meerdere GPU's en gedraagt zich als een verdeelstation binnen de GPU's om de taken evenredig over de gpu-chips te verdelen. De technology stuurt de GPUs aan door middel van schaalbare rendering van een bepaald image of scene, en is afhankelijk van “unieke adaptieve decompositie en acceleratie algorithmen om de bottlenecks op te heffen”. De Hydra engine combineerd een PCI Express 1.1. systeem-op-chip (Tensilica Diamond 212GP programmable general purpose processor) met exclusieve software technologieen welke de graphische verwerkingstaken load-balanceerd , om zodoende gelijke tot boven-gelijke performance te behalen met 2 of meerdere grafische kaarten.Volgens de fabrikant..
aan de foto te zien is deze chip rechtstreeks op de lanes van het pci-express slot aangesloten, waardoor de te verwerken load eers toekomt en dan pas moet worden verwerkt door de kaart/drivers. Aangezien de output ook nog naar 1 scherm moet worden gestuurd, lijkt het mij in elk geval een serieuze uitdaging, tenzij de outputs van elke grafische kaart terug naar de chip worden gestuurd (hetzij via het pci-express slot, hetzij via een doorluskabeltje
De chip is dan eigenlijk ook een PCI express heb met extra hardware voor het terughalen van de framebuffer, het combineren van de verschillende videodelen tot een geheel.

Wat betreft de load-balancing waar veel vraagtekens bij gezet word, volgens mij wordt dit gewoon relatief simpel gedaan. De videokaart krijgt de opdracht om één klein "blokje" van het volledige scherm te renderen (tile-based rendering), zodra de videokaart hier mee klaar is krijgt hij het volgende "blokje" als opdracht, op deze manier krijgt een videokaart de sneller is meer "blokjes" te verwerken.

Alsnog verwacht ik wel problemen vanwege het feit dat elk GPU model een net iets ander beeld levert. Dit verschil is vooral zichtbaar als je een AMD en nVidia gegenereerd beeld over elkaar heen legt. De twee combineren zou zichtbare effecten op kunnen leveren.

[Reactie gewijzigd door knirfie244 op 12 augustus 2009 11:51]

Op die manier zou ALLE data dus die ene chip moeten langskomen, je wilt natuurlijk 1 mooi geheel ! Dan wordt die chip dus evenwarm als de som van alle GPUs in dat systeem ? Hopelijk gaat het net iets anders...
Hoe kom je erbij dat het loadbalancen van die data net zo veel stroom kost als het verwerken van die data?
Zo te zien is dit ook een krachtige chip, er zitten namelijk twee gaten naast. Waarschijnlijk hoort er dus een koeler op de chip te zitten, en koeling is alleen nodig bij krachtige (energieslurpende) chips.
Die GPU oplossing zou super zijn. Denk echter dat Ati en Nvidia er niet blij mee zullen zijn.
Maar hoe ga je dat doen doen met Nvidia en Ati drivers tegelijk geinstalleerd ? Lijkt me eerlijk gezegt geen ideale combinatie en een potentieel gevaar op conflicten.
Die GPU oplossing zou super zijn. Denk echter dat Ati en Nvidia er niet blij mee zullen zijn.
Maar hoe ga je dat doen doen met Nvidia en Ati drivers tegelijk geinstalleerd ? Lijkt me eerlijk gezegt geen ideale combinatie en een potentieel gevaar op conflicten.
Helaas kan dit ding nooit werken zoals geadverteerd. Dat was dat geometry van hetzelfde frame naar verschillende GPU's gezonden worden en daarna tijdens een resolve stap tot een beeld gemaakt wordt.

Daar zijn verschillende problemen mee:
- de Lucid chip heeft geen kennis van de post-transform geometry. Ze moeten de data dus naar GPU's sturen zonder de bounding box te kennen. Hierdoor verlies je een belangrijke versneller van GPU's: Z rejection. Op een single GPU worden veel pixels niet gerenderd wegens overdraw detection. Dat wordt een stuk minder efficient als je split naar meerdere GPU's.
- je hebt nog steeds geen oplossing voor render-to-texture sharing. Dwz: een render target dat als texture gebruikt wordt moet nog steeds met de andere GPU uitgewisseld worden. Dat vraagt veel bandwidth op de GPU.
- op het einde van het renderen van een target heb je de Z informatie nodig voor de final resolve. Helaas is dat niet iets wat zomaar beschikbaar is. GPU's raden af om expliciet Z waarden te lezen. Maar de Lucid oplossing heeft geen andere keuze. Daarbij komt dat je ook geen samples (ipv pixels) kan lezen. Het is dus nog maar de vraagt hoe dat zal werken voor render targets die geen MSAA resolve hebben ondergaan. En het zorgt voor nog eens een additionele traffic op de PCIe bus.

Al bij al doet dit vermoeden dat hun oplossing niet sneller zal zijn dan gewone Crossfire/SLI. Je hebt dezelfde initiele problemen (geen uniform memory sharing) en er ook nog een aantal extra bij.

Niet al te veel hopen op een oplossing dus.
@ hierboven

ik citeer uit de tekst:
De chip neemt de load-balancing voor zijn rekening, nog voordat de drivers van ATI of Nvidia worden aangeroepen
met andere woorden de drivers komen nooit in rechtstreeks contact met elkaar.

[Reactie gewijzigd door pm1 op 12 augustus 2009 10:46]

maar beide drivers moeten wel installed zijn/worden ;-) gaat alleen nog op xp werken meerdere merken+meerdere drivers van diverse merken
in windows 7 werkt dit ook weer. Alleen in Vista was dit niet mogelijk ;)
Misschien doet die chip de drivers wel geloven dat de ati kaart een nvidia kaart is (of andersom) zodat je maar 1 driver nodig hebt.
Dat is onzin. Je kan een ATi kaart niet met een nV driver aansturen of andersom. Dat klinkt alsof je een netwerk kaart met een sounddriver gaat aansturen. De architecturen zijn te verschillend.

Aangezien je ook niet in Vista en Win7 tegelijkertijd een ATi en een nV kaart geinstalleerd kan hebben gaat imho het mixen tussen merken niet werken. (edit, win7 dus weer wel..)

Ander punt: features van kaarten. Stel je mixed een DX9 kaart met een DX10 kaart. Worden dan sommige objecten met shader model 3 gerenderd en andere met shader model 4? Of gaat alles met de lowest common denominator..

Meh. volgens mij is de chip leuk voor het mixen van verschillende kaarten met de zelfde basis architectuur maar niet voor de echte mix van bijvoorbeeld een HD3850 met een GF9600 ofzo..

Anyway, laat maar zien hoe het werkt.. ben benieuwd.

[Reactie gewijzigd door boesOne op 12 augustus 2009 14:57]

Daar heb je inderdaad een punt. Geschiedenis heeft ons geleerd dat hun driversets elkaar nog wel eens willen bijten. Tenzij er een website komt met een combi drivers etc. maar dan krijg je weer het probleem dat ze achterlopen met de drivers van de fabrikanten zelf.
If it looks too good to be true, it usually is.
In dit geval is dat nonsense: de methode die Lucid beschrijft is heel erg logisch, en ik heb er erg veel vertrouwen in dat het wel eens een groot succes zou kunnen worden!

Dit vertrouwen kreeg ik destijds (maanden geleden) toen ik deze artikelen las:

nieuws: 'Opvolger X58-moederbord maakt combineren videokaarten flexibeler'

nieuws: Lucid demonstreert flexibele multi-gpu-technologie

Het is erg fijn dat er nu daadwerkelijk borden gaan komen die de chip implementeren, en we kunnen wel eens heel erg positief verrast worden door de eerste resultaten!

Als dit een succes wordt, dan zou het ook erg mooi zijn als toekomstige versies van de chip het ook mogelijk maken dat ongebruikte GPU's uit worden geschakeld om stroom te besparen, en wellicht komen SLI en Crossfire dan in de problemen wat voortbestaan betreft.

Deze oplossing ligt veel dichter bij de bron van de beelddata, is transparanter dan SLI en Crossfire en waarschijnlijk komt er niet eens software bij kijken!

Games die momenteel geen SLI of Crossfire ondersteunen zouden met deze chip toch wel voordeel moeten hebben bij het combineren van kaarten.

Tjonge, wat wordt dit spannend!
In dit geval is dat nonsense: de methode die Lucid beschrijft is heel erg logisch, en ik heb er erg veel vertrouwen in dat het wel eens een groot succes zou kunnen worden!
Ja, het klinkt heel logisch, maar zo simpel als zij het beschrijven is het toch echt niet. Neem bijvoorbeeld de post-processing effects. Deze kunnen door de afhankelijkheid op voorgaande stappen over het algemeen niet verdeeld worden. Verder zal bij het samenvoegen de z-buffer nodig zijn. Ik weet uit ervaring dat berekeningen op een HD4850 net iets anders zijn dan bijvoorbeeld een 8800GT. Hierdoor zal de samenvoeging dus niet gegarandeerd goed gaan. Ik ben bang dat je toch echt wel moet opletten welke kaarten je op deze manier gaat combineren. En ik ben bang dat ook zij niet onder alle omstandigheden de snelheden 100% kunnen combineren.
Deze oplossing ligt veel dichter bij de bron van de beelddata, is transparanter dan SLI en Crossfire en waarschijnlijk komt er niet eens software bij kijken!
Transparanter gaat het zeker niet worden. Beelden of vlakken opdelen is vrij transparant. Allerhande berekeningen uitvoeren om te bepalen hoe iets verdeeld moet worden, is een stuk minder transparant.

Overigens nog een mooi voorbeeld van problemen is dat veel huidige render engines een early z pass gebruiken om eerst de z-buffer te vullen. Dit kan je niet over 2 kaarten verdelen, omdat de resultaten op beide kaarten aanwezig moeten zijn en er een kans is dat de z-waarden op verschillende kaarten niet exact gelijk zijn. Ook voor bijvoorbeeld stencil shadows heb je alle z-waarden nodig voordat je schaduw kan werpen. En elk afrondverschil leidt tot z-fighting.

[Reactie gewijzigd door jvo op 12 augustus 2009 14:23]

Wow, dat is een zeer gedegen reactie, thanks!

Ik zie nu in dat er dus veel meer problemen zijn waar het hoofd aan geboden moet worden wil de Lucid Hydra een succes worden.

Zouden ze over de punten die je noemt al nagedacht hebben??
Dat moet toch zeker wel?

Jouw reactie hoort naar mijn mening ook een +2 te krijgen! ;)
Overigens nog een mooi voorbeeld van problemen is dat veel huidige render engines een early z pass gebruiken om eerst de z-buffer te vullen. Dit kan je niet over 2 kaarten verdelen, omdat de resultaten op beide kaarten aanwezig moeten zijn en er een kans is dat de z-waarden op verschillende kaarten niet exact gelijk zijn. Ook voor bijvoorbeeld stencil shadows heb je alle z-waarden nodig voordat je schaduw kan werpen. En elk afrondverschil leidt tot z-fighting.
Volledig mee eens.

Zie ook mijn post hierboven. Niet alleen zijn er de Z problemen, er is eigenlijk geen enkel probleem van Crossfire/SLI dat NIET opgelost wordt. Je moet nog steeds render targets over de PCIe bus uitwisselen etc.
Dit zal voor fabrikanten ook het SLI licentie "probleem" oplossen.......

Tenzij hier ook zo'n licentie gebruikt moet worden.
Waarom? Een licentie kost geld en deze chip is ook niet gratis dus welk probleem is er? Je kan gewoon (naja ik niet :P maar intel bijv.) aankloppen bij nvidea en een licentie afnemenvan bijv. 100.000 euro en als je deze chip er op plakt terwijl die 10 euro kost (per stuk!). Dan hoef je maar 10.000 borden te verkopen en dan wordt nvidia's licentie al goedkoper als de chip en andersom (als je onder de 10.000 borden blijft).

(bedragen en andere nummers zijn fictief!)

[Reactie gewijzigd door watercoolertje op 12 augustus 2009 10:48]

Die Nvidia licentie betaal je ook gewoon per gekocht bord. Verder ben je beperkt tot een Nvidia chipset, of een beperkte greep uit het Intel assortiment in combinatie met een licentie. Alternatief is een Nforce100 bridge chip die niks toevoegt behalve extra warmteproduktie.
Als je sli wilt gebruiken moet je op het moment een nvidea chipset gebruiken of een bepaalde chip die nvidea maar al te graag levert voor een zeer mooie prijs *kuchekuche*.

Dus tenzij dat veranderd blijf je ook vaste kosten houden bij de productie van hybride borden zonder de hydra chip.
meer nog, ze moeten een chip van Lucid aankopen. In de aankoop van de chip zal natuurlijk de licentie zitten, maar ik vrees dat deze chip meer kost dan een SLI-licentie. (kan ook meer)
Denk dat dat wel mee valt, het moet ondanks dat ze zeggen dat het beter is/meer kan wel concureren met SLI en CF waarvan de 2de al gratis is en de eerste betaald (licenties)...
Je zult hier op zijn minst een extra chip voor moeten aanschaffen, en dat heeft ook impact op het moederbord ontwerp. De vraag is dus of deze kosten opwegen tegen de kosten van een SLI licentie.
Tenzij hier ook zo'n licentie gebruikt moet worden.
Je moet de chip inkopen he ;)
Ik ben benieuwd. Maar dan ga je je toch wel afvragen waarom twee grote bedrijven als ati en nvidia niet een performance x2 halen en hun wel.
Ten eerste het is een claim dus of het waar is valt af te wachten...

Ten 2de is dit hardwarematig terwijl het toch wel duidelijk is geworden (sli draait ook op niet sli borden) dat sli/cf softwarematig is. Daar kan het verschil al ontstaan... + dat dit op zeer low level gebeurd tegenover sli/cf die het met de drivers doen.
Ja dat begrijp ik, maar ati en nvidia hebben er juist belang bij om betere sli/cf performance te bieden dan de ander. Dan betaal je bv extra voor een sli bord en dan krijg je alsnog niet een performace x2 (als het waar is). Dus dat verbaasd je.

Maar het zal misschien wel komen doordat men sli en cf nooit samen op 1 moederbord wilde hebben en dit de concurrentiestrijd/innovatie heeft afgeremd. Goed dat er dan nu een derde speler bij komt die de knuppel in het hoenderhok gooit.
Ik gok een beetje, maar een deel van het antwoord kan zijn dat je voor SLI en Crossfire driver-ondersteuning nodig hebt terwijl dit een hardwarematige oplossing is. Een driver is een stukje software dat door je CPU wordt uitgevoerd en dat kan wel eens voor wat extra vertraging zorgen...
Het lijkt inderdaad te mooi om waar te zijn, en vooral omdat het buiten de drivers omwerkt, is het dan zo dat hij alleen met een bepaalde(huidige) serie kaarten zou kunnen werken? En gebonden is aan Ati/Nvidia? Hoe zit het als intel met een losse kaart komt, of S3, of XGI/SIS/PowerVR met een nieuwe type superkaart de hoek om komt zetten(niet waarschijnlijk)?
De oplossing is niet gemaakt om met ene bepaald merk te werken (of met meerdere bepaalde merken). Een kaart van andere fabrikanten zou je daarom evenzeer moeten kunnen gebruiken met deze techniek.

Wat ik me afvraag is hoe je je scherm nu aansluit: iedere kaart heeft maar een deel van het beeld gerenderd waardoor geen van beide framebuffers het hele beeld bevat. Is er dan een extra framebuffer ingebouwd in de chip en heeft het moederbord een extra video-aansluiting ofzo?!
Dat is vrij eenvoudig, een kaart rendert de ene helft en geeft dat door aan de framebuffer van de kaart met de monitoraansluiting die tevens de andere helft rendert, en die chip is dus een soort SLI-brug.
Dat blijkt toch niet zo te zijn gezien de chip (volgens de uitleg die hier elders reeds gequote werd) losse objecten (met diens texturen) dispatcht naar de ene kaart dan wel naar een andere kaart. Dat is dan net het verschil met SLI en CF die beiden de resolutie van het uiteindelijke beeld delen door het aantal kaarten en alle objecten en texturen naar alle kaarten sturen. Om de schaling te halen die ze beweren is het onmogelijk dat een kaart moet wachten op een ander: ik kan me dan ook niet meteen inbeelden dat één van de videokaarten de hele framebuffer verzamelt?!
Wat ik me afvraag is hoe hij de kaarten optimaal kan aansturen zonder drivers, je moet toch de kaart aanspreken op instructies zodat die optimaal draait, dus ze op 1 of andere manier herkennen, als ik nou 2 S3, een Nvidia en een Ati erin prop, wat maakt hij daar dan van?
Ik vermoed dat die chip zelf DirectX/OpenGL instructies kan ontvangen van die API's en die instructies kan interpreteren en dispatchen naar de verschillende gpu's. Die gpu's verwerken die instructies dan alsof die chip er niet was en vullen hun eigen framebuffer op met het resultaat. Die framebuffer moet dan op een of andere manier door de chip uitgelezen kunnen worden (in de framebuffer staat niets meer dan een bitmap van het beeld en dat is onafhankelijk van de fabrikant van de videokaart) en met de resultaten in de overige framebuffers gecombineerd worden om het uiteindelijke beeld te kunnen vormen (misschien in een eigen framebuffer) en dat door te sturen naar het scherm.

[Reactie gewijzigd door apa op 12 augustus 2009 22:27]

Dat is vrij eenvoudig, een kaart rendert de ene helft en geeft dat door aan de framebuffer van de kaart met de monitoraansluiting die tevens de andere helft rendert, en die chip is dus een soort SLI-brug.

Wat ik me afvraag is hoe hij de kaarten optimaal kan aansturen zonder drivers, je moet toch de kaart aanspreken op instructies zodat die optimaal draait, dus ze op 1 of andere manier herkennen, als ik nou 2 S3, een Nvidia en een Ati erin prop, wat maakt hij daar dan van?
@Madrox, Maikel_1976, Carnage

Ik schat in dat als je de lucid driver installeerd, er twee "virtuele videokaarten" bijkomen in het systeem. Voor deze kaarten installeer je gewoon de drivers zoals normaal. Je gebruikt de lucid videokaart, maar deze geeft de data via de drivers van de echte kaarten door. Op die manier zijn er meerdere drivers te installeren en zit je niet vast aan bepaalde merken.
Nou nee, het werkt net ff anders als ik het goed begrijp. Lucid verdeelt het werk over de verschillende kaarten, rekening houdend met de kracht van elke GPU. Ze komen met drie varianten van hun chip; eentje voor ATI kaarten, eentje voor Nvidia kaarten en eentje die beide "mixed".

Nu kan je dan wel verschillende modellen combineren en de meest exotische combi's maken; zoals ik het lees zal de kaart die DX10 functies heeft die een andere GPU niet heeft; al die berekeningen voor zijn kiezen krijgen. In hoeverre het dan nog profijt geeft; laat zich raden. Beste is natuurlijk videokaarten te gebruiken, die dezelfde DX-features ondersteunt.

Hoe ze dat werk dat verdeelt word over de kaarten, weer bij elkaar krijgen snap ik alleen nog niet. Tenslotte moet het er ergens weer compleet uitkomen.
Ik weet niet hoe het exact zit met SLI en de licentie enzo maar AMD/ATI biedt CFX toch zo goed als gratis aan? Ok, er gaan natuurlijk ook wat kosten in de drivers zitten enzo maar voor de rest is het toch juist positief voor AMD/ATI om gebruik te kunnen maken van deze chip (mits hij natuurlijk de beloftes waar maakt). Want zo wordt het interessanter om CFX (dat heet natuurlijk niet zo bij deze chip) te gebruiken en dus extra videokaarten te verkopen. En extra kaarten verkopen is natuurlijk altijd leuk. Ik kan me best voorstellen dat mensen op dit moment zich er niet aan wagen door driver ellende en de beperkte schaling van CFX. Dus ik betwijfel of AMD/ATI roet in het eten gaat gooien. Nvidia kan ik me wel voorstellen dat die het niet op prijs gaat stellen. Die doen nu al zo moeilijk over de SLI licentie.
Het probleem is niet de licentie. Laat ons eerst eens kijken of het technisch werkt.

Lucid is een Silicon Valley startup. In die beste traditie proberen ze zoveel mogelijk funding bij elkaar te krijgen (o.a. Intel Capital, gezien hun reputatie zo goed als een garantie dat Lucid zal falen, maar dit terzijde) door fantastische beloftes te maken.

Je kan een heleboel van hun claims gewoon doorprikken door even over de stappen va 3D rendering na te denken. (Zie mijn posting hierboven.)

We kunnen altijd hopen dat Lucid een magische oplossing gevonden heeft, maar geloof er op dit moment beter niet in.
Uhh ik lees anders op :

http://news.cnet.com/8301-17938_105-10021005-1.html

het volgende :
Also, just to be clear, you will not be able to use graphics cards from both Nvidia and ATI at the same time. This is because Windows does not support the use of two different graphics drivers while rendering a 3D application.
Dus er is helemaal geen sprake van ati en Nvidia mixen volgens mij. :?

Het verschil wat er volgens mij op dit moment met CF en SLi is dat dit echt een hardwarematige oplossing is en CF/SLi een softwarematige.

Laatste stukje toegevoegd

[Reactie gewijzigd door The-Priest-NL op 12 augustus 2009 23:57]

Verwarrend allemaal, dit lees ik ook.
What about the possibility of combining an AMD and NVIDIA GPU to work together to render one image? This was my biggest hope after hearing the initial introduction. Apparently it won't be happening though as the operating system prevents multiple graphics drivers from running 3D applications at the same time. Since a 6800 and 9800 use the same driver from NVIDIA, both may operate in 3D mode without a hassle but combining AMD and NVIDIA just won't work. Let's hope for the future...
Terwijl op de site van Lucid toch duidelijk vermeld word dat er ook een "mixed" PGU komt, die dat wel zou moeten kunnen :?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True