Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties
Bron: Folding@Home

De mensen achter het Folding@Home-project hebben hun eerste client voor videokaarten gepresenteerd. In samenwerking met ATi is men erin geslaagd gebruik te maken van de rekenkracht van de Radeon X1900-gpu's. Folding@Home werd in 2000 opgestart en is een distributed-computingproject dat het 'vouwen' van prote´nes bestudeert om wetenschappers te helpen in hun strijd tegen ziektes als Alzheimer, Huntington en bepaalde vormen van kanker. Verwacht wordt dat de Folding@Home-client ook op de Cell-processor uit Sony's Playstation 3 gedraaid zal kunnen worden.

Folding@HomeVoor de goede werking van de gpu-client is de Catalyst-driverversie 6.5 benodigd. Versie 6.10 veroorzaakt vooralsnog problemen, terwijl versie 6.8 en 6.9 niet compatibel zijn. Versie 6.6 en 6.7 zijn wel werkbaar, maar veroorzaken een beduidende prestatievermindering. Versie 6.5 en 6.10 van de Catalyst-drivers zullen overigens de enige officieel ondersteunde versienummers zijn. Daarnaast is ook DirectX 9.0c nodig, meerbepaald voor het d3dx9_30.dll-bestand. Voor meer gegevens over de software, driverversies en installatieprocedures, evenals voor een downloadlocatie, kan men vanzelfsprekend in onze meuktracker terecht.

Er zijn vooralsnog geen gegevens beschikbaar, maar schattingen voorspellen twintig tot veertig keer snellere berekeningen dan met moderne cpu's. Dit is mogelijk omdat de pixel shaders, waarvan sommige kaarten over wel 48 stuks beschikken, ontworpen zijn voor precies het soort berekeningen dat voor Folding@Home nodig is. De onderzoekers werken dan ook hard om de client niet alleen op kaarten uit de X1900-reeks te laten werken, maar ook compatibel te maken met CrossFire-opstellingen en meer budgetvriendelijke videokaarten. DPC'ers met een nVidia-gpu moeten overigens nog niet meteen op een voor hun videokaart geschikte client rekenen. Om onduidelijke redenen slaagt men er daar immers nog niet in om interessante prestaties te behalen. Dit kan te wijten zijn aan kleine architecturele verschillen of simpelweg aan het feit dat ATi veel meer aandacht aan pixelshaders besteed heeft in de huidige gpu-generatie.

Moderatie-faq Wijzig weergave

Reacties (57)

Aangezien deze hardware van tegenwoordig erg veel energie vraagt, vind ik het best wel zonde deze energie 'weg te geven'! Stroom is tegenwoordig al zo duur!

Bijvoorbeeld de PS3 is in stand-by modus ook beschikbaar voor folding@home. Dus zelfs als dat ding uit staat zou hij energie vragen. Kunnen ze dus beter een vergoeding voor geven.

Dit is eigenlijk een ander soort 'doneren', misschien ben je in totaal nog wel meer kwijt dan de simpele collecte bus.
Een dual core CPU zuipt 100 watt als 2 cores aan het rekenen zijn...een X1900 zuipt meer.. 150 watt misschien..maar rekent 20x sneller...

You do the math ;)
In de vorige nieuwspost betreffende dit onderwerp werd gezegd dat de maximale stroomconsumptie van de X1900XTX bij het folden rond de 80W ligt. Dat is bijna de helft van jouw 150.
Bij het spelen van games kan een X1900 XTX 140-150 watt gebruiken. Maar bij het folden gebruik je vooral de pixel shaders en de vertex shaders doen dan niets. Dus kan best kloppen dat het dan minder is. Maar ding verbruikt wel veel ( heb er zelf 1 ) dus denk dat 80 watt wel kan maar het verbaast me niets als het meer is.

De cpu gebruikt geen 100 watt. Of je moet een FX 60 hebben. De meeste gebruiken Max 89 watt. En de nieuwere max 65. Meestal zitten ze daar onder.
Het klopt dat het doneren is, maar je geeft niet alleen de stroom, maar leent ook de hardware. Als je alleen euro's gaf, en ze moesten zelf processorkracht kopen, zouden ze heel wat duurder uit zijn.

Zelf zou ik wel liever deelnemen aan een project waar in ieder geval m'n stroomkosten vergoed werden.
in dat geval zijn de projecten beter af met het kopen van rekenkracht van supercomputers, hun onderzoek wordt daar sneller gedaan en ze hebben er veel meer controle over

het idee achter dit soort projecten dat je gelooft in het doel wat ze nastreven, als je dat niet hebt dan moet je er ook niet aan mee doen maar dat is een keuze die ieder voor zich moet maken.

Ik doe al enkele jaren mee met verschillende dc projecten waaronder ook folding@home en ik denk dat het ondersteunen van dergelijke kleine initiatieven best belangrijk kan zijn voor bepaalde doorbraken, dat is waarom ik mijn cpu-kracht (die over is) en wat stroom doneer aan een dergelijk project.

Ik denk maar zo:
sommigen geven geld aan het WNF,
ik geef cpu-cycles aan een kankeronderzoek....
Ik heb hier lange tijd aan meegedaan, maar sinds steeds meer virusscanners de client als een virus zien gaat de lol eraf. Uiteraard is dit niet zo'n probleem bij mijn eigen machine, maar wel bij andere machines waar ik hem destijds op mocht installeren.
Aangezien deze hardware van tegenwoordig erg veel energie vraagt, vind ik het best wel zonde deze energie 'weg te geven'! Stroom is tegenwoordig al zo duur!
Ik denk dat het duurder is van je stroom om als je niets / weinig aan het doen bent, de rest van je CPU-time niet te gebruiken... ;) Tegenwoordig zijn daar weliswaar systemen voor (EIST, CnQ) die dat beperken, maar dan betaal je statistisch gezien wel meer dan als je 100% CPU-load zou hebben... ;)
Zelf zou ik wel liever deelnemen aan een project waar in ieder geval m'n stroomkosten vergoed werden.
Dus jij draaid jouw PC speciaal voor Folding@Home? ;)
@GJ-tje
Die vergelijking gaat niet op, een processor gebruikt (ook zonder extra stroombesparende functies) bij een lagere belasting sowieso minder stroom dan bij volle belasting, waardoor het opschroeven van je gemiddelde processorbelasting over een gegeven tijd zorgt voor een hoge stroomverbruik -> hogere kosten.

De extra stroombesparende functies helpen je idle-tijd nog zuiniger te maken dus dan wordt het verschil tussen wel of niet een distributed computing client gebruiken nog groter in pure Ą's.
Dit klinkt een beetje als onzin, eerlijk gezegt.
Als je CnQ gebruikt betaal je statistisch gezien meer dan als je 100% CPU-load hebt? Misschien lees ik het verkeerd ofzo, maar dat gaat natuurlijk nergens over.

Buiten dat, zelfs zonder CnQ of de Intel tegenversie gebruikt je CPU in idle natuurlijk minder dan in full load, dat maakt echt nog wel een groot verschil.

edit: dit is een reply op Lekkere Kwal.
@Diavire
Ik weet niet wat je gelezen hebt, maar ik zeg dit:

Stel verbruik cpu in idle = x
Verbruik bij 100% belasting = x + p
Verbruik bij idle + CnQ (oid) = x - r
Verbruik bij 100% + CnQ = x + p (CnQ helpt niet).

GJ-tje beweert dat verbruik in idle zonder CnQ = verbruik bij 100% wat natuurlijk onzin is... Hij denkt alleen maar aan het wel/niet nuttig gebruiken van cpu cycles (en hun theoretische economische waarde) en niet aan de extra kosten door het grotere stroomverbruik.
word het misschien is tijd dat er een test word gedaan of je al dan niet meer stroom verbruikt als je de idle time van gpu/cpu in een programma steekt als foldin@home

wie heeft er een x1900 kaartje om is te probere :P
Kunnen ze dus beter een vergoeding voor geven.
Sorry?! Je vergoeding is dat je medicijnen kan kopen wanneer je Alzheimer hebt. Je vergoeding is dat je mensen helpt aan een beter leven. Je vergoeding is dat jij een goed gevoel hebt wanneer je een belangrijke ontdekking doet. Je vergoeding is een goed gevoel hebt omdat je goede dingen doet. Wil je dat ik nog doorga?

Je kritiek begrijp ik, maar je hecht meer waarde aan euro's dan aan de kwaliteit van mensenlevens. Dit project doet goede zaken met de medische wereld.

Als je een dergelijke ziekte krijgt waarbij dit project een oplossing heeft geboden dan zal je blij zijn, je zal nog blijer zijn als je er aan meegeholpen hebt maar je zal teleurgesteld(lees woedend) zijn wanneer je er achter komt dat het medicijn er niet is terwijl jij er wel voor had kunnen zorgen dat deze er was.
Helemaal mee eens, het is toch leuk om je redundante capaciteit in te zetten voor een hoger doel.

Ik heb zelfs overwogen een nieuwe CPU te nemen speciaal voor SETI terwijl ik hem niet nodig heb. En Folding@Home is toch een stuk concreter nog.

Op mijn volgende core2 duo + ATI x1900 ga ik lekker turbofolden en gamen natuurlijk :Y)
Ik ben het er wel een beetje mee eens. Het kost toch extra stroom...
Nu zou je dat bij kankeronderzoek kunnen rechtvaardigen, maar priemgetallen bijvoorbeeld zouden wat mij betreft toch best kunnen wachten totdat we snellere computers en andere soorten van stroom hebben.
Het wachten op snellere computers is natuurlijk een onzin argument. Waneer bepaal je of je computer snel genoeg is om aan het project mee te gaan doen? Dan kun je dus blijven wachten en nooit meedoen.
Wat mij eigenlijk verbaasd is dat iedereen het over een hoger stroomverbruik heeft, terwijl als je uitgaat van 20 keer sneller dit dus juist minder stroom kost om dezelfde berekening te maken in vergelijking met het draaien van F@H op je CPU. :?
Ik vind het eigenlijk wel een heel goed iets dat ze daar nu eindelijk gebruik van maken. En als je er problemen mee hebt dat je aan het "doneren" bent, dan vraag je dat toch weer vrolijk terug aan de belastingdienst.

Is het wel handig om een betrouwbaar log eraan te hangen die je kan overleggen als erom wordt gevraagd ;)
Handig zeg, alleen Catalyst 6.5 en 6.10... waarvan eigenlijk enkel 6.5 dus echt goed bruikbaar is.

Leuk als je nieuwe Catalysts nodig hebt ivm bepaalde fixes voor games enzo.
Gamen is er toch niet meer bij wanneer je de hele dag staat de "Folding@Home'-en.
...En catalist 6.10 nog niet is uitgebracht?!?

6.9 is net uit...
edit: en vandaag dus 6.10 beta :+
Ja maar het kan straks wel nuttige verbruikte energie worden als meer projecten ook GPU's mee laten rekenen en bijv Rosetta@home mee gaat doen, dan wordt de eniergie nuttig gebruikt in de zin dat het gebruikt wordt om ziekte te bestrijden. Dus is het een mooi begin, van iets wat best veel potentie heeft.
Folding@Home werd in 2000 opgestart en is een distributed-computingproject dat het 'vouwen' van prote´nes bestudeert im wetenschappers te helpen in hun strijd tegen ziektes als Alzheimer, Huntington en bepaalde vormen van kanker
Ook hier word de energie nuttig gebruikt, niet alleen als er een R@H poort komt, hoor...
Savantas heeft gelijk, er zijn bij Folding@Home zelfs al resultaten bekend, zie http://www.dutchpowercows.org/doc.php?id=410
Zeer nuttig dus!!
Dit kan te wijten zijn aan kleine architecturele verschillen of simpelweg aan het feit dat ATi veel meer aandacht aan pixelshaders besteed heeft in de huidige gpu-generatie.

Of gewoon omdat ATI genoeg gesponsord (betaald) heeft om te zorgen dat er geen aandacht aan de nvidia versie besteedt wordt..
ATi heeft met de lancering van de X1XXX serie duidelijk gemaakt dat ze veel aandacht hebben besteed aan snelle DX9.0c performance, waaronder snelle dynamic branching en thread-verwerking... Het is ook al uit tests als Shadermark gebleken dat ATi ook echt veel sneller is dan nvidia als het aankomt op dynamic branching... En laat dit nou net een techniek zijn die veel gebruikt wordt in CPU programma's.
Ik vind het dus niet zo gek dat ATi gebruikt wordt, nog naast het feit dat ze van plan zijn een compleet nieuwe lijn van kaarten op te zetten voor GPGPU.
is dit voordelig dan?
het maakt toch gebruik van de idle time van je pc? is de toevoeging van de kracht van de GPU aan die an de proc dan significant? of is het gewoon leuk en goed voor de pats?
Er zijn vooralsnog geen gegevens beschikbaar, maar schattingen voorspellen twintig tot veertig keer snellere berekeningen dan met moderne cpu's. Dit is mogelijk omdat de pixel shaders, waarvan sommige kaarten over wel 48 stuks beschikken, ontworpen zijn voor precies het soort berekeningen dat voor Folding@Home nodig is.
Lijkt me wel dat dit voordelig is. Kwa stroomverbruik natuurlijk niet, maar dat was het voor de CPU ook al niet. Een CPU verbruikt onder full load ook meer stroom dan Idle.
Ik weet niet hoe de preformance is. Maar als dit een echte gpu-client is, dan kun je dus 2 clients draaien.. Een cpu-client die je idle-time op je proc wegvreet en deze client die je videokaart aan het werk houd.

Edit : mm als tie echt 40x zo snel is dan zet je cputje natuurlijk ook niet meer zoveel zoden aan de dijk.

:)
het hele principe is alle beetjes helpen, dus waarom niet de cpu ook gebruiken?
Omdat de GPU niet alles kan afwerken, maar alleen "hapklare" brokken doet. Deze brokken worden door de CPU aangeleverd.

Wanneer je nu in idle-time andere dingen gaat doen, moet de processor steeds omschakelen. En dat kost ook weer tijd. Het gaat er maar om hoe vaak de processor nodig is om de GPU gevoed te houden.

Als door het draaien van een extra folding procesje op de CPU de GPU versie 2,5% vertraagt, ben je de hele winst al kwijt (uitgaande dat de GPU versie 40x zo snel is).
Je moet wel bijdenken dat de CPU enkel de idle cycles gaat gebruiken om een eigen folding procesje te vervolledigen. Dus de tijd die moet worden gespendeerd aan het voeden van de GPU met folding data zal dus worden herkend door de het dedicated CPU folding proces als een taak met hogere prioriteit zodat het GPU folding proces geen tijdverspilling meemaakt.
tenzij je een quad core conroe of opteron hebt natuurlijk ^_^

6 koetjes :9
je beseft waarschijnlijk niet helemaal dat een recente GPU als een 48-core CPU gezien kan worden, ga toch fietsen met je quad core!
De kloksnelheid van die quad-core is wel vier maal hoger ook. Maakt het uiteindelijke verschil maar drie maal theoretisch hogere prestaties voor de GPU. Reken daarbij dat latenties op de GPU tot duizend maal hoger liggen, en de communicatie over PCI-Express heel wat trager is dan tussen CPU-cores, en het is al niet zomaar meer te zeggen wat in praktijk het snelste is.
Ik vraag me ook af hoe de preformance pre watt is ten opzichte van die bij een CPU.
stukken beter
zelfs als het verbruik 3 keer hoger is als dat van je CPU (en waarschijnlijk is het minder) dan nog houd je met minimaal 20 keer betere prestaties nog een hele goede preformance per watt over.
Ik denk dat de cpu het al zwaar genoeg heefdt met de gpu aan het werk houden :-)
In het persbericht op de site van ATi wordt een X1900 XT vergeleken met een Pentium 4 2,8GHz.
(2) Based on Stanford University's testing that compares work unit processing on an Intel« Pentium« 4 2.8 GHz processor vs. similar processing being conducted on a Radeon X1900 XT.
Dus tegenover een Core 2 Quad zal dit geen 40x sneller zijn. Waarschijnlijk is een overgeklokte 3,73GHz Core 2 Quad zelfs sneller dan een Radeon X1900 GT.. ;)

Zijn er overigens al benchmarks gepubliceerd? Ik ben wel erg benieuwd.
Nee dus, het is appels met peren vergelijken...
CPU en GPU zijn verschillend in architectuur en werking.
CPU is een algemene processor die voor verschillende dingen kan worden ingezet.
Een GPU is geoptimaliseerd voor grafiisch werk (pixels, schaduwen, behang over 3d vormen plakken en belichting etc). Daar voor heeft het gespecialiseerde onderdelen bijvoorbeeld pixelshaders. Met deze speciale onderdelen kan een GPU bepaalde actie zeer snel en efficient uitvoeren. De CPU zou die taken ook kunnen uitvoeren, maar veel trager (bezit immers niet die geoptimaliseerde hardware), dit verschil merk je dus met spelletjes.

Nu is het toevallig zo dat de berekeningen van folding@home veel lijkt op de berekeningen die nodig zijn voor grafische plaatjes. Dus deze GPU heeft dus geoptimaliseerde hardware voor de folding @home.

Even een fictief voorbeeld:
De ATi GPU zal dus per processor tik 48 berekeningen tegelijk kunnen uitvoeren. En de Intel Core 2 Duo zal er maar 2 tegelijk kunnen doen en er ook nog eens 20 tikken over doen. Ok de intel tikt dan iets sneller als de Ati. Maar de berekeningen zijn met de Ati wel sneller klaar.
De ATi GPU zal dus per processor tik 48 berekeningen tegelijk kunnen uitvoeren. En de Intel Core 2 Duo zal er maar 2 tegelijk kunnen doen en er ook nog eens 20 tikken over doen.
Die CPU doet er maar ÚÚn kloktik over om een nieuwe instructie te starten hoor. Sterker nog, afhankelijke instructies kunnen op een GPU tot duizend keer langer duren dan op een CPU. Pas na zeer veel dezelfde bewerkingen kan een andere bewerking gestart worden. Bij een CPU kan dat iedere kloktik (of zelfs meerdere per kloktik), en is de latentie slechts enkele kloktiks. Die wordt opgevangen door out-of-order uitvoering, iets wat de GPU ook niet kan.

Het blijft dus appelen en peren vergelijken.
Dit is mogelijk omdat de pixel shaders, waarvan sommige kaarten over wel 48 stuks beschikken, ontworpen zijn voor precies het soort berekeningen dat voor Folding@Home nodig is.
Een normale wagen rijdt ook harder door de bebouwde kom dan een F1 wagen(er vanuit gaan dat er net zoveel drempels liggen als bij mij in de wijk), dit omdat de normale wagen hiervoor ontworpen is en de F1 wagen niet.
Een GPU is een processor met een zeer specifiek doel, hierin zal hij dus kunnen uitblinken.
Je stelt dus indirect dat een 3,73GHz Core 2 Quad waarschijnlijk meer dan 40x zo snel is als een P4 Northwood 2.8GHz?

Dit moet ik zien.
Kan iemand me simpel uitleggen waarom we die ATI gpu's nu nog niet kunnen gebruiken voor Photoshop filters te berekenen of Lightwave/3dsmax... ?
Omdat het dan alleen op die-en-die-videokaart met die-en-die-driver en die-en-die-directx-versie werkt. Videokaartfabrikanten hebben er (nog) gewoon geen API voor gemaakt.
Photoshop moet technisch gezien lukken, maar men vertrouwt liever op overal werkende code dan op mogelijks instabiele grafische drivers. Bovendien worden bij grafische kaarten vaak afrondingen gebruikt die bij het herhaaldelijk toepassen van filters merkbare afwijkingen gaan veroorzaken. Ook is het niet echt aanlokkelijk als het resultaat van kaart tot kaart kan verschillen.

Lightwave en 3D Studio MAX maken gebruik van ray-tracing, dat niet zomaar door een standaard grafische kaart kan gedaan worden. NVIDIA ondersteunt wel het een en ander via hun Sorbetto product...
Ik heb de GPU client gisteren geinstalleerd met de DX9 update en de 6.10 beta van ati, maar hij gebruikt nog steeds een van mijn cores voor 100%. In de FAQ staat dat het LIJKT dat hij CPU cycles gebruikt , maar dat dat niet zo is, maar die core produceert 0,0 D2OL blokjes meer, dus die wordt wel degelijk gebruitk, doe ik iets verkeerd?
Ja... je moet versie 6.5 gebruiken ;).
voor mensen zoals ik die geen centrale verwarming maar wel een x1900xt hebben is dit een idiaale oplossing :+

ot:
waarom gebruikt hij bij mij ook 50% van me cpu?
waarom gebruikt hij bij mij ook 50% van me cpu?
Omdat er nog een hele boel berekeningen zijn waar de GPU niet voor geschikt is (en nooit zal zijn)?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True