Kidde: je kunt zo'n fpga team niet betalen.
Er is geen budget voor wetenschappelijke software om die om te zetten naar FPGA's
Verder een ander probleem voor die fpga's is de bottleneck naar andere nodes toe. je hebt enorme bandbreedte nodigvan de ene node naar de andere.
Als jij een node bouwt die ineens 73x sneller is moet je ook 73x de bandbreedte hebben naar andere nodes.
Ook is het heel lastig om dus met een fpga dus een snelle vectorprocessor van tegenwoordig te verslaan.
Die hikken al bijna tegen de 3 Tflops double precision aan (niet verwarren met het nutteloze single precision).
Dat in een fpga halen is niet eenvoudig. Dan is er vervolgens het prijskaartje.
De snelste fpga herprogrammeerbare kaart van nu is dus van intel en 1.5 Ghz ofzo. Maar wat is de prijs daarvan? 100k dollar ofzo?
Tegen 1 Xeon Phi die is 2400 dollar (als je er maar 1 koopt).
Het is heel lastig om een fpga programma te bakken. Doe je dat in verilog of nog lower level taaltje?
Geen wetenschapper die dat taaltje kent natuurlijk. Die werken met recursies en dat soort zaken. Da's niet zo eenvoudig op fpga's. Dan moet je elk programma omzetten daarnaar.
Kortom, generieke hardware die werkt voor alle wetenschappers is veel handiger. De slag die gemaakt wordt nu richting gpgpu hardware is al een enorm grote.
Ik herinner me nog hoe we jaar of 10 geleden aan programmeren waren voor gpu's en dat we het maar niet voor elkaar kregen om hoge IPC te halen. Dus het ding kon 1 instructie per clock executen, maar de efficiency van de software programma's, zo tegen 2007, dan was 25% al heel wat op Nvidia hardware. Een Chinese wetenschapper postte dat zijn code op Nvidia ook 25% haalde maar op ATI haalde hij wel 50%.
Komt ineens een publicatie tijdje later van een Amerikaan. Of eigenlijk posting/lezing en pdf'je online. Volkov was de naam.
Ja 70% halen was GEEN PROBLEEM, als je de architectuur maar goed begreep.
Nu zijn we bijna 10 jaar verder. We begrijpen die architectuur een beetje. Wil je zeggen dat we nu weer OVERNIEUW moeten beginnen?
Ik draai hier aantal computers waar priemgetallen op gecrunched worden. Voor wat factorisatiecode is er wel wat gpu geweld, maar voor het harde FFT gebeuren (dat gebeurt daar in sommige velden met DWT's overigens - een specifieke FFT) dat werkt nog ontzettend inefficient bij de publieke code.
Lachwekkende efficiency halen ze uit die gpu's met de publiek bekende codes.
Nu zal dat vast, ook voor de publieke code, binnen paar jaar wel gefixed zijn. Echter, als je dat overzet richting fpga - dan zou je dus codes van de NSA moeten lenen om bepaalde problemen sneller door te rekenen.
Dan een volgend probleem is dat in toenemende mate vakgebied voor vakgebied dus geconfronteerd wordt met het harde feit, dat nieuwere algoritms ontdekt worden, die allemaal 1 ding gemeen hebben. Ze profiteren enorm van een beetje RAM. Dus het eerste beetje is enorm veel waard.
Op FPGA's is het heel lastig om RAM te stoppen die de fpga's kan bijhouden. Een persoon die goed is in RAM controllers te ontwerpen voor fpga's, die kan op dit moment al tonnen verdienen. Die ga je dus in Nederland NIET VINDEN. Gewoon NIET. In USA zitten er een paar en die verdienen nog meer dan de meeste quants in de financiele wereld verdienen.
Je vindt ze gewoon NIET.
Nu ben ikgeen expert op fpga's, maar simpele fpga code kan ik ook wel pennen. Maar hoe je die memory bandbreedte oplost en snelle access naar de RAM, dat is echt enorm probleem.
Dus fpga projectne die kunnen rivaliseren met een generieke supercomputer, reken op enige miljoenen euro's per project.