Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties
Submitter: aliencowfarm

Het Open Graphics Project heeft aangekondigd pre-orders aan te nemen voor zijn opensource-videokaart. Wanneer honderd kaarten in bestelling staan, kan de productie beginnen.

Ontwikkelaars kunnen voor vijftienhonderd dollar een exemplaar van de OGD1 bemachtigen, mits er voldoende animo is voor de pci-videokaart. De specificaties van de kaart zijn, naar huidige standaarden, vrij mager, maar de OGD1 is dan ook vooral bedoeld om ervaring op te doen met het programmeren van grafische kaarten middels een fpga-chip. De kaart is uitgerust met twee dvi-connectors en beschikt over 256MB geheugen dat op 200MHz loopt. De volledige specificatie van de hardware is beschikbaar als download.

Het hart van de kaart wordt gevormd door een Xilinx Spartan-3 XC3S4000 fpga. Deze chip kan naar behoefte geprogrammeerd worden om specifieke taken uit te voeren, zoals het decoderen van video. Een van de voordelen van een opensource-ontwerp is dat het ontwikkelen van drivers makkelijker zou gaan. De fabrikanten van reguliere grafische kaarten zijn in het verleden bijzonder karig met het vrijgeven van details van hun kaarten geweest, wat de ontwikkeling van drivers voor Linux bemoeilijkte. Ook zou de kaart dankzij de herprogrammeerbare gpu gebruikt kunnen worden in systemen waarop de mainstream-kaarten niet draaien.

OGD1
Moderatie-faq Wijzig weergave

Reacties (77)

Vind het wel grappig om te lezen dat er berichten tussen staan met: Leuk hoor zo'n hobby project; of dat het achterhaald is. Er is genoeg te zeggen om deze reacties te steunen maar ik vind het vooral erg kortzichtig. Was het niet ongeveer dezelfde reactie toen Linux op kwam? Het kan niet op tegen 'de' bedrijven die miljarden investeren in ontwikkeling?

Nee het is niet direct iets dat iedere gemiddelde nederland thuis wil hebben, maar als open source ontwikkeling 1 ding wel heeft aangetoont is dat het enorm creatief is. Wie weet wat voor slimme trucen ze bedenken, uitvinden en straks met de helft van de specs het zelfde doen als hudige kaarten nu? Onmogelijk? Dacht het niet; het is maar net hoe je de kaart programmert.

Het zou natuurlijk bijzonder gaaf zijn; als deze constructies ingebouwd worden:

cp GTA4_optimized_vhdl.bit /dev/video0

Iets wat nu in software veel gebeurt. (if(ati) { dit } else {dat}

Of stel een gimp plugin die bepaalde gedeeltes van de video kaart configged om super snel jpeg2000 wave-lets te berekenen of 'normale' DCT bij gewone jpeg. Of een stuk hardware mpeg encoder in je video kaart rammen op het moment dat het nodig is. Kortom, performace winst is zeker snel te halen. Of wat nu als compiz wat 'hdl' features wil gebruiken om nog beter te worden. Zoveel mogelijk! En ja 1500 is duur, maar ooit een FPGA kaart gezien die deze specs heeft die goedkoper is?

[Reactie gewijzigd door Gila op 22 mei 2008 15:23]

Vind het wel grappig om te lezen dat er berichten tussen staan met: Leuk hoor zo'n hobby project; of dat het achterhaald is. Er is genoeg te zeggen om deze reacties te steunen maar ik vind het vooral erg kortzichtig.
Het is niet kortzichtig, het is realistisch. Ik heb nog voor NVIDIA gewerkt en ik kan je verzekeren dat ze nu reeds bezig zijn met extreem flexibele hardware die dit project totaal overbodig maakt. Kijk ook naar Intel's Larrabee project, die met x86 code programmeerbaar is en de driver kan dus even open source als elk ander stuk software.
Het zou natuurlijk bijzonder gaaf zijn; als deze constructies ingebouwd worden:

cp GTA4_optimized_vhdl.bit /dev/video0

Iets wat nu in software veel gebeurt. (if(ati) { dit } else {dat}
Wat ben jij briljant. Wel spijtig dat tegen dat OGP GTA4 behoorlijk ondersteunt GTA7 al uit zal zijn...

Men heeft dit project hopeloos onderschat. In 2005 had zoals beloofd de hardware al af moeten zijn, en de berg software die nog geschreven moet worden is gewoon niet te overzien.
Al konden de mensen die van dit project veel geleerd hebben alleen al bij NVIDIA aan de slag om de flexibele projecten verder uit te werken dan is dit project al meer dan zijn tijd/inzet waard.
Videokaart? Al de reacties die ik hier lees, hebben het feitelijk over een videokaart. Dat is niet nodig, gezien het een herconfigureerbaar IC is. Ik kan me er wel iets nuttigs bij voorstellen, zodra de eerste configuraties ervoor geschreven zijn.

In eerste instantie natuurlijk een video kaart, waar het ontwerp van reguliere kaarten op te tunen is, beetje een pilot plant idee, tussen de tekentafel en het feitelijke opschalen. Daarop zijn er goochemerts die er een linux fileserver op plakken.

En dan komen de echt nuttige dingen; specifieke coprocessoren, die veel gebruikte berekeningen voor de cpu uit kunnen gaan voeren. Stel je gaat een simulatie van 't een of ander draaien met veel goniometrie, laad je de specifieke configuratie daartoe in. En zo zijn er nog wel meer specifieke tunes te bedenken.

Meer bekendheid van FPGA leid er uiteindleijk (wie weet) toe tot op 't mobo geintegreerde fpga's. Ieder programma kan dan rekenen op specifiek toegesneden ondersteuning. Mischien zelfs on-the-fly herconfiguratie na gelang dhet gebruik van de software.

Natuurlijk zijn momenteel de snelheden lager dan bij reguliere cpu's, er gaat ook een stuk miner geld in om. Ook al blijft de snelheid achter, de mogelijkheid tot forse parallelisatie voor een zeer specifeke functie bied zeker mogelijkheden.

FPGA's zullen niet de centrale PU worden, maar een prominente periferie aanwezigheid is (mits ontwikkelaars ervaring met dit product hebben) zeker een mogelijkheid voor de toekomst.
Ik kan me voorstellen dat ze willen besparen, maar om nu slechts 200mhz geheugen te gebruiken? Ik bedoel, hoeveel kost bijv. 800mhz geheugen nou?
Verder, PCI (zo te zien zelfs 64bit...)? Ik zou op zn minst PCI-E toevoegen, of zijn de licentie kosten zo hoog?

Verder vind ik wel dat deze kaart bestaansrecht heeft, drivers zijn een reden, maar ik denk ook dat je allerlei specifieke calculaties flink kan versnellen met zon zelf geprogrammeerde "GPU".
Ook kan je veel leuke academische onderzoeken doen naar toepassings gebieden en mogelijkheden. En dan is die 1500$ ineens niet zo hoog :)

edit: foutje

[Reactie gewijzigd door XanderDrake op 22 mei 2008 14:49]

Ik kan me voorstellen dat ze willen besparen, maar om nu slechts 200mhz geheugen te gebruiken? Ik bedoel, hoeveel kost bijv. 800mhz geheugen nou?
Het is niet enkel de ruwe materiaalkost die telt. 800 MHz geheugen heeft veel strictere specificaties qua PCB-ontwerp. De R&D-investering is veel te groot. Bovendien denk ik niet dat de FPGA met 800 MHz overweg kan (die klokt zelf maar op 200 MHz of zo).
Verder vind ik wel dat deze kaart bestaansrecht heeft, drivers zijn een reden...
Men is het project gestart omwille van de relatief vele bugs in grafische drivers. Maar intussen is de situatie al sterk verbeterd. Bovendien staan ze zelf praktisch nergens qua support voor OpenGL en dergelijke. Ze hebben nog hopeloos veel in te halen voor ze hun doel bereiken (betere Linux drivers leveren dan de grote bedrijven).
...maar ik denk ook dat je allerlei specifieke calculaties flink kan versnellen met zon zelf geprogrammeerde "GPU". Ook kan je veel leuke academische onderzoeken doen naar toepassings gebieden en mogelijkheden.
Koop dan een GeForce 8800 en programmeer hem in CUDA. Minstens even flexibel, sneller, en goedkoper.

[Reactie gewijzigd door c0d1f1ed op 22 mei 2008 14:56]

Je zit met een Geforce kaart en CUDA al heen snel aan de limitaties die nVidia stelt. Alleen al de drivers bijvoorbeeld.
Ook heb ik begrepen dat Cuda redelijk in een begin stadium zit. Dat en de closed source gedachte die er achter zitten zijn toch wat minder aantrekkelijk.

OK, het is wel een stuk sneller :) Als je het kan gebruiken!
Je zit met een Geforce kaart en CUDA al heen snel aan de limitaties die nVidia stelt. Alleen al de drivers bijvoorbeeld. Ook heb ik begrepen dat Cuda redelijk in een begin stadium zit.
Dan nog kan je ongeloofelijk veel meer met CUDA dan wat je met een OGP kaart kan, nu en binnen X jaar. En voor een fractie van de prijs. Tegen dat OGP de mogelijkheden van CUDA biedt kan je weer een goedkopere kaart kopen van NVIDIA die meer kan. En zo blijven ze achter de feiten aanlopen...
Dat en de closed source gedachte die er achter zitten zijn toch wat minder aantrekkelijk.
Ik vertrouw meer op closed source van een team dikbetaalde professionele ingenieurs dan op open source van een groepje amateurs.

Vergelijk het met zelf een CPU ontwerpen omdat Intel en AMD een lijst errata hebben. Iemand die denkt dat hij het beter kan is gewoon ongeloofelijk arrogant en krijgt vroeg of laat het deksel op de neus.

Ik heb vroeg in het project de bedenkers aangeraden om voor NVIDIA te gaan werken en daar zelf de drivers te gaan verbeteren. Closed source of niet, da's enorm veel productiever en meer mensen hebben er iets aan! Ik heb respect voor de idealen van open source maar op een bepaald punt moet je toegeven dat closed source soms beter is.
En ik vertrouw meer op weinig tot niets betaalde amateurs (die hun sporen ongetwijfeld hebben verdiend.) die de tijd kunnen nemen dan op dikbetaalde professionele ingenieurs die onder druk worden gezet door de marketingafdeling.

Ongetwijfeld is dit niet het eureka-project maar geeft wel aan dat het kan en dat er misschien ooit eens toekomst in zit.
En ach, het zelf vanaf scratch een OS ontwikkelen werd ook niet meteen door iedereen serieus genomen.
En ik vertrouw meer op weinig tot niets betaalde amateurs (die hun sporen ongetwijfeld hebben verdiend.)
Dat zijn dan meestal studenten uit hoger onderwijs. Als ze talent hebben wordt hen vroeg of laat een dikbetaalde job aangeboden om aan closed source te werken. De periode dat ze dus aan open source werken is beperkt, en ze hebben nog niet zo veel expertise.

Je mag de complexiteit van 3D rendering niet onderschatten. Zeer veel amateurs raken zelfs met de hoge flexibiliteit van software niet veel verder dan een driehoekje tekenen met een gradientje. De weg van de applicatie tot een volledige 3D omgeving op het scherm is lang.
...die de tijd kunnen nemen dan op dikbetaalde professionele ingenieurs die onder druk worden gezet door de marketingafdeling.
Er bestaat ook zeer veel druk voor open-source ontwikkeling. Genoeg profiteurs die zagen om een feature zo snel mogelijk geÔmplementeerd te krijgen, waardoor men overhaast te werk gaat. Bovendien is er nauwelijks sprake van planning en management, en als die er dan al is zijn dezelfde personen ervoor verantwoordelijk. Grote bedrijven hebben gediplomeerde projectmanagers in dienst die speciaal tot doel hebben de druk op de ontwikkelaars houdbaar te maken, en deadlines en kwaliteitsstandaards effectief te halen. Verder hebben ze ook gediplomeerde software-architecten en een team voor QA. In een beetje een flexibele onderneming is dat een aangename omgeving om in te werken.

Ik werk zelf aan een project dat vroeger open source was, en nu het opgekocht is werk ik eraan binnen het bedrijf en vallen een aantal lastige taken van mijn schouders zodat ik mij kan concentreren op de technische aspecten, gestuurd door het management en met feedback van QA. Zonder twijfel is dit de kwaliteit ten goede gekomen en zijn er in minder tijd grootse dingen bereikt...
Ik vertrouw meer op closed source van een team dikbetaalde professionele ingenieurs dan op open source van een groepje amateurs.
Hmm, wat denk je dat die ontwikkelaars doen om geld te verdienen? Tuinieren? Zijn waarschijnlijk geen amateurs.
Vergelijk het met zelf een CPU ontwerpen omdat Intel en AMD een lijst errata hebben. Iemand die denkt dat hij het beter kan is gewoon ongeloofelijk arrogant en krijgt vroeg of laat het deksel op de neus.
Als iedereen zo dacht hadden we geen ARM processor gehad.
Hmm, wat denk je dat die ontwikkelaars doen om geld te verdienen? Tuinieren? Zijn waarschijnlijk geen amateurs.
Timothy Miller, de projectleider, is enkel industrieel ingenieur en heeft wat ervaring met het maken van 2D grafische kaarten. Hij heeft echter geen enkele expertise met 3D, en ook op dit moment zie ik in de mailing list enorm weinig goed inzicht in de werking van moderne 3D rendering.

Voor de rest zijn er ook zeer veel met een wishlist aan features maar die geen flauw benul hebben hoe het te implementeren. Het aantal dat bereid is de handen uit de mouwen te steken is bedroevend, en met motivatie alleen lukt het ook niet om deze complexe zaken aan te pakken.

Om het even droogjes te stellen: iedereen die in staat is hier iets degelijks van te maken heeft al een full-time job bij NVIDIA, AMD, of Intel.
Als iedereen zo dacht hadden we geen ARM processor gehad.
De ARM RTL kost miljoenen (terecht). Da's dus totaal geen open hardware.
Maar zijn daar de prestaties ook naar dat die dik betaalde pro's ozo goede dingen maken komt wel me een prijskaartje. Uiteindelijk heb je nog niet zo veel aan een dik kaartje als je nog achter een i486 zit. Je wordt meteen al verplicht tot vernieuwingen in de overige hardware. Als je als pro echt goed werk wil levern zorg dan tenminste dat de dingen die je levert backwards compatible zijn. Dan krijg je pas in mijn ogen je sporen. Het feit daar gelaten dat jij voor een nieuwe kaart zo ie zo meer betaald gezien de afroom politiek die vele HW bedrijven voeren

En over dat de open suorce goedwillende amateurs zijn ben ik het helemaal niet met je eens. Kijk bijvoorbeeld is een naar het Mozilla devteam. Die hebben een ook niet echt schamel salarisje. Alan Cox(2de man achter de linux kernel) zit ook niet zonder, zelfde geld voor Richard Stallman, John Smallville en Andrew Morton.

Closed source meer productiver? Waar baseer jij dat op? Release cyclus van de verschillende closed source OS's? Of de support van nieuwe hardware voor dat OS?
Naar mijn weten was de linux kernel die volledig blu-ray ondersteunde.
Ten tweede als je maar een klein groepje hebt moet je relatief veel werk verricht, maar als je opensource via het internet met duizend mensen er aan werkt zal het verdeeld zijn in kleiner stukjes waarmee iedereen te samen een sneller resultaat boekt. Ook het opsporen van fouten gaat sneller gezien het feit dat iedereen er weer anders tegen aan kijkt, daarbij komt nog als je met een flinke groep wederom de code leest, zullen de fouten er sneller uit zijn als je met een klein groepje bent.
(Lees een de Cathedral and the Bazar van Eric S. Raymond)

Tuurlijk de arbeidproductiviteit van de closed source arbeiders zal hoger liggen, maar veelal bij FOSS betaal je ze niet eens dus waarom zou je je daar druk om maken.

Tot nu toe hebben de FOSS ontwikkelaars het niet makkelijk gehad omdat ze juist met closed source producten moesten werken en daarvoor support moesten creŽren(Gnash, Alternative drivers voor GPU's) daarvoor moest men eerst backward-engineren voor dat je aan de slag gaat, maar nu juist met dit soort projecten (Openmoko,Popcornhour) en dat veel HW producenten nu de code vrijgeven zorgt ervoor dat het allemaal wat makkelijker en vlotter loopt dan voorheen. Het geeft ook aan hoe dat de bedrijven die zelf mer de source onder de GPL/LGPG/BSDL uitbrengen steeds meer gaan inzien dat dit niet is wat men zo maar achterwege moet laten.
Een FPGA is toch echt veel flexibeler als een reguliere GPU.
Als je echt specifieke taken hebt dan kan je heel veel snelheidswinst boeken tov een een reguliere videokaart programmeren in CUDA.
Het probleem is dat er niet echt "specifieke taken" te bedenken zijn die een FPGA sneller zouden maken dan huidige GPUs.

Van zodra je met floating-point getallen werkt, en die heb je al heel snel nodig, is de GPU duizend keer sneller.

Bovendien staan NVIDIA / ATI / Intel niet stil en is elke generatie weer flexibeler. Momenteel vragen grafische programmeurs achter volledige programmeerbare filtering en blending, en dat gaat waarschijnlijk heel binnenkort ondersteund worden.

Zelfs indien men denkt iets specifiek gevonden te hebben, staat men nog steeds voor de taak om het in de FPGA te implementeren, de driver te schrijven, een API uit te werken, en er applicaties voor te schrijven.

En ik durf er voor wedden dat wanneer een GPU toch iets niet behoorlijk ondersteunt, dat het sneller is met software rendering dan op een FPGA, zonder de meerprijs van hardware.
Het gaat hier over drivers, firmware. Niet enkel over toepassingen die deze aanspreken.
Ooit al eens geprobeerd om firmware the schrijven voor een chip waar je geen debugging informatie uitkrijgt?
Nee? lees verder
Ja? Dan weet je wat een immens verschil het maakt tov een fpga bordje. Al is er zelf een kans dat je nooit aan een fpga bord bent toegekomen omdat je be schikking had over simulatie modellen van het ontwerp.

Zelfs voor iets "simpel" als een codec te schrijven gebruikt men simulatie modellen zodat men cycle acurate kan ontwerpen. Soms wordt er nog eens een fpga bordje tegen aangemeten om wat dichter tegen de hardware te testen (vooral voor drivers, minder voor toepassingen). Als je moet gaan testen na de 1e productie (tapeout) dan is het te laat, zeker als er stukken in rom gebakken zit.
En dan is die 500$ ineens niet zo hoog
Het is $1500.... Maar je krijgt wel $100 korting als je een pre-order plaatst.

[Reactie gewijzigd door Myrdhin op 22 mei 2008 14:29]

Helaas is de prijs $1500,-, dus dat is drie keer zo duur.
Dan nog is het goed te doen. Onderzoeken kosten snel tienduizende euro's, alleen al in man-uren.
Misschien wel een volgende stap voor Google om deze groep ontwikkelaars (financieel) te steunen :)...

Zeker wel een goede ontwikkeling op het gebied van OS. OK het gaat niet snel, maar dat is met alles in het begin. Gun deze groep ontwikkelaars ook de tijd en de ruimte om het product te ontwikkelen.
Gun deze groep ontwikkelaars ook de tijd en de ruimte om het product te ontwikkelen.
Waar naartoe dan wel? Wees niet naÔef. Dit is een groepje amateurs dat het opneemt tegen bedrijven met duizend hoogopgeleide ingenieurs. Oorspronkelijk wou men de driverproblemen van grafische kaarten in Linux oplossen. Hardware ontwikkelen is een extreem lange omweg, en nutteloos. Intussen zijn die driverproblemen al lang verdwenen.

Als men ťcht stabiele drivers wil voor Linux dan zou men beter wat meer werk stoppen in de omringende software. Hier is een artikel over de slechte State of Linux Graphics van enkele jaren geleden. Los de problemen daar op en de hardwarefabrikanten zullen automatisch betere drivers kunnen leveren.

Sneller dan een kaart van NVIDIA zal OGP nooit worden, en ook niet goedkoper. Het probleem ligt bij de software, niet de hardware. Bovendien zijn we aan het evolueren naar een architectuur waarbij een GPU net zoals een CPU rechtstreeks programmeerbaar is en de taken van de driver verhuizen naar middleware (die eventueel open-source kan zijn). Maar voor die evolutie is OGP blijkbaar blind...
Als dit project alleen maar is ontstaan om een betere ondersteuning voor grafische kaarten onder Linux te bewerkstelligen, zou je gelijk kunnen hebben. Dan nog kun je de FPGA zodanig herprogrammeren, dat deze op non-x86 architecturen als primaire kaart zal kunnen werken.

Dat is met de meeste ATI en Nvidia kaarten niet het geval, tenzij je net als bij Sun veel geld voor een relatief verouderd model met open video firmware neerlegt. Volgens mij kunnen we er nog lang op wachten tot de video firmware bij ATI en Nvidia vrij toegankelijk is om aan te passen of te vervangen zonder allerlei NDA's te hoeven tekenen.

Voor zover ik weet, is een van de huidige doelstellingen echter niet meer alleen een ontwikkelplatform voor een grafische kaart te creŽren, maar een FPGA gebaseerd platform voor meerdere wellicht onvoorziene doeleinden zoals geluidschips beschikbaar te maken voor zowel amateurs als studenten tegen een in vergelijking met andere leveranciers veel lagere prijs.

Het artikel van Jon Smirl is zeker verhelderend en zijn verbeteringen hadden ook al doorgevoerd kunnen zijn (ik heb hem nl. zelf gevraagd wat de status van Xegl is), ware het niet, dat de huidige Xorg ontwikkelaars niet geÔnteresseerd zijn in de realisering van zijn ideeŽn, waardoor het concept van native OpenGL en X11 compatibiliteit als een laag daarbovenop nog wel een tijd op de plank zal blijven liggen.
Weet het niet hoor maar volgens mij wordt dit een flop zeker als je zo veel geld er voor neer moet tellen
Is de Quadro een flop? of de FireGL?
Als dat zo is waarom komen ze dan nog steeds met van de kaarten?

Volgens deze redenatie zou alles wat relatief duur is in jouw ogen een accute flop moeten zijn?
Dan zou de MacPro ook een flop zijn(bijna alle andere Apple Producten), zelfde geld voor supercars, QX procs, Custom items of zelfs Vista.


Welcome to the Real World!
De Quadro en de FireGL zijn gespecialiseerde kaarten die uitermate goede prestaties bieden voor een bepaalde workstationapplicaties zoals CAD.

Deze kaart heeft een hoge prijs en erg lage specificaties. Ja het is opensource, maar als het dermate zwakke presaties levert, wie wil er dan nog de moeite insteken om er mee te leren werken? Ik zeg niet dat het dermate lage prestaties gaat leveren, maar de specificaties beloven niet veel goeds.
Zolang er geen goede toepassingen gevonden worden voor een dergelijk product zal het ook niet als zoete broodjes over de toonbank gaan. Ik hoop ten zeerste voor de ontwikkelaars van deze kaart dat ze iets vinden waar dit beestje in uitblinkt...
Ik ken genoeg mensen die best hieraan mee willen doen. Een enkel persoon heeft OSS als geloof, maar de anderen zien het als een uitdaging hier wat voor te ontwikkelen. Menigeen heeft al een ageia om zelf te programmeren.

Zoals al eerder aangegeven, scholen. Ideaal voor opdrachten, en het laat mensen ook nog eens buiten de standaard hkjes kijken. Daar leren ze wat van.

Met dit soort apparaten moet je je niet afvragen wat het kan, maar wat jij er mee kan. En kijk niet gek op als er iemand een killerapp op weet te schrijven die zijn weg gaat vinden naar de commerciele kaarten (als men tenminste een brug kan slaan tussen OSS en CSS modules de haalbaar is)
Misschien heeft het er ook mee te maken dat de prestaties van de kaart minstens 5 jaar achterlopen (en dat is heel voorzichtige schatting)...
Ik denk dat ook vooral mensen deze uit principe zullen kopen, om het project te steunen. Dan heb ik het niet over de gemiddelde huis-, tuin- en keukentweaker maar meer organisaties, zoals misschien de FSF, OSI en andere open source organisaties. Daarna zal de prijs wel een keer flink dalen zodra ze meer ervaring etc hebben.
Maar, als blijkt dat jij - doordat het open-source is en zelf implementeerbaar - hiermee bepaalde taken voor je rekenwerk n maal sneller kunt doen dan een standaard-gesloten videokaart dan levert dat je dus tijdswinst op en tijd is weer geld. Het is zo te lezen geen snelheidsmonster, maar de kaart geeft je blijkbaar wel een heleboel vrijheden. Eigenlijk koop je voor dat hoge bedrag dus vrijheid ;)
dan moet je toch al enorm specifieke eisen hebben om zoveel geld (kaart + ontwikkeling van eigen drivers ervoor) in een inferieus (verouderd? ) product te stoppen.
Verouderd? De kaart moet nog gemaakt worden. Tja lagere snelheid dan de nieuwste kaarten van ATI / Nvidia, maar dat maakt een kaart niet 'verouderd'. De Intel Atom is ook minder snel, maar dat maakt hem niet 'verouderd'. Het heeft zo zijn voordelen om de Atom te gebruiken. Zo heeft het ook zo zijn voordelen om deze videokaart aan te schaffen. Minder snel is niet per definitie verouderd.
PCI voor een videokaart is idd behoorlijk verouderd ja :)
Dan zou ik gewoon de spartan 3 los kopen, denk ik zo... de implementatie die erop draait zou ik naar kijken om dingen uit te 'jatten'
Een 'losse' spartan3 is niet zo duur, misschien $100 (als je er 250.000 afneemt). Maar er moet zoveel troep omheen voordat die in een PCI slot past.
Veel succes.
Precies... Wat dacht je van het ontwerpen van een print, rekening houden met signal integrety natuurlijk, en dan de boel nog later produceren. Gaat hier wel om een BGA, die laat je niet ff voor 4 tientjes op een PCB plakken. Voor veel mensen is dit volgens mij nog een redelijk geprijst ontwikkelkitje. Je kan er natuurlijk ook andere dingen mee doen dan videokaartje spelen.
Dit is dan ook meer voor de hobbyist. Dit project draait trouwens al jaren, leuk om te zien dat er ook eindelijk wat uit komt...
Of voor scholen/instellingen.

ik kan me hier mooie dingen bij voorstellen op elke informatica opleiding.

zowel het schrijven van software voor de gpu als het schrijven van een driver is erg leerzaam.

[Reactie gewijzigd door Kevinp op 22 mei 2008 16:02]

De term ASIC vind ik zelf een beetje misplaatst in dit artikel. Een FPGA is nou niet echt application specific, het is juist general purpose. Zoals ook op Wikipedia staat:

"The general term application specific integrated circuit includes FPGAs, but most designers use ASIC only for non field programmable devices (e.g. standard cell or sea of gates) and make a distinction between ASIC and FPGAs."
(bron: http://en.wikipedia.org/w...ecific_integrated_circuit)

In ieder geval wel leuk initiatief. Ik heb er het geld niet voor over, maar ik kan me voorstellen dat bepaalde onderzoekers dit erg interessant vinden.

Het voordeel is dat als dit uiteindelijk doorontwikkeld wordt en een serieuze concurent van de mainstream kaarten wordt, dan kan men alsnog besluiten de chip als een echte ASIC te bakken waardoor de snelheid omhoog geschroefd kan worden.
Ik denk dat je het harder kunt stellen. Een ASIC is zeer beperkt her configureerbaar. Terwijl een FPGA fine grain (tegenwoordig misschien coarse grain door de embedded multipliers) herconfigureerbaar is, dus heel erg configureerbaar. Met andere woorden een Field Programmeble Gate Array is zeer zeker geen Application Specific Integrated Circuit. Dat is gewoon fout.
Een klasgenoot van mij heeft meegewerkt aan dit project maar is ook zijn eigen project gestart welke een veel goedkopere open source videokaart moet opleveren.

Hij is ook al redelijk ver(hardware is af) en als ik het goed onthouden heb kost zijn kaart maar iets van 200§

zijn website is http://www.projectvga.org

Als de kosten zoveel lager liggen is het natuurlijk veel interresanter , als je het mij vraagt is de hoge prijs dan ook het grote minpunt van de open graphics project kaart.

[Reactie gewijzigd door WoeiWoei op 22 mei 2008 14:39]

Het probleem is waarschijnlijk dat de kaart zogenaamd goedkoper is, maar niet in een oplage van < 10.000 stuks.

En btw de website doet het niet
Als ik op de link klink kom ik gewoon op de pagina uit hoor :?

op de website zelf lees ik net dat voor het prototype 150§ moet worden betaalt bij een oplage van 25 stuks :)

die informatie was hier te vinden : http://wacco.mveas.com/index.php?entry=31 link ziet er vaag uit maar is van dezelfde website :)
Dan ben ik benieuwd wie je bent, want hij zit ook bij mij op de opleiding. Erg mooi project iig, en denk ik nuttiger voor educatie doeleinden. Wat heeft een student nou aan een hele dure kaart met van alles erop en eraan, terwijl ie voornamelijk VHDL wil leren.
Zijn kaart is in eerste instantie ook alleen maar gericht op VGA in de basis te ondersteunen, verder gaat het nog niet echt. Maarja, dat is al heel wat, in je eentje een videokaart bouwen met FPGA's en al.
''Het is niet kortzichtig, het is realistisch. Ik heb nog voor NVIDIA gewerkt en ik kan je verzekeren dat ze nu reeds bezig zijn met extreem flexibele hardware die dit project totaal overbodig maakt. Kijk ook naar Intel's Larrabee project, die met x86 code programmeerbaar is en de driver kan dus even open source als elk ander stuk software.''

Nogmaals, het gaat er niet om of de grote bedrijven ook bieden wat dit project beidt of nog meer bieden. Dat is het punt niet en ook niet belangrijk. Waar het om gaat is dat gewoon alles aan dit project openbaar is. Nvidia heeft geen complete blueprint van hun chips online staan of wel? en er is ook weinig openbaars aan hun driver code. Daar gaat dit project nou juist om. Het gaat niet om de performance maar om het feit dat jij een stukje hardware heb inclusief de complete documentatie waarmee je kan doen wat jij wil.
Even een paar opmerkingen:

Ja het gaat hier om een ontwikkelversie met extra programmeerbare opties
Nee dit is geen conqurerende prijs.

Op de positievere trend
PCI-X is backwards compatible met PCI, zie faq ( stukje hier onder gepaste )

The specs say that the PCI connector is PCI-X 64-bit, 133MHz. Will that work in my regular PC?

PCI-X is backward compatible with your 32-bit 33MHz PCI slots, and OGD1 has been tested with several PC motherboards. Note that some PC motherboards may position components so that they interfere with the "extended" part of the PCI card edge for some slots.
OGD1 is 6.875in long and 4.2in wide (17.46cm x 10.67cm). Some small form-factor systems do not provide enough room in one or both dimensions.

Ik denk dat dit nog steeds een positieve ontwikkeling is.

Dit is de eerste generatie mensen die een open source kaart probeert te realiseren met de beperkte mogelijkheden die ze hebben. De uiteindelijke "niet ontwikkel kaarten" zullen vele malen goedkoper worden, maar nog steeds duur. Open Source hardware is niet een trend die morgen of volgend jaar de markt zal overspoelen maar de langzame start van een trend die misschien nog wel 10 jaar duurt om uit te groeien tot zijn uiteindelijke doel.

Daarom zeg ik, kudos aan dit project voor het opleveren van iets zichtbaars. Dit zal dit project naar mijn mening, ondanks alle negatieve publiciteit toch een boost in de goede richting geven.
Het is trager dan software rendering en ondersteunt geen shaders. Weg ermee.

Edit: waarom wegmodden? Het is de harde waarheid. Ze beloofden werkende hardware in 2005, en voor de software staan ze nog praktisch nergens. Bovendien zijn er wel al gedetailleerde specificaties beschikbaar van oudere generaties GPUs van ATI en Intel. Het project is gewoon hopeloos achterhaald.

[Reactie gewijzigd door c0d1f1ed op 22 mei 2008 14:47]

idd, dit project heeft geen enkele waarde, zeker nu de specificaties van intel en ati gpu's open zijn.
De prestaties die ze neerzetten zijn dermate slecht dat ze het berekenen van 3d beelden beter op de CPU hadden gedaan en een veel eenvoudigere FPGA gebruiken om de beelden op het beeldscherm te toveren.
Ik heb dit project in het begin even gevolgd, ze zijn gestart met te hoge doelstellingen. Ik denk ook dat bij de ontwikkelaars deftig talent of inzet ontbreekt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True