Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: AMD

AMD heeft vandaag zijn eerste Stream Processor aangekondigd, een veredelde versie van de Radeon die men richt op onderzoekers die de kracht van videochips voor serieuzere zaken dan spellen willen gebruiken. Rackable gaat servers om de kaart heen bouwen.

De Stream Processor is in essentie niets anders dan een op 650MHz geklokte ATi R580, een Radeon X1950 dus. De chip wordt gevoed door 1GB grafisch geheugen en ook de PCI Express x16-interface helpt niet om de indruk dat het 'gewoon' een videokaart is weg te spoelen. Het prijskaartje liegt er echter niet om: er moet een slordige 2600 dollar voor de kaart neergelegd worden, vijf keer zo veel als voor een topmodel Radeon. In ruil hiervoor biedt AMD echter wel uitgebreide technische ondersteuning. Voor professionele gebruikers die niet graag afhankelijk zijn van forums voor het oplossen van hun problemen kan de ogenschijnlijk hoge prijs dus wel de moeite waard zijn.

Radeon X1950 XTX
ATi Radeon X1950 AMD Stream

De Stream-processor combineert 48 pixelshaders van de Radeon-gpu om tot 360 gigaflops met enkelvoudige nauwkeurigheid (32 bits) uit te kunnen voeren. Een 2,66GHz quadcore van Intel kan ter vergelijking 85 theoretische gigaflops halen met dezelfde precisie, en zelfs een IBM Cell op 3,2GHz doet 'maar' 200 gigaflops. Zoals altijd moeten de papieren specificaties nog wel omgezet worden naar praktisch bruikbare kracht, wat voor specialistische hardware vaak een beperkende factor is. Voor de AMD Stream moet een 'close to metal'-taal gebruikt worden die dicht bij de hardware ligt, een soort assembler dus. Ondersteuning voor een hoger abstractieniveau in de vorm van een C-compiler wordt pas over 1 tot 1,5 jaar verwacht, waardoor ontwikkelaars die niet bekend zijn met shaders en dergelijke een flinke uitdaging voor hun kiezen krijgen.

Deze beperking schrikt echter niet iedereen af: volgens AMD hebben zestig verschillende instanties tijdens de bŤtafase met het product gewerkt. De kaart werd ingezet voor financiŽle en seismische analyses, vloeistofdynamica en biochemische simulaties. De Stream zou in dit soort toepassingen tot twintig keer beter kunnen presteren dan een gewone cpu. Eťn petrochemisch bedrijf zou zelfs al een Stream-applicatie in productie hebben genomen. Volgens AMD is de R580 voor dit soort werk even snel als nVidia's nieuwe G80, hoewel dat door de jongens in het groen ongetwijfeld aangevochten zal worden. Eťn voordeel van nVidia is in ieder geval dat zij wel een C-compiler hebben. Tevens heeft de nieuwe GeForce 8800 ondersteuning voor DirectX 10, dat langere en complexere shaders mogelijk maakt.

Folding@Home visualisatie

Wie op dit moment de snelste is, maakt echter weinig uit voor het grote plaatje: de videokaart als coprocessor moet nu echt serieus genomen worden en AMD heeft zich daar met de aankoop van ATi en het Torrenza-initiatief buitengewoon goed op voorbereid.

Moderatie-faq Wijzig weergave

Reacties (47)

Goh, dat zo'n videokaart veel sterker blijkt dan een gewone cpu...eerlijk gezegd snap ik er geen bal van hoe een videokaart speciaal voor grafische toepassingen ineens totaal andere dingen beter kan doen dan de gewone cpu. Moeten we straks voor de gewone pc misschien ook naar een constructie waarbij in plaats van de cpu een videokaart gebruikt word, met eventueel een bij-cpu voor het regelen van de i/o's? En als je dan zo'n videokaart pc hebt, hoe krijg je dan beeld, word daarvoor weer zo'n snelle videokaart op de videokaart aangesloten?
Jack of all trades, master of none. Dat is een cpu. Goed in veel verschillende dingen maar eigelijk nergens uitstekend in. Dat is waar gpu's om de hoek komen. Gpu's zijn enorm gespecialiseerde processors die heel erg goed zijn in bepaalde berekeningen maar heel slecht in algemeen werk. Als jij je programma dus zo schrijft dat er specefiek gebruik word gemaakt van de sterke punten van een gpu kan dat heel veel extra prestaties opleveren.
cpu's zijn juist wel bijzonder sterk als het op flexibiliteit aankomt; Daar is hij de "master" in: geen enkele "on-the-fly" programmeerbare chip haalt de eprformance van hedendaagse cpu's :)
Maar dat is juist ook het zwakke punt; dynamische, programmeerbare processors handelen de opdrachten niet even efficiŽnt af dan processors die gebouwd zijn om enkel bepaalde berekeningen uit te voeren.
Een all-round auto zal ook nooit de F1 winnen, maar een F1-wagen hoeft niet eens te beginnen aan het bosweggetje :)
Goh, dat zo'n videokaart veel sterker blijkt dan een gewone cpu...eerlijk gezegd snap ik er geen bal van hoe een videokaart speciaal voor grafische toepassingen ineens totaal andere dingen beter kan doen dan de gewone cpu. Moeten we straks voor de gewone pc misschien ook naar een constructie waarbij in plaats van de cpu een videokaart gebruikt word, met eventueel een bij-cpu voor het regelen van de i/o's? En als je dan zo'n videokaart pc hebt, hoe krijg je dan beeld, word daarvoor weer zo'n snelle videokaart op de videokaart aangesloten?
Goh, dat zo'n videokaart veel sterker blijkt dan een gewone cpu...eerlijk gezegd snap ik er geen bal van hoe een videokaart speciaal voor grafische toepassingen ineens totaal andere dingen beter kan doen dan de gewone cpu.

GPU's zijn veel gespecialiseerder dan de CPU, ze zijn erg snel in een beperkt aantal gebieden, voornamelijk parellel dezelfde operatie uitvoeren op een grote hoeveelheid data. Denk bijvoorbeeld aan twee grote tabellen of kolommen met cijfers die je wilt optellen of vermenigvuldigen. De GPU doet de bewerking op (grote delen van) de hele tabellen tegelijk, de CPU doet ze een voor een achter elkaar (afgezien van SSE en dergelijke). Als je een groot aantal onafhankelijke optellingen en vermenigvuldigingen moet doen is de GPU veel sneller. Bijvoorbeeld bij het berekenen waar je pixels op het scherm moeten komen.

Maar als je voor de ene berekening het resultaat van de andere nodig hebt, kun je ze niet parallel uitvoeren, dan is meestal de CPU sneller. Ook kan de GPU geen of beperkt logische instructies uitvoeren, dus testen of een getal een bepaalde waarde heeft en dan besluiten de ene of de andere instructies uitvoeren.

Verder werken grafische kaarten meestal met 32-bits floating points, wat je genoeg cijfers achter de komma geeft voor spelletjes, maar meestal niet voor wetenschappelijke toepassingen waar ze met 64-bit precisie werken.
Het is zeker geen kwestie van specialisatie. GPU's zijn tegenwoordig net zo veelzijdig als CPU's.

De kwestie is simpelweg dat een multicore per definitie efficienter is dan een single core, wat betreft ruwe prestatie per oppervlak/energie/transistors. De vraag is echter in hoeverre je het voor elkaar kan krijgen dat je ook inderdaad alle cores aan het werk kan houden. Sommige software/algorithmes lenen zich daar zeer goed voor, andere heel slecht.

Voor een groot deel van de applicaties is het niet zo zeer een kwestie dat het niet massief parrallel kan, maar dat dat niet de manier is waarop de meeste programmeurs denken...
>> Het is zeker geen kwestie van specialisatie. GPU's zijn tegnwoordig net zo veelzijdig als CPU's.

Neen, dat zijn ze niet.

Alle GPU's zijn op dit moment nog altijd SIMD machines. Dat wil zeggen dat ze enkel 100% efficient zijn als alle threads in een batch exact hetzelfde verloop hebben.

Bij een G80 is zo'n batch bijvoorbeeld 16 (of is het 32?) groot: bij pixel shaders is het heel gebruikelijk dat de control flow van een programma identiek is voor alle pixels van een driehoek. Zolang dit het geval is, voeren de pixel shaders op hetzelfde moment identieke instructies uit.

Zodra er echter een divergentie is, vb, 3 threads doen een sprong en de anderen niet, dan worden de 16 threads opgesplitst in een blok van 3 thread en 1 van 13 threads, die om beurten uitvoeren. De efficientie van je processer is hierdoor plots met een factor 2 naar beneden gegaan.

Het is dus net WEL een kwestie van specialisatie: GPU's halen net hoge snelheden omdat in hun specialiteit thread coherentie heel courant is. Bij veel andere problemen is dat niet het geval.

CPU's zijn nog altijd de kampioen wat betreft het uitvoeren van sequentiele instructie stromen. Een GPU zal dat nooit evenaren. Net zoals een CPU nooit zal kunnen winnen van een GPU wat betreft data parallele rekenproblemen.
Om even een vergelijking te maken die tot de verbeelding spreekt. Neem de film Rain Man.

Raymond kan heel goed rekenen en wiskundige vraagstukken oplossen, maar op sociaal gebied is het geen wereldwonder. Dat is te wijten aan zijn autisme.

'Normale' mensen zijn niet zo goed in wiskunde als Raymond dat is, maar kunnen wel meer op een breder gebied.

Zo is het ook met zo'n GPU vs CPU. Dit is een hele basale vergelijking, maar het spreekt tot de verbeelding (hoop ik).
Hij kan ook nog niet alles wat een cpu kan. Maar zware reken taken kan hij wel heel goed doen. Misschien dat vga kaarten in de toekomst nog meer kunnen doen. Maar voor bepaalde dingen zul je altijd een cpu nodig hebben.

De volgende stap een een GPU in een CPU. Dan kun je het GPU gedeelte ook inzetten voor rekenwerk als hij niet zwaar belast wordt met 2D/3D renderen.
zo he 2600 dollar vind ik niet niks. ik vraag me dan ook af of een gewonen videokaart opzich het zelfde aan zou kunnen in combi met een goede workstation....

En al dat extra geld enkel voor ondersteuning mwa kweet ut niet hoor..

Wat zijn nou precies de grote voordelen van deze kaart in tegenstelling tot andere kaarten??
Valt wel mee lijkt me. Als je er 18 van combineert kan je al een systeem bouwen dat in de top-500 Supercomputers terecht komt (6.6TFlops minimaal). Dus voor minder dan 50.000 Euro ben je helemaal hot. B-)
Mwah, rekenen maar op een overhead van 50%, dus dat worden al 36 kaarten. Dan nog die 36 kaarten fatsoenlijk laten communiceren... je bent wel meer dan 50.000 kwijt. Wat overigens niet wegneemt dat dit best rendabel kan zijn.
In supercomputers draait het toch niet echt om de Flops :P zou anders wel super mooi zijn. :+
Ik denk dat met ondersteuning bedoeld wordt dat er programmeurs ingezet worden die voor jouw bedrijf een gepaste 'applicatie' schrijven op assembly-niveau.

Als deze kaart voor dergelijke applicaties 5 keer krachtiger is dan een high-end cpu en ze is slechts 3-4 keer duurder, dan is het rendabel.
Ik denk dat met ondersteuning bedoeld wordt dat er programmeurs ingezet worden die voor jouw bedrijf een gepaste 'applicatie' schrijven op assembly-niveau.
Dat lijkt mij niet; stel in het meest ideale geval dat de kaart gratis is en je voor 2600 dollar ondersteuning krijgt. Nou verwacht maar niet teveel van een stukje 'customized'-software t.w.v. 2600 dollar. ;)
In ruil hiervoor biedt AMD echter wel uitgebreide technische ondersteuning. Voor profesionele gebruikers die niet graag afhankelijk zijn van forums voor het oplossen van hun problemen kan de ogenschijnlijk hoge prijs dus wel de moeite waard zijn.


Hulp als je ergens niet uitkomt. ik vraag me af of onderzoeks bedrijfen (uit de tekt haal ik dat het vooral voor deze doelgroep is bedoelt) al geen software hebben. Deze mensen zijn al langer bezig met onderzoek. Deze kaart zou dan betekenen dat ze software redelijk moeten gaan aanpassen (of heb ik het nu mis). Wel zou je mischien meer mogelijkheden hebben vooral als het doorontwikkeld word

Verder word er ook niet echt duidelijk in hoeverre je technische ondersteuning krijgt.

[offtopic]
Echt er zijn mensen die alles naar beneden modden dit gaat toch echt over het bericht of ben ik nou zwaaar idioot. dit gebeurd de laatste dagen volgens mij wel vaker en is behoorlijk irritant. GRRRRR

edit: nu staat ie weer op 1 :S

NOGEEN EDIT: MAAK ME GEK PFFF DAN WEER DUBBELPOST (echt van HUH) en daarna weer omhoog ;) thx voor die gene.
<div class="b4" style="position: relative; color: black; border: #C6C1B4 1px solid; width: 80%; padding: 5px; font-size: 12px;">Admin-edit:
Opmerkingen over moderaties horen thuis in het
Tweakers.net Moddereter Forum.
</div>
HEt gaat om de ondersteuning die is denk ik wel belangrijk als je er veel winst uit wil halen.

Maar je kunt ook een X1950 XTX kaart pakken en hetzelfde doen. Alleen dan moet je alles zelf uitzoeken.
Ligt het aan mij of is dit niet gewoon de opvolger van de FireGL Serie?
En als ie daarnaast maar zo weinig verschilt met de normale kaart (zoals altijd met zulke workstation kaarten) valt een normale kaart hier dan niet naar toe te flashen?

edit:
hoezo nou weer overbodig:? mij leek het een interessante vraag..
Nope FireGL is echt voor het renderen van Films voor de 3d beelden. Deze zijn gericht op rekenkundige berekeningen. Maar misschien kunnen ze nog steeds ingezet worden voor reddering maar de kaarten hebben in ieder geval geen video uitgangen meer.

Flashen zou misschien wel kunnen. Moet je wel een bios hebben voor een 512 mb versie.
nope FireGL is een profi OpenGL versneller. Films worden er niet op gerenderd.
neen, de FireGL is een grafishe kaart, deze niet...
AFAIK heeft die dan ook geen aansluitingen voor een scherm; daar heeft ie immers niks mee te maken.
het bovenstaande plaatje is wat dat betreft natuurlijk wel misleidend...
uh? Het is 'gewoon' een videokaart ==grafische kaart, dus hetzelfde als een FireGL. Gewoon om een monitor mee aan te sturen, zij het dat hij voor andere applicaties is bedoeld dan spelletjes.
Er wordt uitgeweid over de GPU, maar dat maakt niet uit.
Het is idd een vga kaart. Maar op de foto's van deze kaarten heb ik toen kunnen zien dat er geen DVI connectors meer op zaten. Ik weet alleen even niet meer waar die foto's stonden.

En deze Stream kaarten hebben 1gb ram de vga kaarten hebben 512 MB.
als die kaart doet waarvoor ze ontwikkeld is (het versnellen van bepaalde berekeningen), is grafische output toch irrelevant?
Ik kan het niet bevestigd vinden, maar ik denk niet dat deze kaart vga uitgangen heeft...de data die ie verwerkt is niet eens grafisch :?
Dit zou misschien nog wel wat kunnen zijn voor supercomputers. Ik ben benieuwd wanneer we de eerste supercomputers met VGA kaarten in de top 500 zien.

IBM werkt al blades met opteron en Cell processors. Dus waarom geen Opterons met R580 chippies :P Gewoon 8 Opterons en daar achter een hele rij van 8x R580 kaartjes :D dan heb je pas rekenkracht :D.

Ik ben ook benieuwd of de R600 nog is dan de R580 met dir soort berekeningen.
Het Ūs in feite al een supercomputer, naar maatstaven van niet zo heel lang geleden.

Gebruik een Quad-Father opstelling met drie of vier van deze kaarten en je hebt een monster met een theoretische snelheid van boven de teraflop!
Het gaat in een supercomputer wel om de snelheid maar oook voooooral om het ontwerp en structuur en taak afhandeling enzz. Ik ben zelf ervan overtuigd dat je met meer cpu's ook in pratijk een betere performance eruit kan halen.
Zo niet, kun je net zo goed een stel Cells kopen. Kost heel wat minder en geeft meer kracht.
Er is al een Cell oplossing op een insteekkaart maar die was al iets van $7000 of euro's...

By the way de ondersteuning is het belangrijkste en kost daarom ook het meeste, met een kleine uitzondering van de 1 Gig GDDR4.
Een cell heeft 7 of 8 execution units. Een GPU heeft er 128 (aan de helft van de snelheid). Een Cell is fantastisch voor parallele problemen met een voorspelbare data feed maar met onvoorspelbare programma uitvoering. Een GPU is fantastisch voor data parallele programma's met voorspelbare programma uitvoering.

Als je leven afhangt van gigantische matrix berekeningen te doen, dan zal een GPU veel efficienter zijn, omdat je voor elk element min of meer dezelfde instructies moet uitvoeren.

Als je zoveel mogelijk schaak zetten vooruit wil denken, dan is een Cell waarschijnlijk orde groottes sneller.

Enz.

Elk probleem heeft zijn eigen optimale architectuur. Dat geldt ook voor games. Je moet het artikel van Matt Phar (www.neoptica.com) er maar eens op nalezen.
Zijn dergelijke prestraties ook niet intressant op database gebied waarbij je gigantische tabellen wilt verwerken ?
GPU acceleratie kan inderdaad onder andere gebruikt worden voor het sorteren en verwerken van records in een database: http://gamma.cs.unc.edu/GPUSORT/
Cows anyone? }:O :Y)

Waarom op overbodig gemod, die kaart heeft mogelijkheden! :7
Sterker, er is inmiddels een DC-project wat je kan inzetten op je video-kaart.

Folding@Home kan draaien op een ATi kaart, al zijn het maar een aantal kaarten (chips) die ondersteund worden.

Lees hier meer:
nieuws: Eerste gpu-client Folding@Home gepresenteerd
In eerste instantie dacht ik dat dit gewoon de tegenhanger voor de Quadro's van nVidea moest worden maar blijkbaar weten ze toch ergens nog meer met die kaarten uit te halen dan je zou denken.
Interessante ontwikkelingen. Denk alleen dat als de GPU geintegreerd gaat worden in de CPU je weer een soort SX-DX verhaal gaat krijgen.

Ter info:
Voor de jongeren onder ons: Toen jullie nog met auto's aan het spelen waren (matchbox; no pun intended) Had je de 386 en 486 cpu's die met een coprocessor konden worden uitgerust. Zonder heette dat SX met was dat DX. Die DX hadden dus een speciale rekenunit en dit komt mij heel erg bekend voor met wat er in de nieuwspost staat!
aaah de good old times. waar Doom en Duke hun trends zette van de nu over belanden games met overbodige luxe details en modale gameplay. Who needs power? Gameplay is belangrijk als het op gamesgebied aankomt. Laat ze maar produceren, zo'n kaarten zijn verre van aan de orde op dit moment voor de game industrie.
Heeft deze kaart dan eigenlijk nog wel een DVI aansluiting? :Y)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True