Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties

AMD heeft de eerste professionele videokaart op basis van de Evergreen-architectuur uitgebracht. De ATI FirePro V8800 is de professionele variant van de HD 5870 en beschikt over 1600 streamprocessors en 2GB gddr5-geheugen.

De FirePro V8800 is de eerste videokaart op basis van de Evergreen-architectuur voor de professionele markt. De videokaart is dan ook bedoeld voor zaken zoals CAD en 3d-modellering, in plaats van voor het spelen van games. De V8800 heeft dezelfde gpu aan boord als de HD 5870, met 1600 streamprocessors en een 256bit-geheugenbus. De kloksnelheid van de gpu bedraagt 825MHz, terwijl het gddr5-geheugen op 4600MHz is geklokt.

De videokaart kan overweg met ATI's Eyefinity-technologie. Daartoe beschikt hij over vier displayports, waarmee onafhankelijk vier schermen met een resolutie van 2560x1600 pixels kunnen worden aangestuurd. Ook beschikt de videokaart over een poort voor de synchronisatie van stereoscopische 3d-beelden. De videokaart wordt middels twee zespins-pci-e-connectors van stroom voorzien. Het uiterlijk werd iets ingetoomd ten opzichte van de HD 5870.

De website PC Perspective nam de FirePro V8800 al onder handen in verschillende benchmarks, die vooral iets zeggen over de prestaties in professionele applicaties. De videokaart is ruimschoots sneller dan Nvidia's snelste professionele kaart, de Quadro FX 4800. Ook ten opzichte van de FirePro V8700 is de V8800 aanmerkelijk sneller, maar de prestatiewinst ligt wel iets onder de verwachtingen, gezien het dubbele aantal streamprocessors.

ATI FirePro V8800

Moderatie-faq Wijzig weergave

Reacties (69)

Ik snap niet helemaal waarom Eyefinity zo gehyped wordt, de meeste gamers hebben toch niet meer als 2 schermen?
En de spellen die meerdere schermen goed ondersteunen zijn op 1 hand te tellen.
Dan lees je niet helemaal goed. Ik ga niet in op 'deze kaart is niet voor gamers' want dat is wel duidelijk, maar op Eyefinity:

'spellen die meerdere schermen goed ondersteunen' dat is dus juist het punt van Eyefinity. Wat het spel betreft is er maar 1 monitor, namelijk een hele brede (of hele hoge).

Het spel hoeft dus helemaal geen ondersteuning voor meerdere schermen te hebben. Het moet alleen ondersteuning hebben voor vreemde hoogte / breedte verhoudingen.

En gehyped.. tsja. Ik vind het wel mee vallen met de 'hype' factor er van. Het is een interessante feature dus dat wordt vermeld, maar om nou te zeggen dat ik alleen maar over Eyefinity hoor, neuh.

En de mensen die hebben lopen spelen met een leuke Eyefinity setup die raken snel verslaafd als ik de reviewers mag geloven :), maar het is zeker niet voor iedereen weg gelegd, zowel vanuit praktisch nut en kosten-oogpunt.
Deze kaart is ook helemaal niet voor gamers. Profesionals kunnen wel veel aan meerder schermen hebben.
Deze videokaart is dan ook niet bedoeld voor games..
Dit staat ook letterlijk in het artikel.
n 3d applicatie met 3d modellen van voor, achter, boven en 1 keer schuin met textures, dan heb je al 4 schermen vol. Op zo'n deel-beeldscherm verlies je te veel details en kwaliteit.
- 4 schermen dus, precies wat deze kaart kan.
de spellen die meerdere beeldschermen ondersteunen zijn er ruimschoots.
al in de toptitels is er ontzettend veel wat ermee draait. ;)

zie: http://www.hardware.info/nl-NL/articles/amdnaWpxZGCa/Test_ATI_Radeon_HD_5870_Eyefinity6_Edition__Samsung_MD230X6/4 simpelweg alle toptitels die hier gebenched worden ..

[Reactie gewijzigd door Iv0o op 7 april 2010 16:49]

Er zijn heel veel gamers met meer dan 2 schermen. Die kopen dan ook de high-end kaarten (waar een ferme marge op zit).

Het feit dat EyeFinity bestaat is daar het beste bewijs van. De +2 schermen markt wordt door EyeFinity volledig open gebroken.
Je had vr EyeFinity namelijk een high-end grafische kaart nodig EN nog eens 300EUR voor een Matrox. TFT schermen zijn onderhand spotgoedkoop geworden.

Ik zie in deze kaart trouwens opnieuw een kopzorg voor Matrox.

"De spellen die meerdere schermen ondersteunen zijn op 1 hand te tellen". Gewoonweg fout wat je zegt.
In die toekomst wordt multiple monitor support -opnieuw weer door EyeFinity- trouwens standaard. Spijtig de game-maker die dit over het hoofd ziet...

Het stuk dat ik ergens mis in dit verhaal is het feit dat NVidia nog geen eigen EyeFinity heeft. Wachten ze ergens op?
Ik heb begrepen dat De GTX 4xx reeks 3 monitoren kan aansturen als je minimaal SLI 2x hebt. Dat is al in elk geval al iets.

Waar ze op wachten? Ze zijn gewoon niet op tijd begonnen met de technologie te ontwikkelen omdat alle zeilen bij moesten worden bij gezet om GTX 4xx berhaupt uit te laten komen denk ik.
Dit is GEEN videokaart voor gamers.
oops Vaker refreshen

[Reactie gewijzigd door WildWilly op 7 april 2010 14:28]

@ w0w, IC3M4N, WildWilly
Eyefinity staat los van deze kaart... Dus edwinboss heeft een interessant punt ookal is het offtopic.
Eyefinity staat niet geheel los van deze kaart (en het artikel):
De kaart is namelijk (een van) de eerste professionele kaart(en) die eyefinity ondersteund.

Bij de doelgroep voor deze kaart (3D, CAD, etc.) zijn meerdere schermen tegelijk ontzettend prettig - ik zou maar al te graag in een 2x2 of 3/4x1 setup willen werken.

Voor de professionele markt is eyefinity dus een grote plus.

Eyefinity is inderdaad het draaien van games op meerdere schermen, maar ook desktop op meerder dan 2 schermen is ontzettend prettig.

[Reactie gewijzigd door cPT.cAPSLOCK op 7 april 2010 17:11]

Idd, heb hier 1 x27" center en 2 x22" on the side. Ook voor niet gelijke setup is dit praktisch aangezien je geen 2 kaarten moet steken wat dan ook weer half het verbruik meebrengt, als niet meer aangezien deze ATI kaarten het op dit vlak prima doen t.o.v. de vorige series of gelijk de welke van Nvidia. Vroeger Nvidia fanboy tot en met maar de Radeon 5*** series (en vooral die eyefinity) heeft het voor mij gemaakt.

wat ik wel eens zou willen weten is wat dit ding moet kosten, mocht dit meer dan het dubbele zijn dan de 5870 of 5850 dan steek ik daar liever 2 in crossfire van.. Ook al is het voor pro doeleinden..
Eyefinity is geen hype maar zeker rendabel, ik heb zelf al 2x24" hier staan, en als ik de kans krijg staat er zo een 3e met een active dp adapter ernaast. ;)
Ik snap niet helemaal waarom Eyefinity zo gehyped wordt
Dat hele Eyefinity is helemaal niet alleen voor games. Ik gebruik het om 3 schermen gewoon in Windows te gebruiken.
Goed lezen is ook moeilijk!
Wat is de prijs van dit ding?

Wat ik dus zo ongelooflijk asociaal vind zijn de prijzen van deze kaarten en dat bedrijven zoals Solidworks dit soort kaarten verplichten (inventor overigens niet meer);

Wij hebben op het werk een poosje terug getest met Solidworks: een pc met een Geforce 9800 GT en eentje met een Quadro 1800; verschil in prijs: de 1800 is ongeveer 3 keer zo duur; verschil in prestatie: ca 20% en dat ook nog met een snellere processor :\

Maaaaaaaar, dan heb je wel vollidige support :?

[Reactie gewijzigd door Avdo op 7 april 2010 14:24]

De adviesprijs is $1499 (uit de link naar de AMD site)
Zoals je ziet, 1500 dollartjes.
Nogal prijzig, maar daarnaast zal deze flink dalen met de prijs.
ik denk dat hij rond de 1000 euro binnen zal komen ;)
Ik denk niet dat deze kaart flink gaat dalen, hij is nu nog maar 3/4x zo duur dan de game kaart, als je kijkt bij nvidia die heeft nog gekkere prijzen..
Het gaat uiteindelijk om de driverondersteuning waarvoor je een flinke duit betaald. En die driverondersteuning is top notch.
Wat ik dus zo ongelooflijk asociaal vind zijn de prijzen van deze kaarten en dat bedrijven zoals Solidworks dit soort kaarten verplichten (inventor overigens niet meer);
Voor dit soort kaarten worden speciale drivers geschreven gericht op n enkele of een handjevol applicaties.
Die programmeurs moeten betaald worden, en aangezien er maar zo weinig van dit soort kaarten verkocht worden is dat een zeer groot deel van de meerprijs.

Bij die specifieke applicaties waarvoor die drivers geschreven worden is het verschil in prestatie meestal ook een stuk groter dan 20%.

Maar zelfs als dat niet het geval is, dan zijn die extra kosten peanuts voor iemand die daar zijn geld mee verdient.
Je moet ook niet vergeten dat, in dit geval zo'n 20% sneller, inhoud dat het bedrijf op de design kosten kan besparen omdat er sneller gewerkt kan worden.
Dus uiteindelijk kan zo'n investering, ondanks die prijs, zelfs winstgevend blijken.


Bovendien zit er voor bedrijven vaak proffesionele ondersteuning aan vast wat ook een aardig meerprijsje is. En dan moet je denken in de richting van: iets mis -> mailen volgende dag/week een oplossing of nieuwe kaart afgeleverd. Geen RMA met vragen en misschien over 3 weken een gerepareerde terug of andere dingen.
Wat dacht je van drivers die speciaal voor deze kaarten woorden geschreven. denk je dat dat niks kost?

En support betaal je ook dik voor, maar dat heb je als bedrijf wel nodig imo
werkt niet meer op de nieuwere kaarten
werkt wel op nieuwere kaarten. maar de prestaties liggen lager dan een echte quadro of fireGL omdat het op driver niveau gebeurd.
dacht ik ook aan,zo'n bios flashen op een 5870 :Y)
Het is voor mij nog steeds niet duidelijk: kunnen programma's als 3ds Max hier nou sneller mee renderen? Of is alleen de framerate hoger tijdens het werken aan het model?

Hoe dan ook, ik geloof dat Vray (een 3d party fotorealistische renderer voor oa Max) nog steeds 100% cpu based zijn. Er zijn wel tech-demos geweest die op cuda draaien, met enorme snelheidswinst.
Het grote verschil is niet de snelheid maar de precisie. Waar consumenten kaarten bedoeld zijn om snel een redelijk plaatje uit te rekenen moeten deze kaarten een zo precies mogelijk resultaat geven. Waar drivers voor games zich dus op snelheid richten, zijn de drivers van professionele kaarten dus wezenlijk anders. Dat extra werk en de betere support zorgt voor de veel hogere project. De hardware is niet of nauwelijks anders.
Videokaarten zijn sowieso niet zo precies Hij doet juist heel veel paralelle berekeningen snel.Het maakt namelijk niet uit of 1 van de 1950*1050 pixels een kleur waarde heeft die er een naast zit. voor de preciesie heb je de CPU, die bijna altijd goed zit.
Alleen de framerate in de vieuwport wordt sneller.

In 3ds max 2011 kun je met quicksilver hardware renderen en heeft een snellere gpu natuurlijk nut.

Maar bij quicksilver maakt het volgens mij niet uit of je nou een geforce of een quadro gebruikt. (kan ook zijn dat het niet werkt bij een geforce).
Waarom is er gekozen voor 4 DP-uitgangen? Ik neem aan dat je als designer zo veel mogelijk ruimte wilt en Eyefinity zou met 6 schermen moeten werken. Of zou Ati later nog een 'Eyefinity 6 Editon' uitbrengen? (al is dat wat vreemd voor een zakelijke markt, maargoed)
je hebt niets aan 6 schermen als je 6x30" (6x 2560 x 1600=15000x9600) moet aansturen met CAD.
dan heb je ook 6x zoveel geheugen nodig, CAD is niet zoals spelletjes (voor elk scherm heb je minimaal ongeveer 256MB video ram nodig voor hoge precisie)

[Reactie gewijzigd door stewie op 7 april 2010 14:45]

6 schermen van 2560 x 1600 is volgens mij OF 6x2560 bij 1600 pixels, OF 2560 bij 6x1600 pixels (of een combinatie van 2 of 3 rijen van 3 of 2).

De berekening: 6x 2560 x 1600=15000x9600 zou aangeven dat je 6 schermen hoog en 6 schermen breed hebt. Dit zijn 36 schermen...
De berekening: 6x 2560 x 1600=15000x9600 zou aangeven dat je 6 schermen hoog en 6 schermen breed hebt. Dit zijn 36 schermen..

oops... weg met mijn reactie, ik heb iets te snel gelezen.

1600 blijft inderdaad 1600, en niet 9600... tenzij je ze boven op elkaar plaatst, dan blijft 2560 natuurlijk 2560...

[Reactie gewijzigd door 330244 op 7 april 2010 16:02]

http://www.google.com/sea...f&aqi=h1&aql=&oq=&gs_rfai=
http://www.google.com/sea...f&aqi=h1&aql=&oq=&gs_rfai=

6x2560= 15360
6x1600= 9600


dat is dus niet 36x30" want 1 display van 30" is 2560x1600 x6 = 1xgedeeld 15360x9600 over 6 x 2560x1600= 15360x9600 gedeeld door 6 = 2560x1600


google link eyefinity 6x = 15360x9600 http://www.google.com/sea...official&client=firefox-a

o wow een typo Dedun :z
welcome to the Internet, get bloody used to it.

[Reactie gewijzigd door stewie op 7 april 2010 23:31]

Sodeju, hoezo gefaald voor basisrekenen? Dit is oppervlakte, dus je hebt een hoogte en een breedte factor, als je 6 schermen naast elkaar zet wordt de breedte 6x zo groot en blijft de hoogte gelijk, 6 boven elkaar, dan blijft de breedte gelijk en wordt de hoogte 6x zo groot. In de meest normale opstelling van 6 schermen van 2x 3 krijg je dus een resolutie van

2 x 1600 = 3200
3x 2560 = 7680

Als je 6 schermen naast elkaar n 6 schermen boven elkaar doet krijg je inderdaad zoals Robbaman zegt 36 schermen, hij heeft helemaal gelijk. Dus ik denk dat jij niet echt de persoon bent om zijn rekenskills in twijfel te trekken ;)
6x2560x1600=?
http://en.wikipedia.org/wiki/Apple_Cinema_Display

6 30" displays naast elkaar zijn toch echt 6x2560x1600 wat direct vertaalt in 1 resolutie van 15360x9600.
who cares :z

[Reactie gewijzigd door stewie op 7 april 2010 23:28]

Gast, je hebt 6 schermen. Hoe stel je die op? Juist, 2 rijen van 3.

De breedte is dan 2560x3=7680
De hoogte is dan 1600x2=3200

Dus je resolutie is dan 7680x3200 :P
ja als je ze als 1 scherm voor spelletjes gaat gebruiken, maar voor CAD wil je 6 losse schermen.

typoRus :z

[Reactie gewijzigd door stewie op 8 april 2010 00:01]

Ik stel voor dat we er een prijsvraag van maken jongens.. ;)
Ja het blijft lastig, daarom dit plaatje van 6 schermen van 2560x1600 :


|.......................| |.......................| |.......................| |.......................| |.....................| |.......................|
|.......................| |.......................| |.......................| |.......................| |.....................| |.......................|
|.......................| |.......................| |.......................| |.......................| |.....................| |.......................|

......2560..................2560...................2560.................2560...............2560................2560

Aangezien het om het totaal aan te sturen pixels gaat kom je op de breedte maal de hoogte; (2560+2560+2560+2560+2560+2560) x (1600) = 15.360 x 1600

wat dan uitkomt op 24.576.000 pixels of te wel 73.728.000 sub-pixels.

als het nu niet duidelijk is dan komt het waarschijnlijk ook niet meer.

[Reactie gewijzigd door king of rats op 8 april 2010 10:57]

nee fout!

|.......................| |.......................| |.......................| |.......................| |.....................| |.......................|
|.......................| |.......................| |.......................| |.......................| |.....................| |.......................|
|.......................| |.......................| |.......................| |.......................| |.....................| |.......................|
............1........................2......................3.........................4......................5.........................6
....2560x1600.....2560x1600.....2560x1600.....2560x1600.....2560x1600.....2560x1600 =15360x9600

je moet toch elk scherm voorzien van 2560x1600, als je 6 individuele schermen wilt aansturen zoals voor CAD gebruikelijk is.

[Reactie gewijzigd door stewie op 8 april 2010 17:58]

Ja, inderdaad, je moet ze allemaal onafhankelijk aansturen, maar dan wordt de resolutie per scherm dus 2560 * 1600 = 4096000 * 6 = 24576000 . Je som is dus:
( 2560 * 1600 ) * 6 = 24576000 pixels

Reken je dit oppervlak nu als 3 schermen naast elkaar en 2 boven elkaar, dan krijg je dit:

( 2560 * 3 ) * ( 1600 * 2 ) = 24576000 pixels
oftewel 7680 x 3200 = 24576000 pixels

Alle 6 schermen naast elkaar kan ook:
( 2560 * 6 ) * 1600 = 24576000 pixels
oftewel 15360 * 1600 = 24576000 pixels

Hee, dat klopt met wat het aantal pixels wat we hierboven kregen! 8-)

Doen we nu echter wat jij doet: 15360 * 9600 (beide zijden keer 6 dus, in plaats van het aantal pixels keer 6) dan komen we op 147456000 pixels, veel meer dus (6 keer zoveel). Dat klopt dus niet, dan zou je 6 x 6 = 36 schermen aansturen, omdat je er 6 naast elkaar en daarvan 6 rijen boven elkaar zet.

Jij schreef eerder 6 * 2560 * 1600 op. Dat klopt helemaal, dat is namelijk 24576000 pixels Wat je daarna echter uitrekende was:
( 2560 * 6 ) * ( 1600 * 6 ) = 147456000 pixels
oftewel 15360 * 9600 = 147456000 pixels
Dit is dus fout.

Het is toch grappig dat je blijft volhouden dat jouw som klopt, terwijl talloze mensen ( 6 eigenlijk, met mij meegerekend) al op tig manieren hebben uitgelegd dat het echt niet klopt. Natuurlijk is het een compleet nutteloze discussie, maar blijf het dan ook niet fout herhalen 8)7
Trouwens voordat we daar een discussie over beginnen: Ik weet dat de haakjes niet nodig zijn bij deze sommen, maar zo vind ik het wat overzichtelijker staan.

[Reactie gewijzigd door XplodingForce op 8 april 2010 18:56]

lezen is ook geen hobby.
ik zei ook al eerder: who cares? :z

[Reactie gewijzigd door stewie op 8 april 2010 20:58]

= 24576000

15360 x 9600 = 147456000

Waar zijn we mee bezig mensen?
Beste stewie,

Het is 6 x 2560 x 1600
Niet 6 x 2560 x 6 x 1600 of 6 x 6 x 2560 x 1600

Het is overigens gedeeld met een d. Gedeeld is namelijk voltooid verleden tijd. Aangezien het afgeleid is van het werkwoord delen en de l niet voorkomt in het kofschip, komt er een d achter.
Zo te zien is dit 4x HDMI (:
nee dit is full-size display port en niet mini-displayport:
http://upload.wikimedia.o.../9/94/DisplayPort-rid.jpg

lijkt een beetje op een sata-poort.

[Reactie gewijzigd door stewie op 7 april 2010 22:38]

...en beschikt over 1600 streamprocessors..
Pardon? _/-\o_

Dat zijn er wel een stukje meer dan de nieuwe Fermi architectuur van Nvidia, die slechts 512 streamprocessors/CUDA cores heeft. Ik wil hier HEEL graag een benchmark van zien!

Het is zeer mooi dat AMD zo'n mooie come back heeft op het GPGPU gebied. Alleen 1 ding mogen ze wel erbij doen, soort gelijke CUDA API maken. Dat zou het ons een stuk makkelijker maken! :X
Die 1600 streamprocessors zaten ook al in de 5870, niets nieuws dus.
Je mag niet zomaar Nvidia - ATI vergelijken wat hardware cijfers betreft, bij ATI is een streamprocessor iets anders dan een CUDA core bij Nvidia.

Ooit al gehoord van OpenCL? OpenCL wordt ook ontwikkeld door Nvidia dus de kans is groot dat CUDA op termijn helemaal vervangen wordt door OpenCL.
als je naar fermi kijkt is dat volledig rond OpenCL gebouwd en niet rond Cuda.
vooral de wetenschappelijke markt heeft weinig aan Cuda als het niet op Ati kaarten werkt, daarom zie je ook dat nvidia hun chip zeer naar die markt heeft ontworpen.

voor wetenschappelijke zaken zal fermi een betere gpu zijn dankzij onder andere ECC geheugen en double-precision math iets wat de 58xx niet ondersteunt.
ik ben niet pro-fermi, ik vind het een draak van een kaart, maar op papier is hij voor wetenschappelijk/wiskundig gebruik simpelweg beter (wil niet zeggen dat het een betere of snellere gpu is voor andere zaken)

daarom heet het denk ik ook fermi :Y)
Dit word wel een heel prijzig kaartje.

Verder is hij vrijwel hetzelfde als een 5870.
Ook tevens 256bit en ook 1600 stream units.

Zullen ze ook de 5850 clonen en een FireGL maken?
Gebeurt eigenlijk bij elke serie, gewoon dezelfde kaarten maar dan met andere firmware en drivers. Vroegahh kon je ook gewoon je kaartje naar een fireGL flashen echter krijg je dan de ondersteuning er niet bij, vandaar ook de prijs.
Tja, tuurlijk is een professionele videokaart duur. Een Xeon en een Opteron is toch ook duurder dan een i7 of een Phenom II? Daar hoor je niemand over. Een bedrijf heeft meer geld, en daar spelen de aanbieders van dit soort producten slim op in. Ik vind het dan ook niet meer dan normaal dat deze kaart fors duurder is. Bovendien zeggen specs niets over daadwerkelijke performance als je vergelijkt hoeveel SP etc er in zitten.
Daarbij zal een bedrijf een in winst uitdrukbaar voordeel van de "dure" hardware hebben. Dan kan een videokaart wel $1500 waard zijn.
Stereoscopische 3D synchro poort bied veel extra mogelijkheden. Ik ben vooral benieuwd naar de medische toepassing hiervan. Het bied volgens mij vooral veel voordeel bij computertomografie (CT-scan). In plaats van lagen kan men misschien heel orgaan in 3D bekijken. :D

Edit: Voor degenen die graag willen weten hoe een gamekaart zich verhoudt tot een professional kaart hier een link.
http://area.autodesk.com/...chmarks-40actual-tests41/

[Reactie gewijzigd door Ram-G-maN op 7 april 2010 14:57]

Kan nu ook al ;) Alleen je moet die slices natuurlijk nog steeds combineren, terwijl dat niet altijd hoeft te betekenen dat je daar beter mee kunt analyseren.
Zeker interessant!

Ik vraag me uberhaupt af wat de prestatiewinst is bij professionele schijven bij 3d Cad programma's. Heb het verschil zelf nog nooit echt uit kunnen testen.
Weet iemand of hier ook een mac versie van uit komt. Hopelijk met een beetje behoorlijke drivers..?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True