Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties

Er zijn marketingslides opgedoken met daarop de specificaties van de videokaarten in de Radeon 5700-serie. De gpu met codenaam Juniper is een gehalveerde versie van de Cypress-gpu, met 800 in plaats van 1600 streamprocessors.

Volgens de powerpoint-slides die op het forum van Xtremesystems.org staan, zal AMD op 13 oktober de ATI Radeon HD 5770 en de HD 5750 introduceren. Beide videokaarten hebben de Juniper-gpu aan boord, die de helft van het aantal rekeneenheden van de Cypress-gpu aan boord heeft. Voor de HD 5770 houdt dit in dat er 800 streamprocessors , 40 texture units en 16 rops aanwezig zijn. De geheugenbus werd door de halvering ook van 256bit naar 128bit teruggebracht. Bij de HD 5770 heeft de gpu een kloksnelheid van 850MHz, terwijl het geheugen op 1200MHz tikt. De videokaart gebruikt in idle-modus 18W en 108W tijdens gebruik. De kaart ondersteunt tevens ATI Eyefinity met drie beeldschermen die elk een resolutie van 2560x1600 mogen hebben. De HD 5770 1GB moet 150 dollar gaan kosten.

De HD 5750 heeft ook een Juniper-gpu aan boord, maar er is één simd-engine uitgeschakeld, wat gelijk staat aan 80 streamprocessors. Met 720 stream processors heeft de gpu ook vier texture units minder waardoor het totaal op 36 komt te staan. Het aantal rops blijft met 16 wel gelijk en ook de geheugenbus is ongewijzigd en dus 128bit breed. De kloksnelheden liggen wel lager met 700MHz en 1150MHz voor respectievelijk de gpu en het geheugen. Het verbruik ligt bij de videokaart met 86W onder load en 16W in idle-modus ook iets lager. Ook de HD 5750 ondersteunt ATI Eyefinity met drie beeldscherm die een resolutie mogen hebben van maximaal 2560x1600 beeldpunten. De prijs van de 512MB-variant zou 109 dollar bedragen terwijl de 1GB-versie 129 dollar op moet brengen.

AMD HD 5700 serie AMD HD 5700 serie AMD HD 5700 serie
Moderatie-faq Wijzig weergave

Reacties (46)

18w en 16w iddle ?

Klinkt super

Verder, ik hoop wel dat Ati weer een groot aandeelhouder wordt, ( wat ze ook wel zullen worden ) maar hopelijk concureren ze niet Nvidia weg, zoals men weet, uit cocorentie komt inovatie.

En ook nog is support voor 3 monitoren *glunster*

[Reactie gewijzigd door Lostsouls op 8 oktober 2009 13:40]

Nu beweert men dat Nvidia in probleemsituatie zit, echter, dat zat ATI een (paar) jaar terug. De rollen zijn gewoon omgedraaid. Naar mijn idee zijn bedrijven die achterlopen creatiever en innoverender dan de marktleiders. Waarom zou Nvidia niet terugkomen?

Ik ben benieuwd wat de benchmarks laten zien (komt dat hier op tweakers?), wat 'n koopje :)
Waar ATI toen concurreerde als 'underdog' rol, maar wel degelijke hardware had (hardware is sinds de eerste Radeon als opvolger van de Rage eigenlijk altijd wel goed geweest), had ATi de stap nog niet genomen die nVidia de kroon gaf over 3DFX, nVidia had ten tijde van de TNT2 al de stap naar 'unified drivers' genomen in de vorm van de toemalige Detonator (wat uiteraard mooi past bij een kaart die TNT2 heet). Door een bedrijfsvoering van duidelijke processen had nVidia goede drivers. ATi had dit ook snel door, en ten tijde van de tweede Radeon had ATi ook goede drivers. Hoewel het een tijd heeft geduurd totdat Jan met de P. dit ook door had, is vanaf die tijd ATi 'gelijk' aan nVidia gaan lopen, met hooguit af en toe een kleine sprong in outperformance.

Wat nu misgegaan is, is het feit dat nVidia gewed heeft op de foute evolutie. Ze dachten dat de toekomst Cuda heette, maar ze waren te inhalig en hielden het nVidia exclusief. Dit zette uiteraard de concurenten en developers aan het denken, waardoor cuda-exclusive titels nooit van de grond zijn gekomen. Op de kop af kwamen Intel/Apple/Ati/Microsoft en nog een dot extra bedrijven met de OpenCL/Direct Compute 'strategiŽn', die eigenlijk hetzelfde doen als Cuda, maar dan platform onafhankelijk. Hoewel gamemakers niet zomaar Physx/Havoc licenties kunnen kopen aangezien die nogal stream/cuda specifiek zijn, kunnen ze nu tenminste wel de extra rekenkracht van ELKE GPU die zich aan de DX11/OpenGL/OpenCL standaard houd aanwenden voor niet-beeld taken met hun eigen 'engines', en het is slechts een kwestie van tijd voordat John Carmack, of een EA zo ver is dat ze uniforme tools zetten in de engines die voor al hun games of in licentie worden gegeven.

Dit brengt Cuda tot eigenlijk een uitsterf-einde, en combineer het met de bang/bucks die de concurent kan geven die door andermans standaarden te volgen (zoals de MS en OpenGL standaarden) simpele chipontwerpen kon ontwerpen, en je hebt een fabrikant die noodgedwongen chips moet gaan relabelen, of uitspraken gaat doen waarvan ze donders goed weten dat het 'onzin' is. Net zoals 3DFX destijds het nut van 24/32 bit kleur niet in zag, en met de vťťl te complexe VooDoo4/5 kwam terwijl ze hun eigen 'Glide' bleven ontwikkelen, heeft nVidia nu een probleem met DirectX 10.1/11, en hoewel ze via Cuda wel het een en ander kunnen 'porten' of wrappen, blijft DirectCompute/OpenCL een mild probleem, zeker gezien de marketing en ontwikkeltijd die er in Cuda zit (dure raytracing demo?)

nVidia kan door dit punt helaas niet meer 'snel' met een competatieve kaart komen die lekker no-nonsense is, en standaarden volgt, terwijl het ontwerp zo simpel is dat je gewoon stukken weg kan snijden om een goedkope kaart te maken (Radeon HD 5700 serie door gewoon wat shaders die in het chipontwerp haast afbreekbaar zijn weg te halen).

Gamble & loss, naar mijn mening. Laten we hopen dat Intel ze overneemt om specialisatie in drivers/chipsets, en frisse ideŽn binnen te halen, zodat we niet een monopolist-ATI hebben, met een dosis 'specialisten' zoals Matrox die ook moeten worstelen om hun markt te behouden.

Ik heb al maanden geleden eens gezegd dat we naar een sterk oligopolistische markt gaan, waar enkele grote fabrikanten die hele 'platforms' maken de klok slaan. En hoewel dat jammer is voor SiS, heb je dan wel een sterk AMD/ATI wat een compleet pakket kan aanbieden, een Intel/nVidia wat een compleet pakket kan aanbieden, en een markt voor Via/S3 is er ook al tijden wel, al is die een stuk kleiner.
Bravo voor het lange, goed onderbouwde verhaal. Jammer genoeg klopt er veel te veel niet aan ;)
Waar ATI toen concurreerde als 'underdog' rol, maar wel degelijke hardware had (hardware is sinds de eerste Radeon als opvolger van de Rage eigenlijk altijd wel goed geweest),
...
en ten tijde van de tweede Radeon had ATi ook goede drivers. Hoewel het een tijd heeft geduurd totdat Jan met de P. dit ook door had, is vanaf die tijd ATi 'gelijk' aan nVidia gaan lopen, met hooguit af en toe een kleine sprong in outperformance.
Jij denkt dat het al die gamers ook maar iets uitmaakte hoe goed drivers waren? Performance is het allerbelangrijkste bij GPU's, en dat is het al jaren geweest. NVIDIA heeft inderdaad altijd betere drivers gehad dan ATI, maar dat is totaal onbelangrijk wanneer het performanceverschil groot genoeg is. Jammer genoeg heeft ATI op dit punt veel te vaak achter gelopen. Alleen ten tijde van de Radeon 9700 had ATI een duidelijke voorsprong op NVIDIA, de rest van de tijd liep het of ongeveer gelijk, of liep NVIDIA voor.

Uiteraard helpen zaken als drivers en support wel bij het binden van klanten, en dat is dan ook een van de redenen dat NVIDIA zoveel loyale klanten heeft, maar zolang de hardware niet goed genoeg is behoud je die klanten op de lange termijn niet.
Wat nu misgegaan is, is het feit dat nVidia gewed heeft op de foute evolutie. Ze dachten dat de toekomst Cuda heette, maar ze waren te inhalig en hielden het nVidia exclusief.
NVIDIA heeft niet gewed op een toekomst die CUDA heet. NVIDIA heeft gewed op een toekomst die GPGPU heet. CUDA is daar slechts een onderdeel van. OpenCL en DX Compute zijn daar in mindere mate onderdeel van. Ik vind het alleen bijzonder kortzichtig om nu, twee jaar na introductie van een compleet nieuw paradigma het geheel als een mislukking te bestempelen, juist omdat er nog geen gebruik van gemaakt wordt. Als over twee jaar wel veel gebruik wordt gemaakt van de mogelijkheden van CUDA, OpenCL en DX Compute, dan heeft NVIDIA alle belangrijke stappen al genomen, terwijl AMD op dat vlak nog een heleboel in te halen heeft. NVIDIA kan met Fermi straks direct de concurrentiestrijd aangaan met Intel's Larrabee, RV870 totaal niet.

Overigens is NVIDIA niet de enige die heeft "gewed" op GPGPU, Intel doet hetzelfde. Denk je nou echt dat als NVIDIA en Intel beiden zoveel in die markt zien, dat jij zonder enige ervaring met de GPGPU en HPC markt kan zeggen dat het een slecht idee is? No offence, maar volgens mij werken daar heel wat slimmere mensen dan jij of ik.
Dit zette uiteraard de concurenten en developers aan het denken, waardoor cuda-exclusive titels nooit van de grond zijn gekomen.
Waar haal je dat rare idee vandaan? Je bedoelt dat er nog geen games zijn met CUDA ondersteuning? Natuurlijk zijn die er niet, dat is helemaal het doel niet van CUDA. CUDA is bedoeld voor de HPC markt, en er zijn ondertussen honderden projecten die gebruik maken van CUDA.
Wat betreft GPGPU applicaties op de gewone consumentenmarkt heb je inderdaad gelijk, er zijn weinig programma's die gebruik van CUDA maken. Deze applicaties zullen eerder OpenCL gebruiken. Gelukkig maar dat OpenCL opvallend op CUDA lijkt, en ook grotendeels op CUDA gebaseerd is. NVIDIA heeft ook op dat gebied dus een enorm voordeel op AMD, die in hun architectuur veel minder rekening houden met GPGPU mogelijkheden.

Jij ziet CUDA als een concurrent van OpenCL. Dat is het niet per se, het zijn gewoon alternatieven. NVIDIA wordt er niet veel slechter van of een applicatie nou OpenCL of CUDA gebruikt, zolang klanten maar NVIDIA hardware kopen om het op te draaien.
n combineer het met de bang/bucks die de concurent kan geven die door andermans standaarden te volgen (zoals de MS en OpenGL standaarden) simpele chipontwerpen kon ontwerpen
Alsof NVIDIA geen standaarden volgt. CUDA vormt de basis voor OpenCL, dus NVIDIA ondersteunt OpenCL gewoon, en natuurlijk ook OpenGL en straks DirectX 11. NVIDIA heeft alleen meer functionaliteit op gebied van GPGPU. Dat gaat hen straks een enorm voordeel geven wanneer hier meer applicaties beschikbaar voor komen, terwijl AMD dan ver achter loopt op NVIDIA en Intel. Of dit een belangrijke reden is om een kaart te kopen weet ik niet, dat kunnen we over een paar jaar pas achteraf zeggen, maar ik vind het erg dapper van NVIDIA dat ze een actieve pioniersrol op zich nemen en niet zoals AMD maar achter alle trends aan lopen.
nVidia kan door dit punt helaas niet meer 'snel' met een competatieve kaart komen die lekker no-nonsense is, en standaarden volgt, terwijl het ontwerp zo simpel is dat je gewoon stukken weg kan snijden om een goedkope kaart te maken (Radeon HD 5700 serie door gewoon wat shaders die in het chipontwerp haast afbreekbaar zijn weg te halen).
Ik geef je gelijk dat NVIDIA door zijn grote monolithische GPU aanpak minder snel en wendbaar is dan AMD, maar ik zie niet in waarom dat het makkelijker of moeilijker zou maken om een goedkopere kaart te maken. NVIDIA's architectuur is ook gewoon een multicore chip met losse blokken logica voor IO. Ik zie niet in waarom NVIDIA niet net als AMD ook gewoon wat cores en geheugencontrollers weg kan halen om een mid-range kaart te maken.
Alsof NVIDIA geen standaarden volgt. CUDA vormt de basis voor OpenCL, dus NVIDIA ondersteunt OpenCL gewoon, en natuurlijk ook OpenGL en straks DirectX 11. NVIDIA heeft alleen meer functionaliteit op gebied van GPGPU. Dat gaat hen straks een enorm voordeel geven wanneer hier meer applicaties beschikbaar voor komen, terwijl AMD dan ver achter loopt op NVIDIA en Intel. Of dit een belangrijke reden is om een kaart te kopen weet ik niet, dat kunnen we over een paar jaar pas achteraf zeggen, maar ik vind het erg dapper van NVIDIA dat ze een actieve pioniersrol op zich nemen en niet zoals AMD maar achter alle trends aan lopen.
Je slaat de plank totaal mis.

ATI is als eerste begonnen met GPGPU en is juist de pionier. Maar ATI heeft voor een andere weg gekozen dan NVidia. Daardoor denk jij blijkbaar dat Nvidia voor loopt, terwijl dat niet het geval is.
Nvidia heeft zoals gewoonlijk gekozen voor een propietaire oplossing: CUDA.
Maar ondanks de naamsbekendheid speelt dat nog steeds geen rol van betekenis.
Wat Nvidia erg slim gedaan heeft is CUDA beschikbaar maken voor mensen met weinig programmeer kennis. Dat is erg gunstig geweest voor de bekendheid van CUDA. Maar daarna bleek al snel dat het voor die mensen niet erg interessant is. Om echt baat te hebben bij CUDA heb je toch diepgaande kennis van die GPU nodig.

ATI is al snel van de propietaire oplossing afgestapt en heeft een betere lange termijn visie ontwikkeld. Zij ontwikkelen voor een open standaard en voor een Microsoft standaard.
Zij hebben goed begrepen dat propietaire oplossingen geen toekomst hebben.

Het zal niet lang duren voor mensen CUDA aan de kant zetten voor OpenCL en DX11.
En bij de ontwikkeling van die twee is ATI veel nauwer betrokken geweest dan Nvidia. (met name DX11)
Ja wel een beetje sneu als je net als Umbrah zo'n lang falicant verkeerd geanticipeerd verhaal hebt lopen schrijven.

Ik kan er alleen maar uit concluderen dat u meent dat CUDA (en ATI Stream) allen iets met gaming te maken heeft, helaas is dat niet zo. Ik denk dat de vergissign gekomen is door CUDA en PhysX door mekaar te halen. De videokaarten zijn door Nvidia compatible gemaakt met CUDA (een stream processing library) wat ervoor heeft gezorgt dat men ook PhysX (physics acceleratie) op dezelfde grafische kaarten kan laten draaien.

Met CUDA en streamprocessing in het algemeen, is het mogelijk om zeer grote snelheidswinsten te behalen voor sommige soorten berekeningen, vele malen sneller dan mogelijk is dan met een gewone CPU (hoeveel cores er ook op zitten). Vooral voor videobewerking en wetenschappenlijke berekeningen wordt het al veelvuldig toegepast.

Streamprocessing komt net uit de kinderschoenen en zal alleen nog maar veel belangerijker worden dan het nu al is en daar komt nog bij dat Nvidia met CUDA ook nog het verst gevorderd is hiermee.
Nvidia zit wel snor hoor. Ik weet niet hoe vaak ik aan heb moeten horen dat Ati helemaal dood zou gaan, ten tijde van de HD2/3xxx series.
Als je marktaandeel in een grafiek zou zetten zijn dit waarschijnlijk gewoon 'golven'. Nvidia en Ati zullen elkaar af blijven wisselen.

Dat zie je trouwens met veel processen. Ook de economie, dat gaat soms heel hard, en dan krimpt het weer (zoals nu).
Idd toen nvidia met de 8800 reeks kwam leek het slecht voor ati maar dat lijkt nu precies andersom :)

Wel een erg goed idle verbruik :*) ik heb nu een 8800GTX die verbruikt idle meer dan deze kaarten max gebruiken ... :+
en je moet beseffen dat de 8800 ook gewoon in de vorige nvidia serie zat (9000) en in de nieuwe serie ook nog.
Nvidia heeft alleen in de high-end echte slagen gemaakt.
De mainstream versie zijn alleen maar een iet wat doorontwikkelde versie van de 8000 serie.
Niets meer een niets minder.

Gewoon hetzelfde product in een nieuwe doos met een andere naam.
Haha idd de 2xxx serie, ik heb nog een hd2400pro in me systeem zitten als 2e kaart voor me extra monitoren. Heb dat ding 2 jaa geleden gehaald toen mijn viedeo kaarten verstand nog niet zeer ontwikkeld was >.<
ik een hd2600xt, prima kaartje toen voor weinig geld...(gezien toen m'n pc in eens kapot ging moest ik toch iets nieuws hebben wat niet te duur was).
Ik heb mijn HD3870 gekocht in het 8800GT / 8800GTS / 8800etc. tijdperk.
Ben er blij mee hoor :)

Alleen om een of andere reden zijn voor mijn 2e systeem zowel mijn 9800PRO 128MB ťn mijn X1600PRO 512MB dood :(

Enne wat is er raar aan als nVidia wordt overgenomen door Intel? ATI is toch ook overgenomen door AMD? En een Intel CPU met een ATI kaartje werkt nog gewoon hoor.

[Reactie gewijzigd door lolcode op 9 oktober 2009 12:00]

erg zuinig inderdaad, mijn 4890 vapor-x slurpt meer prik... Ik wacht tot leuk geprijsde snelle dx 11 kaarten wat meer mainstream worden voor ik upgrade.
En ook nog is support voor 3 monitoren *glunster*
Glunster? Een soort combinatie van glunderen en glinsteren? Klinkt wel wat gay iig. ;)

Ontopic: 2 van zulke kaartjes met passieve koeling lijken me wel wat.
150 dollar is inderdaad een geweldige prijs! Zeker als de 5770 beter/gelijk gaat presteren als de 4870/4890.
Leuke kaart! 150dollar is dus +- 102 euro * 10% tax * 21% (Belgie nu eenmaal ;)) kom ik rond de 135,762 euro uit. wat best een mooie prijs is! ook al is het 1dollar=1euro dan is 150euro nog altijd een leuk bedrag voor deze videokaart!
idd... Ik heb naar aanleiding van de aankondiging mijn aankoop voor een nieuwe videokaart ook maar uitgesteld.

Ik ben benieuwd hoe deze kaart zicht tot de 48** series gaat verhouden. Voor mij is de 48** snel genoeg maar het verbruik vind ik erg hoog... Dit zelfde geldt voor de Nvidia 2** series...

Ook het aansluiten voor een derde monitor vind ik fijn... Hiervoor heb ik nu 2 videokaart in mijn systeem zitten... 1 voor het kijken van films en de andere 2 voor gewoon werken...

Ik ben benieuwd... zeker met die prijs van 150 euro... Lekker veel waar voor je geld....
Ai pas op met dit soort slides aub. Er is nog niets bekend. Er staat zelfs HD5800 onder een van die slides......

Het zijn nog maar geruchten.......
Net zoals het lettertype tussen de 2e en 3e afbeelding :P

Lekker amaturistisch inelkaar gephotoshopped :+
De support voor 3 monitoren met een flinke resolutie spreekt mij erg aan. Je kan nu dus een relatief zuinige videokaart in je systeem stoppen, en wel een fatsoenlijke multimonitor setup aansturen.

Pixeltje ziet potentie :)
een car-pc + 3 beeldschermen in je kratradio? :+

Hallo Pixel, jij ook hier :Y)
Held _/-\o_ Alsof dat ding nog niet zwaar genoeg is ;)

Ontopic: Ik zat meer te denken aan een huiskamer pc, die je met een 17-20" scherm gebruikt om te internetten oid, en met je TV om HD films op te kijken. Geen gedoe met kabels wisselen.

Overigens heb ik met een maat het plan opgevat om samen te gaan wonen (studenten, bier, feest!) zo'n kaart zou dan ons beeldscherm in de keuken (met automated voorraadbeheer) en een scherm in de woonkamer (met RSS boodschappen-feed) aan kunnen sturen :+
ben wel benieuwd hoe ze die drie monitoren willen aansturen dan zou je 2x dvi en 1 keer hdmi moeten gebruiken?
ik ben zelf als gelukkige in het bezit van een matrox TripleHead2Go die er voor zorgt dat mijn 3 19" TFT,s worden gezien als 1 monitor en heb dus altijd al een res. van 3840 x 1024
je moet me WoW screenshots eens zien hahahah

maar denk dat dit ook wel een goed alternatief zou zijn voor mijn huidige systeem
mooie prestaties voor een nog mooiere prijs :)
het ziet eruit als het kleine broertje van de 58xx serie, ook qua formaat.
specificatiegewijs ziet de 5770 1 Gb er hetzelfde uit als de 5850 (uit mijn hoofd). als dit dan gelijke resultaten geeft is het misschien een leuke overlap.

ik ben benieuwd naar de resultaten t.o.v. het "grote broertje"
Met deze prijzen ben ik wel beniewd naar de crossfire prestaties van deze tegenover een enkele 5870/50. Immers zet het budget die ongeveer gelijk neer, dus kan een interessante tussenweg vormen.
prachtkaarten! leuke prijs om er dan 2 naast elkaar te zetten.. dit houd ik zeker in de gaten, het word rond kerst of de 5850 vapor x, of een dual opstelling van deze kaarten.

benieuwd naar de benchmarks

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True