Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 63 reacties

AMD zou deze week, tijdens de Consumer Electronics Show, een aantal nieuwe videokaarten introduceren. Een HD 5570, van het merk Unika, werd al vroegtijdig op de foto gezet. De videokaart heeft een Redwood-gpu aan boord.

Volgens AMD's roadmap worden er in het begin van 2010 videokaarten geïntroduceerd op basis van de Redwood- en de Cedar-gpu. Op het forum van een Turkse website verschenen echter al foto's van een videokaart, die uitgerust is met de Redwood-gpu. De HD 5570 is van het Chinese merk Unika en volgens de website beschikt de videokaart over een 128bit-geheugenbus en 1GB gddr3-geheugen dat op 1800MHz is geklokt. De gpu, met een onbekend aantal streamprocessors, zou op 650MHz zijn geklokt. Eerder doken er ook al foto's op van de HD 5670.

De HD 5570 is een budget-kaart en dat is te zien aan de korte pcb. Zo zijn er geen CrossFireX-aansluitingen te zien en lijkt het er op dat de gpu gevoed wordt door een powercircuit van twee fasen. Dat is niet vreemd, want de gpu verbruikt zo weinig energie, dat er geen peg-connector aanwezig is: de videokaart trekt al zijn stroom uit het pci-e slot. Verder zijn er nog een dvi-, een hdmi- en een vga-uitgang te zien. Deze week zal AMD waarschijnlijk meer bekend maken over zijn budget line-up van DirectX 11-kaarten.

Unika HD 5570 Unika HD 5570 Unika HD 5570
Moderatie-faq Wijzig weergave

Reacties (63)

Het is dus niet mogelijk om nu zo'n kaartje te kopen en er later nog een paar bij te prikken omdat de kaart kan niet over weg met Crossfire (-x)?

Ik hoop te voor een paar euries een klein kaartje er bij te kunnen prikken en dan er later nog een paar bij. :)

[Reactie gewijzigd door Peran op 3 januari 2010 16:10]

Crossfire zou mogelijk moeten zijn via Softwarematige CrossFire. Al een tijd lang hebben de budget kaarten van AMD geen hardwarematige CrossFire connector meer. Alle data gaat via de PCIe bus die voor dit soort budget kaarten voldoende bandbreedte biedt om CrossFire te ondersteunen.

Of het nou zinvol is om zo'n budget kaart in CrossFire te stoppen is natuurlijk een compleet andere zaak.
Dat is inderdaad de volgende vraag maar dat kan ik zelf uitzoeken als het zo ver is..

Net een review gelezen van een 5850. 200 EUR..
2 lossen GPU's heeft alleen groot hebben gehalte. :) (gevoelsmatig)

thx voor de reactie!
Vergelijk dan even de specs van deze kaart en van de HD5850. Twee van deze babykaartjes in crossfire zijn nooit zo snel als een HD5850. Met een beetje geluk komen ze in de buurt van een HD57xx, maar met twee van deze kaartjes zijn er nog meer minpunten. Je bent dan ook afhankelijk van crossfire-performance, ze zullen iets meer verbruiken dan één kaart met gelijke prestaties en het is niet bevorderlijk voor de airfow. Allemaal geen ramp maar het geeft aan dat één sneller kaart voordeliger is. Anders zou die snellere kaart natuurlijk niet verkocht worden ;)
En als een game CF niet fatsoenlijk ondersteund zit je daar met je 'halve' performance... Maargoed je betaalt er dan ook een stuk minder voor.
Iedereen doet wel lullig over deze kaart. Maar deze maakt vast mijn 4650 in. Dik zelfs. En daar speel ik gewoon dirt2 mee. Prima kaart voor de budget gamer.
Die maakt wellicht je 4650 niet in.
De x5xx series van Ati zijn budget en zullen nooit goede prestaties tevoorschijn toveren.

Zo is een HD4550 nog altjd trager dan een HD3650 (en trager dan een X1650XT of HD2600 pro)
http://translate.google.d...=zh-CN&tl=en&hl=&ie=UTF-8
dit zou een link zijn naar het originele artikel. (vertaalt weliswaar ;) ) ik citeer:
"Currently Fire Whirlwind 2 HD5570 big cow does not recognize the correct version of stream processors, but what should be expected industry 400SP, and this could see its position in the mainstream segment.
Fire Whirlwind 2 HD5570 big beef version used 1GB/128bit memory specifications, using S DDR3 memory particles, the default frequency of 650/1800MHz. "

Als deze specificatie kloppen, dan zou ik niet echt durven spreken over een "lichte kaart", deze zou dan namelijk ongeveer even sterk presteren als een oude 3850 en de kaarten uit de 4600 serie. Als de prijzen een beetje overeenkomen met wat de 'oude' x5xx kaarten kosten(<€50), dan is dit inderdaad een zeer goeie prijs/kwaliteitsverhouding.

Bovendien gaat dit kaartje waarschijnlijk nog wel wat speelruimte hebben voor overclocking. Dergelijke budget kaartjes zijn meestal vrij koel en worden vaak gebruikt voor wedstrijden.
Dit zou inderdaad wel 'ns een killerkaartje kunnen worden voor de (creatieve)low-budget & casual gamer.
De indeling van verschillende segmenten is bij elke serie weer net iets anders. Zo was bij de HD3xxx-serie low-end HD3450, bij de HD4xxx-serie was dat HD4350. Het tweede getal kan dus per serie iets 'opschuiven' en er is best kans dat een HD55xx gelijkwaardig is aan een HD46xx. Dat hoop ik, althans :P En dat de prijs van dit kaartje dan ook onder de ~45 euro ligt.

Dat geldt dus ook voor wat betaplayer hier onder beweert, dat de prijs van een HD4500 onder de 50,- ligt wil niet zeggen dat dat bij deze kaart ook zo is. Misschien neemt deze kaart dezelfde positie in als de HD4600's deden, en dan kan 'ie zo maar 60,- gaan kosten. Ik hoop het niet, trouwens.

[Reactie gewijzigd door bwerg op 3 januari 2010 19:38]

Ik zie het wel als waardige opvolger voor mijn 3650. Voor de casual gamer, die af en toe een spelletje speelt is het waarschijnlijk een prima kaartje.
Zoals mijn onderstaande post. Neen. Koop geen x5xx series van Ati, koop één van dezelfde series zoals je nu hebt de x6xx series, deze zijn inderdaad altijd zeer goed qua prijs/prestatie.
Waarom nou weer 1GB. Het voegt niets toe aan de prestaties en bij dit soort kaartjes merk je juist het verschil van 5 euro dat je krijgt als je er maar 512MB op zet (immers is het verschil tussen 40 of 45 euro al wat significanter dan bij high-end, waar het 300 of 305 euro zou zijn).

Wachten dus op lekker goedkope 512MB-versies.

[Reactie gewijzigd door bwerg op 3 januari 2010 13:51]

Voor hogere resoluties kan het een meerwaarde hebben om meer geheugen op je video plank te hebben. M-AH boven mij heeft trouwens ook gelijk ;)

[Reactie gewijzigd door BlueLed op 3 januari 2010 13:58]

Hoge resoluties en budget kaarten zijn niet bepaald een goede combinatie. ;)
Het is inderdaad vooral de marketing die hiervan profiteert.
En misschien ook de geheugenfabrikanten, die mogen ook wel eens wat verkopen na de crisis op de geheugenmarkt van een aantal jaar geleden..

[Reactie gewijzigd door Malantur op 3 januari 2010 14:12]

Als je wel een groot scherm (of twee, drie) wilt aansturen (bv voor grote spreadsheet, beurskoersen) maar geen behoefte hebt aan 3-d game-graphics dan is een budgetkaart vaak al voldoende, en toch beter dan een igp.
Omdat jammer genoeg GB's/MB's nogsteeds goed verkopen. En de doorsnee consument niet verder kijkt dan dat, en dus eerder deze kaart zou kopen dan er 1 van bijna dezelfde prijs met 512MB
Misschien wel omdat het makkelijker is deze ook maar op deze variant te plakken als je ze toch hebt liggen?
Geheugen kost geen reet, het is zeer wel mogelijk dat in de loop van de levensduur van het kaartje het goedkoper is om er 1GB op te prikken in verband met beschikbaarheid van de betreffende chips.
Moet een dergelijk lichte videokaart wel actief gekoeld worden ?
met een grote passieve koeler gaat't vast ookw el, maar een klein actief koelertje is goedkoper...
Het hoeft niet, maar het is wel goedkoper omdat er een kleinere heatsink nodig is. Ik denk dat hier genoeg fabrikanten een passieve versie van uit gaan brengen.
Er zullen ongetwijfeld ook passieve versies, maar actieve koeling is goedkoper ivm de prijs van kilo's aluminium. :)
Wat ik nooit snap is dat ze op budget kaarten (bijna) altijd 1x VGA en 1x DVI monteren. Waarom nou niet 2x DVI, dan kun je in ieder geval 2 schermen digitaal aansturen en een analoog scherm kan via een adaptertje.
Er zit ook HDMI op, dus HDMI na DVI verloopje kan ook prima. :)
omdat bijna alle budget schermen nog steeds een D-SUB connector hebben, bijgevolg moeten ze GEEN adaptertje meeleveren = goedkoper
bij deze kaarten zijn de marges vrij laag hoor
Eindelijk zien we ook een 128-bit-geheugenbus terug in de wat meer budget-bewuste kaartjes!
Het lijken mij best wel goede kaartjes. Als ze ook nog een zacht prijsje mee krijgen is het een goede prijs kwaliteit verhouding die Nvidia zelfs in de goedkopere sigmenten de genade klap zal geven. Daarbij zullen beschikbaarheid en aanbod ook belangrijk zijn. Maar goed deze chips zijn een stuk kleiner en vooral minder complex dan de cypress of junipers en daardoor zullen er ook minder snel defecten komen in het process. daarbij zullen de chips met de defecten nog altijd als goedkopere varianten verkocht kunnen worden.
En een voordeel van deze goedkopere kaartjes is dat het energie verbruik waarschijnlijk vrij laag zal zijn dus je zult er geen betere voeding voor nodig hebben ideaal voor wie voor een upgrade zoekt voor een voor gebouwd merk systeem.
Maar toch hoop ik dat nu eindelijk na de jaarwisseling de Cypress kaarten een beetje op voorraad gaan komen zodat de prijs weer een beetje richting de advies prijs daald en de leverbaarheid verbeterd want dan koop ik radeon 5850 :D
En een voordeel van deze goedkopere kaartjes is dat het energie verbruik waarschijnlijk vrij laag zal zijn dus je zult er geen betere voeding voor nodig hebben ideaal voor wie voor een upgrade zoekt voor een voor gebouwd merk systeem.
Ten eerste: de kaart beschikt niet over een 6- (of meer) pins connector voor een voedingskabel, en in het artikel wordt expliciet vermeld dat hij de volledige behoefte aan energie kan trekken uit de PCI-e lane. Dat wil zeggen dat dit kaartje niet veel meer zal gaan verbruiken dan 25 Watt, omdat ik hier een HD3650 LP draai (heeft ook geen connector) en die heeft een opgegeven TDP van 25 Watt ;)

Zal dus voor je energierekening totaal geen probleem zijn :)

offtopic:
PS: ik wacht ook op de HD 58xx lijn tot ze beter leverbaar zijn. Is het jou toevallig ook opgevallen dat verschillende leveranciers (Azerty oid...) met de prijzen van de HD 58xx lijn omhoog zijn gegaan? Daar waar je eerst een HD 5870 kon kopen voor 305 euro, kost het je nu minimaal 340! Dus ik hoop ook dat de beter leverbare kaarten komen met een lager prijsje...


edit: PCI-e levert tot maximaal 75 Watt, zie hieronder ;)

[Reactie gewijzigd door Fid3lity op 4 januari 2010 19:55]

PCI-e kan tot 75 watt leveren. Het is niet omdat jouw oude kaartje een TDP heeft van 25 watt dat alle kaarten zonder 6-pins connector maar 25 watt verbruiken. Er zullen heus wel kaarten zijn die meer verbruiken dan dat.
Leuk kaartje voor in een kleine HTPC lijkt me :)
Zeker in de gaten houden deze rakkers :)
Ik zat zo ook te denken, maar mijn (oude) TV heeft enkel scart/composiet in, Kan je dat nog met een of ander verloopje aansluiten? of moet je dan echt een oude kaart met tv-out gaanz oeken?
Je zou een VGA-Scard adapter kunnen maken (even googlen). Heb je ook gelijk betere kwaliteit door de RGB signalen ipv composiet.
Niet elke tv kan overweg met RGB.
Een beetje videokaart met breakout-box kan composiet/component/s-video uitsturen.
Of je met composiet tevreden gaat zijn betwijfel ik. De kleuren zijn slecht.
Je zit me zo'n lage resolutie, je desktop is bijna onleesbaar.

[Reactie gewijzigd door Soldaatje op 3 januari 2010 14:18]

Vrijwel elke TV met een SCART-plug kan overweg met RGB. Zoniet elke.
Oudere tv's niet, ik heb hier een tv die twee scart aansluitingen heeft waarvan er maar een RGB begrijpt. En dan heb ik een nog ouder tv'tje die alleen composiet begrijpt via scart.
Nieuwere tv's begrijpen wel standaard RGB maar oudere zeker niet altijd.
Luxx heeft het over een oude tv.
2 SCART waarvan 1 RGB doet is vrij gebruikelijk, en dan kan de TV er in mijn definitie dus mee overweg.

Kan jij me modellen noemen die helemaal geen RGB lusten? Ik heb in m'n leven 1.000'en TV's gezien en zou er namelijk zo snel geen kunnen noemen.

De originele SCART-standaard van begin jaren '80 noemt RGB al, en juist de early adopters zoals Thomson en Philips zorgden er wel voor dat ze de standaard zo compleet mogelijk implementeerden.

Wellicht (dat zou ik moeten opzoeken) zijn er in de jaren '80 (die modellen kom je trouwens maar weinig meer tegen) hier en daar nog wel eens Japanse of Amerikaanse importmodellen geweest, waar de SCART als afterthought werd toegevoegd omdat ze die daar niet kennen, en zelfs dan ben ik er niet van overtuigd dat die het zonder RGB moesten stellen (indien wel, dan valt dat onder mijn definitie van "vrijwel elke"). Ik zal eens in m'n schema's kijken wat Sharp in dat tijdperk deed. Iets van CV-2121S ofzo, ben benieuwd, maar nogmaals: als jij met wat typenummers komt kan ik je uitspraak verifieeren.

[Reactie gewijzigd door mae-t.net op 8 januari 2010 15:36]

als je een oude sd tv hebt heb je dit kaartje ook niet nodig dan kun je net zo goed je igp gebruiken ;)
Dus als ik een fatsoenlijke monitor heb waarop ik wil gamen op dezelfde pc die ook met een kabeltje aan m'n sdtv hangt moet ik van jou maar m'n IGP gebruiken? Als jij het zegt...
Ik denk niet dat je serieus wilt gamen met deze kaart.
Oke need for speed underground gaat hij wel draaien, maar om daar een nieuwe videokaart voor te kopen...
Deze dingen zijn voor wie wel HD films wil kijken, maar geen extra geld uit wil geven voor een "game" videokaart.

Toch blijf ik het nut van deze kaarten niet helemaal snappen, nieuwe IGP's kunnen dit soort kaarten toch aardig bijbenen en ook HD films afspelen? De meerwaarde valt voor nieuwe systemen een beetje weg heb ik het idee. Misschien leuk om je oudere HTPC een HD upgrade te geven maar meer ook niet.
Ligt eraan, kun je er twee monitors mee aansturen? In dat geval zie ik er het nut wel van in, voor het bedrijfsleven. Sowieso zijn er zat plekken waar ze als een igp van de Dell/HP kaduuk gaat even een goedkoop AMD-kaartje erin prikken.

En zoals je zelf al aangeeft, er zullen zat mensen zijn die inderdaad even een simpele upgrade voor hun HTPC willen. Dus zolang je er niet al teveel ontwikkeling in hoeft te stoppen kun je zo'n kaartje denk ik beter wel aanbieden dan niet.
IGPs van nu kunnen mid end kaarten van jaren terug redelijk bijbenen. Ook al boeken IGPs grote vooruitgang, de mid (en high) end staat natuurlijk ook niet stil. Een GMA4500 is altijd nog zo'n 5 keer zo traag dan een HD4670 (welke gok ik ongeveer even snel zal zijn als een HD5570).

Juist omdat deze kaarten verkocht worden voor een appel en een ei zijn ze zo aantrekkelijk voor de casual gamer of de persoon die denkt dat een dure CPU belangrijker is voor gamen dan een dure GPU.

Overigens zul je hier prima op kunnen gamen, maar dan moet je niet denken aan Crysis @ 1920x1200. Echter durf ik te wedden dat UT3 op 1280x1024 prima speelbaar gaat zijn. HD4670 op UT3 op 1920x1440 pompt al tegen de 50 fps volgens:
http://www.overclockercaf.../HIS_HD4670_Turbo/pg4.htm
In principe wel ja maar de 5000 familie van ATI is al nauwelijks leverbaar, ik vraag me af of deze dan wel leverbaar blijken, of moeten rebrands zijn van de slechte yields waarbij ze het een en ander uitzetten om de juiste specs te creeeren dan verwacht ik geen probleem.

Wel jammer, heb je een geweldige GPU krijg je de aantallen niet op de markt. Zo hoeft NVidia zich op dit moment geen al te grote zorgen te maken.
Lijkt geweldig voor kleine computers of idd HTPC's :3
Zijn er ook zo'n kleine tv-kaartjes? Kan het mss mijn digicorder vervangen (moest telenet mss de digitale kanalen niet blokkeren :s)
Voor HTPC's inderdaad een heel leuk kaartje, moeten ze er wel aan gaan denken om deze kaarten ook in low-profile te gaan produceren :)
Ja, dat low-profile lijken ze de laatste tijd te vergeten. Ook de nieuwste nVidia-kaartjes uit het lagere segment zijn allemaal vierkant. Dat moet toch niet nodig zijn?
ook deze kaart kan 3 schermen aansturen, dus 1GB is helemaal niet zonder of nutteloos!!!
De benodigde hoeveelheid geheugen hangt vooral af van de prestaties van een kaart. Een high-end kaart zal 1GB of misschien zelfs 2GB effectief weten te benutten en daarop is 1GB dus niet overdreven. Dit kaartje kan helemaal niks met 1GB, mede dankzij zijn 128-bits geheugenbus en GDDR3. Daarmee heeft deze kaart maar de helft van de bandbreedte van bijvoorbeeld de HD4850, en zelfs met die kaart merkte je al geen verschil tussen 512MB en 1GB.
Voor drie schermen heb je echt geen 1 GB nodig, voor games wel maar dat trekt de GPU niet.
3 schermen aansturen ja, zolang het in 2D blijft.
Ik zie dit kaartje geen game trekken op 5040x1050...
Misschien wel iets als 3 17" SXGA schermen, 3840x1024.
Maar dan is de vraag of het niet nuttiger en goedkoper is om 1 groot scherm te kopen, dan zit je niet met de kaders van je scherm.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True