Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Bron: HKEPC

In december komt ATi met reeks nieuwe grafische kaarten waarop een gpu met geďntegreerde videoprocessor zit om HD-video te decoderen: de ATi RV550. Nu kunnen alle grafische kaarten van ATi uit de Radeon X1000-serie HD-video in H.264- of VC-1-formaat decoderen. Voor het 1080p-beeldformaat moet echter wel een topmodel in de vorm van een X1800 of X1900 worden aangeschaft, daar de X1300 en X1600 maximaal 720p aankunnen. De RV550 zou hier echter verandering in moeten aanbrengen. Deze gpu is namelijk gebaseerd op een RV516-core die versmolten is met een Xilleon videoprocessor die onder andere in set-top-boxen wordt gebruikt. Daarnaast zou de nieuwe gpu krachtig genoeg moeten zijn om twee verschillende videostreams te decoderen in hardware, wat beeld-in-beeld mogelijk zou moeten maken.

De eerste RV550-chips zullen in kleine getale ergens in september door ATi richting de fabrikanten van grafische kaarten verstuurd worden. De massaproductie zal echter pas in december gestart worden. ATi heeft op dit moment twee referentieontwerpen klaar die beide passief gekoeld zijn. Hiervan heeft er één een HDMI-uitgang waarmee HDCP-content afgespeeld kan worden. De core van de RV550 heeft vier pixelpipelines en zal naar verwachting op ongeveer 600MHz gaan draaien. Deze spreekt het GDDR2-geheugen, met een snelheid van 800MHz, aan via een 128bits brede bus. Kaarten gebaseerd op de RV550 zouden rond de 200 dollar gaan kosten.

ATi Radeon RV550 slide 1 (klein)ATi Radeon RV550 slide 2 (klein)
Moderatie-faq Wijzig weergave

Reacties (46)

Is dit niet te vergelijken met de Purevideo functie van de nVidia 7-serie kaarten?

Of heeft purevideo puur met het afspelen te maken en niet met het decoderen?

Om beeld te krijgen moet je ook kunnen decoderen lijkt me. :Y)
Ja, maar PureVideo is nog half softwarematig. Dit zou een volledige hardware implementatie moeten zijn. Dan kan je met een 2ghz celeron ook full-hdtv in mpeg4 kijken. Dat kan je nu zelfs met purevideo actief nog wel vergeten.
Het rekenwerk zit in het decoderen :S zou niet weten waar je om "af te spelen" nog ergens moet rekenen, decoderen wil toch zeggen bits omzetten naar bits zodat je een raw formaaat krijgt??
Als ze pas de grote produktie op gang brengen in December, dan zou het me niks verbazen als al een gedeelte van die produktie door de AMD fabs gedaan wordt.

Die zijn namelijk druk bezig met de 65nm overgang die in 2007 zou starten, dus de oudere 90nm machines zijn dan ideaal voor de GPU en chipset produktie.
Waarom hoor ik niks over de hardeschijf? Zullen de hardeschijven 1080i of 720p wel snel genoeg zijn om de data te lezen?
Daar hoef je je geen zorgen over te maken hoor,, een moderne hd trekt ik geloof 25-50 MB/s. Een stream van 40mbit is 5 MB/s, dus zelfs meerdere streams is geen probleem. DVD is geloof ik maar 8mbit, en 720p/1080i zal door de mpeg4 codec (die dus moeilijker te decoderen is, maar compacter dan mpeg2 van dvd en sataliet-tv) okk zoiets zijn.
Mijn oude xbox is hier (meestal) al snel genoeg voor. De problemen beginnen pas bij 1080p. Zeker als er (vanaf HDMI 1.3) overgeschakeld wordt naar 60fps (ipv de huidige 30).
met ondersteuning voor de hoogste bitrate 40mbps, iets wat nvidia's kaart niet kan.
40mbps hoogste bitrate? Dacht het niet hoor. Volgens de profielen van de codec en wat HD in de toekomst weleens kan gaan betekenen, is zelfs 80mbps nog maar een peuleschil.
Laten we even wachten tot december om te zien wat NVIDIA's kaarten wel of niet kunnen, ja?
[no flame intended+offtopic]
eigenlijk (ben tevreden tweakers-lezer), maar uhm... het wordt moeilijker en moeilijker om aan de artikels uit te geraken imo... in principe valt het hier nog mee, maar bij sommige artikels heb ik soms echt moeilijk, en 'kben allesbehalve een noob hoor
misschien tijd voor een tweakers.net verklarende woordenlijst (die iedereen kan aanvullen a-la wikipedia)?
[/no flame intended+offtopic]

edit... oké -1 dat was te verwachten :Z
Zoiets kan je beter op GoT posten :)

Enne voor al die woorden kan je ook gewoon op wikipedia.org terecht :P
Ik zou het een verarming vinden als het anders wordt neergezet. Er staat toch niets onbegrijpelijks? Ok dr word wel erg veel met serienummers gesmeten maargoed. Alles wat dr gezegt word (HDMI, H.264, 720p...) is de afgelopen tijd al uitvoerig genoeg behandelt om nu gewoon te gebruiken als term zonder uitleg.
kan je dan teminste een voorbeeld van ee term of begrip uit bovenstaand artikel geven waar je moeite mee hebt?
Mjah het is mij toch zo klaar als een klontje in ieder geval :Z

Er bestaat overigens ook nog zoiets als GoT, daar wordt een hoop nader uitgelegd.
ATI komt met nieuwe kaart met ondersteuning voor HD-video, welk gedeelte snap je niet? ;p
Je hebt een videokaart, die IN-GAME met 1280x1024@60 fps bijna foto-/videorealistische beelden neer kan zetten, nodig om een simpel videotje af te spelen...

Je hebt dus bijna een zwaardere videokaart nodig om "Final Fantasy: the spirits within" te bekijken op HD-video, dan wanneer die realtime gerendert zou worden...

Dat slaat toch nergens meer op?
3D rendering (spellen) en beelddecompressie (video) zijn totaal verschillende operaties. Het is dan ook logisch dat een chip die goed is in het ene niet noodzakelijk goed is in het andere. Je hoeft dus heus geen zwaardere videokaart te hebben om HDTV te kijken dan om spellen te spelen. Deze kaart bijvoorbeeld is spotgoedkoop en speelt vloeiend 1080i af, maar suckt als het op framerates in 3D games neerkomt.
Zou een mooie tegenzet van XGI zijn als ze zo'n kaartje als PCI(express) add-on kaartje uitbrachten - hoef je niet meteen je dure games kaart naar de sloop te brengen en toch mooi HDTV kijken }>
Ja, maar je spel kun je oneindig blijven spelen. Oude beelden worden toch weer wegegooid. Een film is echt opgeslagen en verg dus veel ruimte. Hierbij wordt compressie toegepast en dat zorgt voor de hoge systeemeisen, doordat de beelden gedecodeerd moeten worden.
Ik vind CSS/HL2/BF2/Doom3 nog steeds wat minder uitzien dan Final Fantasy the spirits within :)
FF spirits within?
ik vond FF:AventChildren toch tig maal beter :D
render is heel wat anders dan raytracer.
Als ATi slim is ontwerpen ze een kaart met deze chip en de ATi Theater Pro 650 chip als tv-kaart en brengen ze die uit als all-in-wonder voor mediacenters, uiteraard passief gekoeld. Dat zou pas interessant worden...
Het zou me niet verbazen als ATI dat idee van je daadwerkelijk gaat uitvoeren.

Zo te zien heeft ATI ontdekt dat er naast de game kaarten een nieuwe markt GPU kaarten is: HTPC kaarten.
Laatst was er ook al zo'n ATI kaart die zuiver op HTPC gericht was.

Ik ben benieuwd wanneer Nvidia gaat volgen.
In dat geval ga ik es solliciteren bij ATi denk :+
Whaha :D jij bent slimmer wou je zeggen ?
Dat zal vast wel komen maar dit is een mooie zet Van Ati omdat Cpu niet belast wordt dat is echt Cool
Vooral voor mensen die low budget pc hebben hoeven Geen Nieuwe Cpu moederbord te kopen alleen voor HD Afpspelen right ?
Wat mij betreft gooien ze twee Theather Pro 650 chips en de RV550 op één bord. Dan heb je de complete mediacenter kaart die ook één kanaal kan opnemen terwijl een ander afspeelt.
Ik vroeg me al af wanneer eindelijk een dedicated videoproc op die videokaarten zou komen. Volgens mij DE manier om efficient (kosten/baten) HDTV-beeld te leveren. Die settopbox chips bestaan nl al jaren. Beetje sullig om je dure GPU voor dom massaal rekenwerk (HD video processing) in te zetten. Zoiets als je CPU default gebruiken voor je screengraphics ipv een GPU.
je dure GPU voor dom massaal rekenwerk in te zetten
De hele reden dat er GPUs bestaan is omdat ze dom masaal rekenwerk kunnen doen onafhankelijk van je CPU. Bovendien zie ik nog niet zo snel in waarom het zonde is om je dure GPU te gebruiken bij Video, het is nog sulliger om je dure GPU maar werkeloos te laten toekijken.
Bovendien zie ik nog niet zo snel in waarom het zonde is om je dure GPU te gebruiken bij Video
Omdat een dedicated videoprocessor nog beter en goedkoper is in die taak. Hou je tenminste nog beeldrekenkracht over, mocht je nog wat doen op je dual screen desktop (1x HDTV, 1x desktop: ja, al die kaarten kunnen nl. meerdere schermen aansturen). Duh!
Je dure gpu gebruiken om je scherm te berekenen??? oh wacht, enkel windows heeft zoveel resources nodig :P de rest kan 3d met heel wat minder ook al doen :P
Valt me nog tegen eik. Geheugen slechts DDR2 en op 800 mhz. Kaartjes van nu draaien aardig harder.
de RVchips zijn dacht ik voor de budget reeks
ik dacht dat de R600 ook rond die periode ging uitkomen (voor de topmodellen uiteraard), welke wel iets zwaarder zullen uitvallen
Nu AMD en ATi samen zijn gegaan ... waarom maken ze het dan niet zo dat de processor die kan doen ?
wat zou daar het voordeel van zijn?
Ja, ze kunnen makkelijk een nieuwe processor ontwerpen en bouwen in 1 maand :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True