Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Bron: Hot Hardware, submitter: bobwarley

'To Viiv or to Live!', was de vraag waarop Hot Hardware een antwoord zocht. Dit vond het door twee nagenoeg gelijk geconfigureerde systemen van HP te testen: één op basis van het Intel Viiv-platform en één op basis van het AMD Live!-platform.

Intel Viiv-logo (nieuw)Het Viiv-systeem, een HP Pavilion a1640n, maakt gebruik van een 1,86GHz Core 2 Duo E6300-processor, gekoppeld aan een G965-chipset. Het Live!-systeem, een HP Pavilion a1630n, is gebaseerd op een 2,2GHz Athlon 64 X2 4600+-processor en een chipset die bestaat uit een nVidia GeForce 6150LE en een nForce 430 MCP. Voor de rest zijn beide systemen gelijk aan elkaar en uitgerust met twee repen 1GB DDR2-533-geheugen, één 16x dvd-brander en een 250GB Sata-harde schijf. Als besturingssysteem maakten beide systemen gebruik van Microsoft Windows Media Center 2005.

AMD Live!-logoBeide systemen werden met behulp van 11 benchmarks flink aan de tand gevoeld. Twee van de cpu-intensieve testen werden door het AMD Live!-systeem gewonnen. Het Intel Viiv-platform wist daarentegen slechts één test te winnen. In de overige twee cpu-intensieve testen was het verschil nagenoeg nul. Op het gebied van grafische prestaties bleek de geïntegreerde grafische core van de Intel G965-chipset, de GMA 3000, over het algemeen iets betere prestaties neer te zetten dan de geïntegreerde gpu van de GeForce 6150LS-chipset. Daar staat echter wel tegenover dat Battlefield 2 niet eens op de GMA 3000 wil draaien. Daarnaast blijkt de Intel IGP nogal wat renderfouten te maken in de 3DMark 2006-test.

Beide systemen zijn dus erg aan elkaar gewaagd. Er was echter een test die de uiteindelijke doorslag zou geven: HQV. Met deze test kan de kwaliteit van het decoderen van video worden beoordeeld en hoewel Intels ClearVideo-technologie, waarmee de GMA 3000 IGP is uitgerust, een flinke stap vooruit is ten opzichte van oudere Intel-oplossingen, is het geen partij voor nVidia's PureVideo-technologie waarvan het AMD Live!-platform is voorzien. Gezien het Intel Viiv-systeem ongeveer 100 dollar duurder was dan het AMD Live!-systeem, komt Hot Hardware met de conclusie dat het AMD Live!-systeem op dit moment de beste oplossing is voor de huiskamer. Tenminste, als de keuze beperkt wordt tot goedkope en kant-en-klare pc's.

Moderatie-faq Wijzig weergave

Reacties (69)

Dus AMD werkt samen met de concurrent van de firma die hij heeft overgenomen (ATI). Wat bedrijven niet al doen om aan de top te komen :P
Dus AMD werkt samen met de concurrent van de firma die hij heeft overgenomen (ATI). Wat bedrijven niet al doen om aan de top te komen
Grapjas. AMD Live is een set aan specificaties waar hardware aan moet voldoen om de naam te mogen dragen. Daar kan best een nVidia chipset in hangen. Het zijn HP machines die getest zijn, geen machines van AMD zelf.

Als een chipset/GPU aan de eisen voor het Live platform voldoen dragen ze deze naam, net als bij Viiv trouwens. Heeft niets te maken met waar de chip vandaan komt (in principe dan, AMD zal vast wel eerst toestemming moeten geven enzo, maar ze zouden stom zijn om dat niet te doen, hoe meer chipsets, hoe meer keuze de klant heeft, hoe makkelijker het is om ze een AMD processor te verkopen).
Dat is nu juist waar het voordeel van Nvidia kan liggen: Ze kunnen samenwerken met AMD en Intel, dus kunnen ze op meerdere paarden wedden.

Intel zal geen AMD-produkten gaan aanprijzen en AMD al helemaal geen Intel-produkten.
Nvidia kan daarintegen met allebei samenwerken.

Het enige gevaar voor Nvidia is dat Intel en AMD de markt een beetje gaan verzieken met de goedkope produkten. Dan zal Nvidia mee moeten en de vraag is of ze dat lang vol kunnen houden.
Besef goed dat de processorprijzen al flink aan het dalen zijn. Stel dat de geruchten waar zijn dat Intel een game-gpu wil ontwikkelen. Dan kan je dus ook daar grote dalingen gaan zien.
Intel zal geen AMD-produkten gaan aanprijzen en AMD al helemaal geen Intel-produkten.

Ik denk dat deze stelling niet klopt. AMD levert via ATI Intel chipsets. Intel momenteel helemaal niets voor AMD.

Het lijkt me trouwens sterk dat AMD het hun "concurrent" NVidia moeilijk gaat maken. Ze zouden op dat moment het roer 100% omgooien. Ze zijn altijd erg opengeweest voor andere chipset fabrikanten. Ook toen ze zelf chip set maakte. bijvoorbeeld de 760 chipset voor single en MP(X).
Keep your friends close, keep your enemies closer. :+
Wordt wakker dat live bestaat al heel lang. Al voordat ATi overgenomen was. Live2 zal dan ook wel een ATi chipset hebben ipv nVidia.
Bij ons op het werk hebben we een simpele beredenering: "als wij er beter van worden mag de concurrent best onze toeleverancier zijn"
Slim, tenzij de concurrent er meer beter van wordt dan jij natuurlijk... Daarnaast zat Live! natuurlijk al langer in de pipeline. Zoiets dan afzeggen kost nog meer geld...
Slim, tenzij de concurrent er meer beter van wordt dan jij natuurlijk...
Waarom?
Waarom zou ik 100 euro laten liggen alleen omdat iemand anders dan 110 euro misloopt?
omdat die 100 euro daarom wel eens de laatste kunnen zijn die ik ooit verdien.
En een paar dagen geleden las ik nog dat de GMA X3000 het stukken beter deed met intels beta drivers(ondersteuning voor hardware vertex shaders, verbeterde video deinterlacing, hogere HQV scores)klik hier
Ik neem aan dat deze verbeterde beta drivers hier niet zijn getest, want er staat in dat artikel "De nieuwe driver zal binnenkort op de website van Intel verschijnen".
Het artikel heeft het trouwens de hele tijd over de GMA 3000, maar deze zit alleen op de Q965 chipsets. Omdat het over de G965 chipset gaat moet het een X3000 zijn.

Samengevat: brand de X3000 nog niet gelijk af want de chip heeft potentieel best veel mogelijkheden. Het wachten is alleen nog op betere drivers.

@Jejking:
Ik heb bij Intel het idee dat de huidige drivers nog echt niet af zijn.
Dit omdat ze bijvoorbeeld hardware vertex shaders aanprijzen voor de X3000, maar de drivers het schijnbaar nog niet eens ondersteunen.
Dat zeiden ze ook over nVidia-kaarten in Vista in the beginning, we weten wat daarvan gekomen is en dat was tot op heden helaas geen pretje ;)
Ik vind het jammer dat ze het Stroomverbruik er niet hebben in op genomen. Want voor HTPC's (waar deze platformen ook op gericht zijn) kan dit ook een interessante indicator zijn ...
Ik veronderstel dat 't verschil in stroomverbruik tussen de twee goed zal meevallen. Kzie niet echt in waar in beide platformen het grote verschil in verbruik zou zitten. Beide fabrikanten hebben er wel grondig rekening mee gehouden.
Hoezo interessante indicator? wat maakt het uit of de een misschien een paar watt meer verbruikt als de ander, en dan is dat ook nog eens vaak alleen wanneer ze specifieke intensieve taken aan het doen zijn... Als je echt zo over gebruik bezig bent, dan moet je geen MC aanschaffen..
Ik denk dat er voor AMD ondanks al het positieve Intel nieuws dus nog wel een behoorlijke graan te pikken is.

Zeker als ze straks met hun eigen ATI graphics de boel nog wat opschroeven.

Al met al iets waar wij consumenten weer voordeel aan behalen, concurentie is een mooi iets :*)
Intel is de baas in de high-end, ja, maar AMD verkoopt nog altijd vlot X2 en sempron processoren. Dat kleine verschil in snelheid tss een E6300 en een X2 3800+ boeit de gewone consument amper, 't prijsverschil voor zowel cpu als mobo wél.
Dat kleine verschil in snelheid tss een E6300 en een X2 3800+ boeit de gewone consument amper, 't prijsverschil voor zowel cpu als mobo wél.
Sterker nog, als de oudere mensen in mijn omgeving een nieuwe pc kopen, weten ze nog niet eens wat er in die pc zit en het boeit hun ook niet. Ze kennen alleen de termen Pentium, 256MB videokaart, HP, Dell, Compaq, cardreader, printer, scanner enz.
Ze denken altijd dat ze een "pentium" hebben, terwijl er bij de helft gewoon een AMD cpu inzit.
Daarbij zijn de ouderen ook nog meestal de mensen met een goedgevulde beurs en dus is dat een best grote doelgroep. Na een paar jaar hebben ze een nieuwe pc nodig en het enige wat ze belangrijk vinden is "dat ie et goed doet"
Als ze eenmaal hun windowsinstallatie verneukt hebben, denken ze dat ie kepot is en dat ze een nieuwe pc moeten kopen. Krijg ze moeilijk aan het verstand gebracht dat je ook gewoon kan herinstalleren en dat ie daarna weer prima in orde is.

Er zijn natuurlijk ook oudere in mijn omgeving die er wel wat meer van weten, maar dat zijn er niet zo veel.
Ik ben eigenlijk best wel verbaasd dat die "oude" 6150 nog zo goed presteerd tegenover de verse Intel interne graphics.
OK...Intel is nog met drivers in de weer, maar dan toch ;)
Intel is ook vrij 'nieuw' in 't graka segment. Ok, ze produceren al tijden low-end chipsets voor 2D gebruik, maar qua gaming performance kan zelfs een reus als Intel nog wat leren van de gevestigde spelers. Als je de specs van beide chipsets bekijkt is 't geringe performanceverschil ook logisch.
Ik verbaas me er eerder over dat Intel 'zomaar eventjes' met een dergelijke GPU op de proppen komt en daarmee deze nVidia verslaat op prestatieniveau. Best knap, lijkt het, maar schijn bedriegt. De nVidia based GPU is natuurlijk gewoon een zwaar gestripte Geforce. Met een paar aanpassingen komt nVidia zo met een 2x zo snelle integrated oplossing terwijl iNtel hier lang niet zo makkelijk de mogelijkheden toe heeft. iNtel heeft het in dat opzicht slim gespeeld door net iets sneller uit de bus te komen hoewel dit totaal niet opweegt tegen de overige probleempjes. Het grote probleem van intel is vooralsnog de gebrekkige ervaring op dit gebied. Zeker als het aankomt op nieuwe instructiesets waar ze zo te zien nog wat steekjes hebben laten vallen. In dat opzicht is de iNtel GPU niet volwaardig en volwassen genoeg. De betere prestaties zijn eigenlijk de enige redding maar prestaties spelen hier niet zo'n grote rol. Het concept, de integrated oplossing, die werkt, voor zover het op Mediacenter doeleinden gericht is. De Consument zal hier niet veel hinder van ondervinden.

Intel werkt van de bodem af aan naar een integrated GPU, wat eigenlijk hun 'top' model videokaart is. Terwijl nVidia van hun 'top' modellen een gestripte variant maakt. Voor nVidia is deze taak vele malen makkelijker en efficienter te realiseren. Zo makkelijk zelfs dat een al "oude" integrated GPU nogsteeds prima meekan. En is er een snellere variant nodig? geen probleem! Maar snelheid speelt hier niet zo'n grote rol. Het gaat om de functionaliteit. Intel bied deze functionaliteit nu ook. Dus eigenlijk liggen ze kwa concept en ondersteuning als het om het gehele platform gaat (AMD Live! / Intel V//V) op gelijkwaardig niveau. Een discussie over prestaties en benchmarks is hier dan ook eigenlijk helemaal niet aan de orde in mijn ogen.

Zo dat is weer een heel verhaal om mijn statement duidelijk te maken :P
Een verhaal over benchmarks en prestaties is wel aan de orde als je er ook de prijs bij meetelt en dat wordt ook gedaan. Je wilt immers toch ook de prijs/prestatie verhouding weten? En dan is Live! net wat beter dan VIIV.
Aangezien AMD geen eigen video kaarten produceerd (neey, ATi rekenen we even niet mee) zou het logischer zijn dat op dit gebied niet zou worden getest. Gewoon beiden een passief gekoelde nVidia kaart erin, zou ik zeggen B-)
Ze wilden juist de platformen vergelijken, daar hoort ook de (integrated) video bij. En waarom zou je ati niet meerekenen?? ;)
als je de tabelletjes met de specs voor de VIIV of de Live! doorzoekt staat er nergens dat je verplicht bent een on-board video oplossing te gebruiken. Dit is over het algemeen wel het goedkoopst, dus als je de absolute budget gaat pakken is het wel weer logisch.

Ik moet overigens zeggen dat ik meer geinteresseerd ben in systemen waarbij maar 1GB geleverd wordt (ipv de 2GB die HP er in heeft gedaan) als ik in nederland rondkijk zijn dat soort systemen toch nog net wat makkelijker verkijgbaar.

Ook nog even kijken naar het geheugen, zowel de intel als de amd gebruiken 533Mhz DDR2, waar de Live! specs om min. 667 vragen en de intel dat ook makkelijk aan kan , misschien interessant
Dus eigenlijk moet je een Intel Core 2 Duo-platform kopen met een GPU van nVidia. :Y)
Dat mag je zeker wel zeggen. DVD bekijken met een Geforce is tig malen beter dan met gelijk welke andere gracca.

Ik heb een HTPC met een ATI aan een 42" gekoppeld op HD 720P en het beeld is redelijk, heb ook nog een eigen PC met een Geforce in op een 24" 1920*1200 en de dvd kwaliteit is stukken beter.

hier kan zowal INTEL als ATI nog van leren. Natuurlijk doet goede POWERDVD software ook een grote duit in de zak.
Nu vergelijk je een plasma met redenlijk lage dpi, met een lcd met redenlijk hoge dpi. Lijkt me niet dat het grootste verschil dan uit het merk grafische kaart komt.
En wat als ik je nu vertel dat de chipset op een vidkaart er vrij weinig mee te maken heeft en dit voornamelijk ligt aan de filters die op je analoge connector worden gebruikt.
Bij digitale connectoren zit er vrijwel geen verschil tussen omdat het gebruik van filters hier niet eens nodig is.
Dat kan wel zijn, maar daar elk beeld geinterpoleerd dient te worden door de hogere resolutie valt die DPI waarde gewoon weg en heeft het alles te maken met hoe ze je pixels gaan veranderen om nog een redelijk beeld te krijgen.

En daar doet Nvidia voor de moment het veel beter volgens mij.

En het kan wel zijn dat het verschillende prijspunten kaarten zijn maar ze zijn ongeveer even oud en dan verwacht je dat ze iets dat al meer dan 10 jaar bestaat gewoon doed doen, ongeacht het prijspunt.
Nou, ik ben ongeveer een jaar geleden overgestapt op een ATi na jarenlang alleen Nvidia kaarten en dat doe ik dus nooit never niet meer. Alleen in 2D is de ATi sterker(scherper) vind ik, maar in 3D is Nvidia veruit de betere. Maar ja, ieder zijn smaak natuurlijk.
Het grootste deel van de ati-nvidia vergelijking is volgens mij gebasseerd op fanboypraat. Ik denk dat als je een testopstelling maakt met tig computers die alleen verschillen in videokaart er (bijna) geen mensen zijn die kunnen aanwijzen waar de Ati kaarten inzitten en waar de nvidia kaarten in zitten.

Ik koop altijd de best buy for the buck en switch nog wel eens van merk :)

Overigens gaat het hier duidelijk niet over Ati, maar Intel vs nvidia. Toch een goede zaak dat AMD zijn ogen niet sluit en videochipsets van de concurrent durft te gebruiken.
in de meeste video tests komt ATI er anders beter uit als nvidia.

feit is alleen dat ze allebei gewoon goed beeld geven en het verschil meestal vrij academische zijn.
Je vermeldt niet welke ATi, welke nvidia kaart. Waarom is 't gpu segment altijd zo gevoelig aan éénzijdigheid, vraag ik me vaak af. ATi is beter dan Nvidia, of omgekeerd, die bewering gaat gewoon niet op.
Vergelijken doe je dan op dezelfde TV of monitor, niet op verschillende.

Mijn privé laptop met een ATi grafische kaart en mijn werk laptop met een NVidea grafische kaart; nauwelijks verschil. Maar om dat goed te kunnen vergelijken zou ik ze aan een tv/monitor moeten hangen.

offtopic:
Probeer eens wat minder hoofdletters te gebruiken voor woorden die jij belangrijk vind, leest nogal irritant... :Z
Sluit ze eens beiden aan op dezelde monitor/TV voordat je dat soort domme uitspraken gaat doen. Het kan best dat nVidia beter beeld geeft (hoewel volgens de reviews die ik tot nu toe heb gelezen over PureVideo/Avivo het behoorlijk gelijk moet zijn), ipv appels met peren te gaan zitten vergelijken...
Grote onzin natuurlijk, overigens heb je sowiezo niet echt veel kaas van beeldkwaliteit gegeten, anders had je nooit zo'n boutprogramma als PowerDVD aangeraakt. En daarnaast doe je zo'n test natuurlijk met twee videokaarten op dezelfde monitor. Wat blijft er anders voor vergelijking over. Ik kan je vertellen dat het verschil vrijwel verwaarloosbaar is. nVidia heeft een handige hardwarematige 'sharpning' tool, dat kan wel praktisch zijn. Daarnaast heb je aan FFDShow genoeg, want die bied soortgelijke softwarematige processing filters. Verder is alles precies hetzelfde, de mate van scaling etc. geen vorm van jaggies whatsoever, niet in 2058x1536, noch 640x480. Gewoon simpele biliniear resizing geeft prima resultaten. Daarnaast kan je nog gaan discusseren over output-filters, maar dat vind ik achterhaald, puur vergelijken op de capaciteiten van de GPU's leert dat ze videomateriaal beide perfect kunnen weergeven.
Een videokaart kan overigens veel beter scalen dan veel scalers die in TV's worden gebruikt. Als je dus niet perfect pixel-to-pixel kan projecteren op je LCD/PLASMA, en het scherm moet vervolgens zelf gaan interpoleren om het passend te krijgen, kan het beeld hier veel slechter door worden. Ik kan dus al bijna achterhalen waar jij je mening op basseert, je hebt ons eigenlijk net verteld dat je TV lang zo mooi beeld niet geeft als je PC scherm! Nogal wiedes, ik heb ook nog nooit een TV gezien die uberhaupt een fatsoenlijke LCD/CRT monitor evenaart. Simpelweg omdat PC schermen veel nauwkeuriger zijn, zowel in resolutie als in de productie. Kijkafstand is veel korter etc. Nog duidelijker is het verschil tussen CRT tv's en CRT monitoren. Afgezien van het grote verschil in resolutie, is met name de convergentie en geometrie van een TV ronduit beroerd. M.a.w, de productie en afstelling van de afbuigjuk in TV's worden lang niet zo nauw genomen als in PC Monitoren. Hetzelfde geldt ook voor hedendaagse LCD schermen, op iets andere technische aspecten, maar het komt op hetzelfde neer.
2 van de 11 gewonnen door AMD en 1 door Intel

de overige 8 was het verschil nagenoeg 0...

Ik zou dus volledig voor het AMD-nVidia systeem gaan.
Hij heeft het over de Intel Core 2 Duo, op dit moment de snelste processor.
Maar het gaat hier om huiskamers hè? De C2D is stiller en gebruikt minder energie dan de concurrent. ;)
een processor die stiller is??? je bedoelt de koeler?
over wat voor prijs praten we hier trouwens, een pc van 500-600 euro?? erg zwakke systemen, maarja misschien voor de beginnende pc gebruikers onder ons wel leuk
Precies, iets wat hier helemaal niet aangekaart is in de review. Maar mij toch behoorlijk belangrijk lijkt voor een HTPC/MediaCenter oplossing die toch heel wat uren per dag draait... |:(

En dan valt het voordeel van AMD opeens volledig weg.
Het Live!-systeem, een HP Pavilion a1630n, is gebaseerd op een 2,2GHz Athlon 64 X2 4600+-processor en een chipset die bestaat uit een nVidia GeForce 6150LE en een nForce 430 MCP
Was interessanter geweest om het Live! systeem te baseren op een mainboard voorzien van een AMD 690G chipset: deze heeft nl. onboard HDMI/HDCP ondersteuning, iets wat wel van belang kan zijn voor een HTPC.

Moet wel zeggen dat moederborden met AMD 690G chipset nog nauwelijks verkrijgbaar zijn, dus de keuze voor de 6150 valt te begrijpen.
Tuurlijk echter gaat dit niet zo maar. Deze platformen zijn gecertificeerd en dat gaat niet even in 123. Ik gok dat er eind dit jaar een soort live 2 zal komen waar dan een RD690 in zit. Misschien ook wel een K10 cpu.
Een ander groot voordeel van het 690G chipset is dat het veel minder stroom verbruikt.
Hierdoor zal het systeem ook stiller zijn.
De leverbaarheid is te overzien. MSI heeft het bordje gewoon leverbaar. Er ligt een brodje op mij te wachten bij Sallend :D

Astennu: Voor zo ver ik het kan zien valt de certificering van de het AMD live best mee. Zeker voor eigen producten moet het toch snel mogelijk zijn hiervoor een stempel te geven.
Q: What are the key requirements for an AMD LIVE! system?

A: With AMD LIVE!, consumers can get a flexible choice for enhanced home entertainment experiences. AMD LIVE! systems are feature-rich, multimedia PCs with advanced configurations. Requirements include AMD64 dual-core technology (Socket AM2), Microsoft ® Windows ® Media Center Edition ( Windows ® Vista™ Premium or Ultimate when they become available), the latest in video and audio, as well as 1GB memory. A TV Tuner and remote control are optional.

Als het zo simpel is dat stelt het echt niets voor. Maar het kan zijn dat er op de achtergrond meer eisen zijn.
Benchmarks, het zou verboden moeten worden :) Je kan tig benchmarks draaien dan nog is er een beeldverschil bij beiden merken. ATi heeft warmere kleuren en Nvidia wat harder.

Verder is het bekend dat AMD vaak wat meer uitblinkt bij een single task, zoals gamen, en dat Intel vaak beter uit de banken komt met multitasking.

Wie gaat zeuren om een paar fps'en hier en daar moet lid worden van de naaikrans, daar kunnen ze ook zo zemelen :P
Helaas, AMD blinkt echt niet meer uit dan Intel bij een single task en ook bij spellen is de laatste tijd gebleken dat de Intel (mits met DEZELFDE videokaart) over het algemeen beter presteert. Het was eigenlijk al een tijdje bekend dat de E6300 beter presteert dan de 4200+. Intel fans zouden de 6300 tegenover de 4200+ testen en AMD fans weer tegenover de 4600+. Als ik een systeem samenstel met een 6300 en een 7950GT met de 945 chipset (welke prima werkt met C2D en in benchmarks gewoon hetzelfde presteert) dan is een 3800+ beter te vergelijken in prijs. Dus testen zijn altijd in ieders voordeel te draaien, als je maar slim beargumenteert dan komt alles goed.
Het is eigenlijk maar net hoe je het bekijkt.

Al zou je zelf het intel systeem bouwen dan kan je toch echt heel leuke dingen doen met die processor. Van de 3 GHz zijn die toch echt niet vies.

Met andere woorden zet de intel op een toepasselijke snelheid en er blijft niets van het amd systeem over. (zelfs al overclock je deze).

En ja opzich wel logisch dat de nvidia oplossing beter is als de intel. Die zijn er in gespecialiseerd. En voor de gemiddelde huis tuin en keuken gebruiker zou ik wel gewoon voor de AMD gaan. Tenzij je weet hoe je er mee moet spelen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True