Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 63 reacties
Submitter: player-x

Intel zou de release van zijn Cedar Trail Atom-cpu's tot november hebben moeten uitstellen door problemen met de grafische drivers. De chipfabrikant zou DirectX9-drivers moeten uitbrengen, terwijl de grafische kern DirectX 10.1-compatibel is .

Aanvankelijk zouden de Cedar Trail Atom-cpu's in september uitkomen. Het gaat om de Atom N2600 en N2800 voor notebooks en de Atom D2500 en D2700 voor de desktopmarkt. Deze Atom-cpu's zijn voorzien van een PowerVR SGX545-core voor het grafische rekenwerk.

Volgens VR-Zone is de release van de nieuwe generatie Atom-cpu's, die gebakken worden volgens het 32nm-procedé, voorlopig uitgesteld tot november. Reden voor het uitstel zouden problemen zijn met de grafische drivers; ondanks dat de grafische kern compatibel is met DirectX 10.1 zou Intel in november alleen 32bit DirectX 9-videodrivers kunnen uitbrengen. Ook ontbreekt bij de Cedar Trail-release vermoedelijk een videodriver voor 64bit-Windowsversies. Waarom Intel niet de reeds beschikbare reference drivers voor de PowerVR-core van Imagination Technologies gebruikt, is onduidelijk.

Intel zou ook kampen met driverproblemen voor zijn Wireless Display-technologie. Hoewel er drivers in november uitgebracht worden, stelt VR-Zone dat deze niet alle features van de draadloze displaytechnologie zullen ondersteunen. Pas in het eerste kwartaal van 2012 zouden er nieuwe drivers op stapel staan die Intels Wireless Display-technologie wel volledig weten te benutten. Hetzelfde zou gelden voor Smart Connect, een technologie die een laptop of pc ook in standby-modus nog bepaalde taken laat afhandelen, zoals het ontvangen van e-mail.

Moderatie-faq Wijzig weergave

Reacties (63)

Ik vind het wel grappig dat intels eigen gpu's zo"slecht" zijn dat ze designs inkopen van PowerVR.
Die gpu's presteren tenminste een beetje. Nog niet vergrlijkbaar met AMD maar beter dan wat intel zelf has.
Ze kopen die PowerVR designs voor hun zuinige low-end Atoms, dat doen ze al een paar jaar. Dat zijn dezelfde GPU units die Apple in hun A4 SoC heeft, TI in de OMAP4, Samsung in de Hummingbird, etc. Voor de mainstream CPU's hebben ze hun eigen GPU technologie ("Intel HD Graphics"), die is sneller maar ook weer onzuiniger dan die speciale low-end gpu's.
Waarom Intel niet de reeds beschikbare reference drivers voor de PowerVR-core van Imagination Technologies gebruikt, is onduidelijk.
Zijn er uberhaupt wel reference drivers voor x86-64? Die PowerVR chips worden veel gebruikt in ARM chips, maar dat is een hele andere architectuur (en 32 bit!).

[Reactie gewijzigd door Dreamvoid op 22 augustus 2011 09:06]

Toch appart dat Intel altijd zo veel moeite heeft het graphics. Ze hebben een geschiedenis van waardeloze onboard gpu's waar pas recent verbetering in is gekomen, dan dat hele larrabee verhaal en nu dit.

Hopenlijk kan AMD zo wat marktaandeel pakken met haar fusion-lijn. Wat meer concurentie voor intel zou gezond zijn imho.

[Reactie gewijzigd door martijnve op 21 augustus 2011 14:58]

Toch appart dat Intel altijd zo veel moeite heeft het graphics. Ze hebben een geschiedenis van waardeloze onboard gpu's waar pas recent verbetering in is gekomen, dan dat hele larrabee verhaal en nu dit.
In hindsight vraag ik me af waarom Intel destijds de restanten van 3dfx niet heeft overgenomen. Dan hadden ze de technologie gehad. Dan zouden ze daarmee natuurlijk nog wel een IGP moeten ontwerpen (want die had 3dfx niet), maar de technologie maakt het dan wel mogelijk om iets fatsoenlijks te brouwen.

Of waarom Intel niet samenwerkt met Matrox. Goed, Matrox is ook al jaren niet meer wat het geweest is, maar ten tijde van de G450 hadden ze toch leuke kaartjes die welliswaar niet mee konden komen met het TNT2-geweld maar het ook beslist niet slecht deden.

Een G550 was (..je zou bijna zeggen is) vele jaren een betere oplossing geweest dan een Intel IGP.

Waarom Intel dan toch is blijven aanmodderen met al die meuk, God only knows.
Nou met een overname van Matrox zou Intel qua 3D acceleratie natuurlijk helemaal geen sikkepit zijn opgeschoten. De kracht van Matrox heeft toch altijd gelegen in 2D en de aansturing van hoge resoluties/meerdere monitoren. Pogingen om iets met 3D te toen waren al achterhaald bij de aankondiging.

Ik begrijp ook niet zo goed waarom Intel grafisch altijd zo ver achter loopt op het 3D vlak, maar ik kan me niet voorstellen dat ze het echt niet zouden kunnen. Ik vermoed toch dat ze er gewoon niet al te veel waarde aan hechten en niet de recources willen besteden om grafisch de concurentie met AMD en NVIDIA aan te gaan.
Nou met een overname van Matrox zou Intel qua 3D acceleratie natuurlijk helemaal geen sikkepit zijn opgeschoten. De kracht van Matrox heeft toch altijd gelegen in 2D en de aansturing van hoge resoluties/meerdere monitoren. Pogingen om iets met 3D te toen waren al achterhaald bij de aankondiging.
Dat valt wel mee. Ten tijde van de G400/450 was Matrox echt wel een speler. Ze waren niet zo snel als een TNT2 maar ook niet heel veel langzamer.

Voor de massa was het natuurlijk niet zo interessant omdat de Matroxkaartjes flink duurder waren dan gelijk presterende TNT2-kaartjes (en de hoge kwaliteit 2D en dualhead waren minder interessant voor de consument). Maar qua technologie was Matrox zo gek nog niet.

Daarbij is performance ook niet het belangrijkste, echt vette performance heb je toch niet snel met een IGP. Het is belangrijker dat de drivers goed zijn en alle spellen draaien zonder artefacten, ook al is het langzaam. Wat dat betreft had een langzame versie van de 3D-engine van Matrox helemaal niet misstaan in die IGP's van Intel vroeger.
Ik begrijp ook niet zo goed waarom Intel grafisch altijd zo ver achter loopt op het 3D vlak, maar ik kan me niet voorstellen dat ze het echt niet zouden kunnen. Ik vermoed toch dat ze er gewoon niet al te veel waarde aan hechten en niet de recources willen besteden om grafisch de concurentie met AMD en NVIDIA aan te gaan.
Ik denk dat je daar ook wel een punt hebt. Kantoorgebruikers kan het sowieso niet boeien, voor consumenten is het ook al snel goed zolang 2D en video het maar doet. En misschien af en toe een spelletje.

[Reactie gewijzigd door W3ird_N3rd op 21 augustus 2011 22:44]

volgens mij zijn de atom en amd fushion niet directe competitie qua preformance de amd grafische chip is aardig wat beter dan die op de intel en atom is ook niet de snelste cpu in het park.
Ligt aan welke fusion je bedoelt, dacht namelijk dat de E serie redelijk goed te plaatsen valt tegen over de atom lijn.
Alleen tegenover ION, waarbij NVidia het grafische deel afhandelt. NVidia en AMD zijn competetief, intel echt niet. De IGP's in sandy bridge kunnen tegenwoordig wel aardig meekomen met de IGP's van AMD, maar die laatste zijn al jaren oud en niet meer dan gepimpte HD3200's. Zet je de nieuwere "IGP's" van llano ertegenover dan ligt intel nog steeds mijlenver achter.
Dat komt omdat je alleen processors verkoopt aan de technische consument, en aan fabrikanten. De mensen die een desktop kant en klaar kopen zal het een worst wezen wat er wel niet in zit, daar hebben ze toch geen verstand van en de high-end technische consument zal er zelf een GPU in doen, want die zit niet te wachten op de bagger performance van een IGP.

Ik denk niet dat er iemand die veel verstand heeft van computers een PC koopt met een IGP erin.

[Reactie gewijzigd door Wolfos op 21 augustus 2011 15:52]

Als je wilt gamen: losse GPU
Anders: niet.
Ik heb een laptop die ik gewoon gebruik voor gaming. Losse GPU: Definitely not. (laptop, IGP's, duh) FPS: best wel goed op veel spellen.

(ATi Mobility Radeon HD5145 aka overklokte HD4650)
De HD5145 is een GPU, geen IGP.....Een IGP (Intergrated Graphics Processor) is ingebouwd in de chipset of de CPU, jouw HD5145 is gewoon een losse chip, dus eem GPU
Vergeet ook ander grafisch zware applicaties niet, zoals CAD, Maya misschien ook Photoshop.
Photoshop is niet echt grafisch intensief je bent beter af met een heerlijke quadcore
Ik denk niet dat er iemand die veel verstand heeft van computers een PC koopt met een IGP erin

Dat klopt niet. Veel tweakers hebben naast hun PC met een krachtige videokaart ook een HTPC waarvoor bv de E350 "igp" (eigenlijk APU) ruim voldoende presteert.

Het hangt dus helemaal af van het doel van de PC, niet van de gebruiker / bouwer.
Een zeel leuk bijkomend voordeel is dat een deel van de APU's en moederbordjes crossfire ondersteunen tussen de APU en de GPU.

Ik ga er tenminste van uit dat dit allemaal goed werkt ;)
Bedoel je de amd apu's neem ik aan?

Amd heeft ook al directX 11
ikzelf heb nu een moederbord met ati 3300 mobile erop puur omdat gpu's nou eenmaal in mijn ervaring nog weleens het loodje leggen en ik dan graag even te tijd neem om te wikken en wegen welke ik zal kopen aangezien ik niet zo impulsief ben.
een cpu met vga deel vind ik dan ook niet perse interesant maar vlak het ook niet uit mits het cpu deel gewoon meekan met de rest qua preformance.
Ik heb een laptop met een HD 4200 IGP.
De rede daarvoor is dat ik de laptop niet super vaak gebruik en er ook geen games op speel. En de accu gaat langer mee met een IGP. Zelfde model werd ook ver kocht met een HD 5450 maar met duidelijk kortere accu levens duur.
Maar door de HD 4200 kan ik er wel HD video op kijken en als ik wil zelfs games zelfs call of duty MW 2 is speelbaar op lage instelling dat dan weer wel.

En mijn gewone PC is ook uit gerust met een HD 4200 en heb deze ook nodig gehad naar het over lijden van me videokaart.

[Reactie gewijzigd door robj28 op 21 augustus 2011 16:54]

Wat een onzin...
Ik ben behoorlijk technisch onderlegd en tweak al 20 jaar mijn eigen PC's in elkaar. Ik heb werkelijk nog NOOIT behoefte gehad aan meer dan onboard video, en zal waarschijnlijk ook NOOIT behoefte krijgen aan iets anders dan IGP...

Maar ik speel dan ook geen domme spelletjes...

De vermeende behoefte aan dure graphics is imho slechts ingegeven door de game industrie. Ik heb zelfs zat zware CAD gebruikers gezien die ook prima af konden met 5-tientjes graphicskaarten.

Dat wil niet zeggen dat er geen zinvolle toepassingen zijn voor dure, snelle graphics, maar dat zit hem vooral in render-toepassingen (waaronder dus veel spellen).
Ik denk dat dat helemaal afhangt van de gewenste taken:
HTPC? (thuis/soho)Server (met display)? Office/Internet computer?
Allemaal prima dingen waarbij je een IGP/APU kunt gebruiken, voor gamers/DTP gebruikers zal het marktaandeel voor een IGP/APU machine < 10% bedragen inderdaad, voor het overige (zeker ivm TCO/warmte/geluidsproductie) is een IGP/APU machine wel degelijk een interessante optie, óók voor mensen met verstand van computers
De mensen die een desktop kant en klaar kopen zal het een worst wezen wat er wel niet in zit, daar hebben ze toch geen verstand van en de high-end technische consument zal er zelf een GPU in doen, want die zit niet te wachten op de bagger performance van een IGP.
Tja, als de consument het toch niet weet, waarom heeft Intel dan altijd van die logo's en stickers laten maken met "Intel inside" er op? Dat was uiteraard omdat ze hun merk als A-merkt naar voren willen laten komen. Ze rekenen er uiteraard op dat de mensen die PC zal verkiezen boven een andere omdat ze Intel kennen en associëren met kwaliteit en vooral compatibiliteit en snelheid.

Omdat je die stickers op alle pc's en laptops tegen komt, ook op bedrijfs-pc's, zal de consument dat herkennen als hij zelf in de winkel staat. Wat betreft de types zonder sticker zou dat wel eens kunnen kloppen, vandaar ook dat AMD nu ook van die stickers heeft.

Misschien dat de consument die vaak wel nVidia en soms ATi kent als merken voor gaming (de Wii heeft ook een ATi-logo) dit herkent en bij aanschaf van een PC of notebook (netbook is ook een soort notebook) hieraan de voorkeur geeft. Zelf hoop ik in ieder geval dat de consument Intel gaat associëren met langzame grafics, en dat zodoende het "Intel inside" logo zich tegen haar keert.
Ik denk niet dat er iemand die veel verstand heeft van computers een PC koopt met een IGP erin.
Dat hangt er verder geheel vanaf wat men met die PC wilt doen, precies zoals trm0001 al zegt. Bij een desktop-PC kun je als je dat wilt er altijd nog een losse gpu-kaart bij plaatsen (al was ik bij 2 van mijn vorige systemen daarin nogal beperkt omdat er alleen pci-sloten waren en alles al over was op AGP (8×). De verdwaalde pci-kaart die nog te koop was kostte het drievoudige van de instap-AGP-kaarten en was meestal langzamer.) maar bij een notebook gaat dat niet, en dus kan een aangeschaft exemplaar met te langzame graphics als een miskoop beschouwd worden. Die kans is met een Intel-cpu dus aanmerkelijk groter omdat er de meeste* notebooks naast de igp (in cpu/apu of chipset) geen losse gpu meer wordt bijgeplaatst.

* uiteraard is dat afhankelijk van het prijssegment waarin je kijkt (de meeste modellen met discrete gpu zijn hoger geprijst), maar als je kijkt naar de modellen in de advertenties en zeker als je niet alleen kijkt naar de beschikbare modellen, maar naar de verkochte aantallen per model, dan gaat het zeker op. Kantoor-pc's hebben slechts zelden een extra gpu.
Nee dat klopt niet AMD Brazos (E350) is veel sneller (cpu+gpu) dan Atom.

Alleen de AMD C-series zou je kunnen vergelijken met Atom maar zelfs die zijn grafisch heel veel sneller.
De E-350 is als cpu vergelijkbaar met een Atom D525. Maar: het GPU deel van de E-350 is wel veel sneller.
Ik ben van mening dat je dat niet kunt vergelijken.

een AMD APU is namelijk hoogstwaarschijnlijk goedkoper dan de Intel, je moet ook bij laptops of netbooks kijken wat je in het totaalpakket aan features krijgt per euro.

Ongeacht of je het als klant nodig hebt of niet want mensen zullen altijd eigen voorkeuren hebben.

En bij AMD krijg je vrijwel altijd meer voor je euro, of het nou features zijn die je nodig hebt of niet dat maakt niet uit.
Hoe kan je het niet vergelijken?
Ze richten zich allebei op exact dezelfde doelgroep, waarbij AMD het voor elkaar heeft gekregen om een chip te maken die grafisch veel sneller, en CPU-wise ongeveer even snel is als de snelste atoms, maar dan voor een lagere prijs. (en een veel lager verbruik, intel's chipset gebruikt veel meer stroom als die van AMD)
Dat heet concurrentie.

Ik ben benieuwd hoe de cedar trail zich gaat houden daarbij, waarschijnlijk sneller dan AMD op CPU gebied, maar hoe ze het gaan doen op GPU gebied is de vraag, het is een 10.1 chip waartegen AMD al een DX11 chip heeft..
Dan zijn ze dus wel competitie. De een is immers sneller dan de ander, terwijl ze bedoeld zijn voor gelijksoortige platforms.

Anders kun je ook wel zeggen dat een broodje rookworst geen concurrent is van een broodje shoarma :)

[Reactie gewijzigd door _Thanatos_ op 22 augustus 2011 02:27]

Wordt het dan niet tijd voor een overname van Nvidia? Dan heeft AMD Ati en Intel Nvidia.

Ik heb het gevoel, als ik de nieuwsitems lees (kan aan de manier van schrijven liggen) dat Intel AMD helemaal niet meer als een serieuze concurrent ziet? Als ik het artikel lees dan heb ik niet het gevoel van, " we moeten opschieten, haast haast haast" maar meer van "tijd zat, we kunnen het beter goed doen en niet overhaast, er is toch niet echt een harde schreeuw van de overkant"
Zou erg slecht zijn voor de markt.

Ten eerste is AMD minder waard dan Nvidia. Het is veel goedkoper om de kennis van AMD/ATI binnen te halen.

De reden waarom het zo slecht voor markt is, is het feit dat Nvidia net in de ARM markt is gestapt, en ze in potentie een tegenwicht kunnen bieden aan Intel. Intel is op dit moment alleenheerser op de consumentenmarkt met daarbij horende winsten.

De markt zou beter af zijn als ze Intel zijn geld zou stoppen in (door)ontwikkeling ipv acquisitie. Apple knutselt een deel van zijn hardware zelf in elkaar en ontwikkelt daarbij goede drivers.
Je voorstel is volgens mij vrijwel onmogelijk tenzij het indirect gebeurd door simpelweg een "GPU designer" (of iets in die richting) baan aan te bieden met een enorm loon. En zelfs dan zullen de mensen die ze proberen weg te snoepen bij AMD waarschijnlijk contractvoorwaarden hebben getekend die hun verbieden om een hoop van de opgedane kennis te gebruiken voor een paar jaar.
Opkopen wil ook niet want dan domineren ze de complete markt en daar wordt de EU niet zo blij van. Direct op de man mensen een beter loon aanbieden mag volgens mij ook niet.

Denk dat ze Imagination Technology (bedrijf achter PowerVR) zelf moeten opkopen als ze kennis willen inkopen.
Intel zou AMD niet kunnen kopen, anders stoppen mededingingsauthoriteiten over de hele wereld zo'n beetje de overname. (en zeker de EU)
Aangezien Intel nu reeds veruit de grootste GPU fabrikant is zullen mededingingsautoriteiten nooit toestaan dat Intel een andere GPU fabrikant overneemt.
De huidige Intel IGP's zijn nog steeds waardeloos, en er is ook weinig tot geen verbetering in gekomen. De performance is inderdaad flink verbeterd maar nog steeds matig te noemen vergeleken met bijvoorbeeld AMD Fusion, en kakt volledig in bij zwaardere games en hogere resoluties. De architectuur is verder nog steeds een inflexibel gedrocht gebaseerd op 10 jaar van matige IGP's, dat met veel hangen en wurgen de 21ste eeuw in is gesleept maar waar de rek nu echt wel uit is. Het is ook niet voor niks dat Intel nu weer terug komt bij Imagination.

Intel is erg goed in een aantal dingen, maar graphics hoort daar gewoon niet bij, dat blijkt toch een vak apart.
Nou straks heeft Intel realtime ray-traced graphics hoor :)

Maar Intel maakt gewoon goede 2D graphics chips goed voor gebruik op kantoor.

En blijkbaar lukt het ze gewoon niet om ook 3D graphics te doen en zien ze er verder ook geen grote markt voor.
Ze hebben straks real time raytraced graphics zeg je.. Waarvan dan als ik het vragen mag? Raytracing heeft vooral heel veel floating point berekeningen nodig. Daar kun je het best een GPU voor gebruiken.

Zoals je zelf al toegeeft, Intel zuigt op dit moment op het gebied van GPU's. Mijn stokoude GeForce 2 MX400 is ook 'gewoon een goede 2D graphics chip' voor gebruik op kantoor. Niks ervan, dat real time raytracing, als het Intel niet eens lukt een fatsoenlijke GPU te bouwen voor zelfs de meest simpele 3d games.

Dat iets 'gewoon niet lukt' accepteer je van een 8 jarige, niet van een multinational met een miljarden omzet. Feit is dat ze ondanks dat ze vrijwel een ongelimiteerd research budget en de meest geavanceerde productiemethoden hebben, ze toch aan alle kanten -graphics, embedded, en alles- worden ingemaakt door bedrijven met een veel kleinere omzet laat staan research budget. Het enige waar Intel nog over te spreken is, is het x86 segment. Wat zegt jouw dit over een bedrijf als Intel?

Ze hebben zich gewoon verkeken op alles, en slechts gefocust op AMD kapot te maken, zij het door oneerlijke bundelverkopen en contracten met andere bedrijven als de manipulatie van benchmarks. AMD heeft weliswaar een flinke deuk opgelopen, maar is gelukkig toch overeind gebleven. Nu maar hopen dat de Bulldozer iets is, en er een gezonde markt ontstaat.
Ik denk dat het bij Intel vooral om het 'goed genoeg' principe gaat. Hun prestatie op het x86 vlak geeft hun een bepaalde naam, zodat ze met mindere prestaties op andere vlakken toch weg komen. Zolang je maar niet gigantisch door de bodem stort (zoals Intel met de P4 ervaren heeft) werkt die praktijk blijkbaar.
Vergelijk het een beetje met het langzaam uitbrengen van nieuwere modellen terwijl de techniek al klaar is. Als er geen noodzaak toe is, doet Intel ook niets. Als de Bulldozer vertraging oploopt, meldt Intel doodleuk dat hun nieuwe platform ook vertraging opgelopen heeft.
Ze kunnen het zich veroorloven omdat ze zich een naam hebben gebouwd in het verleden en die naam in stand houden door hun vlaggenschip zo verschrikkelijk sterk te maken (alles vanaf de Core2 en zeker Sandy Bridge blijft een indrukwekkend staaltje engineering hoe je het ook wendt of keert).
Intel is een beetje het jongetje in de klas dat negens kan halen maar op zesjes mikt - behalve op het onderwerp waarvan hij weet dat de leraar dat het belangrijkste vindt.
En het is ook logisch, want meer je best doen kost meer (tijd, geld, harder op je snuffert als het mis gaat, etc.)
Ze hebben een geschiedenis van waardeloze onboard gpu's waar pas recent verbetering in is gekomen, dan dat hele larrabee verhaal en nu dit.
Waardeloos? Die dingen doen het vrijwel altijd en er zijn drivers voor zo ongeveer elk OS. Ze hebben misschien wel niet de performance van andere merken, maar dat is lang niet altijd belangrijk
Raar dat Intel dus wel een 32 bit GPU driver voor DirectX 9c heeft maar de 64 bit versie niet ???
Cpu voert die code uit dus snap dit niet erg
Gpu is niet afhankelijk van 32-64 bit Cpu code , anders zou er een 32 bit graphics card moeten zijn en ook een 64 bit grote GC

En dan waarom niet directX 10.1
ach speculeren tis net als de beurzen geruchten
Inderdaad, tegen de tijd dat deze boel uitkomt is directX 9 al naar de eeuwige jachtvelden gestuurd.
De driver is de interface tussen CPU en GPU. Een deel draait daarom op de CPU, en een ander deel op de GPU. Het CPU deel hebben ze nu dus niet in een 64 bits versie. Die is overigens ingewikkelder: een 32 bits driver gebruik je met 32 bits Windows, en die draait alleen 32 bits apps. Maar een 64 bits driver en 64 bits Windows moeten zowel 64 bits games als 32 bits games supporten.
Games doen het zowiezo niet op een Atom (tenzij ze zo oud zijn dat ze hooguit toch niet 64bits kunnen zijn) want daarvoor ontbreekt essentiële verwerkingssnelheid dus dat hoeft niet zo'n probleem te zijn, ook niet gezien alle nettops en netbooks met Windows starter worden geleverd het geen slechts 32bits is.

Sommige huidige Atoms (Z-serie) zijn dus nu toekomstbestendiger als de toekomstige generatie. Ook al is recht te trekken door later wel 64-bits derivers uit te brengen, het is wel een blamage voor Intel gezien Windows 8 ook nog enkel 64bits zou zijn.
Ik denk dat ze beter een product wat niet naar behoren werkt uit kunnen stellen dan dat ze het half voltooid uitbrengen, in dat laatste geval zou het commentaar hierop tweakers.net niet van de lucht zijn.

Wat betreft de kritiek op de IGP's van Intel:
Het is maar net hoe je het bekijkt, natuurlijk vallen ze in het niets bij een GTX580 maar ze zijn ook niet bedoeld om te met dergelijke GPU's te concurreren. Ik heb sinds kort een I5-2540M met een Intel HD3000 GPU, heb er DDR3-1866mhz geheugen in gepropt en dan is er best een beetje mee te gamen (1366x768 alles op medium).

Ik haal met de hier voorgenoemde "setup" een 3Dmark06 score van 4704 res.:1366x768) daarmee is hij ongeveer even snel als een Geforce GT520M zo'n ramp is dat toch niet?

[Reactie gewijzigd door Rubén89 op 21 augustus 2011 16:20]

Alleen gaat het hier om de Atom reeks, dat is nog iets anders dan wat je op de desktop krijgt. Het enige echt vergelijkbare is AMDs brazos platform. De performance van de huidige Atoms komt veel te kort in vergelijking met de E350.
De I5-2540M is ook geen desktop chip maar een mobiele processor+geďntegreerde GPU zit in een Thinkpad X220.

En de AMD-E350 is ongeveer 20% sneller als de Intel Atom D525 hij is wel sneller maar om nou te zeggen dat hij veel tekort komt in vergelijking met de E350.
Het grote voordeel van de E350 is de geďntegreerde GPU hoewel bij de D525 de GPU er ook bij de processor op zit is er nog wel een FSB tussen de CPU en de GPU, in de D525 is hij dan ook niet echt geďntegreerd.

[Reactie gewijzigd door Rubén89 op 21 augustus 2011 16:07]

De koeler wordt wel gelijk gek als je ook maar iets van een game opstart.
Ik denk dat ze beter een product wat niet naar behoren werkt uit kunnen stellen dan dat ze het half voltooid uitbrengen, in dat laatste geval zou het commentaar hierop tweakers.net niet van de lucht zijn.
Met een beetje geluk (voor ons) of pech (voor Intel) had het de dood van de Atom kunnen betekenen. En de Atom is nu net de basis voor Intel's plannen richting de mobiele markt (tablet, smartphone).
Ik heb sinds kort een I5-2540M met een Intel HD3000 GPU, heb er DDR3-1866mhz geheugen in gepropt en dan is er best een beetje mee te gamen (1366x768 alles op medium).
Dat hangt af van welke games je doet. Moderne games die niet te veel van de gpu vragen lukt misschien prima maar ik heb games die alleen optimaal draaien met nVidia en/of ATi omdat ze uit de tijd zijn dat Intel's igp nog meer achter liepen.
Ik haal met de hier voorgenoemde "setup" een 3Dmark06 score van 4704 res.:1366x768) daarmee is hij ongeveer even snel als een Geforce GT520M zo'n ramp is dat toch niet?
Dat is ongeveer het absolute minimum. Komt er behalve de verwerkings-snelheid nog bij dat bepaalde features niet ondersteund worden omdat die alleen voor nVidia, AMD en mischien Matrox geimplementeerd zijn, dan houdt het gewoon op.

Mijn games: Morrowind (+expansion packs), IL2 Sturmovik, Need4Speed, Civilisation, en ik probeer af en toe een RTS of een Mech-game.
De intel hd 3000 is best wel een krachtige cpu
Dat is een GPU/IGP ;) en nee, ik vind het niet knap dat intel eěndelijk een IGP heeft die met een jarenoude AMD IGP kan meekomen. En dat dat gebeurt komt omdat AMD geen aandacht meer besteed aan losse IGP's, nu ze op fusion focussen (dŕt zijn krachtige GPU's!).

Intel is heer en meester in CPU's ontwerpen en bakken maar GPU's hebben ze tot dusver nog niets van gebakken (ha. ha.).
Amd voor 2006 wel dan??, nee ze moesten eerst chipbakket Ati overnemen... voor die tijd hebben ze nog nooit een Gpu gebouwd, terwijl Intel al ruim 10 jaar de meeste Gpu,s verkoopt
Vind je het gek met 12 Miljard winst per jaar?

Daarmee kan mijn opa ook wel een GPU chip mee bouwen (letterlijk)!

En intel verkoopt zijn GPU's niet, ze bundelen het met hun chipsets en CPU's aan de OEM's die 90% van de markt in handen hebben.

En hoppakee je verkoopt zogenaamd de meeste GPU's.
Euhm......

Dat is toch excact hoe alle andere spelers het ook doen ? AMD ontwerpt een chipset en geeft het aan de board bakkers die er wat mee maken, en AMD verkoopt zogenaamd chipsets.
Nvidia ontwerpt een nieuwe GPU maakt een reference design en geeft het aan de plank bakkertjes en Nvidia verkoopt ineens zogenaamd GPU kaarten.


Kijk je kan het draaien hoe je wilt, maar feit is gewoon dat intel enorm veel igp's verkoopt (die het dus ook gewoon prima doen als je een kantoor gebruiker bent). Als ik een laptop koop wil ik er ook gewoon de meest simpele igp in, het enige wat dat ding moet kunnen is HD film afspelen, als ik iets wil gamen heb ik daar een rig voor en voor de rest is het toch alleen maar terminal werk en wat geinternet op een laptop.
En zo kijken dus bijna alle bedrijven naar hun hardware en laten bedrijven nou ook de grootste inkopers zijn.
Dat is toch excact hoe alle andere spelers het ook doen ? AMD ontwerpt een chipset en geeft het aan de board bakkers die er wat mee maken, en AMD verkoopt zogenaamd chipsets.
Dat is pas sinds AMD ATi heeft overgenomen. Daarvoor heeft ze wel referencie-chipsets (751 (1999),761 (2000), 762 (2001), 8111 (2004)) uitgebracht, maar die waren alleen maar ter ondersteuning van de cpu om te laten zien dat het werkte. Vooral ten tijde van de Athlon Thunderbird waren de AMD-referentie-chips wel betrouwbaarder waardoor ze toch populair waren. De chipsets met de meeste features kwamen van VIA, nVidia, SiS, ALi en ATi, vooral als er nieuwe technieken ingebouwd moesten worden zoals een hogere FSB (bv 133 of 166Mhz ipv 100), DDR2, S-ATA, PCI-E. Dat paste in het Open Platform Initiative. Die fabrikanten focusten echter steeds meer op de Pentium IV (die technisch inferieur maar commercieel succesvol was) en diens opvolgers waardoor er na de Opteron/Athlon64 steeds minder chipsets van derden kwamen. De overname van ATi door AMD zorgde ervoor dat deze wel met de volgende generaties AMD-cpu's/apu's bij blijven lopen.
Nvidia ontwerpt een nieuwe GPU maakt een reference design en geeft het aan de plank bakkertjes en Nvidia verkoopt ineens zogenaamd GPU kaarten.
nVidia maakt de ontwerpen en laat deze elders maken, dat doen ze ook met de gpu's voor op desktop-kaarten. nVidia verkoopt de beide typen chips aan de mainboardbakkers en kaartenbouwers. Via, SiS, ALi en (voor de overname) ATi deden niet anders.

Het verschil met Intel is dat nVidia de kaarten-gpu's los verkoopt, wat Intel nooit gedaan heeft, en dat nVidia geen chipsets meer maakt. Voor AMD zijn ze er zelf mee gestopt (al produceren ze nog de bestaande ontwerpen, de nForce 900 (AM3, geen AM3+/FM1) en 700 (AM2) omdat die nog enigszins up-to-date zijn), voor Intel mogen ze het glad niet.
Kijk je kan het draaien hoe je wilt, maar feit is gewoon dat intel enorm veel igp's verkoopt (die het dus ook gewoon prima doen als je een kantoor gebruiker bent).
Intel verkoopt veel igp's omdat
- De budget-segment-chipsets niet worden verkocht zonder igp.
- de chipsets zonder igp gericht zijn op hogere marktsegmenten (workstation, server, meer features) en dus duurder zijn, vaak fors.
- de igp tegenwoordig in de cpu ingebouwd zit (i5, i3, Pentium, Celeron, nieuwere type Atom's (pineview), i7 uitgezonderd topmodellen zoals 3820)

Of ze het voor kantoorwerk prima doen is de vraag wat je doet. Heb je twee schermen nodig, dan mist je systeem de nodige aansluitingen, Moet je ontwerpen met CAD dan mist de igp echt de benodigde kracht en ook voor Video-bewerkingen en professionele fotobewerking is het toch best fijn als je de resultaten van je filter binnen redelijke tijd op je scherm kunt zien.
Als ik een laptop koop wil ik er ook gewoon de meest simpele igp in, het enige wat dat ding moet kunnen is HD film afspelen, als ik iets wil gamen heb ik daar een rig voor en voor de rest is het toch alleen maar terminal werk en wat geinternet op een laptop.
Dan is de kans vrij groot dat de igp voldoende is, tenzij je voor een ATOM kiest. De laatste mist de kracht voor de HD-film, maar als de Atom voor de rest voldoet, dan heb je met een C30 of C50 van AMD dezelfde cpu-prestaties en wel een voldoende snelle igp voor die HD-film. Overall genomen zijn juist voor dat soort gebruik de AMD APU's zeker de betere keus. Ze zijn net wat goedkoper als de Intel's en waar bij de laatste de bottleneck al snel de igp is, is dat bij AMD zeker niet het geval.

Het igp-gedeelte in de AMD-apu's is fors (2×) groter als het igp-gedeelte in de Sandy-Bridge maar dat heeft AMD niet voor niets gedaan. Als ze het gewild hadden, hadden ze hun igp-gedeelte ook ongeveer net zo groot kunnen maken en had hun APU ook zuiniger geweest, echter AMD weet ook dat bij veel systemen juist die igp de bottleneck is en wilt dat voorkomen. Bij AMD kun je dus een betere gebruikservaring verwachten als bij Intel. Een langere batterijduur is leuk en nuttig, maar als de prijs daarvoor is dat je beeldweergave steeds hapert, is de frustratie groter.
En zo kijken dus bijna alle bedrijven naar hun hardware en laten bedrijven nou ook de grootste inkopers zijn.
Klopt wel, maar bedrijven kijken vooral naar de cost of ownership, dwz betrouwbaarheid en onderhoud, en daarnaast naar aanschaf/afschrijvings-kosten. Een discrete gpu is altijd duurder.

Zelf heb ik slechte ervaringen met een ATOM-systeem waarvan de igp niet de resolutie ondersteunde van het scherm en het scherm niet synchroniseerde met de resoluties die de igp lekker vond. Op dat soort problemen zit je als bedrijf nog minder te wachten als particulier. Verloren werktijd kost je nl. ook geld.
Qua absolute performance heeft Intel weinig te bieden, maar qua qerformance per watt zijn hun IGP's wel degelijk competitief. Llano is weliswaar 2x sneller dan Sandy Bridge, maar daar is ook 2x zoveel chipoppervlak voor de GPU deel gereserveerd. En het verbruik ligt een aardig stukje hoger.
Voor video acceleratie is de igp's wel tedoen, maar voor games? denk dat ze gewoonweg bagger presteren.
De HD3000 is op zich ngo wel te pruimen voor games hoor, je moet alleen niet te veeleisend zijn. Dan is het met die IGP nog best te doen.

Ik heb in productreview: Intel Core i5 2500K Boxed review door Terw_Dan een aantal games getest om te kijken of het een beetje werkt, en veel games zijn redelijk speelbaar op het ding.
Bij de games die ik heb, waar graphics wat uit maken (niet zoiets als Civilisation II dus) t, kun je in een dropdown-boxje de nVidia en ATi-modellen kiezen die ondersteund worden. Intel staat daar niet bij. Met niet-ondersteund types heb je dus geen Z-buffering, Alpha-Blending, T&L, HyperZ, hardware-tesselation, anti-aliasing, bilinear filtering, trilinear filtering, anisotropic filtering, high dynamic range lighting, enzovoorts.

[Reactie gewijzigd door BeosBeing op 1 september 2011 10:19]

Ik zou nog wat verder willen denken dan games, in de toekomst wordt gpu acceleratie steeds belangrijker.
intel denkt wat amd kan kunnen wij ook
alweer een uitstel,, gelukkig zat ik niet op deze chips te wachten ^^
leuk en aardig die IGP's maar mn 2500K's IGP geeft ronduit een slecht beeld(scherpte/kleur/contrast). Losse ATI kaart erin en toppie:-)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True