Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 73 reacties

Intel zou van plan zijn voor zijn volgende generatie processors, met codenaam Ivy Bridge, het videogeheugen in de processorverpakking onder te brengen. Dat zou aanzienlijke verbeteringen voor de videoprestaties op moeten leveren.

Het geheugen voor igp's op zowel moederborden als in chips geïntegreerde gpu's, zoals de Arrandales en Clarkdales Core i-processors, gebruiken een deel van het werkgeheugen als videogeheugen. In de volgende generatie processors met de codenaam Ivy Bridge, zou dat echter kunnen veranderen, zo bericht website Semi-Accurate. Het videogeheugen zou mogelijk in dezelfde chipverpakking als de processor ondergebracht gaan worden.

Volgens de website zouden laptopprocessors in varianten met 128MB, 256MB, 512MB of zelfs 1GB kunnen worden uitgerust. Het geheugen zou niet bijzonder snel zijn, maar dat zou deels met een zeer brede databus gecompenseerd worden. De prestaties van de geïntegreerde gpu van Ivy Bridge zouden daarmee een aanzienlijke verbetering krijgen. Ivy Bridge moet Sandy Bridge, dat tijdens de aanstaande CES wordt geïntroduceerd, opvolgen en zal op 22nm geproduceerd worden.

Intel zou gebruik maken van lpgddr2-geheugen dat opeengestapeld kan worden. Dat geheugen is met 512bits brede databussen verkrijgbaar. Voor de interface met de gpu van de processor zou voor een zogeheten 'silicon interposer' gekozen worden, wat de productie van de benodigde grote hoeveelheid 'printsporen' zou vereenvoudigen. Het geheugen en de processor met geïntegreerde gpu zouden als een enkele multi-chip-package of -module worden verpakt. Intel zou al chips met geïntegreerd videogeheugen testen, maar Semi-Accurate houdt een slag om de arm met de opmerking dat de chipbakker nog altijd kan opteren voor chips zonder gddr2 aan boord.

Moderatie-faq Wijzig weergave

Reacties (73)

Heel fijn, IGP kapot is compleet nieuwe CPU kopen :/ Heeft intel toch al een handje van om voor elke nieuwe CPU die ze uitbrengen een nieuw chipset / socket uit te brengen dat natuurlijk niet backwards compatible is :/

Opzich wel een mooie ontwikkeling, maar als er iets kapot gaat moet je het hele ding vervangen, denk niet dat mensen daar op zitten te wachten imo.
Ik zie het verschil niet;
Nu moet je als de IGP kapot is een compleet nieuw moederbord kopen, welke lastiger te vervangen is dan een processor.
De meeste systemen met een IGP zijn laptops of andere draagbare systemen, in deze is het maar zeer zelden het geval dat je de CPU of wat dat betreft de GPU kan vervangen. Niemand in de laptop wereld lijkt daar een probleem mee te hebben anders dan de klanten die met een kapotte GPU zitten of hun CPU willen upgraden.

De redenen om dat niet mogelijk te maken (koeling en verbruik voornamelijk) zijn te begrijpen. Een nieuwe CPU of GPU met een ander verbruik dan wel een hogere temperatuur kan voor nog al wat problemen zorgen in de kleine verpakking van een laptop.

Dat Intel de IGP nu ook naar alle andere consumenten producten lijkt te willen duwen is in mijn ogen een zorgelijke ontwikkeling. Het komt er op neer dat 99% van de budget en business systemen binnen kort alleen een IGP hebben en geen aparte GPU meer. Een IGP die op zijn best met heel veel moeite DirectX9 calls met een redelijke snelheid kan verwerken. Dx10 en 11 worden heus wel ondersteunt maar de prestaties zijn zo slecht dat ze dat net zo goed niet hadden kunnen doen.
Voor de PC markt betekend dat een enorme stap terug, in een tijd. Nu alle nieuwe TV's 3D beelden kunnen weergeven zullen monitors niet ver achter blijven. We zouden naar een wereld kunnen gaan waar onze interactie met beeld schermen niet langer 2D maar geheel 3D is. Dankzij deze plannen van Intel zal dat voor de gemiddelde PC voorlopig niet mogelijk zijn.
Daar naast houd het in dat je meer moet betalen voor een computer onderdeel dat voor veel mensen geen meerwaarde levert. Iedereen die wel eens iets met 3D doet zal toch een echte GPU moeten kopen omdat Intel's IGP's zo extreem slecht zijn. Wat dus inhoud dat je dubbel moet betalen omdat je niet onder de IGP uit kan.

Zelfs als Intel hun IGP minimaal net zo goed als AMD zou maken dan nog is het een beweging in de verkeerde richting in plaats van meer krijgen we minder keuze. In plaats van een optie om zelf de onderdelen te kiezen worden we gedwongen een IGP te kopen die we misschien helemaal niet wilde hebben.
Ik kan alleen maar hopen dat Intel niet zal stoppen met het produceren van chips zonder IGP voor de consumenten markt. En dat natuurlijk een chip zonder IGP niet op eens alleen de black edition performance monster chips zullen zijn want die krengen zijn erg leuk maar niet te betalen.
Fout fout en fout...
De grafische opties zaten tot dusverre vooral in chipsets ingebouwd, of waren als losse chips ergens op je mobo gesoldeerd. Upgradeability 0,0. Binnenkort gaan ze gelijk op met je CPU, dus als je wilt upgraden krijg je er 2 voor de prijs van 1. Integratie is van alle tijden, we installeren ook al jaren geen losse coproc meer, idem met (voor de meeste mensen) geluidskaarten. Waarom niet? Nou, omdat de ingebouwde optie een verwaarloosbaar klein verschil is met de externe editie, terwijl die laatste wel veel meer geld kost.

Op dit moment is de IGP misschien niet heel erg krachtig, maar voor een mooie 2D-werkomgeving met een browsertje, een office-bestandje en MSN heb je niks meer nodig. Mocht het nodig zijn dan kan het ding ook nog een spelletje aan, en eerlijk is eerlijk, als ik de eerste resultaten van die Zanderige Brug zie, vind ik het niet tegenvallen. Met de volgende generatie (Ivy Bridge) is hoogstwaarschijnlijk de hele onderkant van de videokaartenmarkt overbodig geworden.

ps. 3D-TV is nog steeds 2D, en filmdata doorpompen vreet niet gek veel CPU-power. Zelfs de kleine mini-ITX-bordjes konden het, op brakke Atoms.
pps. Een IGP kost je misschien een euro extra aan chipkosten, nou vooruit, maak het 5. Dan kun je je GPU zo bouwen dat ie zichzelf volledig uit kan schakelen als je in Windhoos zit te spelen, en pas als het nodig is, gaat ie aan. Scheelt je minimaal 5 euro (of veel meer) per jaar aan stroomkosten.
inderdaad, dat zou handig zijn. En ook de andere kant op, als je zware videobewerking of CUDA programma's draait blijft je beeldscherm zichtbaar omdat die op de IGP draait?

Maar misschien is dit ook te zien als de aanzet voor de stap de andere kant op; de splitsing van de CPU naar gespecialiseerde sub-processors in een kern?, volgende stap de I/O etc van de CPU en IGP samenvoegen in subchip, etc.
Volgens mij loop je een jaartje of wat achter. Intel IGP's van de laatste generatie zijn namelijk net zo goed als de AMD's. Dat duurt echter ook niet lang meer want AMD heeft zijn volgende generatie ijzersterke IGP's al klaar staan... en die zitten ook bij de CPU! Dat het hierdoor krachteloze dingen zijn klopt dus totaal niet. Ze kunnen gewoon net zo krachtig zijn als op moederborden. De nieuwe AMD's zijn vergelijkbaar met huidige low-end videokaarten. Niet slecht dus.

Oftewel: het is juist helemaal andersom. De ontwikkeling van GPU's gaat zo hard dat inmiddels een GPU gewoon genoeg is om alle matig zware taken af te kunnen, zoals videoversnelling. Daar zijn de intel-IGP's die nu al in de i3 en i5 zitten ruim snel genoeg voor. 1080p 3D weet ik niet zeker, maar daar zal bijvoorbeeld de Llano-APU van AMD zeker sterk genoeg voor zijn. Intel kan het denk ik ook wel, zo niet dan zal dat niet lang meer duren. Een losse kaart is gewoon niet meer nodig en kost veel te veel stroom en ruimte vergeleken bij een APU die gemakkelijk in een netbook of tablet kan.

Voor zwaar gamen e.d: ja, daar zijn APU's behoorlijk nutteloos voor. Maar voor 2D-werk, waaronder films op hoge resolutie, past de benodigde rekenkracht gewoon op één die.

[Reactie gewijzigd door bwerg op 3 januari 2011 00:42]

De IGP in Sandy Bridge is naar verluid een flinke stap vooruit voor intel en zou ook met de low end grafische kaarten mee moeten kunnen komen. Dit artikel gaat alweer over de volgende stap voor 2012 en ook daar lijkt Intel weer een slag te maken qua IGP. Als je daarbij ook nog bedenkt dat de meeste gamers op een resolutie onder de 1920x1024 zitten te gamen waarbij highend grafische kaarten totaal zinloos zijn, moeten nVidia en AMD echt hopen dat schermen met hogere resoluties en multischerm setups snel populair worden. Anders kun je straks met een IGP alles op High zetten en alsnog vloeiende framerates halen.

Bye Bye stroomverslindende en dure GPUs.
Dat de meeste gamers op resoluties onder 1920×1080 zitten te gamen komt in de eerste plaats omdat hun grafische kaart (of gpu/igp als ze op een notebook gamen) niet meer af kan. Echter met lcd/tft-schermen is dat niet handig omdat je of slechts een deel van het scherm gebruikt, of het scherm het beeld gaat spreiden waarmee het onscherp wordt (en je bv text niet meer kan lezen), wat dat betreft waren, en zijn CRT-schermen nog steeds superieur.

In de tweede plaats komt het waarschijnlijk omdat ze een scherm hebben dat een lagere resolutie heeft, dit is bv het geval met veel 19" schermen en vrijwel alle notebooks.

De derde mogelijke reden is dat het spel nog geen hogere resoluties ondersteund, bv omdat het een wat ouder spel is, (voor schermen met 4:3 verhouding) of men in het spel de hogere resolutie uitschakeld voor de niet betalenden (zoals Runescape).

Wat mij betreft mag er aan de eerste reden, als dat kan, best wat gedaan worden.
Volgens mij is het beste als je een spel altijd op de volledige resolutie van je scherm kan draaien, ongeacht wat voor gpu/igp (en cpu) je hebt, enkel dat je met een langzamere gpu of igp (en cpu) de overige instellingen lager zult moeten zetten voor vloeiende framerates.

Op de middellange termijn verwacht ik zowiezo dat door de kleinere fabricageprocessen, en de daardoor lagere kosten voor een igp dat deze straks net zo krachtig zijn als de huidige high-end-kaarten. In principe zijn huidige igp's zoals de Radeon 4225 en 3300 al ongeveer zo snel als het topmodel Radeon 9800 van minder dan 10 jaar geleden, en dit verschil zal enkel kleiner worden.

Discrete videokaarten zijn staks alleen nog nodig voor schermen vanaf 47" die nu nog beperkt zijn tot 1920×1080 maar straks met 3840×2160 of hoger pas in de buurt zullen komen bij de scherpte (max 4560×3420) van bioscoopfilm (bedenk dus even wat voor resolutie je nodig hebt om IMAX te evenaren).
Now de PS3 en Xbox360 hebben 24 á 48 shaders.

AMD APU krijgt er 80. Op een kleinere procede. Dus de lowbudged performance bied al meer power dan wat console nu bieden.

Dit houd nog steed in dat je nieuwe PC games slecht kan spelen. Want de mainstream game requerment stijgen ook. Het kan zijn dat meer games op low settings te doen zijn.
Oudere games kunnen wel goed op deze low budged met 3D acceleratie goed draaien.
En Arero GUI van W7 kan dan ook gewoon soepel draaien.

Video afspelen is meer een ding van een dedicated stukje logica in de GPU die dat zo goed kan doen. Heefd de GPU dat niet moet de CPU dat doen. En daarvoor is een krachtige CPU voor nodig. Dus geen ATOM

Alle vele nieuwe gen IGP hebben dat de vorige van iNtel niet dus dat probleem is door alle partyen aangepakt AMD nV en nu dus ook iNtel.

Dus Atom platform die fijn video kan afspelen. Is afhankelijk van wat voor igp gebruikt is.
maar meestal wel 2 of 3x zo duur...
Als je een hele dure CPU hebt, gebruik je meestal ook een hele dure GPU die je in een PCIe slot hebt geprikt.
Hoe vaak komt het eigenlijk voor bij integrated systemen dat de chip kapot gaat (CPU + GPU in 1 chip), ik heb dat werkelijk nog nooit meegemaakt in mijn kennissen / klantenkring. Hooguit dat de cooler vervangen moest worden, maar verder echt nooit, is meestal software probleem maar nooit dat de chip kapot is. Beetje non discussie dus.

En zo duur zijn die integrated systeempjes nou ook weer niet
Eigenlijk is er in al mijn computersystemen nog nooit een chip of bord gefaald; het enige dat ik heb meegemaakt is een kapotte HDD (2x) en een kapotte voeding (1x). Die kapotte voeding heeft bij het opblazen dan wel een diskettestation en CD-speler meegenomen, maar dat is die hardware natuurlijk niet aan te rekenen.
Enerzijds ga ik volledig akkoord dat intel zeker recent veel verschillende sockets uitbrengt zodat als je wil upgraden je een volledig nieuw platform moet kopen.

Anderzijds zijn de (toekomstige) ontwikkelingen van intel (en ook AMD) enkel maar aan te moedigen. Als alles volledig geïntegreerd wordt in één enkele chip wordt alles veel compacter. Maar vooral ook zuiniger. Nu heb je eigenlijk relatief veel verspilde ruimte op een moederbord. Gewoon stroombanen om alle verschillende componenten met elkaar te verbinden. Als alles in één zit heb je veel minder verliezen, zowel energetisch als ruimtelijk.

Beeld je in dat je niet langer een cpu, videokaart, geheugen ed. apart moet kopen maar gewoon een nieuwe all in one chip op je moederbord plaatst. Dit is natuurlijk ook weer tweezijdig: je kan niet meer stuksgewijs je systeem upgraden. Voor een tweaker is dit een groot nadeel, maar voor jan modaal die gewoon een pc wilt die werkt zonder poes pas is dit wel zeer gemakkelijk natuurlijk ;)

[Reactie gewijzigd door Wouter.S op 2 januari 2011 12:29]

Ik denk dat dat op zich wel meevalt. Dit klinkt als zeer interessante technologie, en voor die kleine kans dat de IGP de geest geeft zou Intel het goed zo kunnen doen dat de CPU daar niet afhankelijk van is, en dan is het aan de gebruiker zelf om te zeggen "Hey, ik koop een nieuwe GPCPU/ ik gebruik de IGP van mijn plank wel."
OF je schakelt je IGP uit in de bios en zet er een losse videokaart in (geen optie bij een laptp, maar daar moet je sowieso je mobo vervangen als de IGP kapot is).
Ja, want nu laat je een CPU waarvan de IGP kapot is wel gewoon zitten... en dat gebeurt ook zo ontzettend vaak...
En als je IGP nu kapot gaat moet je ook een nieuw moederbord of videokaart aanschaffen. En sowieso, hoe snel gebeurt dat?

Bij Intel blijft het nu nog een beetje los, de GPU en CPU. AMD wil medio 2015 een CPU op de markt brengen waarbij je de CPU en GPU in het silicium niet meer kan onderscheiden omdat ze zo inelkaar verweven zitten. Dan worden bedei technologieën echt gedeeld voor een beter presterende processor, oftewel een APU.
2015? We praten hier over een ontwerp voor de volgende generatie Intel chip die in 2012/2013 op de markt moet komen. Wat Intel in 2015 op de markt gaat brengen (weer 1 of zelfs 2 generaties verder) is nog onduidelijk. Ik hoop dat AMD in de tussentijd ook nog wat verbeterd anders ben ik bang dat AMD het de komende jaren erg lastig gaat krijgen.
als er een paar shaders van je GPU stuk zijn, vervang je toch ook je volledige graka
En hoeveel IGP's zijn er in jouw leven al kapot gegaan?

Ik heb het zelf, en bij vrienden, en bij klanten, werkelijk nog nooit meegemaakt de afgelopen 10 jaar. Sterker nog, mijn Radeon ViVo 64 (1e generatie!), doet het nog steeds prima na 12 jaar. Hardware (los van HDD's) gaat lang genoeg mee om totaal obsolete te zijn bij vervanging. De enige reden om bv. jarenlang eenzelfde socket (of backwards compatible) te behouden is upgradebility. De mogelijkheid tot upgraden weegt m.i. echter totaal niet op tegen de remmende werking op de vooruitgang van backwards compatibility.

Daarbij, 99,9% van de systemen wordt nooit geüpgradet. Ik ken mensen die een hele nieuwe PC kopen omdat hun Windows zo vaak vastloopt (vaak omdat ze uit onwetendheid 10-tallen virussen hebben gedownload). En in het bedrijfsleven speelt dit al helemaal niet.
ik denk dat ze geheugen integratie op de GPU die (chip) bedoelen en niet in de CPU.
Maar het idee is nu juist dat gpu en cpu in één chip zitten. Daar komt dus nu ook het videogeheugen bij.
De CPU en GPU zijn inderdaad één chip/die. Er komt een tweede chip in dezelfde package te zitten. RAM en cpu/gpu's gebruiken doorgaans een iets andere cmos techniek en zijn daardoor niet makkelijk als één chip te combineren.

@Phas0r - Ik zie geen reden waarom een nieuwe chip met GPU op de processor sneller kapot zal gaan als eerst. Daarnaast komt AMD dit jaar ook met een hoop CPU's met IGP: Bobcat, Llano, en in de toekomst ook Bulldozer.

En wat betreft je socket opmerking: 775 is ook heel lang meegegaan. LGA1366 en 1156 waren gewoon tussen opossingen. Van 1366 is het al heel lang bekend, en 1156 wordt uitgefaseerd omdat er wat layout veranderingen van de socket nodig waren om de performance/stabiliteit beter te krijgen. Voornamelijk het hele power distributie vlak van de socket is aangepast. Ik verwacht dat LGA1155 en 2011 een stuk langer meegaan.

Vaak wordt er over geklaagd als intel weer wat nieuws uitbrengt, mbt sockets, maar het aantal mensen dat tussentijds upgrade en hun moederbord bewaard is waarschijnlijk nog niet eens één miljoenste van Intel's verkoopaantallen. Ik kan wel begrijpen dat ze daar niet altijd rekening mee houden.

[Reactie gewijzigd door knirfie244 op 2 januari 2011 13:29]

Wat bedoelt wordt mety backward compatibility van Intel is dat de chipset het vaak niet zijn. Het 775 socket is inderdaad heel lang meegegaan, daar zit dus ook het probleem niet, maar het probleem zit in de chipsets dit in tegenstelling tot AMD.
Dat maakt nog steeds niks uit, 95% van de mensen krijgen nooit te maken met een CPU of moederbord upgrade en is het dus ook totaal niet relevant of de chipset wel of niet backwards of forwards compatible is.

Ik snap niet dat dat anno 2010 op tweakers nog steeds niet begrepen wordt.
Klopt wel wat je zegt maar zo'n 75% van de tweakers zit wel binnen die 5% die er wel degelijk mee te maken krijgen en dus ook gewoon terecht klagen.
Aan de andere kant is het maar de vraag of de CPU ook echt een flink upgrade krijgen of dat het gewoon feature integratie wordt. De i7 op 1366 is anders nog altijd te meetlat van de mogelijkheden en die is al weer twee jaar oud.
Die 75% wat je zegt klopt ook niet.

Veel Tweakers kopen een nieuw moederbord en CPU tegelijk.

En zelfs dan zou dat maar 2,5% van de markt zijn, waarom zou Intel moeite moeten om die mensen tevreden te houden? Als dat uberhaupt al kan?
Tweakers en andere computer fanaten adviseren de rest van de markt. Dus een schommeling van een half procent binnen die markt zou kunnen betekenen dat je 10-20% verliest binnen de hele markt.
Als dat waar was zou AMD's aandeel minimaal 1x geschommeld moeten zijn naar 30% en dat is nooit gebeurd dus dat klopt niet.

De markt houdt halsstarrig vast aan Intel en ondanks dat AMD juist wel backwards compatibility biedt heeft dat logischerwijs ook vrijwel geen invloed op hun marktaandeel.

Zelfs toen AMD de snelste CPU's + backwards + forwards compatibility had kwam hun marktaandeel niet boven de 20% uit.

De computer markt bestaat gewoon uit HP, Dell, Acer, Apple en nog een paar andere merken. De zelfbouw markt is echt een minimaal onderdeel daarvan en veel Tweakers willen dat maar niet bevatten denk ik.
Zelfs toen AMD de snelste CPU's + backwards + forwards compatibility had kwam hun marktaandeel niet boven de 20% uit.
Kun je je de enorme boetes en schikkingen nog herinneren die intel moest betalen, niet zo heel lang geleden. Raad eens waarom dat was: illigale handelspraktijken. Dat is een enorme reden dat AMD nooit goed heeft kunnen klimmen toen hun producten de allerbeste waren.
De markt die geadviseerd wordt door tweakers is een andere markt dan de IGP markt. Dit is voor de miljoenen Dells die op kantoren overal ter wereld staan. En daar komt geen tweaker aan te pas.
Die tweakers moeten bedenken dat zij een heel klein deel van de markt zijn en dat Intel naar oplossingen zoekt die het beste zijn voor hun hele markt. Door niet al te veel compatibiliteit in te bouwen heeft men meer vrijheid bij het ontwerpen van de chipset en krijgt 95% van de markt een beter product. Voor die paar mensen die meerdere generaties CPUs op hetzelfde moederbord wil gebruiken (ondanks dat er ook een hoop verandert op moederborden (PCI-E 2.0, Sata 600, USB3) is dat jammer, maar Intel kan niet iedereen gelukkig maken.
Gaat ook wekelijks kapot...
Ik vind het wel gelijk veel geheugen, 128MB kan ik nog wel inkomen, maar zelfs dat is nog vrij ruim voor een IGP.
De gemiddelde notebook zit nu op een schermpje met een resolutie van 1366*768, daar heb je net iets meer dan 4MB videogeheugen voor nodig voor 2D weergave, en daar worden die dingen juist veel voor gebruikt. Het lijkt mij dat je hier juist de nodige winst kunt halen doordat je minder geheugen hoeft te integreren wat goedkoper is en waardoor de die ook kleiner kan blijven. 512MB of 1024MB is dnek ik echt overkill,de GPU is niet snel genoeg om dat te kunnen bijbenen.
"De consument" wil natuurlijk 1080p of 720p youtube filmpjes kunnen afspelen met hun nieuwe PC he? Dat gaat u met 4MB niet trekken. :)

Maar 512MB of meer voor een Intel IGP lijkt mij inderdaad ook een beetje overkill.

[Reactie gewijzigd door MaestroMaus op 2 januari 2011 12:53]

4MB is ook wel heel weinig, dat ben ik met je eens. Maar 1080p afspelen doe ik hier met 32MB op een Intel GMA4500MHD zonder problemen, ook aero draait daar mee. Dus ik denk dat alles boven de 128MB voor het gros van de mensen niet zinnig zal zijn.

Ik snap dat het een deel marketing is, net zoals zoveel kaartjes met 1 of 2GB geheugen, maar met een bagger GPU erop, mensen kopen niet iets met slechts 32 of 64MB, want dat is traag, maar al met al gaat dat heel erg meevallen.
Bij mij geeft MSI Afterburner aan dat Windows 7 x64 maar liefst 200MB geheugen in gebruik heeft.

En welke IGP doet alleen nog 2D acceleratie? 3D hoort er nou eenmaal bij tegenwoordig.

Wat ik niet kan begrijpen waarom men niet meteen geheugen geïntegreerd heeft. Het is toch al heel lang bekend dat shared video geheugen een grote impact heeft op de algehele prestaties van een systeem.
Het grootste probleem met geintegreerd geheugen was vroeger dat 2 chips (CPU en GPU) beiden dat geheugen moesten benaderen. Dat vereist coordinatie. Met een IGP zijn die 2 chips geintegreerd. Dat wil dus zeggen dat er nog maar 1 chip is die het geheugen hoeft te benaderen. Coordinatie is niet meer nodig, c.q. de DDR3 geheugencontroller kan voor 4 CPU cores en 80 stream processors werken.
De gemiddelde notebook zit nu op een schermpje met een resolutie van 1366*768, daar heb je net iets meer dan 4MB videogeheugen voor nodig voor 2D weergave, en daar worden die dingen juist veel voor gebruikt.
Das leuk maar dan rendert de CPU alle schermen en foefjes, lijkt me toch niet zo fijn en soepel werken, verwijder maar eens je videokaart drivers :+

Steeds vaker zie je dat Compositing gebruikt wordt, zoals in Windows 7 met Aero, onder linux met Compiz etc. ;)
Dat werk kun je prima met de GPU doen, maar je hebt daar echt geen 512MB of 1GB aan videogeheugen voor nodig.De GPU doet nu ook de berekeningen, niet de CPU.
Compiz-Fusion vereist voor een resolutie van 1280x1024 als ik het me goed herinner minstens 128MB. Wou destijd niet draaien op m'n oude (en nu nog oudere) 64MB videokaart.

Ik heb trouwens een Asrock 780GM-LE met een oplossing die tussen deze twee inzit, RAM wordt niet van het gewone RAM afgesnoept maar het moederbord zelf beschikt over 128MB RAM voor de chipset zijn zijn videokaart.

Ik denk dat voor flinke resoluties 256MB ook wel aan te raden is voor Aero/Compiz-Fusion, en dan 512MB voor degene die graag spellen als de Sims 3 spelen?

Ik zou zeggen de hamvraag is eigenlijk, dient ter aanvulling op het gewone RAM of als complete vervanging van?
512MB zal je voor een spelletje al vrij snel nodig hebben, maar als je 256MB op de CPU/GPU zelf hebt zitten en je kan nog 256MB van het RAM afsnoepen dan kan het ook.
Ik denk dat voor flinke resoluties 256MB ook wel aan te raden is voor Aero/Compiz-Fusion, en dan 512MB voor degene die graag spellen als de Sims 3 spelen?
Dat is het leuke: mijn HD4850, toch een aardige mid-range kaart, heeft 512MB waarmee je veel spellen al op redelijk hoge settings kan spelen, en de performance ervan ligt véél hoger dan een IGP. 1GB heeft die mid-range GPU niets aan omdat 'ie nog niet krachtig genoeg is en niet genoeg geheugenbandbreedte heeft. Een IGP zal qua performance waarschijnlijk niet veel hebben aan meer dan 128MB. 256MB kost tegenwoordig natuurlijk ook niet veel ruimte meer dus oké, en misschien haal je zo nu en dan inderdaad performancewinst. Maar 1GB is echt gewoon pure verspilling van stroom en ruimte voor een IGP.

edit: Even nagezocht, en voor sims 3 is 128MB videogeheugen vereist. Er vanuitgaande dat je geen gigantisch hoge settings zult gebruiken met een IGP zal 256MB dus gewoon ruim genoeg zijn. 1GB is alleen nodig als je zo'n spel op full HD met hoge settings en AA aan gaat spelen, iets waar je toch echt een goede videokaart voor nodig hebt.

[Reactie gewijzigd door bwerg op 2 januari 2011 16:59]

Moderne videodrivers kunnen al sinds het AGP tijdperk omgaan met de situatie dat de videokaart zelf niet genoeg geheugen heeft, en het gewone RAM als aanvulling gebruiken. Windows ondersteunt dat ook gewoon. Het ligt daarom voor de hand dat de toekomstige drivers hetzelfde feature zullen hebben.
2D weergave is toch geen optie meer voor een moderne GPU? Aero Glass bijv. neemt heel wat meer videokaartgeheugen in.
De gemiddelde notebook zit nu op een schermpje met een resolutie van 1366*768, daar heb je net iets meer dan 4MB videogeheugen voor nodig voor 2D weergave, en daar worden die dingen juist veel voor gebruikt.
Klopt, als je het videogeheugen enkel gaat gebruiken als framebuffer. Wil je je GPU iets laten doen, dan moet je er ook nog textures enz inladen en dan loopt het wél snel op. Tenzij je die in main memory laat zitten, maar dan gaat de performance er op achteruit. Op zich niet zo een ramp voor wat simpele 2D dingen.
Dus ja in principe kan dat genoeg zijn als je wat office werk doet.
Tja, ben benieuwd hoeveel mensen die een laptop kopen uberhaupt weten hoe de hardware in elkaar steekt, laat staan er op uit gaan een laptop te kopen met het idee dat ie wel eens snel kapot zou kunnen gaan en of ze dan makkelijk onderdelen kunnen vervangen..

Het is dan ook juist een geweldige oplossing en eentje waar onder andere ik al lang op zit te wachten. We weten allemaal dat gedeeld geheugen een k** oplossing is die alleen gebruikt wordt om de kosten te drukken.

Dit zorgt voor kosten besparing en geweldige prestatie verbeteringen, wat wil je dan nog meer?
Hangt van de doelgroep af. Voor Jan Modaal is het geweldig. Ik, aan de andere kant, zou geen GPU in mijn CPU willen omdat ik van mezelf weet dat ik een, betere, losse GPU erbij aanschaf. Die IGP is dan verspild geld voor me.

Bovendien weet ik niet of de overklok prestaties erop achteruit of vooruit gaan maar in het eerste geval is dat ook weer een minpunt voor mij.

(en nee er zit geen IGP op mijn moederbord op dit moment)
dit lijkt me geen geweldig idee en lijkt me niet echt op prestaties gericht te zijn maar meer een excuus om hun cpu duurder te maken en wat marktaandeel van de geheugen fabrikanten af te snoepen. de chips die's worden nu alleen maar groter wat minder bruikbare cpu's oplevert wat de prijs weer opdrijft. ik snap dat dit weer een stap naar een system-on-chip is maar dit zou in mijn optiek een van de laatste stappen moeten zijn. ik zie de voordelen voor de consument niet t.o.v. een techniek als AMD's sideport alleen maar voordelen voor intel.
IGP en CPU kunnen samen, want ze geven dankzij verdere miniaturisering (22nm ->16nm etc) minder warmte, en ook door nieuwere koelsystemen is meer mogelijk..
Stapelen van circuits maken de chips zeer compact.
Dit leid tot integratie in schermen en mobile speeltjes. En goedkopere.
De doorsnee consument heeft geen dure pc meer nodig.
Dat er steeds nieuw sockets uitbrengen is voor mij het ding niet, omdat je niet meer zo als vroeger heel lang kon doen met een moederbord en regelmatig wat upgrade.

Wat ik me afvraag waarom gewoon niet een apart slot met de zelfde voet als ddr 2/3 geheugen waar je een moduul kan insteken? naast de gewone geheugen banken?
in een aperte afwijkende kleur, des noods het slot van laptop geheugen als ruimte het probleem geeft.

Ik zie dit ook duidelijk dat eigen video geheugen dat specifiek bestemd is voor de GPU echt beter performt

met een onboard vga window 7 draaien met een airo interface is een 512 mb helemaal niet gek zeker als je een knappe monitor heb staan,,, en ik zie die grote schermen heel duidelijk oprukken naar gewone kantoor plekken en dubbele schermen ook.
Wat ik me afvraag waarom gewoon niet een apart slot met de zelfde voet als ddr 2/3 geheugen waar je een moduul kan insteken? naast de gewone geheugen banken?
omdat je dan minimaal 512 extra pootjes nodig hebt in de CPU socket. en dat zijn er HEEL veel.
Ik vind het jammer dat AMD dit niet heeft gepatenteerd. Volgens mij was AMD hiermee de eerst 4 jaar geleden met "Fusion".
Heeft geen nut. Ze waren toch niet de eerste, op andere architecturen doen ze dit al langer zoals in je smartphone. Daarbij hebben AMD en Intel een contract waardoor ze elkaars patenten mogen gebruiken, anders had AMD helemaal geen x86 processors mogen maken...
In de 90'er jaren had National al system-on-a-chip oplossingen en had je ook de Cyrix MediaGX processor waarop de processor, video en audio op dezelfde die zaten.

Overigens om een x86 compatible processor te maken hoef je geen door Intel gepatenteerde technologie te gebruiken; de instructie set is niet gepatenteerd. In het verleden waren er diverse spelers die x86 compatible processoren fabriceerden (NEC, National, Cyrix, VIA, Transmeta). In de jaren zeventig hadden Intel en AMD wel een cross-licensing agreement waardoor AMD de processor ontwerpen letterlijk van Intel kon overnemen; een 386 van AMD was hetzelfde als de 386 van Intel (inclusief alle errata). Pas ten tijde van de 486 is hier een einde aangekomen en moest AMD zijn eigen processoren gaan ontwerpen.
Ja en dan had intel nog steeds geen 64bits CPU, en het betreft niet alle patenten hoor. Er zijn destijds afspraken gemaakt over bepaalde patenten, oa. x86 en 64bit.
Waarom patenteren? Dat houd alleen de vooruitgang tegen.
Mooie trend. Waarom maken steken ze niet gewoon alle chips in één zelfde package (cpu, gpu, north en south bridge, memory en al de rest)?

Dan moet de chip enkel pootjes hebben voor stroom en er moet een HDMI en USB poort op.

Op die manier heb je én minder chips nodig én minder pootjes voor de processor ... ideaal toch.

Ik denk dat ik een trademark gaan aanvragen voor "one-chip-pc" :P.
Je bedoelt system-on-a-chip?
Zit bijvoorbeeld al in je telefoon. ;)
Ik denk dat ik maar patent ga aanvragen voor een chip mét uitbreidingsmogelijkheden en uitvoerapparaten. dan kan je zo je printer, scherm en harde schijven aansluiten aan die chip.

Dat wordt een knaller 8-)
Patent of een trademark (de laatste beschermd alleen de naam, niet de technologie/idee)

Het idee om steeds meer op een chip te integreren is een ontwikkeling die reeds vanaf de eerste PC plaats vindt. Dat we nog geen "one-chip-pc" in de winkel kunnen kopen heeft een aantal redenen:
  • Uitbreidbaarheid/modulariteit: niet iedereen heeft behoefte aan precies dezelfde PC, door het systeem modulair op te bouwen kan je met een beperkt aantal basis componenten een groot aantal verschillende configuratie creëren.
  • Technische: Niet iedere chip wordt op dezelfde wijze gefabriceerd omdat de gewenste eigenschappen afhankelijk zijn van de functie van de chip. Bijvoorbeeld voor DRAM wordt een ander procedé gebruikt dan dan voor een CPU. Ga je die verschillende functies op één chip integreren dan betekent dat meestal dat er concessies gedaan moeten worden m.b.t. de gewenste eigenschappen.
5112 bits geheugenbus :9~

Is dat echt zo of is er een 1 teveel getikt?
Ik denk een 1tje te veel, gezien de bron :)
Wat ik heel graag zou zien is een socket waar je de GPU in kan doen. En dan er geheugen naast zetten. Dat zou mij een mooie oplossing lijken.
Een PCIe slot dus in principe :P
Twee PCIe sloten dan, 1 voor het geheugen en 1 voor de GPU. En dan komt er een slimme fabrikant die de twee combineert tot 1 product, en de videokaart patenteert :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True