Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties
Bron: The Inquirer

Volgens The Inquirer zou Intel aan een nieuwe highend grafische chip werken die tegen de herfst volgend jaar op de markt zal verschijnen. Deze chip zal waarschijnlijk net als de grafische core van de G965-chipset, de GMA X3000, gebruikmaken van de PowerVR-technologie van Imagination Technologies. Dit bedrijf ontwerpt grafische processors die door fabrikanten van chips in licentie genomen kunnen worden. De technologie wordt op dit moment vooral gebruikt voor chips die bedoeld zijn voor mobiele telefoons en pda's. Imagination Technologies heeft een aantal jaren geleden geprobeerd om samen met STMicroelectronics door te dringen in de grafische markt voor computers. Dit resulteerde in de Kyro, die echter nooit een groot succes is geworden.

PowerVR logoHet voordeel van de PowerVR-architectuur is dat meerdere cores samengevoegd kunnen worden om zo een krachtigere chip samen te stellen. Dit is redelijk makkelijk voor elkaar te krijgen omdat PowerVR gebruik maakt van tile-based-rendering. Hierbij wordt het beeld onderverdeeld in kleine blokken die elk apart worden gerenderd. Het is waarschijnlijk dat Intel dan ook deze weg inslaat voor de highend videochip. Afgaande op een vergelijking tussen de grafische core van de 945G-chipset en de G965-chipset, heeft Intel echter nog een lange weg te gaan, want de prestaties van de GMA X3000 in de G965 zijn een stuk slechter dan die van de GMA 950 in de 945G.

Moderatie-faq Wijzig weergave

Reacties (74)

Dit is vooral slecht nieuws voor nVidia.
Door de overname van ATI door AMD was de mogelijkheid dat nVidia meer met Intel in zee zou gaan. Nu blijkt dat Intel zelf de touwtjes in handen wil hebben en valt nVidia tussen wal (amd/ati) en schip (Intel)
Ik zie intel en nVidia liever niet samengaan. Met een 3e graphics speler (=intel) op de markt krijg je nog meer concurrentie, dus lagere prijzen en meer innovatie, dus goed voor de consument.

Sommige mensen menen dat een situatie met maar 2 spelers ideaal is, maar dat is echt niet zo. Bij 2 spelers krijg je al gauw een standoff in prijzen. Een 3e (4e etc) speler kan voor verrassingen zorgen. Toen SIS met hun laatste graphics chipontwerp kwam (voor low end), zag je meteen nVidia en ATi reageren met prijsverlagingen voor hun eigen low end chipsets. Ik herinner me Kyro ook nog. Hoewel niet zo'n groot succes, had het toch een ontzettende plons in de grafische vijver gemaakt: lovende reviews dat indrukwekkende prestaties tegen lagere prijzen bestonden.
Dat soort dingen.
innovatie is leuk, maar ik ben als maar banger dat er gen ruimte meer voor is

zoals gebleken kan intel het zich permiteren om 4-5 jaar troep te maken (sorry, mijn mening over netburst) maar als AMD dit doet, staan ze zeker op de rand van een faillisement

de grafische sector is nog moordender: superscherpe prijzen, om de 6 maand een zware update en elk jaar een nieuwe architectuur
bij 3dfx ging het 2 generaties mis (opgebouwde achterstand) en het was al gedaan...

kijk naar nVidia, door hun Geforce5 stonden ze al met 1 voet in het graf, want niemand kocht het
gelukkig was de Geforce6 een echte voltreffer en maakte Ati de fout met hun shader 2b, maar stel dat de Geforce6 ook minder was geweest, wat dan?
De chips worden zo ingewikkelt, de kosten zo hoog, men heeft zeer weinig speelruimte, waardoor Matrox die tot aan de G400 best meespeelde dit al lang niet meer doet: de Parhelia was al achterhaald voor hij op de markt was, gewoon omdat een kleiner bedrijf gewoon zo snel niet kan ontwikkelen

we zijn op een zodanig niveau gekomen dat innovatie gewoon gevaarlijk is, niemand heeft de reserves of het marktaandeel (behale intel) om dit te doen
Netburst was bv zeer innovatief, maar dan enkel in theorie
de Core2 is nu niet direct innovatief te noemen want let's face it: het is een afgeleide van de Core Duo, welke afgeleid is van de PentiumM, welke afgeleid is van de P3Tualatin, die uiteindelijk komt van de PentiumPro uit 1995 (de Athlon is een Alpha afgeleide, wat nog ouder is)
uiteraard zijn er veel mooie dingen aan toegevoegd, maar intel zweert bv nog steeds bij een FSB systeem... auw
stel dat intel de enige is die genoeg budget heeft om te innoveren. Op het moment dat zij 'brakke' technologie naar buiten gaan brengen, ligt de markt voor andere/nieuwe spelers weer open.

Daarnaast is er ondertussen ook eeen opensource videokaartproject, dat over enkele jaren, écht wel, kan concurreren met de dan geldende mainstreamkaarten.

Innovatie/marktwerking zorgt hier voor een equilibrium, waarbij (gelukkig of helaas) Intel wel nog jarenlang de grootste zal blijven.
Maar als bijvoorbeeld Sony, Philips, IBM of Microsoft zich op deze 'lucratieve' (geintegreerde)chip-markt zouden storten, heeft Intel een probleem van proportionele omvang.
innovatie is leuk, maar ik ben als maar banger dat er gen ruimte meer voor is
voor echte innovatie is er altijd ruimte. vaak wordt innovatie verward met evolutie. innovatie is meer een revolutie.

voor evolutie kan inderdaad de rek op den duur uit zijn, bijvoorbeeld de Pentium4 met zijn steeds hogere klok. Een dual core processor is daarentegen wel een innovatie: plotseling geen hitteproblemen meer, meer prestaties bij lagere klok etc.
bovendien hoeft innovatie helemaal niet veel geld te kosten: dat hangt sterk van het idee af (zie de Kyro).
Ach, wat niet is kan nog komen.

Als Intel écht een serieuze(re) speler wil worden in de high-end markt, dan zie ik ze ook wel nVidia opslokken, mocht dat noodzakelijk geacht worden.
Als Intel écht een serieuze(re) speler wil worden in de high-end markt, dan zie ik ze ook wel nVidia opslokken, mocht dat noodzakelijk geacht worden.
Ik kan me niet voorstellen dat iemand daarop zit te wachten. Nu heb je al 2 grote spelers op de CPU markt, en 2,5 op de GPU markt. Meer partijen betekend betere producten (meer inovatie), straks blijft er maar eentje over, en dan hebben wij als gebruiker lekker het nakijken.

Je ziet bijvoorbeeld nu ook hoe Microsoft de game industrie probeert te forceren, want alleen MS bepaald wat DirectX gaat doen, ik zou eerder andersom verwachten (of zelfs eisen): Microsoft past zich aan aan de inovaties van de GPU fabrikanten.

Dus, ik zie veel liever dat Matrox opeens een klapper maakt een Nvidia/ATi wegvaagt (Intel doet vooralsnog nog niet echt mee), dan dat Intel Nvidia opvreet.
Geen enkel schip is onzinkbaar (zie Titanic) Mooi dat je intel met een schip vergelijkt :P ;)
Volgens mij was de titanic een boot.....en geen schip (Op een schip zitten kanonnen)
Van Dale zegt: "boot: vaartuig van behoorlijke afmetingen".

Waar haal jij vandaan dat een schip kanonnen moet hebben?
Heb jij ooit wel eens een baggerschip met kanonnen gezien? Of een containerschip? Zwareladingschip misschien?

Kortom, wat je zegt slaat nergens op ;)
Intel is toch wel 'iets' groter dan AMD en ATI samen, dus in deze vergelijking is Intel de wal en AMD&ATI het schip. (8>
Dit is super nieuws als je dit nieuws combineerd met het bericht van intel wat betreft opensource drivers. Ik wil best wat performance inleveren (als de intel iets minder is dan ati/nvidia) als dat betekend dat er echt goede opensource drivers voor zijn!
edit: nieuws: Intel maakt source grafische Linux-driver openbaar
Om je enthousiasme enigzins te temperen: begin van de week kwam naar buiten dat intel niet alles opensource maakt, maar een gedeelte van de functies in een (optionele) binaire module stopt.
Heh the Inquirer loop weer een week achter op de feiten

Hier over wordt er al een paar weken (sinds de geruchten van de overname van ati) over gespeculeerd maar het blijkt dat powervr in ieder geval in de huidige grafische chips van intel geen enkele inbreng had, dus inclusief de x3000

http://www.beyond3d.com/f...d.php?p=806418#post806418
http://www.pcpro.co.uk/cu...vr-returns-to-the-pc.html
Lately there have been various portents and signs of increased activity in the PC GPU space by both Intel and Imagination Technologies that have kept the rumor mill churning with speculation that the two might be cooperating on existing or upcoming PC parts. One target for such conjecture has been the origination of the technology included in Intel's newest IGPs.

Into this spec-fest comes tech site Custom PC, who had the original idea of actually asking ImgTec about the rumors. They have been rewarded with a flat denial, courtesy of David Harold, PR manager for ImgTec, who replied, "I'm not able to confirm where they are using it, which is perhaps why these rumours have started. I can, however, certainly say that the upcoming Intel integrated parts aren't PowerVR based."
(boo nieuwsposter, theinq != goede bron ;))
Dat is toevallig, AMD heeft ook net bekend gemaakt dat ze zich met Ati meer op de onboard videomarkt gaan richten d.m.v. een CPU die ook als GPU kan dienen.

Artikel Inquirer
Zou het niet makkelijker zijn voor AMD/ATI om een GPU te maken die een CPU naadoet dan een CPU die een GPU nadoet.

Als je namelijk een spel in softwaremode laat renderen, krijg je 10 fps MAX. Waarom? Omdat CPU niet geschikt is als GPU. Terwijl een GPU veel flexibeler is!
Dat is niet helemaal waar. Een CPU vereist een ander soort algoritme om efficient te zijn. Maar er bestaan wel degelijk effectieve algoritmes om 3D op een single CPU te rendener.

Het tiepische aan grafische berekeningen is dat het vooral heel veel onafhankelijke simpele wiskundige berekeningen zijn. Doordat ze onafhankelijk zijn kan de hardware honderden dingen tegelijk uit rekenen. Parralelisatie heet dat. Een grafische chip is eigenlijk een mega-multi-core van 100-en, dan wel niet, duizenden langzame simpele kut chippies.

Maar een CPU is veel sneller wanneer een berekening wel degelijk sequentialiteit vereist. Twee voorbeelden:

1 - gegeven een lijst van getallen, elk getal verdubbelen. Dit kan een GPU heel snel doen, omdat ie elk element onafhankelijk (tegelijk) kan verdubbelen. Op een GPU is de algoritmische complexiteit dan constant: O(1). Op een CPU is de algoritmische complexiteit dan linear: O(n)
2 - gegeven een lijst van getallen, alle getallen bij elkaar optellen. Op een CPU is de algoritmische complexiteit dan O(n), terwijl die op een GPU dan O(log n) zou zijn.

Bij voorbeeld 1, is de GPU dus altijd sneller.
Bij voorbeeld 2, zijn de hedendaagse CPU's dan sneller. Ookal pakt de GPU nog steeds wat winst, door deelhelften steeds apart (tegelijk) op te tellen.

Er bestaan zelfs algoritme die helemaal niet te parreliseren zijn, maar ik kan er zo 1,2,3 niet op een komen. Wie weet er een?
Ja, die om te berekenen wat het nut is van het leven. :+
Men wil de CPU en GPU verenigen op 1 die waardoor de componenten dichter bij elkaar staan en er minder tijd verloren gaat wanneer zij willen communiceren.
Zou het niet makkelijker zijn voor AMD/ATI om een GPU te maken die een CPU naadoet dan een CPU die een GPU nadoet.
Neen, GPGPU technologie toont dat de GPU enkel geschikt is voor heel rekenintensieve zaken zonder veel logica en coherente geheugentoegang. Zelfs dan is het niet makkelijk om goede prestaties te halen.
Als je namelijk een spel in softwaremode laat renderen, krijg je 10 fps MAX. Waarom? Omdat CPU niet geschikt is als GPU. Terwijl een GPU veel flexibeler is!
Hangt af van het spel. Je kan gerust over 30 FPS halen voor bijvoorbeeld Unreal.

Een CPU is minder geschikt voor rendering, maar is absoluut veel flexibeler dan een GPU! Er zijn veel dingen die met een CPU kunnen maar niet met een GPU. Anderzijds is er ook niks dat een GPU kan dat een CPU niet kan.
(zo die -60 troll is binnen, maar ik hou van jullie allemaal )
voor deze post krijg je een biertje van me :)
Een high-end grafische chip van intel....

Ik heb nog steeds geen high-end chip van hen gezien die in zich mag meten met een high-end ATI/Nvidia kaart.

Maar wie weet....
Ik kan me de tijd nog herinneren dat een dergelijk nieuwsbericht voorbijkwam.. iets met een bedrijfje nvidea ofzoiets die wel even zou gaan concureren met voodoo enzo... leek toen ook een beetje kansloos.

Meer spelers op die markt kan nooit kwaad. :)
nVidia bestond al voor 3dfx.
Tseng labs is overgenomen door Ati.
Cirrus heeft nog een tijdje samen gewerkt met 3Dfx, maar hun eigen chips zijn nooit een hit geworden en zijn volgens mij gestopt.
Net als Oak Technology (overgenomen door Zoran). En Trident is overgenomen door XGI, welke ook weer door Ati is overgenomen.
Nu Tseng en Trident zijn nu dus onderdeel van AMD.
klopt; maar de meeste bedrijven van het oude tijdperk hebben de overstap naar de 3D chips niet overleefd
blijkbaar is dit dus niet zo simpel om doen

Tseng Labs en Cirrus Logic waren bv vrij grote spelers die opeens totaal niet meer mee speelden
@NitroX infinity:

Niet in hetzelfde marktsegment.
Nogal logisch, omdat Intel noch nooit een High-end chip (ook niet naar hun eigen maatstaven) heeft geproduceerd. ;)
dit is fantastisch nieuws! intel beschikt over enorme resources om dit varkentje te wassen. zowel qua geld, techniek maar vooral ook proces technologie.

helemaal positief is dat intel sinds kort open source is gegaan met grafische drivers. dus eindelijk is het mogelijk een laptop volledig open source te draaien; zonder proprierty shit (excusez le mot) van ati/nvidia!

dit werpt mijns inziens wel een ander licht op de fusie van AMD en ATI. kennelijk had amd eerder lucht gekregen van intels geavanceerde graphics plannen en heeft daarom via de riskante overname (enorm kostbaar en discutabele ROI) van ati haar toekomst willen veiligstellen voor het naderende grafisch geweld van intels eigen chips. nvidia moet uitkijken niet de sgi van videochips land te worden!

overigens hebben alle integrated videochips, of het nou intel, ati of nvidia is, altijd een nadeel tov videokaarten doordat ze met het trage werkgeheugen van de pc moeten werken ipv een dedicated snelle VRAM buffer. het trage geheugen en bus wordt tevens nog eens gedeeld met de processor! dit vergeten veel mensen vaak waardoor de perceptie is dat intels huidige video chips heel traag zijn terwijl dat eigenlijk best wel mee valt!
Aangezien Intel nu met technologie onder licentie van een ander bedrijf gaat werken kan het goed zijn dat de drivers voor de chipsets die hier gebruik van gaan maken niet onder een open licentie zullen vallen.
Volgens The Inquirer
Need I say more?
Intel heeft dit toch al eens geprobeerd met de i710 ofzo? was niet zo'n succes toen. Laten we hopen dat het ze lukt om goede concurrentie met nVidia en AMD/ATi aan te gaan.

S3 hoor je niets meer van... permedia .. was van 3dlabs, die maken nu volgens mij ook alleen nog nVidia based dingen voor de zakelijke markt..

ja, nieuwe concurrentie is altijd goed imo!
Jij bedoelt de i740, dat was niet eens zo'n slechte kaart. Beetje te vergelijken met een S3 Trio64 of een Matrox Millenium. Alleen dat was nog voor het grote 3Dfx succes volgens mij.

* Vorlon zucht... Good old days :D
De i740 was echter niet eens door Intel zelf ontworpen, maar door Real3D, die toevallig net voor de launch van hun grafische chip door Intel overgekocht werd van Lockheed Martin. En zo super was ie niet, daarom was het ook meteen de eerste en laatste poging. Beeldkwaliteit kwam iets boven de Voodoo 2 uit, maar prestaties lieten veel te wensen...


Verder: Ik wist nog niet dat de G965 PowerVR techniek gebruikte, is de techniek omhoog geschaald van telefoon/PDA formaat naar PC formaat?
Uhm, 3DLabs is van Creative en maakt professionele kaarten, bijvoorbeeld de Wildcat serie. http://tweakers.net/pricewatch/cat/49/nosub

Beetje S3 geschiedenis: nieuws: Diamond Multimedia 'back in business'
Tja, het NADEEL van tile-based renderen is dat je geen bewerkingen kan doen die betrekking hebben op het complete beeld in 1 keer, zoals FSAA.
Gezien iedere zichzelf respecterende high-end graka-maker deze feature WEL heeft, is Intel's oplossing automatisch niet meer high-end, maar gewoon mainstream.
Wel leuk, overigens, dat PowerVR's oude techniek (uit de tijd van de Voodoo 2 en 3) nu ineens weer tevoorschijn komt :)
helemaal geen waar, je hebt het over differed shading (mogelijk op alle DX9+ kaarten met mrt's), powervr heeft trouwens msaa geintroduceerd voor ati & nvidia
Ik zou niet inzien waarom FSAA niet mogelijk zou zijn, er wordt bij Tile Based net zo goed een heel beeld aangemaakt. Multi Sampling AA zal misschien wat moeilijker zijn, maar Super Sampling AA en Fragment AA zou totaal geen probleem op moeten leveren...
Heh, ik vraag me af wat IT wel weet maar nVidia niet. Ik had begrepen dat zij al aardig wat moeite hebben met 4 GPU's aan elkaar te knopen.
bron
Ik gok dat dit weer zoiets wordt als de i740 chipset. Geen high-end prestaties, maar wel iets wat een hele goede prijs/prestatieverhouding gaat hebben
Het kost veel tijd en geld om een echte high-end kaart te ontwikkelen die zich kan meten met de topmodellen van ATI en Nvidia, terwijl de markt voor de midden- en lowend modellen het grootst is. Het is daarom ook het meest aantrekkelijk om videokaarten te ontwikkelen voor dat segment, ik verwacht dat Intel dat ook zal doen. Ze hebben met PowerVR wel wat kennis in huis, maar waarschijnlijk nog niet de technologie voor highend producten.
Ben je aan vakantie toe als je leest :

Geruchten over hijgende videochip van Intel

:z
A dirty mind is a joy forever.

(Ik las het ook zo.)

Als ze iig de koeling voor elkaar hebben want anders zou het idd een hijgende chip worden. ;)
haha, dat lees ik ook de hele tijd!

Lijkt erop dat hij de concurrentie niet bij zal houden :+
highend grafische chip .... PowerVR-technologie ....Kyro
:D
Met een Intel840 X4 weet je maar nooit :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True