Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: Falanx

Falanx heeft de Mali200 grafische processor IP-core ge´ntroduceerd. De Mali200 is een GPU met maar ÚÚn pipeline die meer functies heeft dan Shader Model 3.0 en daarmee gebruikt kan worden met onder andere OpenGL ES 2.0, OpenVG en DirectX 9.0. De Mali200 IP zou maar weinig transistors bevatten en zou ook maar weinig energie verbruiken, waardoor deze in eerste instantie vooral geschikt is voor mobiele applicaties. Zo zou de IP op een SoC voor mobiele telefoons geplaatst kunnen worden zodat er 3D-spellen mee gespeeld kunnen worden.

De nieuwe GPU van Falanx heeft een architectuur die gebaseerd is op tile-based-rendering. De voordelen van tile-based-rendering zijn onder andere dat 4X anti-aliasing 'gratis' is (16X is ook mogelijk) en de IP 80% minder geheugenbandbreedte nodig heeft. Daarnaast is het mogelijk om meerder IP's op een chip te combineren, waardoor de Mali200 ook geschikt wordt voor applicaties waarin meer kracht nodig is. Zo zouden twee Mali200-cores samen even krachtig zijn als de GPU in Sony's PSP. Als er nog meer IP's op een chip worden gecombineerd zou er zelfs een GPU mee gebouwd kunnen worden die kan concurreren met de snelste nVidia en ATi GPU's.

Of de Mali200 succesvol zal zijn is moeilijk te zeggen. Falanx levert alleen de IP. Deze zal echter door micro-elektronicafabrikanten ge´ntegreerd moeten worden in hun producten. Het is dan ook nog maar de vraag of deze IP uiteindelijk ook op de desktop terecht zal komen. Sommige micro-elektronicafabrikanten, waaronder NEC en ST Microelectronics hebben al eerder geprobeerd om een GPU voor de desktop, gebaseerd op een door derden geleverde IP, op de markt te zetten, maar echt succesvol waren ze daarin niet. Daarnaast gaat Falanx concurrentie krijgen van Lucid, een IsraŰlisch bedrijf dat bezig is geld te verzamelen om een grafische processor te ontwerpen, die ook parallel kan werken.

Falanx Mapi200 schaalbaarheid
Moderatie-faq Wijzig weergave

Reacties (47)

In fysica bestaat er zoiets als onbeperktheid niet ... dus dit is een marketing stunt met een mooi gekozen termen. Het zal wel een vooruitgang betekenen, maar ze moeten daar eens bij de marketing afdelingen leren met hun beide voeten op de grond te staan.
Er zijn natuurlijk simpele fysieke limitaties (hoeveel passen er in zo'n kast?) maar waar het ze blijkbaar om gaat is dat het (vrijwel?) lineair schaalt. En los van of het ze gaat lukken, is dat wel een interessanter concept dan de manier waarop nVidia en ATI elkaar op een soort Intel vs. AMD manier bevechten met steeds complexere/grotere chips. Daarentegen, Transmeta was volgens velen ooit ook *de* oplossing :)
HEt is hetzelfde als wat ATi en nVidia doen, enkel sinds de Voodoo2 heeft niemand het meer in zijn harsens gehaalt om een 1 pipeline chip te maken.

nVidia en ATi's chips worden wel steeds groter, ze kunnen ook steeds meer, niet als de AMD en Intel chips, die weinig toevoegen per generatie, maar die worden ook per generatie sneller.
In welke zin vind jij het een interessanter concept dan de manier waarop Nvidia en ATI werken?

Ik zie namelijk geen enkel verschil. Behalve dat ze telephones in hun low-end kaarten betrekken waar ATI en Nvidia bij low-end pc videokaarten stoppen. Wellicht bedoel je dat?

Zoals Jan ook al aangaf is bij elkaar stoppen van meerdere pipes die dan lineair schalen exact wat ATI en Nvidia nu al jaren doen. Dus ik hoop niet dat je daar op doelde.
kijk daar is de grens alweer, ook nu is het puur beperkt door de stroom, ruimte in de kast, en de kosten van bredere bussen..

kan ik wel 800 van die IP's bij elkaar zetten, moet ik er ook een gigantische bus tussen zetten, plus warmte afvoeren, plus ruimte hebben..
Het nodig hebben van minder bandbreedte en zijn grote zijn de enige positieve dingen die ik aan deze chip kan bedenken.

Echter, er is een probleem voor bedrijven die consumenten gpu's willen maken, of eigenlijk, 2 problemen, nVidia en ATi, beide bedrijven bouwen door de concurentie strijd zo'n ongelovelijk goeie chips, die hoe vreemd dat ook klinkt enorm efficient werken, daar kan geen andere bedrijf ooit nog aankomen, tenzei ze 10 jaar R&D en 10 jaar gpu ervaring binnen hele korte tijd kunnen goed maken, een lijst van bedrijven die het telken weer proberen S3 (tja, delta chrome niet slecht, maar zeker niet goed genoeg), XGI (Volari V8 Ultra Duo heeft 16 pipelines, maar komt niet eens bij de 9800 Pro/6600GT in de buurt) Matrox (parhelia?).

HEt moet toch eens doordringen dat er niet iets is wat nVidia en ATi over het hoofd hebben gezien, of dat beide bedrijven hun best nog neit doen en dat zorgt er dus gewoon voor dat andere bedrijven gewoon echt geen kans maken, helaas geld dat ook voor deze zeer elegante maar vreemde chip.
Er is nog een bedrijf wat op dit moment het grootste marktaandeel heeft op de grafische markt namelijk Intel.

Mensen denken meteen aan Ati vs nVidia, maar allebei moeten ze buigen voor Intel. Wanneer Intel besluit om een high-performance GPU te gaan maken zullen ze daar een taaie kluif aan hebben.

Maar Intel weet hoe je het beste geld kunt verdienen in deze sector: Een goede prijs met een maximale performance in een chipset. Iedereen heeft een videokaart nodig maar weinig mensen hebben een high performance GPU nodig.

Omdat die high performance GPU's zo duur zijn lijkt het marktaandeel groter, maar in aantal aankopen is dat van Intel vele malen groter.
Dus omdat Intel veel kennis en ervaring heeft met cpu's denk je dat ze daaroom ook meteen maar veel kennis en ervaring met gpu's hebben?

Omdat ze kennis en ervaring hebben met geld verdienen met low-end gpu's, kunnen ze dat automatisch ook voor super high-end gpu's?

Ik heb een verrassing voor je: zo werkt het dus niet!
Ik laat intel simpelweg buiten de deur, net als marktaandeel van high-end graphics, ik bekijk het van een puur technische hoek, en op dat gebied is intel helemaal nergens in graphics.
Je redenatie lijkt op het eerste gezicht weinig tegen in te brengen. Maar toch zie ik het anders.

Het R300 design van ATI wordt grotendeels toegeschreven aan de engineers van een bedrijf dat ze overkocht hebben. (ben de naam even kwijt)
En dat is toch wel even het grootste succes ooit, voor ATI geworden.

Wat nou als een derde partij dat bedrijf had gekocht en er net zoveel geld in had geinvesteerd?

Verder komt er binnenkort een moment waarop een derde partij een kans krijgt. Namelijk bij de komst van WGF2. ATI en Nvidia hebben ontzettend veel ervaring met de huidige hardware en software architectuur. Als nieuweling op de gpu markt kun je die achterstand moeilijk overwinnen.
Maar als ze overgaan op een unified architectuur, is heel veel van die ervaring nutteloos geworden, omdat een dergelijke architectuur totaal anders reageert. Dan kan een nieuweling zijn kans grijpen.
Verder komt er binnenkort een moment waarop een derde partij een kans krijgt. Namelijk bij de komst van WGF2. ATI en Nvidia hebben ontzettend veel ervaring met de huidige hardware en software architectuur. Als nieuweling op de gpu markt kun je die achterstand moeilijk overwinnen.
Maar als ze overgaan op een unified architectuur, is heel veel van die ervaring nutteloos geworden, omdat een dergelijke architectuur totaal anders reageert. Dan kan een nieuweling zijn kans grijpen.
Toen Hardware TnL kwam ging er anders over GPU's gedacht worden, de eerste shaders hebben de GPU wereld op zijn kop gezet en de shaders vanaf SM2.0 waren weer compleet anders en oude architectuur bleek niet meer op ze van toepassing te zijn (NV30).

In ieder van deze gevallen zijn er andere opgestaan, S3 heeft een hwT&L kaart gemaakt net na de geforce, wij weten volgens mij allemaal nog wat er toen gebeurt is. Matrox bouwde een van de eerste SM2.0, ook niet erg succesvol.

In ieder van deze gevallen zijn er prima mogelijkheden voor andere partijen om in te stappen, maar het lijkt alsof nVidia en ATi altijd een stap voor alle andere bedrijven zijn.

WGF2 is niet echt een hele andere architectuur, het lijkt me vreemd dat een stuk software erg specifieke eisen aan de archtiectuur van een chip steld, en daarom denk ik dan ook dat het echte werk in de nieuwe shader instructies zit, en niet op de manier waarop ze intern verdeelt worden.

(overgens is ATi al praktijk ervaring op aan het doen met unified shader model, en test nVidia er al jaren mee, ze zijn dus nog steeds goed bezig)
WGF2 is wel een hele andere architectuur. Het wordt namelijk een unified architectuur.

En als de software bepaald dat voortaan een enkele shader zowel vertex als pixel berekeningen uit kan voeren, dan moet je simpelweg je hardware daaraan aanpassen.

Dat is de reden waarom een stuk software in dit geval specifieke eisen aan de hardware stelt.

In theorie is het mogelijk je hardware intern de boel apart te laten verwerken, maar dat is zodanig complex en omslachtig dat dat altijd in je nadeel zal werken.

ATI is inderdaad al praktijk ervaring aan het opdoen, Nvidia nog niet. Ze testen er helemaal niet al jaren mee. Bij het design wordt de optie wel besproken, maar dat is heel wat anders. Daar doe je geen praktijkervaring mee op.
Overigens ging het dan ook steeds over een unified gpu voor een niet-unified API. Dus enige ervaring die ze daarmee zouden hebben is weer nutteloos op het moment dat je wel een unified API krijgt. Dan zal je kaart op een hele andere manier belast worden.
De shader instructies zijn ook in het unified shader model nog aardig makkelijk uit mekaar te houden, sterker nog, het kan niet anders, zo ook in de architectuur van de Xenos, zie de onderste post voor meer info daarover.

Pixelshader kunnen gedaan worden op basis voor pixels die in ontwikkeling zijn, vertex shader worden uitgevoerd op in ontwikkeling zijnde vertrices, het blijft gewoon appart, het kan niet anders, een pixel is nog lang geen vertrice, en voor texture mapping heb je nog steeds andere dingen nodig als voor geometri berekeningen, als je dan nogsteeds denkt het met 1 enkele processor op te lossen, kom je uiteindelijk bij software rendering uit.
Echter, er is een probleem voor bedrijven die consumenten gpu's willen maken, of eigenlijk, 2 problemen, nVidia en ATi
In het veleden is het grafische landschap al een paar keer totaal opgeschud. een aantal jaren terug kwam uit het niets de vodoo kaart. men dacht toen ook dat geen enkele fabrikant het bijna monopoly kon doorbreken. toen kwam plotseling matrox weer terug met een kaart die zelfs twee beeldschermen aan kon sturen en even later nam nvidia het stokje weer over. weer dacht iedereen dat de voorsprong zo groot was dat niemand dat meet in kon halen. vervolgens kwam ATI (die uitgerangeerd was en z'n geld verdiende met low budgetkaartjes van een paar generaties terug) ijzersterk terug met als gevolg het landschap zoals het er nu uitziet..
Waarom zou een nieuwe speler ook niet de boel weer eens een beetje kunnen opschudden...

Ik zie in deze benadering overigens niet zo zeer mogenlijkheden voor het gamerssegment, maar meer nog voor het high-end grafische professionele segment.. kaarten speciaal voor bijvoorbeeld autocad/3dstudio/inventor. als concurent voor bijvoorbeeld de nvidia Quadro
Je stelt het veel te veel zwart wit voor.

Voodoo heeft niet zozeer de bestaande grafische markt opgeschud, maar een totaal nieuwe markt gemaakt. Dat kun je niet vergelijken met de huidige situatie waarbij een nieuwe partij tot een bestaande markt zou willen toetreden.

Wat betreft Matrox. Dat aansturen van twee beeldschermen was eigenlijk nooit echte concurentie voor gamerskaarten van ATI en Nvidia.
Het aansturen van drie schermen kon dat zijn, maar was van te voren gedoemd te mislukken doordat Matrox niet bereid was te blijven investeren in high-end kaarten, dat je nou juist voor die drie schermen heel hard nodig had.

Dat ATI uitgerangeerd was en alleen low-budget kaartjes maakt voor de R300 is gewoon niet waar. ATI is nooit zo ver achterop geweest bij Nvidia. En vanaf de Radeon serie heeft ATI met elke versie het gat kleiner gemaakt.
Als je ze op een rijtje zet, dan kon je al aan zien komen dat ten tijde van de R300 het gat gedicht was.
Wat dan wel bijzonder was, is dat de R300 ineens een grote voorsprong nam. Maar die opschudding is bij lange na niet te vergelijken met een derde partij die het ATI en Nvidia moeilijk zou maken.

Ik zie trouwens ook totaal niet in waarom je in deze benadering (welke benadering?) zoveel mogelijkheden ziet voor het professionele segment.
Ik zie niets bijzonders in die benadering.
Als je met autodesk inventor een ingewikkeld ontwerp wil renderen is een beetje zware desktop met een proffesionele quadro pro zo een half uurtje aan het rekenen voor een simpel stilstaand plaatje. en dan hebben we het nog niet over een walk trough. hij deelt het beeld op in segmenten en gaat deze stuk voor stuk berekenen. met name afrondingen e.d. leveren een hoop rekenwerk op. pipelines zijn niet zo heel erg belangrijk om dat er relatief weinig informatie van en naar de grafische processor gaat. Anders dan bij games waar relatief eenvoudige objecten snel moeten worden verwerkt. Als je echter een kaart heb (of een hele machine vol) waarbij 8 of 16 of 32 processors paralel een stukje beeld kunnen verwerken (wat als ik het goed begrijp, hier ook gebeurt) kan dat tijdswinst op leveren. Geloof me, mijn baas is graag bereid enkele duizende euro's aan grafische rommel te investeren. Het uurtarief van duimendraaiende ontwerpers is al snel veell hoger
pipelines zijn niet zo heel erg belangrijk om dat er relatief weinig informatie van en naar de grafische processor gaat.
Info van en naar graphische procosser gaat door een heel traject heen, afhankelijk van je systeem, maar wordt meestal gebottlenecked door de poort waarop de kaart aangesloten zit, AGP of PCIe.

Pipelines zijn dingen die pixels berekenen, en dus hebben zei alles met snelheid van een ontwerp renderen te maken, hoemeer pipelines, hoe meer pixel tegelijkertijd berekent kunnen worden (en aangezien er altijd heel veel pixels berekent moeten worden op hetzelfde moment is deze taak prima parrallel uit te voeren)

Om de pixel per clock van een 7800GTX of FX 4500 te benaderen moeten 24 van deze Mali200 chips gebruikt worden, maar de Mali200 draaid op zeer lage snelheid, en door een gebrek aan transistors moet ik vrezen voor niet al te snelle units binnen de pipeline, en dus een efficientie van helemaal niets (op vermogen en hitte besparingen na).

Deze Mali200 zal nooit concurentie worden van Quadro's.
@digistamremco

Je haalt een aantal dingen door mekaar.
Ten eerste is deze nieuwe gpu gewoon een chip met 1 pipeline.

16 van die dingen naast elkaar vormen dan gewoon een gpu met 16 pipelines.
En niet geheel toevallig hebben zowel ATI als Nvidia nu ook als gpu's met 16 pipelines.

Ook niet geheel toevallig stoppen ze 16 pipelines in 1 chip, omdat dat efficienter is dan 16 complete gpu's met elk 1 pipeline. (je kan dan heel wat transistors uitsparen)

Verder moet je onderscheid gaan maken tussen pixel pipelines en vertex pipelines.

Het grote verschil tussen professionele applicaties en spellen, is dat de spellen veel pixel pipelines nodig hebben, en de professionele applicaties veel vertex pipelines.

Deze nieuwe gpu zou een enkele complexe pipeline hebben. Waarschijnlijk een unified pipeline die zowel vertex als pixel berekeningen kan doen. Dan zouden 16 pipelines wel krachtiger zijn dan een Nvidia of ATI kaart aangezien die minder vertex pipelines hebben.
(Hoewel die 16 pipelines waarschijnlijk op een zoveel lagere frequentie draaien dat ze daardoor alsnog trager zijn)

Maar ook dat is niet zo bijzonder. De gpu in de Xbox360 zou ook een perfecte professionele kaart zijn. Dat is immers ook een unified architectuur waarbij alle pipelines ingezet kunnen worden voor vertex berekeningen. Dat ding draait bovendien ook nog eens op een hoge frequentie.

Dus ik zie nog steeds niets bijzonders in die nieuwe kaart.
@mjtdevries

http://www.beyond3d.com/articles/xenos/images/archs.gif

zoals op het plaatje ook te zien is, de shaders worden ge-unified, maar eigenlijk onstaan er 3 pipeline arrays ipv 2, aangezien de shaders nu een eigen pipeline (welliswaar dezelfde voor vertex en pixel shaders vandaar de naam unified). Enkel zijn het 3 groepen van shader units die telkens als groep zijnde aan vertex OF pixel shaders gaan werken.

Het was ook het "unified shader model" niet meer en niet minder.
Hij zei ook niets over de R300, dat is duidelijk in ATI's tijd.

Voor de Radeon, had ATi niets, nouja, Rage chips...

De R300 was een succes, maar wel enkel door het falen van de NV30, vergeet dat ook niet, want zo ongelovelijk overtuigend veel sneller dan de NV25 was de R300 ook niet.

De eerste Radeon kaart kwam pas na de GeForce 2 uit, in een zeer intressante tijd, Voodoo was er toen ook nog, maar vanaf de TNT tot aan GeForce 2 heeft nVidia in ATi geen concurent gehad, echt GEEN. De GeForce 2 heeft tijdens zijn introductie zoiezo geen enkele concurent met uitzondering van zijn eigen voorganger.

De Radeon was direct al sneller dan de GeForce 2 GTS, ik weet niet meer zeker van de Ultra. De 8500 was later superieur aan de GeForce 3, maar aanvankelijk niet door erg grote driver problemen, duurde zeer lang voordat ze dat hadden opgelost, GeForce 4 had jaren lang geen concurent, en toen kwam inderdaad de R300 die vanaf dat moment gedomineerd heeft en waar de R400 nogsteeds een afgeleide van is.
@Jan Groothuijse

Och, ruim 2x zo snel als een NV25 en ruim 2,5x zo snel als een 8500 noem ik best wel overtuigend veel sneller.

Zelfs als de NV30 had gepresteerd zoals Nvidia het bedoeld had, hadden ze een zware dobber gehad om de R300 te verslaan.

De eerste Radeon is nooit sneller geweest dan zijn directe concurenten. DÚ reden om zo'n kaart te kopen was omdat de beeldkwaliteit veel beter was. Maar in prestaties liep ie zo'n 5 tot 10% achter op Nvidia. Aan de andere kant was ie ook zo'n 10% goedkoper, waardoor ie best veel waar voor zijn geld gaf. Dat was dan ook de reden dat ik ooit zo'n kaart gekocht heb.

De 8500 was direct sneller dan de GF3, maar niet sneller dan de GF3 refresh: Ti500 die zeer kort daarna op de markt kwam.
Later werd de 8500 nog sneller, maar ik heb mijn twijfels of dat door drivers kwam, of doordat er andere speller werden gebruikt die andere zaken gebruikten. (zoals pixel shaders)

GF4 heeft een jaartje geen concurrente gehad. ("jaren lang" is echt niet waar)

R400 is overigens een pracht voorbeeld van wat in dit artikel als iets bijzonders wordt gebracht. R400 is immers niks anders dan een R300 met extra pipelines.
In die tijd hing nog meer van drivers af als nu, de beeldkwaliteit van de radeon was hij moest zijn, maar ook niet meer dan dat. Enkel zijn benchmarks vaak incompleet, en incompleet genoeg om niet ook op 32bit kleuren te testen (ja, GeForce 2's kunnen daar werkelijk langzamer van gaan) waar de Radeon op hoge resoluties wint in Quake 3.

De GeForce 3 refresh kwam aardig snel na de introductie van de 8500. Maar, op een punt in tijd was het zo:
http://anandtech.com/video/showdoc.aspx?i=1544&;p=12
http://anandtech.com/video/showdoc.aspx?i=1544&;p=13
http://anandtech.com/video/showdoc.aspx?i=1544&;p=10
http://anandtech.com/video/showdoc.aspx?i=1544&;p=9

Volgens mij werd de 8500 hierna nog sneller dankzei nieuwe driver.

Ergens na dit:
http://techreport.com/etc/2001q4/radeon-q3/index.x?pg=1

en na dit:
http://techreport.com/columns/damage/2001q4/ati/
S3 Chrome iets kon toch ook vrijwel zonder fps verlies AA enz. doen ??

Misschien een idee voor die 2 om samen te werken ??
Ag, ik heb het al zo vaak gezegd, maar mooie AA is supersampling, en dat kan niet zonder fps drop. Multisampling (vaak niet meer dan een wat ingewikkelde blur) blijft niet zo scherp als supersampling en das op hoge resoluties in spellen met goeie high-res textures gewoon zonde.
Dat is onzin. MSAA geeft geen blur!
(behalve bij oude Nvidia gpu's maar dat was dan ook geen zuivere MSAA)

Wel is SSAA inderdaad mooier, en dat komt door texture aliasing en aliasing van alpha textures. MSAA werkt immers alleen maar aan de randen van objecten en helpt je niet voor die twee zaken die overal op een object spelen.
Om het te laten werken zoals het hoort, edge AA, zijn extra berekeningen nodig, is er grote druk op de geheugen bandbreette, wanneer dat niet het geval is, dan is er bijna zeker spraken van een afkortweg, wat gewoon op blur neer zal komen. Enige uitzondering is ATi's 'zelf denkende' EDRAM geheugen.
De extra berekeningen om alleen op de randen te werken geven geen enkele druk op de geheugenbanbreedte. Je hebt daarvoor namelijk geen textures informatie nodig, maar coordinaten van de objecten. Dat is maar heel weinig data en vergt bijna niets van de bandbreedte.

Vandaar dat je daarvoor geen truks hoeft uit te halen en dat je dus geen blur nodig hebt.

Kijk ook maar naar een willekeurige test van de MSAA van een ATI kaart of een recente Nvidia kaart, en je zal nergens ook maar de geringste blurring kunnen ontdekken!
(HardOCP heeft goede beeldkwaliteit tests)
Die extra berekenen op randen zorgen voor extra framebuffer bandbreedte, de textures zijn nooit het probleem geweest, het bewijs is heel simpel, zoek een 64bit geheugen bus kaart op, kijk hoe ver de fps zakt als je edge AA aanzet.

Quincunx geeft blur...
Zou dit bedrijf Sony, Apple, Alienware en Microsoft hebben gevraagd of ze zich met hun producten kunnen associeren zoals het plaatje doet geloven?

Nu weet je zeker dat ze binnen afzienbare tijd een idioot proces aan hun broek hebben hangen.
Ssstttt, er staat niet voor niets "confidential" op die graphic. ;)
is dit eigenlijk niet gewoon SLI op een veel kleinere schaal? O+
Ja duh, dan zou een 16 pipes kaartje dus ook sli op een kleinere schaal zijn.. :P
Of als je een pakweg 16 core/pipe falanx op een kaart zet en er een nog een falanx naast zet, wat heet het dan? SLI-kwadraat.

Dit is dus geen SLI maar gewoon een design voor een pipeline die simpel uit te breiden is.
SLi is een beetje omslachtiger dan dit, 4 cores bijmekaar gooien, das eigenlijk wat er sinds de GeForce al gedaan worden, ik denk niet dat er een limiet zit aan het aantal pipelines wat zo'n chip kan hebben.
Nee, het is multicore. Dus op dezelfde die.
lijkt meer op meerdere oude PowerVR(2) kaartjes in je computer steken :)
Nou.... title based rendering lijkt mij meer op CrossFire als je het mij vraagt
En wat is het addertje :?
Dat je'm pas binnen 5 jaar zal kunnen kopen :Y)
Dan doen ze het altijd nog beter dan BitBoys. :)
Een addertje is de communicatie tussen de chips. Zodra je van de chip af gaat en over een PCB moet verslies je een hoop snelheid. Hoe langer de afstanden tussen de componenten, de trager het systeem wordt. En als je de componenten weer te dicht op elkaar plakt, krijg je warmteafvoer problemen.

Een ander addertje is natuurlijk de prijs
Ah tegen de tijd dat iets bruikbaars ermee wordt gemaakt is er alweer een andere nieuwigheidje uitgevonden op het gebied van de gpu. Het maakt tegen die tijd niet meer uit wat erin zit (de gpu) zolang het maar alles (de games) vloeiend laat draaien...dan vind ik het best ;)
Zoals junkchaser al zei... oneindig is hier volledig misplaatst. Bovendien is dit strikt theoretisch. Ik vind 't dan ook een zeer misleidende titel. Verder wel een interessant stukje :)
Zie je ook maar weer 's dat 't niet alleen gaat om zoveel mogelijk pipelines en bergen (geheugen)bandbreedte :)
Lijkt me voor de mobiele industrie (zoals al gezegd werd) een goede innovatie; als ze 't goed kunnen implementeren that is...
Heel leuk. Lekker gamen op mijn telefoon:S
Dat doe je toch niet? Op zo'n scherm doom spelen. Dat doe je op een normale pc/handheld. Een klein spelletje als backgammon kan nog wel.
Maar als hij zoveel belovend is, plak dus gewoon 20 cores op een plaat en hij gaat sneller als de nieuwste kaarten van nu!

Ik vind het allemaal nog een beetje voorbarig. Ik wil toch eerst eens wat benchmarks zien van cores die in een mobiele telefoon zitten tot aan de echte pc's!
plak 20 cores bijmekaar en hij komt nog steeds niet in de buurt van de 7800GTX. Nog niet in de buurt van de 6800.
Als er dvi uitgang op je telefoon zit kan je er een 24" lcd scherm op aan sluiten

:P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True