Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties

De A8X-soc in de iPad Air 2 heeft waarschijnlijk een gpu met acht cores. Dat heeft Anandtech afgeleid van een die shot. Het gaat vermoedelijk om een gpu die fabrikant Imagination nooit heeft aangekondigd en die Anandtech GXA6850 noemt.

Mockup van die shot A8XDe gpu zou daarmee tweemaal zoveel cores hebben als die in de iPhone 6 en 6 Plus, de GX6450. Hoewel Imagination de GXA6850 nooit heeft aangekondigd, wijst Anandtech erop dat Imagination bij de aankondiging van zijn nieuwe serie gpu's vorige week zei dat het topmodel 16 cores had, twee keer zoveel als het huidige topmodel in de Serie 6XT.

Het is daarmee voor het eerst dat Apple een onaangekondigde gpu gebruikt in zijn soc. Dat wijst erop dat Apple nauw samenwerkt met fabrikant Imagination aan de implementatie van nieuwe gpu's. Anandtech hint erop dat Apple de gpu zelf zou hebben ontworpen op basis van de G6450. De soc zit alleen in de iPad Air 2.

Het is onbekend hoe Anandtech aan de informatie komt. De site staat bekend om zijn contacten binnen de afdelingen van bedrijven die verantwoordelijk zijn voor het maken van processors. De oprichter van de site, Anand Lal Shimpi, verliet eerder dit jaar de site waaraan hij zijn naam gaf om bij Apple te gaan werken.

Moderatie-faq Wijzig weergave

Reacties (57)

Mogelijk is de Air te "dun" om 16 cores te huisvesten en is dat hiermee ook niet de doelgroep hardware waar 16 cores tot hun recht gaan komen. Ondanks alle geruchten/ideeen, zou het me niet vreemd lijken als de 16 cores wel in de iPad Pro terecht komen om zo een zeer duidelijk onderscheid te maken tussen beide apparaten en de toepasbaarheid in het dagelijks leven.
Denk niet dat het ontwerp te "dun" is voor een 16-core GPU.
Het is wel aannemelijk dat 16 cores overkill is voor een tablet, maar wie weet in de toekomst.
Verder zal 16 cores ook wel relatief meer stroom verbruiken dan 8 cores.
16 cores verbruikt niet direct meer stroom noch is het overkill. Er zijn de afgelopen jaren voldoende CPU's/GPU's uitgebracht die amper meer prik vragen dan de voorgaande generatie, een hoop meer transistors aan boord hebben, een hogere performance kunnen leveren maar niet direct als overkill worden gezien.

Vergeet bijvoorbeeld niet dat de eerste generaties Pentium 4 bijna evenveel vermogen nodig hebben om te fungeren als een tegenwoordige Core i5. De performance tussen beide processoren hoef ik niet uit te leggen. En als je verder hierop gaat; 2 Core i5's (gemiddeld desktopsysteem) wil graag meer vermogen verbruiken dan 1 Haswell 18-core Xeon terwijl het verschil in cores aanzienlijk is.

[Reactie gewijzigd door MAX3400 op 12 november 2014 09:05]

Dat een volgende generatie niet meer verbruikt wil niet zeggen dat er geen significant verschil is tussen 8 of 16 cores in dezelfde technologie. Je kunt met trucs het verbruik wel verlagen maar er er zit toch wel degelijk verschil in het verbruik.

Dus wanneer je met 8 cores de presentaties kan halen die je wilt halen, dan is is elke core extra overkill qua prestatie en nadelig voor het verbruik.

[Reactie gewijzigd door ReneX op 12 november 2014 11:25]

Dat is dus helemaal niet waar. Als het aantal cores verdubbelt kan je de clock snelheid halveren en het voltage verlagen. Omdat p = f*u^2 is haal zo dezelfde performance met een lager verbruik. Zoals ik hierboven al zei, het is een keuze die je wilt maken. Wil je meer performance uitruilen tegen een hoger verbruik, ga je breder waardoor je dezelfde performance kunt halen bij een lager verbruik of wil je een hogere performance zonder dat dit te koste gaat van de efficiŽntie. Het is echt niet zo zwart wil als jij het nu schetst.
Ja en nee, meer cores op een lagere frequentie en spanning leveren in theorie de gelijke (maximale) performance, maar je hebt ook te maken met aansturing van de cores die in complexiteit toeneemt.

Daarnaast heb je niet alleen te maken met dynamisch verbruik (frequentie en spanning afhankelijk) maar heb je ook te maken met statisch verbruik (lek), en deze is frequentie onafhankelijk. Meer gates betekend meer lek, en de lek daalt slechts lineair met een lagere spanning.
De formule is natuurlijk een model voor de werkelijkheid. Er zijn nog veel meer factoren die het verbruik beÔnvloeden.

Je hebt het nu over redelijk extreme situaties. Bij (game) GPU's is de aansturende logica namelijk helemaal niet extreem ingewikkeld. De sceduler hoeft de ALU's niet eens direct aan te spreken. In de praktijk zie dus ook dat de grotere GPU's (mits ze lager geclockt zijn) een significant hoger performance/watt ratio hebben. Met als beruchte uitzondering de GF110. Maar daar zaten nog wat meer problemen aan ten grondslag waarbij de wisseling van architectuur en procede uitliep op een ramp. Ook de focus op de zakelijk markt brak de GPU bij het gamen op.

Het probleem wat jij schets is bijvoorbeeld heel erg aanwezig in de grote haswell xeon dies. Waarbij de interconnect tussen de twee ringbussen erg veel logica bevat en ook de allocatie van L3 cache over de die echt een ramp is. Daar zijn dan weer trucjes op bedacht (snooping) maar het blijft een beetje zeuren.

[Reactie gewijzigd door Thekilldevilhil op 12 november 2014 11:59]

Idd, dat is maar net hoe je performance gaat omschrijven. Kijk je naar verbruik, of kijk je naar taken die je kunt uitvoeren?

Als je de cores gaat verdubbelen en de clock gaat halveren heb je dus wel degelijk een mogelijk performance probleem. Want de gpu-tik duurt 2x zo lang, dus na 1 gpu-tik op een 8-core ben je dan al klaar met 8 taken, terwijl je op een 16-core nog half in je gpu-tik zit.
Na 2 volledige tikken op de 8-core heb je dan 16 taken uitgevoerd en dan loopt je dus gelijk met de 16-core.

En zoals ReneX aangeeft;
Er is nog een overhead voor de cores aansturing etc.
Als 8 cores voldoende is om de goede gebruikers ervaring te leveren tegen een redelijk verbruik, is het niet heel nuttig om er 16 cores in te stoppen.

edit; kleine correctie

[Reactie gewijzigd door smitae op 12 november 2014 14:15]

"Als je de cores gaat verdubbelen en de clock gaat halveren heb je dus wel degelijk een mogelijk performance probleem. Want de gpu-tik duurt 2x zo lang, dus na 1 gpu-tik op een 8-core ben je dan al klaar met 8 taken, terwijl je op een 16-core nog half in je gpu-tik zit."

Daar klopt echt niets van. Ze zijn even snel klaar. Als 10 cores 2 opdracht/seconden uitvoeren en dezelfde cpu met 2x keer zoveel cores (20 dus) 1 per seconden doet en je geeft ze beide 100 opdrachten, dan zijn ze beide in 5 seconden klaar. Dat is nou juist de hele definite van dezelfde performance houden. Het verschil in de clocks gaat om cycles die tienten en hondersten van nanoseconden duurt. Alsof jij het verschil tussen de lengte van die cycles gaat merken.
Je moet het zien als een 10 baans weg waar je 100.000km/s mag en een 5 baans weg waar je 200.000km/s mag en je moet van huis naar werk (5km) en je gaat met een stopwatch die alleen op tienden van een seconden loopt proberen bij te houden wat nou sneller ging. Dat aspect is niet boeiend.

Wat betreft de logica, lees mijn reactie. Dat gaat meer over CPU's en niet GPU's. De overhead van de scedular, system agent etc etc is geen probleem met GPU's omdat het identieke units zijn die heel erg simpel werken.

[Reactie gewijzigd door Thekilldevilhil op 12 november 2014 13:02]

Ik zeg ook niet dat ze over het gelijk aantal taken langer of korter doen. (Zag nog wel een fout in mijn vorige post)

De strekking van mij verhaal is dat als je met 8 taken een goede gebruikers ervaring kunt leveren waarom 16 cores gebruiken?

Voor het runnen van 16 taken zijn ze idd bijna gelijktijdig klaar, maar met 8 taken zal een 8-core uit het voorbeeld dus al klaar zijn, terwijl de 16 core nog maar half in zijn cycle zit.
Als je voldoende hebt aan 8 taken voor een goede gebruikers ervaring, dan is dus het inzetten van 16-cores op 50% van de snelheid van de 8-core niet nuttig. En mogelijk zelfs een slechtere gebruikerservaring geven.

edit; onderstaande ff erbij gedaan
En je voorbeeld over de 10-baans versus 5-baans is geen goed voorbeeld. Er is namelijk wel degelijk een groot verschil in de twee. Maar goed, dat mag je zelf uitvissen, want je hebt de essentie van mijn verhaal niet begrepen. :)

[Reactie gewijzigd door smitae op 12 november 2014 14:20]

Het klopt gewoon echt niet wat jij zegt. Ik heb genoeg redenen gegeven waarom meer cores op lagere snelheid WEL nuttig is (performance/verbruik) maar ik herhaal mezelf.

"Als je voldoende hebt aan 8 taken voor een goede gebruikers ervaring, dan is dus het inzetten van 16-cores op 50% van de snelheid van de 8-core niet nuttig. En mogelijk zelfs een slechtere gebruikerservaring geven."

Maar je hebt NOOIT 8 taken. Je bouwt een interface op of je doet GPU versnellingen voor berekeningen. Allemaal taken die massive parallel zijn en dus op een GPU worden gedaan. Taken die dat niet zijn worden per definitie NIET op een GPU afgehandeld. Volgens mij verwar jij single core/multi core op een CPU met hoe een GPU werkt. Want die 16 cores bevatten al 1024 ALU's... Echt, het voorbeeld dat jij nu geeft bestaat niet eens in GPU gebruik. Dan zit je in CPU territorium.
Ja gaat nu punt voorbij waar deze discussie mee begon ;) Namelijk dat ipad air 2 te dun zou zijn, wat impliceert dat nieuwe topmodel meer zou verbruiken dan vorige topmodel, MAX3400 speel daarop in en zegt dat dat helemaal niet het geval hoeft te zijn. En daar heeft hij gelijk in, meestal is dat namelijk ook niet het geval, sterker kan zomaar zijn dat nieuwe topmodel zelf minder verbruikt dan voorgaande topmodel al heeft nieuwe top model twee keer zoveel transistor en hogere clock en prestatie.

[Reactie gewijzigd door mad_max234 op 12 november 2014 11:38]

"die amper meer prik vragen dan de voorgaande generatie, een hoop meer transistors aan boord hebben, een hogere performance kunnen leveren"

En dat is ook gelijk de reden. Je kunt optimaliseren voor performance per mm2 (iets wat een hoop fabrikanten graag doen) door bijvoorbeeld de clocks te verhogen. Maar daarmee gaat dus het voltage omhoog en dus gaat het verbruik flink omhoog. Apple is heel erg van de breed en laag geclockt. Een keuze die denk ik, voor SoC's in high-end apparaten, de juiste is. De pentium 4 is op zich een aardige vergelijking alleen is er te veel aan de transistors veranderd om daar heel veel over te kunnen zeggen. Ze zijn niet alleen kleiner geworden maar hun opbouw is significant anders.

En leuke vergelijking vind ik altijd de GK104 en de GK110. De GK110 heeft veel meer transistors, is veel groter en veel sneller maar verbruikt niet veel meer stroom. De performance/watt is van 14gflop/watt naar 20,5 gegaan alleen maar door de architectuur breder te maken en lager te clocken.

Zoiets doet apple ook maar dan redelijk extreem. Als je de die shots die op anadtech gepost zijn vergelijkt zie je dat de dual core cyclone enhanced(alleen de core logic) substantieel meer ruimte in neemt dan de quad core krait 450 (ook alleen core logic). De reden is denk ik de verticale intergratie van apple t.o.v. de prijs druk die qualcomm voelt.
Een i5 heeft dan ook een complete GPU aan boord, een Haswell Xeon niet.
Die 16-cores GPU is net aangekondigd, die kan nooit al in de A8X zitten.
Aangekondigde producten kunnen ook al af zijn, en wie weet hebben grote bedrijven als Apple,Google,Microsoft bijvoorbeeld al eerder inzicht in zulke informatie. Waarvoor ze al vroege aankopen kunnen doen etc.
De net aangekondigde Series7XT die 16 cores kan hebben, kan pas ten vroegste volgend jaar in een afgewerkt product belanden. Het kan wel zijn dat er al ergens in een lab zo'n gpu ligt, maar niet in een massa product zoals de iPad Air. Lees anders het bron artikel eens ;). De reden dat er verwezen wordt naar Series7XT is omdat bij de aankondiging daarvan werd gezegd dat 16 cores dubbel zoveel is als wat nu mogelijk is met Series6XT, maar het tot nu bekende Series6XT topmodel had 6 cores, geen 8. Apple heeft waarschijnlijk twee gpu's met 4 cores zoals die in de A8 SoC aan elkaar geplakt om tot 8 te komen.
Okť :-) Thx voor je verduidelijking.
In het algemeen heeft hij gelijk, en kunnen (grote) bedrijven al exclusief toegang hebben. Maar in dit geval is dat idd niet zo :)
Mogelijk is de Air te "dun" om 16 cores te huisvesten en is dat hiermee ook niet de doelgroep hardware waar 16 cores tot hun recht gaan komen.
Er staat toch duidelijk in het artikel dat de 6 serie maar tot 8 cores gaan, immers heeft de 7 serie namelijk tot 2x zo veel cores wat neerkomt op 16 :)

Dus nee 16 cores in de Air had gewoon niet gekund want dat chipontwerp was er helemaal niet tenzij ze al powervr 7 konden gebruiken, maar dat lijkt me wel erg sterk...

[Reactie gewijzigd door watercoolertje op 12 november 2014 09:05]

Dat powervr 7 nieuws was inderdaad veel interessanter. GTX 750 a 750ti prestaties in een mobile SoC.
Geclaimd door de makers, dus met andere woorden in de meest optimistische benchmarks. Ik denk dat als NVidia de benchmarks mag kiezen dat de GT730m er een stuk beter vanaf komt.
En dan nog is de vraag over welke 730 we het hebben, de fermi of de kepler variant. Als het de fermi is, wooptiedo, dat haalt de K1 al bijna op een 28nm procede. Bedoelen ze de 386core keplet variant dan is het al een ander verhaal.

Maar nog ben ik niet echt onder de indruk, laten we even wachten voor nvidia met maxwell/denver SoC op 20nm kan zodat we in ieder geval iets hebben om het tegen af te zetten. Nu is zelfs de claim van powerVR een beetje "underwhelming".
Vraag mij af hoe krachtig de GPU en de CPU van de iPad Air zijn vergeleken met de desktop varianten van GPU en CPU.

Ik bedoel als je sommige games ziet begin je jezelf af te vragen in hoeverre de kracht vergelijkbaar is met een desktop hardware.
Heb precies het zelfde!

Ik kan persoonlijk niet wachten tot het tijdperk is aangebroken waarbij desktop games 1 op 1 worden vergeleken met de tablet versie... Nu bestaan die games nog praktisch niet, maar dat vind ik een mooi overzicht opleveren..

Dat een of andere 'vage' tablet game nu de prestaties aangeeft op een tablet, zegt mij persoonlijk weinig.. Zou graag zien hoeveel frames een 'full stack' battlefield of welk andere game haalt op een tablet.. Dat zegt mij meer over de prestaties :)
Ik moet eerlijk toegeven dat bedrijven als 2K best wel een nette job hebben geleverd bij het poorten van bioshock 1 naar iOS.
Die vergelijking houdt nu nog geen steek omdat de GPU in de A8X nog trager is dan de GT2 iGPU in een Intel Haswell processor. De iPad Air 2 heeft wel een scherm met een 2048x1536 resolutie, met die resolutie en gpu zou Battlefield 4 zelfs nog niet op een slideshow lijken. Dan is er ook nog het geheugen, dat bij een iPad Air 2 maar 2GB is voor GPU en CPU tezamen, en ook maar DDR3 is, dus maar een kwart van de bandbreedte heeft van GDDR5.
De ene desktop die iemand gebruikt is onderbemeten (naar gemiddelde specificaties) terwijl de volgende persoon een tablet koopt die overbemeten is (naar gemiddelde specificaties).

Ik ben geen Apple-kenner maar als je kijkt naar reviews: Desktop Best Buy Guide: november 2014 en naar pricewatch: Microsoft Surface Pro 3 Ci7, 8GB, 512GB Zilver is er niet alleen een bizar groot prijsverschil maar ook een best wel groot performance-verschil als je de componenten los bekijkt.

Dus tenzij je duidelijk weet wat een desktop mag kosten en wat je er exact mee wil gaan doen, is het lastig om te vertellen of er een Apple / Android / Windows tablet is die vergelijkbaar qua prijs dezelfde performance kan leveren.
Er zijn smartphones/tablets met intel Atom processors. Je zou een review kunnen zoeken die de ARM phones/tablets vergelijkt met de Atom processors. Je kan vervolgens een desktop/nettop/netbook met Atom processor vergelijken met een mid-range desktop pc.

Het is misschien een grove methode, maar voor een ordegrootte maakt het niet uit. De conclusie zal zijn dat de pc je telefoon wegblaast.
Imagination zegt zelf dat de 16 core PowerVR GT7900 (die dus al meer dan dubbel zo snel is als de GPU in de A8X), vergelijkbaar is met een Nvidia GT730M.

http://images.anandtech.com/doci/8716/7XT_SKUs.png

De 3DMark score van zo'n GT730M is vergelijkbaar met die van een Geforce 8800 Ultra uit 2006 (http://www.futuremark.com...0974.234007238.1415781667), dus high end desktop gpu's lopen nog wel een jaar of 8 voor (9 eigenlijk zelfs want die GT7900 moet je het eerste jaar niet verwachten). Maar als je de performance per Watt gaat bekijken krijg je een heel ander beeld.
Niet gek als je ziet hoeveel high-end GPU's van nu verstoken.
Anand heeft hier vorig jaar wat tests mee gedaan:
http://www.anandtech.com/...he-great-equalizer-part-3

Een test waar de meeste platforms opstaan is de T-Rex HD Offscreen van GL/DXBenchmark 2.7. Een aantal scores:
Surface Pro: 48
GeForce 8500 GT: 26
GeForce 7900 GTX: 24
iPad 4: 16
HTC-One: 14

Kijken we naar het verschil tussen de iPad 4 en de iPad Air 2:
http://www.anandtech.com/...apple-ipad-air-2-review/4
De T-Rex HD Offscreen van GFXBenchmark 3.0:
iPad Air 2: 70,5
Note 4: 40,9
iPad 4: 17,3

Oftewel, de Air 2 is 70,5 / 17,3 = 4,1 maal sneller dan de 4. De air 2 zou in het eerste lijstje een score hebben van 16 * 4,1 = 65,6. Dus zo'n 2,5 maal sneller dan een kaart uit 2006 (?), en zo'n 36% sneller dan de eerste Surface Pro.

Die laatste brengt ons bij:
http://www.anandtech.com/...ft-surface-pro-3-review/6
Helaas staat hier geen T-Rex bij, maar ruwweg zijn de pro 2 en 3 en de macbook air uit 2014 redelijk vergelijkbaar in GPU performance. De eerste Pro scoort ongeveer 1/2 tot 1/4 van de rest in de GPU tests. Maar ja, dat zijn ook al geen echte game-machines.

Het blijft een beetje behelpen, maar het is een indicatie. Hopelijk brengt Anand binnenkort een update uit van de eerste test.

edit: het moest inderdaad 16 zijn. Thanks mohf.

[Reactie gewijzigd door curumir op 12 november 2014 12:11]

Volgens mij bedoel je met 14 * 4.1 juist 16 * 4.1.
De HTC One heeft 14, de iPad 4 heeft 16.
Ik bedoel als je sommige games ziet begin je jezelf af te vragen in hoeverre de kracht vergelijkbaar is met een desktop hardware.
Nog lang niet, als je het iPad scherm 23 inch zou zijn zoals een gem. desktop zal je zien dat het veel lelijker is, juist doordat het een (in vergelijking met de PC) klein scherm is kunnen ze wegkomen met lagere textures, minder polygonen (en vaak veel slechtere AI) en dus gewoon veel minder rekenkracht. En ja op de iPad zien games er dan heel mooi uit!

edit: seriously offtopic?

[Reactie gewijzigd door watercoolertje op 12 november 2014 09:38]

Menig 23 inch scherm is 1920 x 1080, de resolutie van de iPad is hoger. Of renderen de iPad games op een lagere resolutie dan de native? Volgens mij niet.
Het gaat niet om de resolutie van het scherm, maar de details die op het scherm getoverd worden.

Die kunnen op een klein scherm veel meer beperkt worden zonder dat het je opvalt :)

[Reactie gewijzigd door watercoolertje op 12 november 2014 10:50]

Lagere resolutie heeft minder pixels voor detail. Maar ik begrijp wat je bedoelt.

Volgens mij zal het met de volgende generatie richting XBox 360 en PS3 gaan. Dus het zit nog behoorlijk onder huidige desktop mogelijkheden en dat zal ook blijven.
Lagere resolutie heeft minder pixels voor detail. Maar ik begrijp wat je bedoelt.
Zeker maar het gaat om het benutten, ik kan gewoon een 1080p video op een 4k scherm kijken bijv xD Maargoed dat begreep je gelukkig zelf ook al!
Dus het zit nog behoorlijk onder huidige desktop mogelijkheden en dat zal ook blijven.
Lijkt mij ook, en dat is alsnog heel veel power voor z'n klein device en laag verbruik natuurlijk...
Ik ben het niet eens met jouw statements over de lage textures en polygons... Kan je ze ook onderbouwen ipv zomaar roepen?
Nu kom je over als een PC gamer fanboy.
Mijn ipad heeft een resolutie 2048x1536, dat is veel hoger dan de veelgebruikte 1080p resolutie.
Vergeet trouwens niet: een ipad air 2 kost §500 inclusief alle hardware en scherm. Kan jij een pc + IPS monitor samenstellen die daar onder zit maar meer en hogere performance haalt?

[Reactie gewijzigd door mohf op 12 november 2014 10:46]

Een PC/Console game is niet voor niks factoor 10 tot 50x groter in omvang (500 tot 1000MB vs 5GB tot 50GB) :)

Daarbij is de GPU gewoon velen malen trager dus ze kunnen gewoon niet even veel berekenen als een desktop GPU, dat kan je zelf toch ook wel bedenken...

Zie een post van mij een stukje naar beneden.

[Reactie gewijzigd door watercoolertje op 12 november 2014 10:51]

GTA Sanandreas is 1.9GB op mijn iPad, er zullen vast ook wel grotere games zijn.

De grootte van een game zegt overigens niks over een game. Die 30 GB kan net zo goed muziek en filmmateriaal zijn.

Zie onderstaand 3D FPS PC game, deze is 96KB maar heeft veel textures, polygons, AI, levels, noem het maar op.

http://digiex.net/downloa...eger-96kb-3d-shooter.html

https://www.google.nl/url...g2=Af0CwMzEkvpCb0cMxh4Wkw
Kan jij een pc + IPS monitor samenstellen die daar onder zit maar meer en hogere performance haalt?
Totaal niet relevant het gaat niet om de prijs(/performance). Het gaat er om dat er wordt gesteld dat de SoC's van tegenwoordig on par zijn met de desktop en ik ontkracht dat...

Maar ja ik heb laatst nog een PC gebouwd voor iets meer 550 euro, en daar zit een 23 inch IPS scherm bij en een R9 290 videokaart in :)

Sorry dat ik het zeg maar als je niet begrijpt dat een PC 10x zo krachtig is en dus gewoon ook 10x zo veel berekeningen kan doen ben je wel erg naÔef. Anders had iedereen wel een iPad Air 2 in zijn computerkast gehangen toch? :P
GTA Sanandreas is 1.9GB op mijn iPad, er zullen vast ook wel grotere games zijn.
Dat je een game kan vinden welke een uitzondering is, knap hoor, er zijn ook computergames die meer dan 80GB zijn, bewust niet genoemd want dat zijn uitzonderingen :)

Lees deze reactie nou maar gewoon door, onafhankelijke testen voor alle platformen: watercoolertje in 'nieuws: Anandtech: Apple A8X-soc in iPad Air 2 heeft gpu met acht cores'

Ik voel me iig niet meer geroepen om op je volgende vragen te reageren gezien je blijkbaar niet snapt hoe hardware werkt :)

[Reactie gewijzigd door watercoolertje op 12 november 2014 11:07]

Ja, een desktop pc die 100 Watt mag verstoken zal altijd sneller zijn dan een ultra dunne tablet die max 2-3 Watt mag verstoken.

Maar wat ik opmerkelijk vind is dat je:
-reageert op een andere, oudere post
-reagerrt op post van een ander
-reageert op mijn reactie over gta en dat uitzondering noemt

En verder niet reageert op mijn argument:
Een PC/Console game is niet voor niks factoor 10 tot 50x groter in omvang (500 tot 1000MB vs 5GB tot 50GB) :)
Heb je ook een reactie op deze 96KB game?

Edit: kunnen jullie niks beters dan -1 stemmen op een ontopic post?
Jij denk werkelijk dat al die gamen op 2048x1536 draaien? Waar haal jij al die misinformatie vandaan zeg. Overigens heb ik een redelijk gelijkend systeem bij de buren staan. Tweak een beetje en je komt onder de 500 euro uit:
http://nl.hardware.info/w...et-game-pc-inclusief-rand

Maar als je even de link van watercoolertje erbij pakt en je ziet dat de HD4600 al sneller is denk ik dat zelfs de 750ti wel een hele grote stap is. Pak een A10 erbij en je hebt alles wat je wilt.

[Reactie gewijzigd door Thekilldevilhil op 12 november 2014 11:40]

Gelukkig heeft het niets met meningen te maken, wat watercoolertje zegt zijn feiten.

En nee daar hoeft geen bronvermelding bij.
Ik meen ergens gelezen te hebben dat de A8X vergelijkbaar is met een MacBook pro uit 2010. (Heb zelf een Air uit 2011, dus de A8X zou zo maar eens sneller kunnen zijn :| )
In een benchmark die op alle platformen werkt:
ICE STORM UNLIMITED

High end PC: (227147 punten)
http://www.3dmark.com/hal...imited+preset/version+1.2

Office PC (Intel HD4600): (48580 punten)
http://www.anandtech.com/...4690-and-i3-4360-tested/8
http://images.anandtech.com/graphs/graph7963/63215.png

Tablet (iPad Air 2): (22000 punten)
http://www.zdnet.com/appl...aller-battery-7000035300/
http://cdn-static.zdnet.c...hash=MGt2Lwx3L2&upscale=1

Smartphone (Note 4 Exynos 5433): (21500 punten)
http://techent.tv/galaxy-note-4-beats-competition-exynos/
http://i2.wp.com/techent....x677.png?resize=710%2C677

Uiteraard speelt daar ook de CPU mee dus het blijft lastig aan te tonen, denk dat we nu op mobiel/tablet nog niet eens op xbox360/ps3 performance zitten, en de nieuwe versies van die consoles zijn niet eens echt krachtig vergeleken met een PC :) Neemt niet weg dat het voor een mobiel/tablet zeker niet verkeerd is, alleen gewoon geen desktopklasse, wat ook totaal niet nodig is :)

[Reactie gewijzigd door watercoolertje op 12 november 2014 10:12]

Ga je nu wederom vergelijken op pure specs?

Zoals al zo vaak gezegd zeggen de specs niks als je twee os platformen gaat vergelijken.

De Metal engineer van Apple schijnt volgens de developers super te werken in het verwerken van complexe grafische berekeningen.

Ik ben benieuwd hoe dat zich gaat ontwikkelen in toekomstige spellen.
Heb hier een Air 2 liggen, nu nog iemand die een OSX hack maakt dan heb je volwardige mac :)
Vraag mij af hoe krachtig de GPU en de CPU van de iPad Air zijn vergeleken met de desktop varianten van GPU en CPU.
Qua cpu: de iPad Air 2 haalt een Geekbench 3 cpu score van circa 1400 & 2600 (single/multicore), vergelijk dit met een ongeveer even dure Mac Mini 2012 (met Ivy Bridge mobile Core i7) die 2700 & 10500 scoort. Dit is ook wat je op grond van de architectuur en kloksnelheden zou verwachten, overigens.

[Reactie gewijzigd door Dreamvoid op 12 november 2014 19:37]

De A8X mag dan wel een beest van een processor zijn, zover is deze op GPU vlak niet vooruit op de Tegra k1 (afhankelijk van de bechmarks wint de ťne of de andere. GFXbench geeft ergens ook aan dat de rederkwaliteit op de tegra hoger zou zijn).
Op CPU vlak moeten de Denver cores ook niet onderdoen voor de Cyclones
Toch wel handig als je oud-oprichter werkt voor Apple:

- Anand: "Hť Tim/Jony/Phil, hebben jullie niet nog een scoop liggen die ik kan geven aan mijn oude maatjes bij mijn voormalige website?"
- Tim/Jony/Phil: "Anand, je weet wat ons beleid is. Wij laten niets aan de buitenwereld weten tot aan een Apple Event of Keynote. Dat is de kracht van onze marketing. Iedereen in het ongewisse laten speculeren."
- Anand: "Ah kom op joh, ik heb jarenlang jullie producten *errmmm* ik bedoel onze producten de hemel in geprezen. Mag best iets tegenover staan..."
- Tim/Jony/Phil: "Vooruit dan. Ga even langs tech en vraag hun de schematics van de GPU in de iPad Air 2. Denk dat je daar wel wat leuks in zal vinden."
- Anand: "Geweldig, top. Dit geeft mijn oude website weer even een boost. Het ging al wat minder met de bezoekersaantallen na mijn vertrek."
- Tim/Jony/Phil: "Daarom hebben we je ook aangenomen. Om die bezoekersaantallen bij ons te creŽren. Dus hop, vooruit. Arbeiten! En dat GPU-verhaal mag je buiten werktijd doen."

}>

[Reactie gewijzigd door Sky Lynx op 12 november 2014 12:09]

Het is een leuke conspiracy, maar als dit echt het geval zou zijn (de afgelopen 5+ jaar) zouden er zat artikelen moeten zijn die hun metingen / conclusies in twijfel trekken (zoals dat b.v. met Tom's hardware is gebeurd om er maar 1 te noemen).
Tja hoe beter de graphics des te groter de game. Het zou me niks verbazen dat een game die 16 cores gebruikt gelijk alle 16 GB van je ipad opslokt. Je ziet t aan bioshock waar afgezien van de effects ook op de textures bezuinigd is om de boel goed draaiende ten de bestandsgrootte klein genoeg te houden. Die 16 core houden ze effe achter tot de volgende generatie waar ze dan gelijk meer opslag in die dingen gaan proppen. Hebben ze weer wat sensationeels te melden bij de volgende release. Onder het mom van geef je klanten niet te veel want dan is er straks geen verkoopargument meer.

Een mobiele processor die hetzelfde presteert als je xbox is leuk, maar 1 op 1 betekend ook dat je games dan van 2 GB naar 30 GB zullen groeien.


Deze is ook leuk.. http://www.extremetech.co...fall-was-originally-290gb

Far Cry 3 op je tablet, we gaan t nog meemaken...

[Reactie gewijzigd door verleemen op 12 november 2014 17:03]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True