Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 133 reacties

Qualcomm heeft op een evenement in New York zijn Snapdragon 820-soc officieel aangekondigd. De quadcore-cpu maakt gebruik van Qualcomms eigen Kryo-cores en is volgens de fabrikant dubbel zo snel als de Snapdragon 810.

Al in maart kondigde Qualcomm op het Mobile World Congress de komst van de Snapdragon 820 aan. In de loop van het jaar bracht de chipfabrikant al diverse details over de chip naar buiten, maar nu is alle informatie bekend. Zo laat Qualcomm weten dat de soc gemaakt wordt op een 14nm finfet-procedé.

In tegenstelling tot de Snapdragon 810 gebruikt de nieuwe soc geen ARM Cortex-cores, in de Snapdragon 820 zitten vier door Qualcomm ontworpen Kryo-cores met een maximale snelheid van 2,2GHz. Ten opzichte van zijn voorganger is de Snapdragon 820 volgens de fabrikant dubbel zo snel en 30 procent zuiniger. De Snapdragon 810 kende problemen met oververhitting, mogelijk is dit in de nieuwe soc opgelost. De cpu wordt bijgestaan door een Adreno 530-gpu. Deze zou niet alleen sneller, maar ook 40 procent zuiniger zijn dan de Adreno 430, die in de Snapdragon 810 zit.

De beeldprocessor in de soc ondersteunt camera's met een resolutie van maximaal 28 megapixel en kan ultra-hd-video's verwerken. Ook kan de chip beeldschermen met een 4k-resolutie aansturen. Qualcomm belooft bovendien betere foto's bij weinig licht vanwege de verbeterde beeldverwerking. In de soc is een modem geïntegreerd met ondersteuning voor 4g-downloadsnelheden tot 600Mbps, de maximale uploadsnelheid is 150Mbps.

Vermoedelijk zullen veel smartphonefabrikanten in 2016 de Snapdragon 820 gebruiken in hun topmodellen. Momenteel gebruiken de meeste fabrikanten de Snapdragon 810 in hun duurste Android-smartphones. Hoewel nog niet bekend is welke smartphones de chip gaan gebruiken, laat Qualcomm op Twitter weten dat er in ieder geval zestig apparaten op de planning staan die de nieuwe soc aan boord zullen hebben. In de eerste helft van 2016 verschijnen de eerste smartphones met Snapdragon 820-soc.

Snapdragon 820

Moderatie-faq Wijzig weergave

Reacties (133)

De reden dat een dergelijke versnelling van 2 keer zo snel mogelijk kan zijn, is doordat Qualcomm nu haar eigen, voor de ARMv8-A architecture, Kyro, core gebruikt en bij de SD810 gebruikte zij een, door ARM zelf-ontwikkelde, A57 core. Hierom gebruiken zij waarschijnlijk ook niet meer het het big.LITTLE principe (met 4 A57 cores en 4 A53 cores), maar alleen 4 Kyro cores. Deze processor kan eigenlijk dus gezien worden als de echte opvolger van SD800; de SD801 had slechts kleine verbetering op het gebied van geheugenverbeteringen, de SD805 voornamelijk een verbetering op het GPU gebied (denk ondersteuning 1440p schermen) en de SD808 en SD810 gebruikte natuurlijk de cores die zelf door ARM ontwikkelingen waren. (Dat zijn natuurlijk niet per se slechte cores, aangezien zij ook in de Enyxos 7420 zitten; maar deze heeft uiteraard het voordeel gebakken te zijn op 14nm FinFet proces (het ligt er natuurlijk ook een beetje aan hoe je hiernaar kijkt; sommige zeggen dat Samsung een beetje smokkelt met het 14nm FitFet proces.)

Kan trouwens niet wachten totdat Anandtech hun Qualcomm development device van de SD820 binnenkrijgt; dan kunnen we eindelijk eens kijken of Qualcomm haar problemen een beetje gefixt heeft.

[Reactie gewijzigd door moh.moh op 10 november 2015 20:04]

Het is Kryo, niet Kyro.
Gezien de reacties tot nu toe, leest blijkbaar iedereen dit verkeerd (behalve de redactie).
Nouja :)
Ik heb er het volste vertrouwen in dat de hitteproblemen opgelost zijn.

CPU's van Qualcomm met eigen cores zijn altijd pareltjes geweest (800,801,805).

Nu ze weer terug zijn bij een eigen design zie ik geen reden in waarom ze niet weer wat moois zouden kunnen neerzetten.

Maargoed, laten we de resultaten maar even afwachten.
idd. ik verbaas me nog steeds over de prestaties van de 801 in m'n opo. Echt een top chip en voor mij de reden de huidige generatie over te slaan en te wachten op de 820 generatie
Ze zijn ook van 20nm naar 14nm gegaan.
De nummers van de nodes zijn tegenwoordig niet per se meer representatief voor de gate length, zoals dat "vroeger" was. Dat geldt overigens niet alleen voor Samsung, TSMC's N16 en N10 lijnen hebben ook bijzonder weinig 16 of 10 nm structuren. Ik ben wel benieuwd naar de verschillen tussen de 820 versus de Exynos 7420 en Samsungs versie van de Apple chip. Allemaal 14 nm, dus de verschillen komen echt uit het design van de chip en niet uit het proces.
Maar heeft de chip ook hardware matige ondersteuning voor Encryption? Lees dat dit bij Android standaard ingeschakeld gaat worden vanaf Android 6. Hier worden veel klachten over drastische achteruitgang in snelheid gemeld omdat de normale processor nu alles moet ontsleutelen.
Maar heeft de chip ook hardware matige ondersteuning voor Encryption

Dat hebben de huidige en vorige generatie van Qualcomm chips reeds. Sinds de 805 is het ondersteund en zelfs FIPS certified. Maar in principe alles wat ARMv8 compatible is, heeft die acceleratie instructies.

Ik denk overigens dat de vertraging meer een resultaat is van extra IO tijd, dan de AES decryptie zelf. Zelfs een simpele quad-core zou hier weinig moeite mee moeten hebben muv wellicht disk intensieve applicaties.
FIPS 140-2 certified zegt helemaal niets; AES/ECB is ook FIPS-certified, wil je echter niet dood mee gevonden worden lijkt me ...(zie: ECB Tux).

En hoezo zou encryptie extra IO met zich meebrengen (los van de extra bootloop), block-size is een veelvoud van 16 bytes; dat is echt de overhead niet ?

Vertraging (los van de bootloop) merk ik in de praktijk inderdaad ook niet met een moderne (Snapdragon) chipset, maar wel duidelijk wat extra batterij-verbruik bij ingeschakelde versleuteling en significante benchmark verschillen, mogelijk niet zozeer door CPU latency meer eerder door cache-poisoning vermoed ik ;)
FIPS 140-2 certified zegt helemaal niets

Het zegt dat er een audit organisatie naar gekeken heeft, en het dus geen helemaal broddelwerk is qua implementatie. Men geeft bovendien een garantie af dat het aan bepaalde Amerikaanse overheids eisen voldoet, en is dan (beperkt) juridisch aansprakelijk als daaruit problemen komen.

De keuze van je algorithme staat daar uiteraard los van en AES/ECB zou ik niet gebruiken.

En hoezo zou encryptie extra IO met zich meebrengen

IO tijd. O.a. random access gaat langzamer je vaak niet het hele process kunt pipelinen in de zin van lezen van sector X+1 en decrypten van sector X parallel doen. Je krijgt dus wachtfases tussen lees-acties ivm inefficienties van het hogere algorithme/hogere software lagen. Het aantal IO operaties zelf neemt inderdaad nauwelijks toe.
Amerikaanse overheids eisen
En daar gaat het al mis :'(
Er zijn prima parallele AES blockciphers hoor; zelfs speciaal ontwikkeld voor storage-encryptie die expliciet dat tackelen ... Neem b.v. CTR; random read-access en parallel: https://en.wikipedia.org/wiki/Block_cipher_mode_of_operation

Daarnaast: dat 'een audit organisatie' naar gekeken heeft' is echt een wassenneus constructie. Ben zelf auditor en kom regelmatig de grootste onzin tegen met prachtige stempels. Beperking van juridische aansprakelijkheid ligt in de praktijk veel gevoeliger en kun je niet zomaar 'afkopen' of 'overdragen' of 'afschuiven'.

Natuurlijk is er commerciele waarde, met name ook omdat het requirements zijn van de USA overheid en je zodanig wel moet wil je die markt aanboren, maar zorgvuldigheids-/kwaliteitsgaranties is echt onzin; de meeste 'compliance' audits gaan over vorm of proces en niet over inhoud en als het wel over de inhoud gaat, is het meestal erg oppervlakkig of kunstmatig gescoped...
Ik heb de encryptie aangezet op mijn Nexus 7 (2013) en merk tot dusver helemaal geen verschil. Dus de 820 zal er al helemaal geen probleem mee horen te hebben als ze zelfs maar een deeltje van hun beweringen waar maken.

Maar met deze specs, als ze waar zijn, wordt het tijd dat je een echt docking station krijgt. Waarbij je dan de telefoon of tablet gewoon gebruiken als een behoorlijk rappe desktop. Mits je tenminste een desktop OS kan draaien natuurlijk.
Dan moet je Windows 10 mobile proberen met continuum dock! Precies wat jij bedoelt met volledig Windows OS via je Lumia
Niet volledig Windows zoals op een PC maar het komt er enorm dicht bij in de buurt :)
Misschien merk jw het verschil niet echt (ik ook niet echt moet ik zeggen) maar ik had iets van 55 mbit read speed (kan ook iets anders zijn als mbit) op mijn nexus 6, en na decryptie 200 mbit. Verschil is er, maar moet zeggen, merktr het in dagelijks gebruik niet. Ding is rap, en na decryptie was ie ook rap, maar niet echt merkbaar rapper.
Kanonnen, en ik maar denken dat de Snapdragon 810 snel was! Dubbel zo snel! Waarin dan wel? En hoe zit het met de warmte?
dit is natuurlijk altijd wat elke fabrikant graag zegt over zijn eigen producten, of dit in werkelijkheid ook echt zo is valt nog maar te bezien
Ja klopt, 30% zuiniger, 2x zo snel, dat hebben we eerder gehoord! ik heb alleen vaak direct het idee alsof de snapdragon 810 ineens giga verouderd is:)
En niet vergeten. Maar 4cores tov 8 van de 810.. En toch dubbel zo snel...
Je kan dit vergelijken met de snelle single cores van Intel tegen de tragere single cores van amd, waar amd dus meer cores nodig heeft om de performance van Intel te benaderen.
Nee, want bij de 810 het gaat om een big.LITTLE systeem. Waarbij de tragere A53 cores gebruikt worden bij minder CPU-intensieve taken om energie te besparen en de snellere A57 cores bij zwaarde processen. Ze draaien dus niet samen en het is effectief gewoon een quadcore, waarbij je dus kan 'kiezen' welke je gebruikt: de tragere die minder energie gebruikt of de snellere die meer energie gebruikt.
De trage cores helpen je weinig om sneller te zijn... En sowieso is de single core performance nog altijd de belangrijkste parameter in de praktijk.
DIe 4 extra cores op de 810 worden ook alleen gebruikt bij lage inspanning, tis eigenlijk een dubbele quad core met een eco deel.
En het fabeltje leeft voort :) Buiten dat het aantal cores opzich niks zegt over de snelheid (net zo goed als het aantal Mhz niks zegt), gebruik je er van de 8 toch echt maar 4 tegelijk en daarnaast als je ze al allemaal zou gebruiken dan betreft het 4 snelle cores en 4 langzame die samen nog niet zo snel zijn als 1 snelle :)
Apple weet ook altijd mooie conclusies te trekken over nieuwe chips, zo zou de a9 70% sneller zijn, en als je kijkt naar de iphone 6vs de 6s dan is dat meestal ook maar een verschil van 10-30%
Nee, dat klopt niet echt, als je naar de prestatieverschillen kijkt tussen A8 en A9 op de meest gebruikte benchmarks (neem bvb Geekbench, Ice Storm Unlimited etc...) is de A9 dikwijls >50% sneller dan de A8.

Maar een fabrikant zal natuurlijk de benchmark uitlichten waar het verschil het grootst is. Apple geeft zelfs meestal geen precieze gegevens vrij op basis waarvan ze hun claims maken.
Nee, dat klopt niet echt, als je naar de prestatieverschillen kijkt tussen A8 en A9 op de meest gebruikte benchmarks (neem bvb Geekbench, Ice Storm Unlimited etc...) is de A9 dikwijls >50% sneller dan de A8.

Maar een fabrikant zal natuurlijk de benchmark uitlichten waar het verschil het grootst is. Apple geeft zelfs meestal geen precieze gegevens vrij op basis waarvan ze hun claims maken.
Oftewel, ze roepen maar wat. Marketingpraat die je met een flinke korrel zout moet nemen. Apple is in het verleden volgens mij ook aangeklaagd omdat ze in reclames beweerden dat de nieuwe iPhone 2x zo snel zou zijn dan het vorige model. Hun advocaat zou toen iets hebben gezegd in de strekking van: "Je moet wel heel dom zijn als je dat letterlijk neemt".
Ik denk dat Apple's claims meestal wel met cijfers kunnen gestaafd worden. Alleen geven ze nooit dat soort "technische details" vrij ttz op welke benchmark ze zich beroepen. Fabrikanten kiezen natuurlijk de cijfers die hun het best uitkomen, daar is Apple niet anders dan andere fabrikanten - voor zover ze al cijfers vrijgeven want dat doen ze maar heel spaarzaam.
Dat komt ze natuurlijk ook wel goed uit, kan je gelijk je gloednieuwe toestel met een 810 of 808 inruilen. Die zijn nu toch hopeloos verouderd ;)

Het is en blijft overkill voor een telefoon, daarom ben ik eerder benieuwd hoe deze SD zich verhoudt tot een 410/615/617/620 en oudere 800 series. Dan weet je tenminste waarom je voor een SD 820 kiest.
Snap ik niet. Als het overkill is en blijft, waarom wil je dan weten hoe die zich verhoudt tot mindere soc's? Draait er rondjes omheen en is duurder. Zo verhoudt 'ie zich.

[Reactie gewijzigd door spyro op 10 november 2015 21:34]

Omdat de afweging tussen mid en high end daarvan afhangt. Is de extra investering in een SD 820 dat waard als je kijkt naar toekomstbestendigheid? Dat zijn m.i. relevantere vragen dan de afweging tussen de 810 en 820. Daar geldt vaak slechts het budget als reden voor aanschaf van de een of andere.
Maar als het overkill is is het sowieso de investering niet waard. Overkill betekent bijna per definitie dat het niet nodig is. Eigenlijk is het dus wachten op toepassingen waar het wel voor nodig is. Die zijn er niet. Dus overkill, dus niet nodig. Toekomstbestendigheid is niet zo relevant denk ik. Hoe lang doet de gemiddelde gebruiker nu helemaal met een phone? 2 Jaar is zo'n standaard. Volgens mij kun je alles nu nog doen met een 2 jaar oude nexus 4 of galaxy s4, afgezien van wat spellen. Af en toe is er een wat dwingender reden up te graden, zoals bijvoorbeeld 4G.
Waarin dan wel?
In ieder geval (bijna) de 4G modem snelheid. 800 Mbps t.o.v. 450Mbps. De rest is idd eerst zien dan geloven.
En dan is het nog de vraag of het 2x zo snel is, maar hoe lang dan? Want ze werken doorgaans met pieken, als ie nu constant zo snel is dan is dat mooi natuurlijk.
Dit soort feitjes neem ik altijd met een korrel zout
Ik ben altijd wel in voor meer snelheid. Zal het niet kopen een smartphone met highend soc, maar over een paar jaar hangt het in mijn telefoon. Nieuwe dingen als continuum zullen deze nieuwe socs nodig gaan hebben wegens snelheid op beide apparaten. Ook word gaming er weer beter op (al gaat er niks boven console of desktop).

Nog even een vraagje voor de kenners, moet software aangepast gaan worden? Zover ik heb begrepen creëert bijvoorbeeld ART (Android Runtime) code voor ARM, mips, X86, etc, maar Qualcomm heeft een eigen instructieset gemaakt, Kyro. Of maak ik een denkfout? Zoniet, moeten alleen drivers aangepast/ speciaal gemaakt worden of moet ART zelf aangepast worden?

Edit: Kyro is de microarchitectuur en ARM is de instructieset. Niks geen aanpassingen in software dus.

[Reactie gewijzigd door svenvNL op 10 november 2015 20:34]

Qualcomm gebruikt in Kyro de ARM instructieset.
De naam Kyro is voor de nieuwe generatie SOC's. Net zoals Intel de naam Skylake gebruikt voor de laatste Intel CPU's
Ze gebruiken de instructie set ARMv8-A dus wordt al ondersteund als je het mij vraagt.
Kyro gebruikt gewoon de ARMv8 instructieset, maar de cpu architectuur is door Qualcomm zelf ontworpen, ze kopen geen ARM ontwerp meer in. Net als bv nVidia en Apple dat ook doen.
Het klinkt nu wel heel erg ongeloofwaardig als je het mij vraagt. 2x zo snel? CPU 30% zuiniger en GPU zelfs 40%? Keiharde cijfers, ik heb er een hard hoofd in. Het ligt er natuurlijk net aan hoe ze dat gemeten hebben natuurlijk want anders is het een beetje vergelijken met hoe zuinig auto's rijden in theorie. :+ Maar we zullen wel zien. Wat mij betreft hoop ik dat ze die warmte problemen eruit hebben gehaald.
Op zich zou het niet zo vreemd zijn, je ziet het met veel CPU/GPU's op het moment.
Nieuwe ontwerpen... Tick, tock, et cetera. Bij een behoorlijk aantal nieuwe soc's en processoren is wel degelijk een enorme prestatie winst te zien; enkel op het gebied van de energiezuinigheid zijn wat vraagtekens te zetten: maar meestal komt er wel degelijk een (kleine) besparing uit.

Er zijn veel stappen gezet.
Eerst zien dan geloven inderdaad, maar dat van die prestaties geloof ik wel...
Vooral de energiezuinigheid is echter nog even aankijken hoe het zit.
Dubbele snelheid bij hetzelfde verbruik is op zich al een besparing als je die snelheid niet continue nodig hebt.

Probleem in de praktijk is echter dat een snellere gpu nodig is omdat men een display neemt met hogere resolutie. Onder de streep is de telefoon dan niet veel zuiniger, helaas.

Waar ik meer benieuwd naar ben is: Qualcomm belooft betere foto's bij weinig licht vanwege de verbeterde beeldverwerking

Betere foto's bij weinig licht heeft dacht ik gewoon meer te maken met de grote van de foto/video chip, des te groter c.q combinatie grote en aantal pixel des te meer licht deze kan opvangen en dus beter werkt bij minder licht. Ik wist niet dat beeldverwerking dat nu echt beter kan maken, tenzij het softwarematig een trucje is.
Er staat hier dubbel zo snel EN 30 procent zuiniger, waar dan eigenlijk bedoeld wordt 2x zo snel OF 30 procent zuiniger bij vergelijkbare prestatie. Zou tweakers sieren als ze dit soort dingen erbij zetten en niet alleen de qualcomm marketingpraat 1 op 1 overnemen
Hoe is dat zuiniger gemeten? Want 100% sneller en 30% zuiniger kun je ook berekenen als kan 40% meer verstoken.
Als de dezelfde handelingen uit kan voeren in de helft van de tijd is dat in theorie al 50% zuiniger (bij gelijk verbruik).
Het zal mij niets verbazen als de marketing uitgaat van dezelfde handeling 30% zuiniger maar dat hij wel 2x zo snel kan met méér verbruik. Oftewel, eerst zien dan geloven ;)
Juist, ik vraag me daarbij af of de energiedichtheid of efficiëntie in accu's ook met 40% verbeterd is op het moment dat de 820 in telefoons te vinden is. Zo niet dan lijken mij 3 secenario's mogelijk:
-Telefoons zijn sneller leeg
-Accu's (en dus telefoons) worden groter/dikker
-Fabrikanten clocken de soc omlaag om bovenstaande te voorkomen

Ik ben benieuwd of we hier echt op zitten te wachten op dit moment. Ik kan me ook voorstellen dat het aanleiding geeft om oplaadmogelijkheden overal in te verwerken zodat stroomvoorziening nooit meer een issue is.
Krachtiger dan de Playstation 4. Serieus, is geen grap. Uncharted 4 naar Sony Xperia 6......

Ik luister al 5 jaar (of langer) naar dat gezeik over telefoons die krachtiger worden dan consoles.
Dus nouja. Dan moet dit toch zo langzamer hand wel een keer het moment zijn of niet? En nee, dan telt niet een vorige generatie met apparaten die 10 jaar oud zijn..
Kracht is niet het enigste probleem, Het grootste probleem bij mobiles is de bandwidth die je hebt, dit is erg weinig compared met een desktop/console
Naja in die discussies wil zon persoon gewoon zeggen dat telefoons instaat zijn grafisch meer te leveren dan een console. Dat games er 'tegen die tijd' beter uitzien op telefoons. Dat de tijd nabij is waarin consoles niet meer van toepassing zijn en ga zo maar door. Omdat een keer gelezen dat trend = kleiner en steeds krachtiger etc. etc. Of iets anders wat zon debiele trendwatcher voorspelt en nooit iemand op terugkomt.

Eigenlijk is er bijna niks veranderd. PC's zijn nog steeds onvoorstelbaar veel krachtiger dan consoles (als je er maar genoeg geld tegenaan gooit) en consoles pissen nog steeds op telefoons. Alleen zijn telefoons intussen twee keer zo duur en vervangen we ze 3 keer in een console lifecycle.... Maar we kunnen nu al nintendo 64 spellen spelen op een smartwatch jeeeej us!! Het werkt...

5 jaar geleden geloofde ik er al geen reet van vanwege formaat, hitte en energie behoefte. En geloof het nog steeds niet. Videokaarten zijn gewoon te goed. Ultrabooks van 1500,- euro leggen het af tegen grote kasten of iets grotere laptops (vaak veel goedkoper) omdat de videokaart uberhaupt werkt. Daar hoef je geen benchmark voor op te zoeken maar kun je meteen zien. Uiteindelijk de reden dat ik toch maar een normale laptop van Asus nam in plaats van zon achterlijk dure Yoga Pro 2 (toen). Ziet er cool uit, flexibel, maar idioot duur voor het vermogen ook maar een game degelijk te draaien. Maar wel klein en licht! Wuhu.

Naja, misschien mis ik iets. Ik denk smartphones nooit de concurrent gaan worden maar dat de hardware volledig verdwijnt en games gewoon een sevice worden die je aanzet, zoals een netflix.
Waarom zou je games gaan streamen als je telefoonchip al krachtig genoeg is om het lokaal te renderen? Hardware wordt steeds goedkoper. Vanaf skylake kan elke laptop/pc spellen op lage instellingen spelen.

Edit: De nieuwste spellen blijkbaar toch niet. 20-30 FPS op fallout 4 op 1366*768 is wel erg laag. https://www.youtube.com/watch?v=ob0Fo6-k-io

Voor uitgevers kan ik het me voorstellen (lekker verdienen, oude games offline halen), maar consumenten moeten dat toch niet willen! Afhankelijk van internet (lag) en de uitgever (kan vragen wat hij wil) om te kunnen spelen, terwijl een gekocht spel blijft werken en na aanschaf niets meer kost.

[Reactie gewijzigd door dapyroo op 11 november 2015 12:19]

Maar daar in het begin noem je meteen het punt waar ik moeite mee had en nog steeds heb.

'krachtig genoeg'

Voor wat? Ik lees hier overal dat het al snel of krachtig genoeg is, zelfs dat 'niemand er behoefte aan heeft'?? Wtf? Is dat een grap? Hoe komt iemand tot zon conclusie?

Ik kan me nog herinneren dat tijdens de PS3 en Xbox360 mensen al riepen "nou! Nu kan het echt niet mooier of realistischer mee hoor! Jeetje zeg". Trendwatchers, andere business idioten, maar ook mensen met een publiek. Neem zon type Matthijs van Nieuwkerk (niet dat hij dat zelf heeft gezegd, maar zon type die er geen reet verstand van heeft maar een formuliertje krijgt van 1 van z'n slaafjes). Toen wist ik al niet of ik nou moest lachen of huilen om hoe ontzettend dom dat klonk.

Als iemand nou even voor het gemak een Blizzard trailer of Pixar film als uitgangspunt neemt van wat op enig moment mogelijk is in 3D animatie (mag ook Blur studios zijn of take your pick). Zullen we dat afspreken?

Kunnen we het dan eens worden dat we nog niet eens in de buuuuuurt zijn van wat mogelijk is? Gezien het nu juist weer trend is om te zeiken dat PS4 kut graphics heeft en ga zo maar door. Die meningen gaan echt alle kanten op.

De dag dat een telefoon games speelt gelijkwaardig aan een PC van +/- 800,- euro, gimme a call. Dan wil ik die discussie wel weer aangaan.

Tot die tijd is er ALTIJD behoefte aan MEER, sneller, krachtiger, etc. Omdat het bestaat. Omdat het mogelijk is, omdat het gecreëerd kan worden. En ik speel net zo graag Nintendo games, die de meeste al inferieur zullen beschouwen dus ben echt niet zon pretentieus PC master nazi race voorstander. Maar nog irritanter vind/vond ik dat gezeik over telefoons en hun... kracht...

Btw, dit is geen persoonlijk aanval he. Gaat mij om de algemene tendens. Zeker toen 'mobile' helemaal booming was. Dit is het ook, maar vooral in online marketing. Dat is een andere tak van sport :P
Wat ik bedoelde met "krachtig genoeg" is dat Intel de focus bij hun processoren tegenwoordig ook op de grafische kant leggen. Een paar jaar geleden was het grootste deel van de laptops uitgerust met een krachtige processor, maar heel slechte videokaart. Tegenwoordig kan je weer een beetje gamen op nieuwe simpele PC's die daar niet perse voor gekocht zijn.

Dat hardware krachtiger blijft worden verwacht en hoop ik zeker. De verdeling gamekracht van desktop>laptop/console>telefoon zal blijven.

Waarom verwacht je dat streamen het in de toekomst gaat winnen van eigen hardware?

[Reactie gewijzigd door dapyroo op 11 november 2015 15:49]

Huh? Zei ik dat streamen gaat winnen van eigen hardware? Dat bedoelde ik in ieder geval helemaal niet.

Volgens mij zei ik iets in de trant van, dat ik 'eerder' een toekomst voor me zie waarin alles 'diensten' zijn (games van Nintendo bijv.), 'dan' dat we een toekomst hebben waarin telefoons krachtiger zijn dan traditionele hardware zoals PC en console.
Kortom de toekomst die 5 jaar geleden werd voorspelt en er nu nog niet is. Ging me er dus vooral om dat het tweede toen en nu nog steeds gelul is. En dat telefoons meer kunnen dan eerst, no shit. Wat denk je van consoles en PC... Dus laten we er niet teveel een big deal van maken.

Die hele diensten zooi noemde ik even uit de losse pols als random mogelijkheid. Weet ik veel of dat ooit het geval gaat zijn. Denk niet dat het onmogelijk is btw.
Ik kan geen Fallout 4 spelen op mijn iGPU (i7 4700hq, wat dus een Intel HD 4600 is), zelfs niet op het laagst.

Mijn GTX765M trekt het net op medium-ish settings rond 30 fps naar gevoel. Gelukkig wat minder annoying omdat ik met controller speel, maar met Muis en Keyboard enorm storend.

(Dit is ook de rede waarom games minder laggy aanvoelen op 30fps op consoles)
Eerste; ja. Formaat en energie behoefte blijven de nabije toekomst (minstens 10 jaar) hét struikelblok. Daarna waarschijnlijk nog steeds.
Een mid-tower zal dus altijd een hoger plateau hebben qua performance dan een klein kastje dat naast je TV moet staan. Laat staan een klein, fanloos apparaat dat op een accu werkt.

Ten tweede; misschien. Waarschijnlijk niet. Netflix voor games is misschien wel leuk voor bepaalde titels maar voor de zogenoemde "core" gaming niet. Counter strike moet gewoon lokaal draaien en via Lan werken. Fallout 4 wil ik gewoon kunnen modden. Ga zo verder.
Raak punt. Controle verlies je zeker in een dienstvorm. En ik ben daar helemaal niet voor btw! Geeft de verkeerde mensen nog veel meer macht. De industrie heeft er steeds meer een handje van niet te kijken naar "hoe kan ik mijn fans de beste game bieden", maar "hoe kan ik mijn fans zoveel mogelijk naaien".. Ja EA en Activision, dat gaat zeker over jullie. En zo zijn er nog velen andere, maar gelukkig ook ontwikkelaars die het beste van het beste blijven bieden.

Anyway, ik noemde maar een dwarsstraat voor de lange toekomst. Als we wereldwijd een draadloze dekking hebben die zo snel is dat we alles er maar doorheen kunnen pompen wat we willen, dan vast ook wel games? Hebben we dan nog TV's, of lopen we permanent met VR sets op? Voor een aantal bedrijven is het relevant genoeg denk ik. Businesswise. Want mijn god wat zijn ze dol op die controle :P

Laat ik het anders stellen. Ik zie eerder gebeuren dat alles geheel dienst/netwerk gaat, dan dat telefoons of andere mobiele devices krachtiger worden dan grotere brokken hardware die wij in onze huizen hebben staan. Dat is tot nu toe steeds niet opgegaan en zie ik zoals jij ook al zei de komende 10 jaar ook niet gebeuren.
Ik zie het "nooit" gebeuren. Hitte en volume betekenen simpelweg dat een mid tower altijd de telefoon de baas zal zijn (even andere variabelen als budget daargelaten)

Alles als dienst zie ik ook niet snel gebeuren. Dan moet het halve land vol met datacenters en antennes om de latency te drukken, vooral als het om wireless gaat.
Ja zie dat ook niet snel gebeuren, dat was het punt ook niet :p Heb echt geen idee.
Maar het is wel iets wat in rap tempo ontwikkelt en alles wordt de kant van wireless op geduwd. Als je nog meer snelheid het huis in kunt duwen. Met netwerkkabel direct op TV? En wie weet waar wireless is over 5 tot 10 jaar. Zou je nog eens kunnen verbazen.

Maar wederom, ik heb geen idee. Was maar een random gedachte. Vraag me ook af of het wel de meest efficiente manier is tov lokale hardware omdat je, zoals je aangaf met de datacenters, toch ergens het rekenwerk moet doen.

Dus sure. Met je eens
Wireless gaat zeker de goede kant op. Echter heb ik nu thuis bijv. 500/500 glasvezel. De latency is ook echt opvallend laag overal. Om een 40+GB film te downloaden zou ik toch liever bekabeld zitten (datalimieten even negerend) het kan uiteraard zijn dat er echt op onverwachte gebieden baanbrekende uitvindingen worden gedaan maar ik zie voorlopig de getallen (resolutie, snelheid, bitrate, etc) gewoon vrij linear toenemen. De absurde groei van Moore is er een beetje af. Oh well :)
Ja wellicht gaat het gewoon gestaag verder of plots is er een innovatieve oplossing waardoor het in de stroomversnelling komt

Maar ik denk dat zoiets als gamen als dienst over je netwerk ook veel sneller via kabel te realiseren is. Gewoon direct een kabel in je beeldapparaat. In zo'n scenario zou je dure hardware nog eens kunnen overslaan. Over hardware die voor 5-8 jaar vast zit aan z'n specs (console)

Voor een merk als Nintendo kan dit prima werken. Die zullen altijd blijven bestaan. Niet omdat ze in de hardware business zitten, maar omdat ze onvoorstelbaar veel games en IP's hebben. Waaronder een aantal ijzersterke. Allen ze verdienen doorgaans aan hun hardware, dus willen ze dat graag blijven produceren.

Oh well.. we'll see :)
Het is zeker boeiend om de toekomst in de gaten te houden. Voorlopig speel ik nog lekker elke dag fallout 4 op een midi tower bak met muis en keyboard, though ^^
Hahaha nice. Bevalt goed?
Net gestart met Witcher 3 op PS4. En toen kwam ik erachter dat Starcraft 2's derde deel er net is. Beetje shit gepland, want Witcher gaat nog wel wat uren opslokken. Zoals jouw Fallout XD haha. En speel liever geen games door elkaar.
Fallout 4 word zeker beter hoe verder ik kom. Ik heb het gevoel dat ik de top nog niet bereikt heb, zoals het in een goede RPG hoort IMO. Ik speel wel games door elkaar, maar meer omdat ik een beetje zo'n standaard shooter heb voor snelle multiplayer fun. (Counter strike) en dan bijv een fallout of dragon age voor de andere keren.
Ah ja, dat ken ik wel!
Dat doe ik ook wel met aantal games. Eigenlijk best veel verschillende. Bijvoorbeeld een Mario Kart 8 met de buddies. Binnenkort Street Fighter 5 verwacht ik :P

En wat shooters betreft... Ben nu vooral benieuwd naar Doom en Overwatch. Gewoon om te kijken of ID en Blizzard het flikken 2 meesterwerken neer te zetten. Vast wel.

Maar ging ook meer om RPG's of spellen met een dik verhaal waar je gewoon mee bezig wil blijven. Of een bepaalde vibe in een wereld die je niet wil doorbreken. Zoals binnenkort Bloordborne Old Hunters en later Dark Souls 3 :D Uberhype!
En dan op enige moment nog 'effe' Xenoblade, Persona 5, Deus Ex en FF15 als die nou eindelijk eens komt. En vergeet er vast nog een aantal :)
Hooguit deus ex. De rest klinkt me allemaal niet zo spannend. Niet eens de nieuwe mass effect eigenlijk.
Ik ben benieuwd of Intel daar iets tegenover kan zetten met hun Atoms.
Al zijn Atoms in een telefoon nog niet echt doorgebroken volgens mij.
Intel heeft nooit een opvolger uitgebracht voor de Moorefield telefoonchips van vorig jaar, het lijkt erop dat Intel het telefoonsegment stillertjes maar laat voor wat het is en zich vol op de tablet markt richt (waar wel steeds nieuwe Atoms uitkomen). Op hun beurt heeft Qualcomm (ondanks pogingen met oa Windows RT en wat Android tablets) geen deuk kunnen slaan in de tablet markt dus zo houden de twee giganten elkaar redelijk uit elkaars achtertuin.
Dat is niet helemaal waar. Zeker nu er geruchten zijn dat Apple en Intel samenwerken: nieuws: Gerucht: Intel werkt aan soc voor Apple-apparaten
Als je dat artikel leest gaat het om een LTE modem, de speculaties over een complete SoC zijn vooralsnog totaal uit de lucht gegrepen.
Klopt het modem is de eerste stap. Qua SoC zijn het vooralsnog geruchten en het kan ook best zijn dat ze in de toekomst alleen de chip van Apple produceren waarbij Apple zelf het ontwerp aanlevert. Maar het geeft wel aan dat Intel zich bezig houdt met de smartphone markt. Wie weet zijn ze wel bezig met een eigen SoC. De tijd zal het leren.
Maar, wanneer kan ik in 4K filmen met 60fps op de telefoon? Of moet ik nog een jaar wachten?
Dat hangt niet alleen af van de soc, maar ook van de gebruikte beeldsensor in de telefoon. De Snapdragon 820 kan volgens de specificaties 4K met 60 fps verwerken. Huidige cmos-sensoren voor smartphones doen echter meestal maximaal 4k@30fps. Het zou echter best kunnen dat er tegen de tijd dat de Snapdragon 820 op de markt verschijnt ook nieuwe beeldsensoren voor smartphones uitgebracht worden.
Ik snap echt niet waarom het nóg sneller moet. Met mijn SD800 kan ik elk spel prima spelen, wat doen mensen met hun telefoon dat het zo snel moet zijn?
Zuinig, koel en stabiel zie ik veel liever dan een onzuinig warm ding die hoge benchmark scores haalt.
Ik snap echt niet waarom het nóg sneller moet.
1: Omdat mensen daar behoefte aan hebben. Sneller draaiende software maakt efficienter gebruik van tijd mogelijk.

2: Omdat mensen daar noodzaak aan hebben. Veeleisende zachtgoederen hebben vele eisen nodig.

3: Omdat mensen daar in de toekomst behoefte en noodzaak aan hebben. Wat nu wellicht overkill lijkt, is in de toekomst low-end.

Jouw argument is exact hetzelfde als "Who needs more than 32MB" van vroeger.
Niemand heeft behoeften aan nog snellere hardware dan dat we nu al hebben. Fabrikanten hebben gewoon behoeften aan hogere nummers. Ja, die vooruitgang moet er zijn, we kunnen niet stil blijven staan, maar zeggen dat ook maar iemand er behoeften aan heeft? Nee.
Hoe sneller de hardware wordt, hoe sneller taken afgerond kunnen worden. De cpu kan dan vaker in een idle toestand verkeren met het gevolg dat het weer zuiniger wordt. Dus ja, er is behoefte aan snellere hardware :).
Hij heeft net uitgelegd hoe snellere hardware kan leiden tot energiebesparing. Dus nee, hij zegt het gewoon goed.
''Niemand heeft behoeften aan nog snellere hardware dan dat we nu al hebben"

moet je eens langs gaan op de site van HWBot dan zie je vanzelf dat er genoeg hobby/professionele mensen zijn die bijna alle cpu's en gpu's overgeclocked hebben

zo zie je dat er best vaak ( vooral in amerika ) wedstrijden gehouden worden om wie de beste build heeft.

dus "niemand heeft behoeften" zou volgens mij moeten worden "de normale consument ..."
Gamers zijn ook maar gewone consumenten, dus zelfs als je het op die manier zegt is het nog incorrect. Men heeft zeker behoefte aan meer en beter voor dezelfde prijs, daar is heel de huidige economie een excellent voorbeeld van.
Nee want hier praat ik niet over games maar expliciet over overclockers. Als je de site van HWBot bezocht had, dan had je zelf gezien dat het niks met gamen te maken heeft maar puur over overclocken gaat.
Overclockers hebben genoeg redenen om te overclocken, gaming is daar deel van. Mijn comment was wel degelijk relevant.

Je kan niet een hele groep consumenten uitsluiten puur omdat je dat wil voor je argument. Als je zegt overclockers, heb je het indirect ook over gamers, want een significant deel van gamers doet aan overclocking.
Niemand heeft behoeften aan nog snellere hardware dan dat we nu al hebben.
Dit is pure bullshit, voor de redenen die ik hierboven al gegeven heb.

Bovendien is het per definitie eenvoudig teniet te doen: Ik heb behoefte aan nog snellere hardware. Daarom is jouw stelling per direct ongeldig.
Fabrikanten hebben gewoon behoeften aan hogere nummers.
Fabrikanten hebben behoefte aan hogere inkomsten. Als ze dit kunnen bereiken door beter presterende hardware, dan doen ze dat. Volgens mij heb je geen idee waar je het over hebt.
Ja, die vooruitgang moet er zijn, we kunnen niet stil blijven staan, maar zeggen dat ook maar iemand er behoeften aan heeft?
Zo dachten idioten ook over Windows XP. Waarom betere software, betere computers, als al die oude Windows 98 computers het prima doen?
Maar een telefoon wordt (denk ik) 2-3 jaar gebruikt. Uiteraard moeten we niet stil staan, maar wat mij betreft moeten niet op snelheid focusen.
Ik heb liever 2 jaar een snelle, zuinige ervaring dan 3 jaar een snelle, onzuinige ervaring met een telefoon die wegens hitte applicaties sluit.
Dan heb je een verkeerde telefoon gekocht.

Snellere telefoons zijn per definitie zuiniger omdat ze met minder totale arbeid in minder tijd dezelfde prestaties kunnen verrichten. Ze zijn uiteraard minder zuinig als je er meer mee doet dan je met vorige toestellen deed. Dat spreekt voorzicht.

Op dezelfde manier kan je klagen over waterverbruik als je jezelf gaat wassen... in een zwembad in je tuin, in plaats van in bad.
Bijvoorbeeld voor hardware matige encryptie?
Daar hoeft je CPU niet persé snel voor te zijn, als het maar in de instructie-set zit.
Het is nog beter als de encryptie in de DMA-engine zit. Die wordt geprogrammeerd om data van EMC naar RAM te kopieren, en het wordt gedecrypt terwijl de CPU... helemaal niks hoeft te doen. Intel stopt het in de CPU omdat ze nu eenmaal een CPU-bakker zijn.
Naja. Mensen die na een tijdje uitgekeken zijn op candy crush (oke flauw) en volwaardig gta5, fallout 4, uncharted, fkn need for shit speed willen spelen? Of een andefe populaire game.
Mensen die vinden dat games op de huidige generatie consoles er al ruk uitzien? Van die PC elitists?

Geloof me, ik ben daar zeker niet 1 van.
Touch controls en zon klein rotscherm.. Dat is niet gamen, maar een mens erger je niet uitdaging. Geluid kan gelukkig wel super nice op foons tegenwoordig. Als je een goede headset hebt tenminste. Kreeg een set bij mijn Z3 compact. Beste wat een telefoon me ooit geleverd heeft.
Die zogenaamde snelheid, kracht, apps en andere rommel... Merk er weinig van. Evolueert gewoon beetje mee met je verwachgingen en de standaard. Maar blaast me nooit weg.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True