Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 64 reacties

Intel heeft de Atom Z3590 voor smartphones en tablets uitgebracht. De soc bevat Silvermont-cores en is nog op 22nm geproduceerd, maar Intel heeft zowel de gpu- als de cpu-kloksnelheden verhoogd voor betere prestaties.

Tot voor kort was de Z3580 uit 2014 de snelste soc in de Z-serie maar Intel heeft met de Z3590 een krachtiger model uitgebracht. De maximale gpu-kloksnelheid van de PowerVR G6430 van de Atom Z3590 bedraagt 640MHz, waar dat bij de Z3580 533MHz is. De maximale burst-kloksnelheid is bij het nieuwe model 2,5GHz, terwijl de Z3580 tot 2,33GHz klokt.

De overige specificaties zijn gelijk gebleven. Het is nog steeds een soc met Silvermont-cores die op 22nm is geproduceerd en die van 2MB L2-cache en maximaal 4GB lpddr3 ondersteunt. Ondanks de hogere kloksnelheden betreft het ook nog steeds een chip voor midrange-smartphone en -tablets.

Intel werkt wel aan een high-end processor voor smartphones, de Broxton-soc die op 14nm geproduceerd zal worden, maar deze komt pas in 2016 uit. Intel heeft nog altijd moeite voet aan de grond te krijgen op de markt voor smartphones, waar ARM gemeengoed is.

Moderatie-faq Wijzig weergave

Reacties (64)

Ik hoop dat Intel door gaat breken op de smartphone markt, ze hebben nu ook een grote mogelijkheid met Windows 10 en continuŁm, wat x86 applicaties mogelijk zou maken. Daarnaast is er dringend een serieuze concurrent voor qualcom nodig, zodat fabrikanten niet uit noodzaak een soc als de 810 moeten blijven gebruiken
Samsung is geen serieuze concurrent voor Qualcomm? Ik zou juist liever hebben dat er meer specialisaties in de chip wereld komen en dat de prestaties per chip beter in lijn liggen met de software. Samsungs flagship GS6 heeft een baas van een SOC, maar prestaties leveren ho maar. Als samsung deze SOC op eenzelfde manier zou aanpassen als Apple dat doet dan zouden de prestaties vele malen beter zijn. icm goed geschreven software.
Nee, eigenlijk niet.
Samsung is enkel een serieuze concurrent op gebied van prestaties, maar kan nog niet op groot genoege schaal produceren om aan derde partijen te leveren, anders zou je momenteel heel wat toestelen zien met een exynos ipv de sd 810
Mja okee goed punt. Dat is waarschijnlijk de reden waarom Apple naar Tawain semi conductor is overgestapt. Samsung produceerde eerst ook voor Apple. (wat overigens wel aangeeft dat ze een behoorlijke capaciteit hebben, maar misschien de high-end exynos chips zelf willen houden).

Overigens heeft Qualcomm ook niet zelf de capaciteit om chips te bakken en komen deze uit dezelfde fabriek als Apples Socs: die van TSMC. Waar qualcomm dus ook de fabricage uit besteed, heeft Samsung die zelf in handen en hebben zij vooralsnog beperkte capaciteit.
Beetje kort door de bocht, volgens een groot deel van de geruchtenmolen gaan zowel Apple als Qualcomm ook gebruikmaken van Samsung's 14nm-proces voor telefoon-SoC's.

Vermoedelijk gaat Samsung in de toekomst ook weer gebruik maken van Qualcomm-SoC's voor haar Galaxy-S lijn.
Voet aan de grond? Ik kan mijn geen nieuwsartikel heugen waarin melding werd gemaakt van het uitbrengen van een smartphone met een Intel-soc.
Voetje. :) Zo te zien 8,4%. Bron: http://www.electronicprod...m_Processor_Platform.aspx

Ik meen me te herinneren dat dit met name met stroomverbruik te maken heeft.
MEer de verhouding tussen verbruik en prestaties. In performance/watt is ARM vele malen beter, maar ARM is ook vele malen nieuwer dan het X86 platform (waarom gaan we dat niet gewoon X32 noemen net als X64?) en is met een ander doel ontwikkeld. X86 is ooit ontwikkeld om het leven gemakkelijker te maken. Stroomkosten waren toen niet relevant aangezien de aanschaf van dergelijke apparatuur al een vermogen kostte.

ARM is nog jong en heeft vanaf het begin juist ingezet op het verbruik omdat Intel chips eigenlijk altijd te veel verbruikten om een redelijk mobiel apparaatje te kunnen fabriceren of omdat bij laag verbruik de prestaties ook dito waren: slecht.

edit: zinsbouw

[Reactie gewijzigd door supersnathan94 op 3 september 2015 12:23]

Stroomkosten waren toen niet relevant aangezien de aanschaf van dergelijke apparatuur al een vermogen kostte.
Je verhaal klopt ongeveer...

Met "van oudsher" bedoel je de 8088/8086. Die processoren werken met de 'echte' CISC; de nieuwere processoren werken heel anders. Er zijn een aantal grote veranderingen geweest in de Intel processoren, m.i. het meest noemenswaardig waren de invoering van de Pentium, de Pentium 4 en de Core2 processoren. Op deze drie punten zijn er grote wijzigingen gemaakt in de manier waarop instructies worden doorgevoerd en hoe omgegaan wordt met stroom. Specifiek zijn dingen als pipelining, instructie -> interne microcode preprocessing en speedstep aangepast.

Deze punten haal ik specifiek aan omdat het milestones zijn waarin een groot deel volgens mij zo ongeveer from-scratch opnieuw is ontworpen. In de tijd van 8086 waren stroomkosten inderdaad niet relevant. In de tijd van de Core2 processoren waren deze wel relevant. Bijvoorbeeld in de servermarkt.

Wat is makkelijk en moeilijk? Het is relatief makkelijk voor Intel om instructies om te zetten in microcode en die instructieset energiezuinig te maken. Sterker nog, dat doen ze al en er zijn mensen die proberen te reverse engineeren. De instructieset / legacy is dus niet het probleem. Het probleem is de architectuur - of preciezer: de uitgangspunten die gemaakt zijn bij het ontwerp van de architectuur. Een deel van deze dingen uit zich in stroomverbruik

Een voorbeeld om dit duidelijk te maken is het 'memory model', wat bij Intel een 'strong memory model' is en bij ARM een 'weak memory model'. Idem voor een 'weakly ordered CPU' / 'strongly ordered CPU'. http://preshing.com/20120930/weak-vs-strong-memory-models/ legt deze verschillen uit.

Waarom is dit relevant? Nou, dergelijke features kosten gewoon stroom, bijvoorbeeld omdat je meer geheugen IO nodig hebt of omdat je minder instructies kan pipelinen. Omgekeerd programmeert het een heel stuk fijner. Om die laatste reden heeft Intel een strong model. En daaraan willen ze (terecht) geen aanpassingen maken.

(PS: Itaniums hebben met compleet andere uitgangspunten geprobeerd te maken - met ook andere resultaten)

Kortom, de uitdaging bij Intel heeft minder met legacy te maken dan met innovatie. Ze willen dezelfde uitgangspunten behouden. Echter, de technologie die die uitgangspunten waarborgt met minder stroomverbruik, bestaat simpelweg nog niet. ARM's hebben dit probleem veel minder, omdat ze zijn begonnen met uitgangspunten die bekend waren en relatief weinig stroom kosten.
er zijn maar 2 echte cpu's ontworpen bij intel ....

de 8086/8086 (de oer-cisc) en veel later de pentium Pro (overgang van pure cisc naar risc met cisc emulatie); we zitten nog steeds te werken met het neefje van de pentium pro en zelfs in de huidige cpu's zitten er dus nog onderdelen die in die eerste ppro zaten (uiteraard wel veel kleiner dan toen en aan hogere snelheden)

de Pentium M is sterk terug gaan hangen op het ontwerp van de pentium Pro
de intel core reeks is enorm gaan terughangen op de pentium M (omdat de pentium 4 met netburst veel te slecht presteerde per cpu cycle en de megahertz race duidelijk over was; de P4 was ontworpmen om tot 10 ghz te schalen maar niemand interesseerde dat nog; er waren namelijk al dual core cpu's verschenen en de vraag daarnaar was veel hoger dan naar single cores met hogere clockspeeds)
Wow een p4 op 10ghz, dat is geen performance maar hete lucht verwarming. Jammer dat daar niets van terecht is gekomen. Het had intels hele business model kunnen veranderen. Van cpu bakker naar de verwarmings- industrie. ;)
Dat klopt niet van die pentium 4, Pentium 6 "Nehalem" zou pas de 10Ghz moeten halen. Pentium 5 "Tejas" zou tussen de 5 en de 7Ghz moeten schalen.

Intel heet Pentium naam alleen ingeruild voor Core, en heeft andere weg ingeslagen en die 10Ghz Nehalem werd een <4Ghz cpu.

Terug naar 2003. :D
http://www.geek.com/chips...as-details-emerge-554169/

"Intel's next desktop chip after Tejas is the 65 nanometer Nehalem CPU, which is scheduled to be released in 2005. The Nehalem core may eventually approach 10GHz."

[Reactie gewijzigd door mad_max234 op 3 september 2015 21:44]

Klopt. Ja er zijn maar 2 CPU's helemaal from-scratch ontworpen -- maar sommige wijzigingen zijn enorm. Pentium is de eerste CPU met een superscalar architecture; Pentium PRO is de eerste Risk-like processor - that is: micro-operations noemen ze het. Microcode wordt vanaf dat punt steeds belangrijker. Hyper-marketingthreading komt in de P4. Later is teruggegaan op de oorspronkelijke P-Pro architectuur - maar deze is wel sterk getuned met features die succesvol bleken in de P4 reeks.

Het doel van de P4 was inderdaad 10 GHz -- maar wel met de voetnoot dat ze een enorm TDP probleem hadden, wat een van de andere redenen was om dit pad te verlaten. Het schaalde slecht, op meerdere manieren.

Een deel van de features zien we overigens ook elders in de industrie, bijv bij DEC Alpha's (o.a. superscalar architecture) en bij CRAY (o.a. de laatste ring-gebaseerde CPU's).
Er zijn significant meer veranderingen: Out of Order Execution en Register Renaming zijn allebei fundamentele wijzigingen op het nivo van " RISC met CISC emulatie" . Sterker nog, ook de eerste 8086 deed al aan instructievertaling in microcode dus die hele "CISC emulatie" bestaat sinds het begin, terwijl OoOE en RR wel nieuw zijn.
Zo jong is Arm niet, zelfs maar iets jonger dan x86, zie ook https://en.wikipedia.org/wiki/ARM_architecture

ARM is ook alweer 30+ ;)

Vele malen nieuwer is dan imho ook vrij overdreven, maar het klopt inderdaad wel dat ARM destijds deels ontwikkeld is met een insteek om tot een lager verbruik en warmte te komen, maar de grootste drijfveer voor de ontwikkeling was destijds gewoon de hoge kosten die de productie en ontwikkeling van x86 processoren die met het simpele design van ARM lager zouden zijn.

[Reactie gewijzigd door Dennism op 3 september 2015 12:39]

x86 = afkorting/wildcard intel CPU's, bijv. i386, i486 enz.

x64 = 64 Bit (maar waar dat vandaan komt...)

Dus als je het voor je bittage wil gebruiken of voor je CPU's zal je moeten kiezen.
Ja dat weet ik ook wel. Maar die legacy zooi wordt toch niet meer ondersteund door windows 7 en hoger (vista ws ook al). Dus waarom dan niet gewoon x32 aangezien we voor 64 ook al x64 gebruiken? Dat bedoelde ik met die passage
X32 is een linux geheugenarchitectuur waarbij pointers 32 bits zijn, maar de CPU wel in 64 bits mode staat. Dit gebruikt minder geheugen, maar je hebt wel de volledige set 64 bits registers beschikbaar. "x32 als synoniem voor x86" zou dus nogal wat verwarring opleveren.
Aha dat verklaart een hoop. Nee dan is het niet zo handig (voor de technisch dan, consumenten weten dat toch niet). Maar op zich zou het niet verkeerd zijn als er eens naar de terminologie wordt gekeken.
Nou, om dat i386/i485/i586 ook massaal gebruikt wordt buiten datgene wat consumenten zien om. IA64 en AMD64 zijn groot, maar lang niet zo groot als al het andere spul wat op 32 bit, 24 bit (SuperH vaak) of 16bit en lager (ĶC's) draait.

Voor Windows kan je beter gewoon 23bit of 64bit typen, dat is consument-vriendelijk genoeg. Dat x86 en x64 ooit overgenomen werden is leuk, maar eigenlijk niet relevant voor consumenten OS of bijbehorende hardware.
Het gaat wel veranderen in de markt. Op iedere markt is efficiŽntie belangrijk geworden, zelfs op de desktop markt is iedereen blij als er een videokaart uitkomt die beter presteert en minder verbruikt (minder warmte = minder koeling nodig).

Daarbij komt het ook dat met smartphones de socs steeds meer vermogen gaan vragen. De apps, het OS en snelheid daarbovenop worden steeds belangrijker. Het x86 platform is efficiŽnter als het in gebruik is ten opzichte van ARM, echter is het stand-by verbruik van ARM vele malen beter dan met het x86 platform waar Intel al aardig grote sprongen maakt.

Het klopt dus inderdaad wat jij verteld maar ik hoop dat ARM en x86 beide nog verbeterd kunnen worden waardoor er meer concurrentie op de markt komt. Want dat is altijd beter.
SOCs moeten inderdaad steeds meer performance leveren echter is software optimalisatie icm de hardware daar veel beter geschikt voor. Kijk eens naar touchwiz bijvoorbeeld. Die heeft een dubbele Quadcore CPU onder z'n command liggen met een fikse snelheid. Toch doet touchwiz af en toe fiks moeilijk in vergelijking met stock android en helemaal met WP en iOS vergeleken. Driver optimalisatie en nieuwe software technieken zullen denk ik meer opleveren in performance als snellere SOCs op zich.

Intel heeft met de Core M series een enorme stap gezet richting de goede kant met een goede performance/energy consumption verhouding. De M5 en M7 series presteren erg goed voor het verbruik wat ze hebben (4,5W is erg weinig voor een X86 processor). Vooral in het lage segment is dit een enorme winst. Kijk naar de nieuwe macbook en de Asus UX305? Beide hebben een Core M proc die passief gekoeld kan worden. Dit is voor laptops en ultraportables enorm handig. Naast de energie besparing die je CPU heeft, hoef je ook minder accucapaciteit in te leveren voor het actief koelen van de laptop. Ik werk momenteel op een high-end i7 die zich ook goed koel kan houden onder extreme load. Ik draai nu al 40 minuten op 99,9% met een hashing algoritme wat 8 cores vol belast (95% gaat daarheen) en naast dat ik nog gewoon mijn programmeerwerk (java) kan doen en kan internetten (stuk of houd deze het prima vol (ws ook dankzij de moeilijk snelle SSD) en hoor ik de fan in mijn werkomgeving wel, maar is het niet storend. De efficiency is dus al enorm omhoog, maar qua software kan het altijd beter.
Precies wat in het artikel staat dus:
Intel heeft nog altijd moeite voet aan de grond te krijgen op de markt voor smartphones, waar ARM gemeengoed is.
Niemand wil blijkbaar een smartphone uitbrengen met een Intel SOC.
Had de Asus Zenfone ook geen Atom SOC? Is op zich qua specs geen slecht apparaat voor de prijs (de socs krijgen ze voor bijna niks van Intel).
Op de tablet-markt krijgen ze wel wat voor elkaar. Op zich leveren ze geen slechte mobiele producten, alleen walst ARM er met veel meer producten overheen.
Ik heb indertijd ook voor de Asus ME572C (inmiddels op Android 5.01) gekozen: Atom Z3560-quadcore (64-bit) met een PowerVR G430/Full HD voor 10 Euro meer dan een Samsung Tab4 draai je rondjes rond de dual-core Tab4. en de Accu duur lijdt er niet onder.
Yup, ik heb de Zenfone2 hier naast me liggen. Bloedsnel apperaatje voor die prijs.
Overigens kan je die Z3580 gewoon netjes op 2,5Ghz klokken hoor :+
Komt wel. Smartphones met x86 processor, Windows 10 en asymmetrische multiprocessing, waarbij de tweede (snellere) CPU en GPU in de dock zit. Dan heb je altijd je full-featured Outlook bij je en thuis altijd de processorkracht die je nodig hebt.
Ja, maar dan moet je wel Outlook willen, en Windows... en niet iedereen wil dat. Dus ook buiten Windows zou je dan een afzetmarkt voor x86 SoCs moeten vinden.
Asus Zenfone 2
Was/is de beste in zijn prijsklasse (in ieder geval onder de westerse toestellen)
smartphones niet maar tablets wel. Vooral de nieuwe windows tablets. Die zijn bijna allemaal met de atom proc
Motorola razr i had een atom soc als ik me niet vergis.
Bijna alle Asus smartphones zijn met intel chip voor zover ik weet.

[Reactie gewijzigd door herovazy op 3 september 2015 10:23]

Mn asus zenfone 2 heeft ook een intel SoC. Bevalt prima, een heerlijk vlot toestel.
Ik meen dat Acer een Intel soc heeft gebuikt.
Ik heb even gezocht: http://tweakers.net/nieuw...intel-soc-uitbrengen.html
De intel smartphone tak in europa is erg klein, echter word in azie door lenovo, smartphones geleverd met intel socs.
Intel heeft buiten europa wel aardig hun voet aan grond met hun intel socs.
De merken die intel socs verwerken in hun smartphones zijn niet zo populair in het westen, maar in het oosten is dat een ander verhaal;)
Its just a matter of time.
in android tablets zie je ze al wel regelmatig
dat vind ik raar aangezien Android voor ARM is geschreven en niet voor X86. Dat windows tablets op Intel X86 chips zitten snap ik enigzins. Wintel is altijd een prima combi.
Intel houdt de x86 versie van Android bij. Als je niet zou weten dat er een Intel soc in je android tablet zit zou je het verschil waarschijnlijk niet eens merken.

[Reactie gewijzigd door Frietsaus op 3 september 2015 11:24]

Aha dus feitelijk hebben ze een X86 port gemaakt? Goed om te weten. Dan kan ik het eventueel ook ooit nog draaien op een laptop.
Android heeft gewoon een Linux-kernel. Die is er voor ARM, maar ook voor x86 zoals je weet (en voor Itanium, RISC en nog veel meer, al ben je dan wel beperkter in je distributies).
De Linux kernel is niet het enige probleem. De hele Android stack moet je omzetten naar x86. Het grootste probleem is niet alle C of C++ code, die compileert wel. Het probleem is de Dalvik VM of de Android RunTime die ARM code genereert. Die runtimes moeten compleet omgeschreven worden om efficiente x86 code te genereren.
Android for Intel, in een VM:
http://www.osboxes.org/an...ilable-virtualbox-vmware/

[Reactie gewijzigd door veloce op 3 september 2015 18:26]

Stroomverbruik en OS ondersteuning spelen intel nog parten. Hoe ze het moeten doen weet ik niet, maar ze moeten gewoon een mobiele CPU uitbrengen die evenveel of minder stroom verbruikt als de ARM CPU's en soortgelijk of meer performance levert. Maar dit zal wel lastig zijn blijkbaar. :)
Daarbij speelt OS ondersteuning natuurlijk ook nog mee, je heb wel android voor x86, maar vooral apps die veel performance nodig hebben zijn specifiek op ARM geprogrammeerd in plaats van met java.
Overigens snap ik niet echt waarom intel niet bij microsoft heeft aangeklopt, windows voor mobiele apparaten met x86 zou een logische keuze zijn.
Dit is precies wat mijn idee ook is, Java apps lopen op Intel en ARM socs. maar native X86 apps (windows 10) doen het natuurlijk niet op ARM. Tablets met Windows zijn in mijn ogen ook een beetje netbooks met loskoppelbaar toetsenbord. Vanuit historisch oogpunt is dit logisch. MS heeft de boot gemist door niet zoals Apple en Google een mobile OS te maken wat "geschikt" is voor low power toepassingen. Ik durf wel te beweren dat Intel op acterstand is gekomen door Microsoft omdat er vanuit de markt verder niet zoveel vraag was. Naast de embedded Windows varianten (weet niet waar de oudere WP varianten op draaiden) was er niet zoveel anders.

ARM heeft nog een ander voordeel wat met name Apple en Qualcom goed hebben benut, namelijk dat je niet de SOC afneemt maar een eigen SOC maakt met een ARM licentie. Als ik een 100 core ARM SOC wil hebben is dat mogelijk, ok het kost geld en werk. Als ik een 100 core Intel SOC wil hebben zal ik moeten wachten tot Intel deze zelf produceert. Op basis van ARM is het dus wat eenvoudiger om jezelf te onderscheiden zonder dat je meteen zelf je CPU core en alle tools eromheen moet ontwikkelen. Was de eerste IPhone mogelijk geweest met een Intel SOC? en waarom is Apple hun AX SOCs gaan maken? OS X en IOS hebben dezelfde basis.... BSD. MS was in die tijd al weer een tijdje Intel only (We hebben NT gehad op DEC Alpha's bijvoorbeeld maar NT kon niet op tegen andere OSen op dat platform wat kwaliteit en beschikbare software en multi CPU support) Deze hele historie heeft toch wel Invloed gehad op de focus van Intel lijkt mij, daarnaast was het voor Intel relatief makkelijk geld verdienen, met Windows en later OS X op de Desktop.

[Reactie gewijzigd door GeenIdeeWaarom op 3 september 2015 13:54]

Intel heeft wel licenties op de x86 ISA gegeven hoor, de bekendste is natuurlijk AMD en een oude bekende is nog Via of Transmeta. Daarbij heeft intel sinds vorig jaar ook een chinees bedrijf toegang tot de x86 gegeven, namelijk Rockchip.
nieuws: Intel laat Rockchip Atom-soc voor tablets ontwerpen
Als ik het artikel nog even nalees schijnt rockchip gewoon complete atoms designs te gebruiken en niet een eigen x86 chip te maken.
Volgens mij is AMD dan zowat nog de enige nog die eigen x86 chips maakt.

Al vraag ik me af of een bedrijf er zich wel aan wil wagen om een eigen x86 chip te ontwerpen in een markt door eigenlijk gewoon door intel zefs gedomineerd wordt, zelfs AMD is maar een minimale speler die voorlopig nog niet eens in het high-end segment mee kan doen. Misschien dat de Zen-cores daar verandering in kan brengen, maar ik betwijfel het.
Over Via horen we niets meer. Transmeta is er toen mee gestopt.
En zelfs nVidia heeft wel eens een x86 licentie willen kopen, maar dat is nooit gelukt.
nieuws: 'Nvidia denkt na over ontwikkeling x86-cpu'
nieuws: 'Nvidia wil zich inkopen bij VIA'

Zie de x86 wiki: https://en.wikipedia.org/wiki/List_of_x86_manufacturers

Ik denk eigenlijk dat intel te dominant is voor andere fabrikanten om zich in de x86 markt te wagen. Wil intel mobiel nog slagen zal het een goede concurrent voor ARM CPU's moeten ontwikkelen en daarbij OS ondersteuning zien te krijgen.
Voorlopig zie ik intel meer kans hebben op de internet of things markt dan op de mobiele markt. Ja windows 10 mobile en x86 zou een mooie kans zijn, maar of windows 10 mobile een speler van betekenis gaat worden betwijfel ik nog, daar is nog een lange weg voor te gaan, google en apple domineren daar en profiteren van hun complete ecosysteem wat ze al opgebouwd hebben en waar microsoft de boot gemist heeft, vooralsnog dan.
inderdaad, er zijn wel wat voorbeeldjes maar die zijn min of meer te verwaarlozen. AMD heeft in het 386 tijdperk een hit gehad die hoger geklokt was zoals ik mij herinner. Ook de Opterons waren nogwel aardig. Ik heb op kantoor nog een Opteron machine staan, die is echter uitgegaan nadat ik een Mac gekocht had omdat dat voor mij bijna oneindig beter was dan Windows XP. Op dat moment ben ik gestopt me te interesseren voor Hardware als zijnde zelfbouwer. Gamen doe ik op een console (ik ben zelfstandig en werk vanuit huis). ik dwaal af..

Intel heeft zelf natuurlijk productie, ARM niet. dat is gewoon een ander business model. Nu is een SOC ook wel weer iets anders dan een CPU dat moet ook niet vergeten worden.
Ik zie nu pas je edit van de vorige post van 13:39, dus om nog even terug te komen..

Eigenlijk was microsoft te vroeg met de tablet, of ze hebben het concept niet goed in de markt kunnen brengen. :) Want met windows XP had je al een tablet edition, welke in november 2002 werd gelanceerd.
http://betanews.com/2011/...-windows-xp-slideshow/#10
De hardware weet ik zo niet, maar ik vermoed dat het gewoon een laptop met touchscreen was om het maar even zo te noemen. :)

Of de eerste iphone mogelijk had geweest met een intel soc? Nee volgens mij niet, want intel had toen geen CPU's die ergens rond de 2 watt verbruikte. Dus moesten ze ergens anders kijken, ARM en MIPS stonden toen al bekend om hun low power CPU's.
En waarom apple hun Ax soc heeft ontwikkeld? Dit hebben ze gedaan zodat ze zelf het complete ontwerp van hun CPU in eigen hand hadden. Met deze vrijheid konden ze hun chips eventueel ook uitrusten met extra functies die ze nodig hadden voor hun iphones/ipads. Hiermee zijn ze onafhankelijk van andere chipbakkers.

AMD had een 386DX-40 waar intel op 33 MHz bleef steken. Zelfde met de 486DX-120 waar intel op de 100 MHz bleef steken...maar toen wel met de succesvolle eerste pentium kwam.

Een soc is iets anders dan een CPU, maar zoveel moeilijker is dat ook niet :), een soc is eigenlijk gewoon een cpu met de onderdelen die vroeger in de north- en south-bridge zaten.
Ik vraag me eigenlijk af of AMD wel volgens licentie werkte, compatible is wat anders, ik kan het zo 1,2,3 niet vinden maar er is gedoe geweest tussen intel en amd dat kan ik me nog wel herinneren.

vergeet niet wat SOC betekent, system on chip, dus er zit meestal ook flash, ram, gpu, usb en andere zaken in. De functies van een chipset kunnen deels afwezig zijn als je zaken als PCI en andere mobo functies achterwege laat. Zonder die functies kun je in een soc veel gerichter en efficienter werken. de SOC op de RPi ken ik vrij goed en daar zit zelfs een DAC in voor composite video SDI en direct HDMI out, gebruiken de Kodi fans. Ik gebruik mijn RPi Als zendamateur die aan amateur televisie doet heb ik veel research gedaan om te kijken of composite video via een CSI chip op de camera poort kon binnenhalen. Om zo tekst en animatie overlays te maken. voor een deel heb ik dit voor elkaar maar er zit nog werk aan.

(ter info: zendamateur ATV is zenden/ ontvangen van beeld en geluid uit met zelfgebouwde TV zenders, over het algemeen op 1.2, 2.3, 5.8 en 10 GHz in FM en tegenwoordig ook digitaal. Over het algemeen net zoals sat TV werkt, maar dan naar elkaar. HD is inmiddels ook in opkomst.)
Hoe bedoel je of AMD wel volgens licentie werkte? AMD heeft, volgens mij dan, een licentie op de X86 ISA en moet daar zelf een CPU om ontwerpen die natuurlijk gewoon alle x86 software kan draaien.
AMD heeft in het verre verlden een x86 licentie gekregen omdat volgens mij intel niet de enige fabrikant mocht zijn, er moest concurrentie zijn. Zodoende heeft AMD de kans gekregen en hebben ze genoeg succes gehad in de x86 begindagen. Er is in het verleden volgens mij zelfs meerdere keren ruzie geweest tussen Intel en AMD over de licentie, maar dat is altijd goed gekomen. En sinds AMD met de x86-64 uitbreiding kwam moest Intel nu ook een licentie van AMD afnemen, er is toen een cross-license agreement afgesloten waarbij beide elkaar patenten op de instructie sets mochten gebruiken.
Hier een stukje geschiedenis: http://jolt.law.harvard.e...ure-a-legal-perspective-2

En dit in 2015: http://www.kitguru.net/co...nates-agreement-for-both/
Mocht er maar iets aan de bedrijfsstructuur veranderen, dan wordt de cross-license agreement ongeldig. Dit geeft nog maar eens aan hoe kwetsbaar de overeenkomst is. Maar misschien is zoiets standaard in de zakenwereld, dat weet ik ook niet precies. Maar het zou voor beide bedrijven een dermate grote impact hebben, doordat ze beide benodige patenten hebben, hebben ze elkaar nodig. Maar zoals het artikel ook al aangeeft, kunnen natuurlijk nieuwe overeenkomsten gesloten worden.

Ja je heb gelijk dat een soc ook het geheugen, ram en flash, kan bevatten, al vraag ik me af hoe vaak soc's dit ook hebben, in het geval van telefoons en tablets dan :) . Om maar een voorbeeld te geven hebben sommige apparaten weer bijvoorbeeld 2 GB geheugen en dezelfde soc in een andere apparaat weer 3 GB geheugen. Ook de grootte van het flash geheugen varieert vaak en heb je verschillende modellen, 16 GB, 32 GB of zelfs meer. Het lijkt mij dat deze soc's geen ram en flash bevatten maar dat dit extern zit.

MAar je RPi gebruiken voor het verzenden van amateurtelevisie, oe moet ik dat precies zien, want je mag natuurlijk niet zomaar je eigen tv kanaal uitzenden. Misschien rare vraag, maar naar wie zend je dan? :)
zendamateurs hebben "eigen" stukjes van het radio spectrum, we zenden naar elkaar of via een atv repeater. dat moet je zien als ťťn zender en meerdere ontvangers, een beetje zoals een een video bewakings scherm met meerdere camera's (PIP) het geluid wordt bij elkaar gemixt. http://www.pi6atv.com is een voorbeeld waar het ook live via een stream te bekijken is.

[Reactie gewijzigd door GeenIdeeWaarom op 4 september 2015 17:07]

Het heeft niet enkel met stroomverbruik of performance te maken !
Qualcomm is de boesdoener in dit verhaal dit bedrijf heeft hartstikke veel patenten op mobiel gebied waardoor bijna alle grote fabrikanten gingen winkelen bij qualcomm

Het was immers nauwelijks goedkoper om zelf een soc te ontwikkelen en royalties te betalen
+ qualcomm gaf korting op royalties als je enkel bij hun chips aankocht

Er zijn verschillende onderzoeken en rechtszaken gestart om deze praktijken aan te klagen oa Nvidia heeft de handdoek al in de ring gegooit maar rechtszaken lopen verder .

Men mag ook niet vergeten dat dit een moeilijke markt is voor Intel marges veel lager dan wat ze gewoon zijn .
Zie ook financiŽle cijfers Intel mobile tak
Bron voor dat royalties verhaal? Want die exclusiviteit is marktmisbruik en de boetes ervoor lopen in de miljarden.
nieuws: Reuters: onderzoek naar Qualcomm om machtsmisbruik

Uiteraard zijn ze nog niet veroordeeld maar de slachtoffers zijn er zeker al .
Blijft toch wel beetje vreemd dat intel het maar niet blijft redden. De simpele bijstander (zoals ik) zou zeggen hop verdubbel het onderzoek naar smartphone soc's en zorg dat je ze ASAP op 14 nm krijgt, desnoods door wat in te leveren aan productie capaciteit bij je desktop CPU's.

Ik zou zeggen dat Intel met zijn echte 14 nm procede een behoorlijk voordeel moet kunnen halen op ARM met hun toch wat neppe 16 nm finfet van samsung etc.
Denk dat Intel nog steeds de meeste winstmarge uit serverprocessoren trekt. Desktop/laptop wordt in z'n geheel minder, maar ze zijn daar op dit moment wel zo goed als de enige speler.
Ik zou dan lekker doorspelen en het monopolie behouden :)
Asus gebruikte de Intel Atom Z2560 (1.6 GHz) en Atom Z2580 (2.0 GHz) voor de eerste Zenfone. Lenovo gebruikte de Z2580 voor hun vlaggenschip uit 2013, de K900.

Zelf heb ik de Lenovo K900 gehad en persoonlijk vond ik het een fijn en vlot toestel mede ook door de 2 GB RAM. Ook de accuduur was redelijk en haalde ik meestal 2 dagen ermee. Minpunten waren dat het toestel warm werd en heeft Lenovo, in tegenstelling tot Asus, nooit KitKat of Lollipop uitgebracht.

Wel ben ik benieuwd hoe energiezuinig deze SOCs zijn t.o.v. Qualcomm en Mediatek.
Waar ik nieuwsgierig naar ben is wat er in de smartphone zal zitten over zeg 8 jaar ?
Je hebt kans dat de normale pc gewoon de deur uit kan, zelfs grafisch zullen de telefoons makkelijk een 4k scherm kunnen aansturen en 3d games spelen. De pc markt gaat snel uitsterven denk ik. Helemaal omdat in de opkomende economien zoals india afrika en zuidamerika stroom voorziening slecht is en smartphones ook daarvoor de oplossing zijn.
Maak ze liever zuiniger.
Deze intels vreten vooralsnog stroom.

Sneller gaat echt helemaal nergens meer over we hebben zuiniger nodig.
Of geef op zn minst de optie tot uitschakelen van cores en downclocken via een intel app!
Intel zit zeker niet bij de pakken neer v.w.b. soc's voor mobiel.
De roadmap:

http://wccftech.com/intel...ont-based-chips-detailed/
Misschien off-topic, maar tweak-waardig: RISC-V, een make-it-yourself open-source core die ARM en Intel voorbijstreeft of tenminste bijhoudt als het gaat om performance en power: http://riscv.org/faq.html#speed

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True