Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties

Intel belooft de grafische prestaties van zijn komende Atoms flink te verbeteren. De gpu van Cherry Trail, die op 14nm in plaats van 22nm worden geproduceerd, zou twee keer zo krachtig zijn als die van het huidige Bay Trail-platform.

Cherry Trail wordt de eerste Atom die op 14nm wordt geproduceerd en de soc voor tablets en smartphones moet mede hierom aanzienlijke energiebesparingen brengen ten opzichte van de huidige 22nm-soc's van de Bay Trail-generatie. Tegelijkertijd moeten de prestaties bij het draaien van 3d-graphics verdubbeld worden, zo blijkt uit een slide die Intel tijdens IDF 2014 openbaarde. De claim is gebaseerd op een test van GFX Bench Egypt HD, ten opzichte van de resultaten van een Atom Z3775. Eerder werd al bekend dat de 8ste generatie gpu van Cherry Trail 16 execution units krijgen, tegen 4 voor de 7de generatie van Bay Trail

De Cherry Trail-soc's moeten volgens Intel-topman Brian Krzanich begin 2015 in massaproductie gaan. De soc's gaan gecombineerd worden met de XMM 7260-lte-modem van Intel, die ook voor Bay Trail ingezet worden. Intel gaf wel wat extra informatie over opvolger XMM 7360, die nog in ontwikkeling is. Deze moet ondersteuning krijgen voor mimo downlink 8x2- en 4x4-datastreams, voor snellere en stabielere verbindingen.

Intel Cherry Trail IDF 2014Intel Cherry Trail IDF 2014Intel Cherry Trail IDF 2014

Moderatie-faq Wijzig weergave

Reacties (84)

Intel moet zich in de mobiele markt veel populairder maken bij de OEMs, ze zijn daar veel te laks in. Het silicon is prima, inmiddels zijn de Bay Trail, Merrifield en Moorefield chips al een tijdje uit, zijn bijzonder krachtig, zuinig en (tov Qualcomm) erg goedkoop, maar de innige (licensietechnisch en financiele) relatie tussen Qualcomm en de grote telefoon/tablet OEMs is in de praktijk bijzonder moeilijk te verbreken, zoals ook nVidia en Mediatek hebben gemerkt (al had Vidia met Tegra 4 nou eenmaal niet zo'n beste chip).

Als je bv kijkt naar de nieuwe Fonepad 7, dat ding is qua prijs/performance/accuduur ontzettend competitief tov de diverse Snapdragon 8xx phablets, maar Asus is nou niet bepaald een vooraanstaande OEM waar de gemiddelde consument een warm gevoel van krijgt. Sterker nog, het is de eerste 64-bit Android telefoon op de markt, en nog weten ze geen enkele buzz te creeren.

Intel zal zich moeten inlikken bij Samsung, Google, Amazon, LG, etc. Als ze hooghartig maar blijven verwachten dat je enkel en alleen maar de beste chip hoeft te maken en alle OEMs daarna in de rij staan, dan wordt het nooit wat. Dit is niet de PC markt waar iedereen met ingehouden adem zit te wachten op Intels nieuwste baksels, in de mobile markt moet Intel zich invechten.

[Reactie gewijzigd door Dreamvoid op 14 september 2014 16:16]

Intel heeft troefkaart in handen en MS helpt daarbij, namelijk volledige win8.1 voor prijs van instap android. Intel richten zich nog niet met volle kracht op mobielmarkt, maar dat is zins dit jaar veranderd, ze hebben nu ook tick tock voor atom, hebben prijzen aangepast. Zoals je zelf al aangeeft gaat het niet zo snel, men heeft lopende contracten en nauwe banden met de andere fabrikanten dat heeft tijd nodig, maar ik zie voor eerst in Intel geschiedenis een zonnige mobiel toekomst, ze is al decennia bezig om voet aan wal te krijgen en denk dat dit keer gaat lukken.
Onder de 10 inch wordt Windows gratis geleverd.
9 inch vind ik een mooie formaat. Dit moet zeker een concurrent worden. Voornamelijk als studenten ermee gaan werken. Google en Apple mogen wel oppassen. Concurrentie is voor de consument altijd goed.

Ben benieuwd hoe deze processor zich tov snapdragon 810 is.
Ik weet het nog zo net niet. Intel is een sterke chipmaker, maar om de dominante Qualcomm/TSMC combinatie echt te verslaan moeten die ergens serieuze fouten maken. Twee jaar geleden was die kans er eventjes, TSMC's 28nm node had grote opstartproblemen, de Snapdragon S4 liep ruim een half jaar vertraging op en OEMs waren absoluut niet blij met Qualcomm. Die kans heeft Intel laten liggen (ze hadden toen geen fatsoenlijke mobile chip), en TI, nVidia en Samsung pakten tijdelijk nog een leuk stuk van de taart. Maar toen Qualcomm weer op stoom was, was het ook over en uit.

Nu wordt het alleen maar lastiger nu TSMC en Qualcomm miljardenwinsten hebben binnengeharkt, de R&D budgetten verder opgeschroefd hebben en vol op stoom zijn met de nieuwe 20nm node en de komende lineup van 64-bit chips. Da's ook al zo'n gepruts van Intel geweest, ze hebben nu al ruim een jaar 64-bit mobile chips (en snelle/zuinige ook), maar ze in een package stoppen waar telefoonmakers iets mee kunnen, ho maar.

Oftewel, op papier moet Intel de concurrentiestrijd makkelijk aankunnen, ze hebben alle technologie in huis, maar de afgelopen jaren hebben ze consequent de ene kans na de andere verprutst en niets gedaan om OEMs het idee te geven dat ze veilig (langjarig) voor Intel kunnen kiezen. Natuurlijk, er zijn er meer die dat voor elkaar gekregen hebben (de lijst is lang in mobile chipland, Broadcom, Marvell, TI, ST-Ericsson, AMD, Samsung, nVidia), maar van "Chipzilla" zou je dat niet verwachten.

[Reactie gewijzigd door Dreamvoid op 14 september 2014 19:20]

Dat is een goede beschrijving van waarom Intel niet zo makkelijk een grote speler op de smartphone SoC markt wordt.

Ze hebben echter al wel wat succes in tablets. Fabrikanten als Asus, Acer en Lenovo en anderen gebruiken al Intel chips voor mainstream tablets, met prijzen van b.v. 120 tot 250 euro. Er zijn getallen genoemd van 10 miljoen chips in de eerste helft van het jaar en mogelijk 25 miljoen in de tweede helft van 2014. Dat is significant aandeel van de hele tablet market (150-200 miljoen stuks per jaar). Een groot verschil met de smartphone markt is natuurlijk dat Qualcomm die markt met hun 3G/4G patentpositie niet kan domineren, vooral omdat het grootste deel van de (Westerse) tablet markt uit WiFi tablets bestaat.

Intel had tot nu toe vooral flink op performance georienteerde chips in de aanbieding die ook dikke memory interfaces en grote pin-outs hadden, wat bijvoorbeeld de PCB kosten omhoog brengt en ze ook verder voor smartphones onaantrekkelijk gemaakt heeft, afgezien van het feit dat Intel nog steeds de baseband/modem niet integreert in dezelfde chip. Wel heeft Intel mogelijkheden en kan waarschijnlijk m.b.t procestechnologie zeer competitief zijn met TSMC, bijvoorbeeld als ze in 2015 low-power op 14nm goed werkend krijgen voor compleet geintegreerde SoCs.

Heel recent heeft Intel echter duidelijk goedkopere chips op de markt gebracht (goedkope varianten van de Bay-Trail Atom Z3735) met beperkte pin-outs en kleinere geheugeninterface die ook voor goedkopere "white-box" tablets geschikt kunnen zijn. Deze moeten de komende periode in winkels verschijnen en hierop is de verwachting van 25 miljoen chips in de tweede helft van 2014 gebaseerd.

Intel kan hierbij profiteren van bijzondere marktomstandigheden in de white-box tablet SoC markt op dit moment. MediaTek heeft goede chips voor tablets maar heeft grote moeite met leveren door capaciteitsgebrek, Rockchip domineert in aantallen (GlobalFoundries heeft genoeg capaciteit) maar hun chips zijn niet erg efficient en niet eens goedkoop om te maken, en Allwinner (nog een andere belangrijke Chinese speler) heeft al langere tijd geen goede werkende chip meer met succes op de markt kunnen brengen.

Of Intel in 2015 ook in smartphones succes zal hebben is natuurlijk nog de vraag. Eerste komt alleen nog een 3G dual-core platform uit (je kunt je afvragen of dat veel zin heeft), later quad-core/4G. Intel heeft al wel stabiele modem technologie die b.v. in de vorm van een aparte baseband chip in bepaalde varianten van de Samsung Galaxy Alpha gebruikt wordt.. De dominantie door Qualcomm zal echter ook door Intel moeilijk doorbroken kunnen worden.

[Reactie gewijzigd door geometry45nm op 15 september 2014 00:23]

Tsja, dat dual core 3G platform zal wel voor "emerging markets" zijn. Maar het verbaast me toch dat Intel zoveel moeite heeft om de baseband on-die te krijgen, als zelfs Mediatek het voor mekaar krijgt...
Als dit allemaal waar blijkt te zijn, zullen we wel een heel stuk meer tablets gaan zien met Intel socs. Maar in 1 generatie een verdubbeling van grafische rekenkracht en tegelijkertijd toch een lager stroomverbruik is wel een moeilijk na te komen belofte. Ik ben benieuwd.
Valt wel mee. 14nm betekent een halvering in oppervlak, met inherent eraan een afname in verbruik (al schaalt dat niet zo lekker mee).
Waar ze optimalisaties kunnen halen is de GPU inzetten voor processortaken om zodoende deze efficiënter en/of effectiever uit te voeren. Als het GPU-gedeelte dan flink groeit kunnen ze alle beloftes waarmaken: totale verbruik omlaag, gpu-prestaties verdubbeld en doordat de GPU taken van CPU deels overneemt een nog verdere optimalisatie in verbruik/prestaties.

Wat ik me afvraag: zal het voldoende zijn om te gaan concurreren met ARM?
Ik volg het nieuws sinds oak trail, en tot nu toe is er nog niet heel veel gebeurd in de mobiele markt waarin ARM zich bevindt. Ik ben benieuwd of de verdubbeling van grafische prestaties zoden aan de dijk zet: komen ze op niveau van ARM, dan heeft het weinig nut. Dan hebben ze binnen enkele maanden weer een achterstand en kunnen ze op dat vlak niet concurreren. Waar ze wel op kunnen concurreren is op CPU-performance en verbruik. Intel heeft de potentie om daarin te kunnen concurreren met ARM, dus ik ben benieuwd naar de real-world prestaties (niet die op papier).

[Reactie gewijzigd door Nas T op 14 september 2014 12:15]

Is zelf meer dan halvering, op een oppervlakte van dezelfde grote kan 14nm ruim 2.5 x meer transistors bevatten dan op 22nm. Verbruik heeft daar overigens niks mee te maken, transistor kleiner maken zal niks schelen in verbruik, dat is missopvatting. Zal voltage en/of stroom moeten beperken(verbruik = voltage * stroom), zullen dus fysiek iets aan de transistor moeten veranderen of aan architectuur van de cpu.

Moderne transistor(fets) kunnen schakelen bij 0.4v, je hebt ook verlies in je circuit van je cpu, dus je zal altijd wat hogere voltage nodig hebben. Afhankelijk van hoe de transistors geplaatst worden kunnen ze dus meer of minder stoom verbruiken, ze zijn dus steeds alles aan het herschikken en beter rangorder te maken zodat architectuur zuiniger word en voltage en/of stroom kan zakken.

Kan zelfs cpu zuiniger maken zonder over te stappen naar kleiner procedé, als je nieuwe revisie maakt met beter geplaatste transistor kan je zuiniger worden of zelfs sneller. Cpu's zijn zeer complex dus kan heel lang aan een architectuur optimaliseren en dan nog kunnen er dingen efficiënter aan einde van de rit.

[Reactie gewijzigd door mad_max234 op 14 september 2014 13:32]

Wat hier staat, doet het wel iets aan verbruik (stroom per definitie):
...as shrinking a die reduces the current used by each transistor switching on or off ... making a product with less power consumption...
Zie het als volgt: er is minder energie nodig om de kleinere transistor (schakelaar) te schakelen.

Daarom is er tick/tock: die-shrink, nieuwe architectuur. Beide goed voor toename prestaties/afname verbruik.
Wiki staat vol met dat soort foutjes, ja dat was ook zo ooit toen we nog niet alle kennis hadden van nu, maar dat is echt achterhaald, we weten nu beter waar we naar toegaan. Echte stappen zijn laatste jaren altijd gemaakt icm nieuwe transistor technieken zoals andere gates, nieuwe oxidatie in het silicone, nieuwe structuur, isolators, etc. Niet door het verkleinen, laatste jaren draagt dat al bijna niks meer bij.

Het gaat zelfs al tijdje de andere kant op en zetten alle zeilen bij om de problemen tegen te gaan, lekstroom word steeds groter naarmate ze kleiner gaan, neemt juist toe. Intel merkte dat paar procedés terug al dat niks meer scheelde, Intel greep toen naar de Finfets om oude proces nog enkele stappen te rekken.

Intel kan nog 1 of 2 keer verkleinen(zitten nu op 10nm werkend, 7nm en hopelijk 5nm gaat nog lukken) met oude manier van transistors maken en dan zal verbruik te veel gaan toenemen om voordeel eruit te halen. Ze moeten naar nieuw soort materiaal zoeken of gewoon oude vertrouwde transistor vaarwel zeggen. Het trucjes wat we decennia gedaan hebben zal niet meer werken, transistor zal niet meer zuiniger of sneller kunnen worden door ze te verkleinen.

Vroeger ging een chip ineens twee keer zo snel draaien naar verkleining, laatste jaren mogen we blij zijn met 10 a 20% en geen enkele verhoging in clock en dat is met allerlei extra trucjes.

Edit/
Prestatie moet we eigenlijk niet naar kijken, maar naar verbruik en aantal transistors, dat zegt ook niet echt alles maar zegt klein beetje iets over hoeveel winst ze hebben geboekt, al kan dat ook door wat herschikking komen, ze nemen altijd de kans om wat bugs en kleine dingen aan te passen als ze nieuwe revisie maken, zal nooit 1 op 1 shrink zijn, zou wel gek moeten zijn als je niet even wat bugs en zo weghaalt, dat is dus ook gedaan in dit geval.

Maar wat scheelt het nu tussen hashwell en broadwell, dat is echt niet zoveel hoor en is ook niet allemaal toe te wijzen aan die shrink alleen, zoals ik al heb proberen uit te leggen. Intel zegt zelf up to 30% zuiniger, of dat ook echt klopt weet ik niet zullen we even moeten afwachten, maar hoeveel is daarvan ook echt toe te wijzen aan de die shrink alleen?

[Reactie gewijzigd door mad_max234 op 14 september 2014 21:49]

Intel zegt zelf up to 30% zuiniger, of dat ook echt klopt weet ik niet zullen we even moeten afwachten, maar hoeveel is daarvan ook echt toe te wijzen aan de die shrink alleen?
Je zegt dat het kleiner maken van de transistors net de lekstroom doet toenemen, op welke manier draagt het kleiner worden van de transistor dan toch nog bij aan het zuiniger worden van de chip?
De gate capaciteiten en andere parasietaire capaciteiten worden kleiner, dus opladen/ontladen voor het schakelen van de gate kan met minder energie. Bij sommige processgeneraties kan ook de voedingsspanning omlaag, door lagere transistordrempelspanningen. Het opgenomen vermogen gaat kwadratisch naar beneden met de voedingsspanning.
[...]

Je zegt dat het kleiner maken van de transistors net de lekstroom doet toenemen, op welke manier draagt het kleiner worden van de transistor dan toch nog bij aan het zuiniger worden van de chip?
Het verkleinen op zich draagt bijna niks meer bij, al tijden niet meer, gaat zelfs de andere kant op als geen finfets waren ingezet. Laat ik het simpel zeggen als men niks had gedaan dan alleen verkleinen waren de chips waarschijnlijk trager geweest geworden laatste paar verkleiningen, zouden dan minder snel kunnen lopen en zouden eerder tegen limit aanzitten dan zijn voorganger.

Stel ze hadden pentium alleen maar verkleind en verder all trucjes achterwegen hadden gelaten, dan had die niet eens meer gewerkt op 22nm, zou denk ik een grote kortsluiting zijn of dicht er tegenaan zitten. Gates zouden gigantisch lekken, isolators zouden lekken, etc.

Nu staan we op punt dat fysiek eigenlijk niet meer kleiner kunnen, 14nm heeft ongeveer 40 silicone atomen tussen Drain en source, we krijgen steeds meer last van quantum tunneling en dat gaat gepaard met hogere verbruik ipv minder.

[Reactie gewijzigd door mad_max234 op 15 september 2014 10:45]

de GPU is een specialistische processor die maar voor een beperkt aantal taken inzetbaar is. Dat hij bruikbaar is voor mining van cryptocurrency, zoeken naar bepaalde eiwitten of andere distributed computing projecten is eerder toeval doordat de berekeningen die gemaakt worden zo hard op elkaar lijken.

Bij ARM zie je ook al dat er verschillende processors worden gebruikt voor andere taken en ik zie daar ook meer heil in, want je kan ze uitschakelen als ze niet gebruikt worden, het design is veel eenvoudiger en de keuze van de fabrikanten om een bepaalde focus te leggen is ook groter.
Niet helemaal waar, wel deels. Meer cores meer power. True. Maar meer tragere cores met non-multicore optimized code = minder power.
Ik denk dat het BIG.little principe beperkt moet gebruiken:
Neem een kleine core voor basiszaken en één of twee grote cores voor power, die volledig uitgeschakeld kunnen worden.
daarom dat ik zeg: specialistische cores die kunnen uitgeschakeld worden als ze niet gebruikt worden = minder power, dat heeft weinig met multicore optimization te maken.
Ik denk dat Intel's beste selling point x86 is. Dan gaat er een wereld open aan extra (bedrijfs-)toepassingen.
"Het niveau van ARM" bestaat niet echt, Intels chips zijn op het moment wel vrij duidelijk beter (als in sneller/zuinig/prijs/etc) dan de ARM chips die nVidia, Samsung en Mediatek maken, maar ten opzichte van Qualcomm en Apple's ARM chips zitten ze min of meer op gelijke hoogte.

[Reactie gewijzigd door Dreamvoid op 14 september 2014 16:22]

Een nieuwe exynos presteerd beter dan de nieuwe qualcom. Dus je info klopt niet helemaal.
Ook qua verbruik, en prijs? Het is m.i. tekenend dat Samsung nog altijd aan geen enkele 3rd party deze chip weet te slijten, en zelfs maar mondjesmaat in hun eigen telefoons gebruikt.
Wie zegt dat ze exynos chips aan derde willen verkopen en of dit proberen?
Samsung zelf. Aantal keer dat ze hebben aangegeven de verkopen van hun chipdivisie te vergroten.
Qualcomm is qua zuinigheid/prijs/efficientie superieur aan NVIDIA en Samsung chips, ook vanwege de geintegreerde baseband. Maar MediaTek is juist een een meester gebleken in het ontwerpen van heel zuinige, heel goedkope SocS (kleine die size) met geintegreerde 3G basebands en andere componenten die toch in praktijk relatief snel zijn (ook m.b.t tot bereik/WiFi) voor goedkope smartphones. SoCs als de MT6589, MT6572 en MT6582 hebben de peformance van low-end Android smartphones flink opgekrikt, en zijn in aantallen van honderden miljoenen verkocht, hoewel minder prominent in Westerse markten zoals Nederland. Qualcomm had tot recent nauwelijks competitieve chips in dit prijssegment (pas de nieuwe Snapdragon 210 komt enigzinds in de buurt).

Met betrekking tot Samsung's Exynos (high-end), ze zijn snel, maar zoals aangegeven zijn ze gewoon onzuinig en daarom bijna niet in smartphones te gebruiken (Samsung kondigt in de praktijk vaak Galaxy modellen aan met Snapdragon en een met Exynos en produceert dan 99% van het produktievolume met de Snapdragon variant). Samsung gebruikt overigens nu wel een zuinigere, langzamere Exynos SoC met geintegreerde baseband in de S5 Mini.

Samsung verkoopt sommige Exynos chips trouwens wel degelijk aan Chinese tablet fabrikanten.

[Reactie gewijzigd door geometry45nm op 15 september 2014 08:47]

Mediatek is idd ontzettend succesvol geweest de afgelopen drie jaar, maar de laatste maanden lijkt hun opkomst toch te haperen. Qualcomm heeft met de Snapdragon 200 en (quadcore) 400 de leidende positie in de low-end markt weer overgenomen, en een echt internationale doorbraak zit er nog steeds niet in, de leidende OEMs (zelfs de betere Chinese) zitten bijna allemaal bij Qualcomm. Ik hoop ook op meer concurrentie voor Qualcomm, maar of MTK dat gaat worden...
Snapdragon 200 is gedateerd wordt nauwelijks gebruikt. Qualcomm pusht de Snapdragon 400/410 nu ook voor lower-end met lagere marges. Dat kunnen ze ook doen door royalty-inkomsten. Een heel grote rol speelt het capaciteitstekort bij TSMC -- Qualcomm lijkt een groter gedeelte van hun gewenste aantal chips te kunnen krijgen dan MediaTek. Aan de andere kant heeft MediaTek nog geen voordelige 4G baseband oplossing op de markt, want natuurlijk ook sterk in het voordeel van Qualcomm speelt.

Snapdragon 210 (begin 2015 in apparaten) brengt Qualcomm meer in lijn met MediaTek m.b.t kostenefficientie voor de low-end.

MediaTek heeft al lange ervaring met chips zoals de MT6592 (octa-core) die een architectuur heeft die vergelijkbaar is met wat de komende jaren de sweet-spot lijkt de worden voor kosten en performance/Watt voor mainstream en zelfs veel high-end smartphones (met name SoCs met alleen Cortex-A53 cores). MediaTek en Qualcomm komen beide met verschillende chips met dit ontwerp (nog dit jaar in apparaten beschikbaar). Vanwege de ervaring die MediaTek heeft zouden dit redelijk goede chips moeten zijn (er van uitgaand dan hun geintegreerde 4G baseband acceptabel werkt).

Nieuw is dat MediaTek nu ook high-end chips krijgt (met name MT6795, wat specs betreft moet die heel snel zijn). Maar voor high-end is zijn Qualcomm's gewenste royaltie-betalingen van smartphone fabrikanten natuurlijk nogal een probleem voor MediaTek (niet voor niks domineert Qualcomm de high-end compleet).
maar als het stroomverbruik naar beneden gaan gaat kan je alles hoger klokken en de TDP hetzelfde houden :)
Ook deels, dat gaat niet recht evenredig op. Als je kijkt naar Intel op het gebied van frequentie....vrij weinig. Ik zou zeggen 20% hoger in 10 jaar tijd.
Wat wèl effectief is, is het vergroten van je chip (totaal aantal transistors). Je ziet dat Intel bij een die-shrink enkele veranderingen in het ontwerp doet, want consumenten willen liever meer performance dan een lager verbruik.
ik ben het niet helemaal eens met je laatste zin

meer performance is beter voor de marketing, maar of consumenten daar nu op zitten te wachten? Ik hoor tegenwoordig met de huidige mid naar high end telefoons eigenlijk niemand meer klagen over snelheid (is ook heel erg wat je gewend bent)

Weet je waar ik wel heel veel over hoor klagen? de batterij.. "moet elke dag aan de lading" ,"hou nog geen hele dag vol". Dat soort dingen. De batterij,zuinigheid is veel belangrijker dan nog meer performance.
Het probleem is dat dat heel heel lastig echt te fixen is, Batterijen aan al tijden maar met stapjes voor uit. En de verbeteringen in display en soc gaan meestal weer weg door dat de display groter of een veel hogere solutie krijgt en de soc weer sneller moet.
Eens. Maar een CPU/GPU zorgt bij normaal gebruik voor minder dan de helft aan verbruik. Daar valt weinig mee te winnen. Consumenten willen een week standby-tijd hebben, niet van één naar anderhalve dag. Dus dan kun je beter schermen met dat je CPU/GPU 30% sneller is dan dat je een halve dag langer met je accu vooruitkunt, lijkt me.
Of er meer tablets met intel socs komen hangt natuurlijk van meer dingen af. Een van de belangrijkere daarvan naast prestaties is prijs. Intel hanteert vaak een vrij hoge prijsstelling. Als ze de Cherry trail echter in prijs onder de laatste Qualcom socs plaatsen ben ik het wel met je eens. Doen ze dat niet dan heb ik het vermoeden dat je de Cherry trail alleen maar in Windows tablets zal tegenkomen waar ARM socs niet concurreren.
Intel hanteert vaak een vrij hoge prijsstelling.
De prijzen die Intel vraagt voor hun mobile chips zijn juist een schijntje - het is Qualcomm die royale prijzen vraagt voor hun Snapdragon 8xx chips (de laatste analisten rapporten spreken over >$50 per SoC, plus nog percentages van de verkoopprijs) en OEMs betalen ze ook nog. Niet voor niets blijven Snapdragon 801/805 devices zo schreeuwend duur. Intel schuift de minstens even snelle Atoms voor tussen de $15-25 maar mondjesmaat de deur uit.

Intel zit in de mobile markt in een lastige positie, OEMs zitten voor een hele range aan producten design technisch en contractueel aan Qualcomm vast, van budget telefoons met Snapdragon 200 tot high end devices met Snapdragon 805. Brengt Qualcomm een nieuwe SoC uit, dan is die met minimale aanpassingen ook weer in het telefoon ontwerp van vorig jaar te passen. OEMs zijn er dol op.

Dit terwijl Intel moeite heeft om een volledig gamma aan te bieden: geen low end platform, hun midrange Merrifield platform was waanzinnig vertraagd, en enkel de high end chips zijn sterk. Bovendien missen ze geintegreerde baseband op hun SoC's, waardoor OEMs Intel's losse XMM-chips moeten inpassen. En waar bij Qualcomm elk jaar weer een verse ARM-Android versie van Google op de mat ploft, moet Intel zelf de x86 port gaan klussen waardoor ze continu achter lopen.

Maw er is meer dan alleen een geweldig productieprocedé en supersnelle chip architecturen nodig om succesvol te worden in de telefoonmarkt, zonder het totaalplaatje en een goede relatie met de grote OEMs red je het niet.

[Reactie gewijzigd door Dreamvoid op 14 september 2014 15:48]

Denk dat hij meer doelde op eindproducten, volledige x86 tablets waren vaak best duur, 300+ euro begonnen ze ongeveer. Pas zins bay trail heeft intel de aanval geopend op de prijs, halvering van prijs voor android tablets en forse daling in aantal soc die voor windows bedoeld zijn.

Deze atom socs kosten tegenwoordig ergens rond 15 a 17 euro voor android tablet, dat ligt in lijn van high end ARM soc's volgens mijn, die kosten net iets meer dacht dat die rond 20 a 30 dollar zaten. Snapdragon 800 serie zal toch geen 50 dollar of meer kosten? Want dan zal Intel waarschijnlijk zeer populair gaan worden binnenkort. :)
Als OEMs makkelijk 30 dollar extra kunnen rekenen voor een Snapdragon 801/805 device (wat ze nu zonder problemen doen, zie de pricewatch), plus dat ze hun oude Snapdragon 800 board designs nauwelijk hoeven aan te passen, betalen ze dat nog altijd vrolijk.

Je moet overigens wel bedenken dat die superlage Atom SoC prijzen wel exclusief de XMM baseband chips zijn (die je nodig hebt voor 3G/4G devices), tel die erbij op en je zit eerder rond de $25.

[Reactie gewijzigd door Dreamvoid op 14 september 2014 16:34]

Nou hoeveel is het waard om XXM chip te besparen in prijs en ruimte in mobieltje
SoC- vs SoC+
Tsja, de meeste Bay Trail tablets zijn bv WiFi-only, en hebben geen baseband chip, dus veel OEMs vinden dat het besparen wel waard. Het is overigens niet enkel de kosten voor de chip zelf, de 3G/4G licensies tikken ook voor een paar dollar aan.

Maar goed, 1 van de voordelen van Qualcomm's on-die baseband is dat je als OEM (grotendeels) hetzelfde PCB ontwerp kan aanhouden tussen verschillende generaties telefoons, terwijl je met 2 losse chips wat minder "plug and play" bezig bent. Op papier zou je denken dat dit niet zoveel uitmaakt, maar OEMs zijn er toch verbazend blij mee, en de rest (Mediatek, nVidia) zijn druk bezig om ook hun basebands te integreren, en zelfs Intel doet het met hun low-end SoFIA platform.

[Reactie gewijzigd door Dreamvoid op 14 september 2014 19:40]

Een SoC met geintegreerde baseband (en bijvoorbeeld ook gedeeltelijk geintegreerde WiFi) heeft verschillende voordelen op het gebied van ruimtegebruik, kosten, stroombesparing en performance, die bij elkaar enorm belangrijk zijn, en beneden het high-end segment zelfs van kritisch belang.

Om er aantal te noemen:

- Geintegreerde SoCs zijn zuiniger dan twee losse chips.
- Geintegreerde SoC chip zijn veel goedkoper te fabriceren (minder totale chipoppervlakte en een chip i.p.v. twee).
- Zuinigheid en kosten worden ook bevorderd door het kunnen sharen van resources op de chip (zoals cache geheugen of SRAM) tussen de baseband en andere cores, en de externe I/O wordt overbodig.
- De communicatie tussen de SoC en de baseband chip houdt in dat er meer pinnetjes op de SoC moeten zitten, de packaging wordt duurder (ook vanwege de extra baseband chip), de PCB wordt hierdoor aanzienlijk complexer en duurder, ook door de datalijnen tussen de twee chips.
- Ruimtegebruik op het PCB is aanzienlijk minder (niet alleen in oppervlakte, maar ook wat betreft dikte).
- De kosten/benodigde investering voor de PCB-produktie is van groot belang; als een six-layer PCB gebruikt moet worden i.p.v. four-layer (bij geintegreerde SoC) is dat veel duurder en onhaalbaar voor b.v. veel Chinese fabrikanten.
- Pin-out compatibility wordt inderdaad bevorderd met geintegreerde SoCs (b.v. als er iets geupgrade word m.b.t. de baseband hoeft niet het hele ontwerp op de schop genomen worden).

MediaTek integreert 3G basebands trouwens al jaren en heeft de laatste paar jaar efficiente en goedkope chips op de markt waarvan er honderden miljoenen verkocht zijn; m.b.t tot integratie, stroomgebruik-efficientie en kosten-efficientie liepen SoCs als de MT6589, MT6572 en MT6582 juist voor op Qualcomm voor het prijs-gevoelige segment. MediaTek heeft wel vertraging opgelopen bij het integreren van een 4G baseband.

Over Qualcomm's 3G/4G licenties/royalties: dat gaat meestal (als de telefoon meer dan $50 kost) om aanzienlijk meer dan een paar dollars. Zo is bijvoorbeeld 3-5% royalty op een smartphone met een $250 wholesale price (goedkopere middenklasse in Westerse markten) $7.50 tot $12.50.

[Reactie gewijzigd door geometry45nm op 15 september 2014 08:53]

MediaTek integreert 3G basebands trouwens al jaren
"Al jaren" is wat overdreven, dit jaar hebben ze een aantal succesvolle chips ermee, maar bv de superpopulaire MT6589 van vorig jaar (die in bijna alle Chinaphones zat) kwam met een aparte baseband chip (meestal de MT6167).

[Reactie gewijzigd door Dreamvoid op 15 september 2014 10:47]

De MT6575 uit 2011 had al geintegreerde 3G/HSPA baseband, en bijvoorbeeld de MT6577 uit 2012 werd al in veel goedkope smartphones gebruikt. Referentie https://en.wikipedia.org/wiki/MediaTek

In de MT6589 zit wel degelijk een ingeintegreerde 3G/HSPA+ baseband. De MT6167 die je noemt is een RF chip (transceiver). Dit soort losse RF chips worden nog steeds ook bij alle andere designs met geintegreerde SoCs gebruikt (ook bij alle Qualcomm Snapdragons).

Wat de de MT6589 mist ten t.o.v. van de MT6582 is gedeeltelijk geintegreerde WiFi processing (voornamelijk een kostenbesparing, dit schijnt ook het PCB aanzienlijk goedkoper te kunnen maken).

Verder was de MT6589 voor zijn tijd heel zuinig, waarschijnljik geholpen door de 1MB L2 cache, waardoor dit platform in de praktijk heel efficient leek te zijn (performance/Watt). Omdat de MT6589 chip zelf en het PCB design hogere kosten met zich meebrengt, heeft MediaTek de chipproduktie al langere tijd vrijwel volledig verplaatst naar de MT6582 voor dit segment.
149 euro voor volwaardige 8" win8.1 tablet is toch niet zo duur meer?
nieuws: Archos komt met goedkoopste Windows 8.1-tablet en Windows Phone tot nu toe

Een 7" volledige win8.1 tablet heb je al vanaf 119 dollar. ;)
http://www.zdnet.com/tosh...m-for-android-7000033242/

Zowel intel als MS hebben hun prijs verlaagt of geven zelf hun producten helemaal gratis weg, prijs van x86 tablets zijn dat ook gigantisch gedaald. Intel vraag vrij weinig voor aantal Atom modellen(bay trail) om verkoop te verhogen, en MS geeft Win8.1 bing gratis weg bij tablet <10".

Komen nog veel meer goedkope windows tablets aan komende tijd.

[Reactie gewijzigd door mad_max234 op 14 september 2014 15:09]

Het is Intel heb vertrouwen :D Goed dat de rekenkracht toeneemt want 1080p.x264 is prima op baytrail maar x265, 4k onmogelijk vloeiend.
Goed nieuws natuurlijk, Kunnen we steeds zwaardere 3d applicaties gaan draaien.

op onze Windows tablets.

[Reactie gewijzigd door meller14 op 14 september 2014 11:38]

Inderdaad:

ik typ dit vanaf mijn net aangeschafte ASRock Q1900M met daarop een tot Celeron omgedoopte quad-core Bay Trail Atom @ 2.0Ghz, en deze knaap weet de originele Doom 3 (patch 1.3.1) met 40FPS op een ouder 1024x768 TFT-scherm te toveren _/-\o_

Edit: het door mij gebruikte geheugen is 2x2GB DDR3 @ 1066Mhz (7-7-21) van Muskin in dual-channel.

Binnenkort schaf ik de AOC e950Swdak aan en de extra pixels in de breedte zullen waarschijnlijk geen negatieve impact op de framerate hebben :Y)

De volgende spellen lopen ook als een trein:

Half Life 2 (vreemd genoeg draait Deel 1 met een vertraging en dat zou door de minder efficiënte programmering veroorzaakt kunnen worden)

TES III: Morrowind

Dark Messiah of Might and Magic

GTA III + Vice City en San Andreas

Thief III heb ik nog niet uitgetest, maar ik vermoedt dat ook dit spel prima zal lopen :)

'Cherry Trail' i.c.m DDR3 @ 1600Mhz, belooft dus veel goeds te brengen :*)

[Reactie gewijzigd door John Stopman op 14 september 2014 13:20]

Mogelijk dat de door jou genoemde games op de laagste kwaliteit en framerate werken. Ik denk niet dat Intel de Atom daar geschikt voor vindt. Ze zien meer in de Broadwell voor speltoepassingen, maar richten zich dan meer op het middensegment die geen aparte grafische kaarten gebruiken.

Volgens Intel's Kirk Skaugen (Senior Vice President en General Manager van de PC Client Group) zijn er vandaag de dag 711 miljoen gamers wereldwijd. Hij vertelde dat tijdens de main key note van het Intel Developer Forum (IDF 2014), zo schreef PC Gamer op vrijdag 12 september. Hij merkte op, tijdens zijn verhaal over de Broadwell-serie processoren, dat de "desktop is alive and well. It's innovating, whether it's small form factors, all-in-ones, portable all-in-ones or extreme gaming".

Volgens die site zei Intel's Lisa Graff (Vice President en General Manager van de Datacenter Platform Engineering Group): "We're really focused around PC gaming and enthusiasts. This is the one area of PCs that has kept growing. These are our most loyal customers: PC gamers. They want as much performance as we can throw at them. We're going to bring Intel's best technologies to bear for PC gaming."

Daarbij ging het natuurlijk om de promotie van de Iris Pro GPU, als onderdeel van de Broadwell-K processor in de LGA 1150 socket, die begin 2015 uit moet komen.

De vraag is of de high-end PC-enthousiasten werkelijk de doelgroep zullen zijn van de Iris Pro, omdat die veelal gebruik zullen maken van Nvidia en AMD grafische kaarten en die meer zien in de CPU-component van de Broadwell-K. Deze chip is een 14 nanometer variant op de Haswell processor-archictectuur, waarbij geen low-end Broadwell-modellen worden uitgebracht. De Iris Pro lijkt dan ook vooral gepositioneerd te zijn als tegenhanger van de Radeon GPU in AMD's APUs in het middensegment.

[Reactie gewijzigd door MadIceXIII op 14 september 2014 13:53]

quote: MadIceXIII
Mogelijk dat de door jou genoemde games op de laagste kwaliteit en framerate werken. Ik denk niet dat Intel de Atom daar geschikt voor vindt. Ze zien meer in de Broadwell voor speltoepassingen, maar richten zich dan meer op het middensegment die geen aparte grafische kaarten gebruiken.
Alle games draaien op de maximale resolutie van mijn Acer AL1521 en de quality heb ik voor alle spellen ingesteld op maximum: Doom 3 in Ultra Quality High Quality loopt hier soepel en snel :)

Edit: Cherry Trail zal Doom 3 wel in Ultra High en @ 40FPS weten draaien 8-)

[Reactie gewijzigd door John Stopman op 14 september 2014 16:53]

Doom 3 komt dan ook uit 2004, zodat het niet onwaarschijnlijk is dat die beter draait. Wil je bijvoorbeeld een wat nieuwer spel draaien, bijvoorbeeld Thief uit 2014, dan gaat het wat moeilijker op jouw systeem.

Toch mooi dat je die spellen van jou wel kunt spelen. :)
Veel mensen verkijken zich op de Atom-serie. Het mag tegenwoordig de traagste serie van Intel zijn, maar zelfs oudere Atom chipjes (m.u.v. de eerste generatie) zijn al sneller dan de snelste Pentium IV's die Intel verkocht heeft. Traag? Hoezo traag?
De Bay Trail chips zitten zelfs op de performance van de eerste generatie Core i3, wat toch niet beroerd is voor sub-5W chipjes.
De Bay Trail SoC in de Asus T100 tablet (windows 8.1) kan Skyrim draaien op 20 fps. Wel alle settings op low en lage resolutie, maar dat zegt al heel wat. Nu maar hopen dat de Atom serie (veel) sneller aan prestaties wint dan professionele software en games zwaarder worden.
Niet persé, je hebt ook zat mods die je fps niet verlagen. SkyUI, lighting mod, quality world map, enhanced blood, patches om er maar een paar op te noemen. En dan nog vindt ik Skyrim vanilla nog steeds een top game waar maar (heel) weinig games bovenuit komen.

En dips onder de 30 fps? Jij liever dan ik :+ Ik wil persé 60 fps hebben, tenzij je met een controller speelt vindt ik lager echt zwaar irritant.

[Reactie gewijzigd door Praise_Gaben op 14 september 2014 14:24]

ja maar jij hebt niet gezien hoe mijn skyrim eruit ziet.... geloof me dat je een emmer nodig hebt om al het kwijl op te vangen :P
windows tablets beginnen steeds aantrekkelijker te worden met zulke prestaties
op school werken wij al met surface pro tablets in plaats van laptops voor solidworks etc
Alleen draaien de Surface Pro tablets niet op Atom's maar op een Core iX, waarvan de GPU sowieso vele malen krachtiger is dan van de huidige Bay Trail Atom's ;)
haha inderdaad, oeps denkfout (je)
En Android-tablets, want Android kan ook op x86 draaien. En op goedkopere laptops, netbooks, Zotac-achtige minisysteempjes... De Atom is veel breder inzetbaar dan alleen maar in tablets, zeker nu de grafische kracht ook verhoogd wordt. Dat maakt de hele desktop-ervaring ook weer wat soepeler.
alleen zijn veel apps alleen voor arm gecompileerd waardoor het nogal onbruikbaar is
GPU wordt steeds vaker gebruikt als ondersteuning voor de CPU en die voert bepaalde simpele taken een stuk sneller af.
Photoshop, encoderen van media/inpakken van bestanden, webbrowser maakt ook steeds meer van de gpu.

De update is meer noodzaak dan luxe en het duurt bijna een jaar voordat deze wordt gereleased.
Qualcom mag zich zorgen maken als dit waar is. Zie bij hun nog niets dat in de buurt komt.

Intel heeft de middelen om dit waar te maken! Misschien krijgen we weer een strijd als tussen AMD en Intel. Hoop alleen dat Qualcom het wat langer uithoud.

[Reactie gewijzigd door ckr op 14 september 2014 12:24]

Hoop zelf echt dat Intel het weer dik gaat winnen, en het lijkt erop alsof dat ook gewoon gaat gebeuren. Pas vrij recent zijn de op het niveau van Qualcomm aangekomen en nu pas gaat het feest beginnen. Zou niet weten hoe Qualcomm tegen Intel's kennis en fabs op zou kunnen.

Het zou super zijn om eventueel x86 chips ook op smartphones te hebben, omdat je dan backwards compatibility hebt met de 30 jaar aan software/games die voor x86 chips geschreven zijn.
Ja, want dat draait zo lekker op een 5" scherm... Facepalm

Serieus, de software die er toe doet op telefoons en tablets is beschikbaar voor arm, en dat is het. Goede zaak, zijn we van die legacy troep af... Een era zonder Windows, fantastisch!

Nu mag Intel verder best groot worden in de mobiele wereld, zolang er maar concurrentie is. We zien in de server en desktop markt al een tijdje wat een markt zonder concurrentie doet en het is niet leuk voor de consument.
Goede zaak, zijn we van die legacy troep af...
Uh, ARM is net zo "legacy" als x86.

En tussen Android (het 22-jaar oude Linux), iOS (het 25 jaar oude NEXTStep) en Windows NT (21 jaar oud) zit ook qua "legacy-heid" weinig verschil. Alledrie zijn best aardig bij de tijd gehouden :)

[Reactie gewijzigd door Dreamvoid op 14 september 2014 16:01]

En tussen Android (het 22-jaar oude Linux), iOS (het 25 jaar oude NEXTStep) en Windows NT (21 jaar oud) zit ook qua "legacy-heid" weinig verschil.
Toch wel, zowel linux als NeXTSTEP zijn UNIX-varianten, en dus hebben ze vanaf dag 1 al een hoop legacy uit de UNIX-wereld meegekregen.
Windows NT daarentegen was een compleet nieuw OS (de DOS/Win16-support draaide in een soort VM, en was dus niet als legacy met de rest van het systeem verankerd).
Linux is geen UNIX, het was een nieuw OS dat bedoeld was om zoveel mogelijk UNIX compatible te zijn, en de "Unix philosophy" volgde in OS design. Ook NeXTSTEP/OS X was een nieuw OS.

Unix is niet 1 specifiek OS, het is een kernel API standaard, net zoals (bv) de Windows API (NT was idd een nieuw OS, maar wel compatible met het al bestaande Win32 userland). Er zijn diverse totaal verschillende OSsen die UNIX kunnen zijn (zelfs QNX, Symbian en Windows), het betekent enkel dat UNIX libraries en utilities er bovenop kunnen draaien.

[Reactie gewijzigd door Dreamvoid op 14 september 2014 19:32]

Linux is geen UNIX, het was een nieuw OS dat bedoeld was om zoveel mogelijk UNIX compatible te zijn, en de "Unix philosophy" volgde in OS design. Ook NeXTSTEP/OS X was een nieuw OS.
Zoals ik al zeg: UNIX-varianten. Wat je beschrijft is dus die UNIX-legacy.
Unix is niet 1 specifiek OS, het is een kernel API standaard
Incorrect. UNIX was van oorsprong een specifiek OS, ontwikkeld door AT&T. Later hebben verschillende partijen de code aangepast en/of in licentie genomen. En nog later zijn er klonen gekomen zoals het GNU-project, waar linux uiteindelijk de plaats van kernel heeft ingenomen.
De kernel-API is overigens niet gestandaardiseerd. Standaardisatie zit een niveau hoger, op het niveau van bv POSIX-libraries.

Wederom: het is allemaal familie van elkaar qua design/architectuur, en dus hebben ook 'nieuwe' UNIX-achtige OSen de nodige legacy aan boord.
, net zoals (bv) de Windows API (NT was idd een nieuw OS, maar wel compatible met het al bestaande Win32 userland).
Wederom incorrect. Windows NT was de eerste 32-bit versie van Windows, en de Win32 API is specifiek voor Windows NT ontwikkeld. Deze is later ook deels geimplementeerd als Win32s voor Windows 3.x, en in Windows 9x.

[Reactie gewijzigd door Scalibq op 14 september 2014 20:57]

Ik bedoelde Windows met 'legacy troep'. Al kun je qua hardware ook zeggen dat er hier een stap vooruit wordt gezet, AArch64 is een compleet nieuwe ISA, itt 64bit x86.
Valt wel mee.. software zal niet echt lekker werken op het scherm zelf, maar games is een heel ander verhaal. Met dit ding:

http://www.androidmag.de/wp-content/uploads/Gameklip01.jpg

Op een 6 inch scherm lijkt me super om te gamen onderweg. En dan heb ik het nog niet eens over 3d brillen (Oculus rift) of externe monitors. Genoeg redenen te verzinnen waarom x86 software handig zou zijn op een smartphone. Wat minder in 2014, maar des te meer in de toekomst als smartphones externe monitor aansluitingen krijgen en er 3d brillen uitkomen. Misschien volgende keer überhaupt nadenken voor je gelijk facepalm begint te roepen? Of ben je gewoon superstoned?

En een era zonder Windows lijkt me niet echt fantastisch, ik gebruik zelf Android maar heb het eigenlijk niet zo op zowel android als iOS, noch Windows Phone. Zou het liefste zien dat je uiteindelijk een open OS als Windows op je smartphone kunt draaien. Natuurlijk is Android ook open, maar de software/games ondersteuning is een lachertje in vergelijking met Windows. Zie ook niet in waarom alle software die er toe doet al beschikbaar is voor ARM. Photoshop? De nieuwste AAA games? Office 2013? Nope, nope en nope.
Als je Windows 8.x kunt draaien op zo'n ding, dan hoeft de software dus niet geport te worden, zoals bv bij de Surface Pro dus al het geval is.
Zou niet weten hoe Qualcomm tegen Intel's kennis en fabs op zou kunnen.
Dat kan in principe heel makkelijk, ze staan er niet alleen voor en Qualcomm is geen kleine speler zoals AMD of nVidia. De combinatie TSMC (de fabs), ARM (de ISA) en Qualcomm (de chipdesigner) is groter dan Intel.

[Reactie gewijzigd door Dreamvoid op 14 september 2014 15:27]

De combinatie TSMC (de fabs), ARM (de ISA) en Qualcomm (de chipdesigner) is groter dan Intel.
Dat vraag ik me af.
Feit is wel dat TSMC qua fabs en kennis niet op hetzelfde niveau als Intel zit, zoals Praise_Gaben terecht opmerkte.
Wat moet ik me voorstellen bij Intels 8e generatie video decoder voor Cherry Trail, zit daar ondersteuning voor h.265 (HEVC) bij?
Ik denk dat dat voor deze generatie nog niet het geval is. Als dat wel zo zou zijn zou het wel vermeld worden want 't zou een aardige verbetering zijn.
Met wat Googlen zou het er mogelijk bij de volgende 'ticks' (Skylake / Goldmont) in kunnen zitten. Die verschijnen pas volgend jaar.
Op de sheets staat geen ondersteuning voor 4K vermeld, enkel voor 1080P op 60fps i.p.v. de 30 die bij Bay Trail word gehaald. Als het word ondersteund staat het in elk geval niet op de sheets vermeld...
De 1080p60 waar jij naar refereerd gaat over het encoderen, niet over decoderen.

Er wordt nergens vermeld welke codecs en resoluties de Gen8 decoder aankan, maar als HEVC er nu nog niet bij zit dan zouden we daar waarschijnlijk nog 2 jaar op moeten wachten waarmee Intel dus we extreem laat zou zijn en waarschijnlijk design-wins mee zou verliezen.

Overigens heeft zelfs Gen7 met de nieuwste driver al gedeeltelijke HEVC ondersteuning in hardware.
ik heb ook gekeken naar hdmi 2.0 zit er blijkbaar niet in ... niet intresant als er geen 4k ondersteuning inzit ... is meer voor low end stuff
Mooi te horen. Zeker gezien een atom van al 3 jaar terug warcraft 3 aankon.
Eerst zien dan geloven. De HD5000 zou ook ruim 2 x zo snel zijn als de HD4000. In de praktijk echter valt dit heel vies tegen. Als je er gemiddeld 15% op vooruit gaat mag je al in je handjes klappen. Dat zal met dit verhaal niet anders zijn want helaas zo werkt marketing bij Intel. Eerst liegen en dan smoesjes.
"Krachtiger" lijkt me ook een vrij vaag begrip..
Cool, dit betekent hopelijk dat de nieuwe Civilization die eraan zit te komen dus fatsoenlijk te spelen is op de (op dat moment) recente Atom chips. De huidige Atom Z3770 is al goed genoeg voor Civilization V op native resolutie (1280x800). Nu is dit echter wel eens spel waarbij de framerate niet écht uitmaakt :P

Al met al, ik ben tevreden met wat het nu is en ben benieuwd naar wat het met 1 a 2 generaties word.
Ik dacht gelezen te hebben dan Intel zo stoppen met de merknaam Atom?
Deze processor zou te veel imagoschade hebben opgelopen met de eerste en twede generatie Atom processors.

Ooit was er een aanbieding bij de MediaMarkt. Had me toen laten overhalen om een MSI WIND100 netboek te kopen. Na 2 dagen maar terug gebracht, hij was niet vooruit te branden, internetpagina's die met heel veel moeite werden geladen.

Inderdaad Kruip-traag Slak-traag.

De mediamarkt doet er nooit moeilijk over binnen 8 dagen terug brengen en geld terug. Sinds dien heeft Atom bij mij ook het Imago Traag. met naast de merknaam Atom een afbeelding van een slakje.

Lex

[Reactie gewijzigd door LEX63 op 15 september 2014 12:34]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True