Intel presenteert Lakefield-cpu's met big.Little-ontwerp en gestapeld geheugen

Intel kondigt de Core i5-L16G7 en Core i3-L13G4 aan. De zuinige Lakefield-chips worden op 10nm gemaakt en bestaan uit één krachtige Sunny Cove-core, gecombineerd met vier zuinige Tremont-cores. Het lpddr4x-geheugen wordt bovenop de chip geplaatst.

Intel schaart de Lakefield-processors in de nieuwe categorie Intel Core-processor met Intel Hybrid Technology. Het zijn de kleinste Intel Core-processors tot nu toe en ze zijn bedoeld voor zuinige apparaten, zoals tablets en dunne laptops. De chips hebben een tdp van 7 watt.

De Lakefield-processors hebben afmetingen van 12x12x1mm en een gestapeld ontwerp, waarbij de cores en i/o-onderdelen op afzonderlijke lagen zijn geplaatst met Intels Foveros-techniek. De chips worden gecombineerd met maximaal 8GB aan lpddr4x-4267-geheugen en dat wordt geïntegreerd bovenop de chip.

Intel combineert met de Lakefield-processors voor het eerst twee architecturen in één chip. De cpu's hebben vijf cores, waarvan één snelle Sunny Cove-core en vier zuinige Tremont-cores. De Sunny Cove-architectuur gebruikt Intel ook voor zijn Ice Lake-processors. De Tremont-architectuur is de nieuwste generatie van Intels Atom-cores.

De Lakefield-processors hebben een Gen11-gpu, die Intel ook in zijn Ice Lake-processors stopt. Het gaat om varianten met 48 of 64 execution units. Intel spreekt over UHD Graphics, terwijl bij de Ice Lake-processors de gpu's met die hoeveelheden eu's aangeduid worden als Iris Plus. Mogelijk heeft dat te maken met de beperkte maximale kloksnelheid van 0,5GHz voor de Lakefield-gpu. Bij Ice Lake is dat maximaal 1,1GHz.

De combinatie van een krachtige core en vier zuinige cores maakt de processor volgens Intel kleiner en zuiniger. Dergelijke big.Little-ontwerpen zijn in socs voor smartphones al jaren gemeengoed. De Lakefield-chips zijn volgens Intel 56 procent kleiner dan de Amber Lake-processor Core i7-8500Y en het verbruik in stand-by zou 2,5mW zijn, 91 procent lager dan bij de i7-8500Y.

Intel heeft met Microsoft samengewerkt zodat Windows 10 goed de taken kan verdelen tussen de krachtige core en de zuinige core. Taken op de voorgrond worden aan de Sunny Cove-core toegewezen en dingen die op de achtergrond draaien worden afgehandeld door de Tremont-cores.

In de Lakefield-serie verschijnen een Core i5 en Core i3. De chips hebben dezelfde hoeveelheid cores en cache, maar de i5 haalt hogere kloksnelheden en heeft een gpu met meer eu's. Het eerste apparaat dat op de markt komt met een Lakefield-processor is de Samsung Galaxy Book S. Die verschijnt in een aantal landen in juni. Later dit jaar verschijnt Lenovo's vouwbare ThinkPad X1 Fold. Ook Microsofts Surface Neo-tablet met twee schermen krijgt een Lakefield-chip.

Processor Cores/threads Kloksnelh. Max. Turbo
single core
Max. Turbo
all core
Gpu Cache Tdp
Core i5-L16G7 5/5
1x Sunny Cove
4x Tremont
1,4GHz 3,0GHz 1,8GHz Gen11
64 eu's
0,5GHz
4MB 7W
Core 3-L13G4 5/5
1x Sunny Cove
4x Tremont
0,8GHz 2,8GHz 1,3GHz Gen 11
48 eu's
0,5GHz
4MB 7W

Intel heeft een Lego-setje gemaakt om de opbouw van zijn Lakefield-processors te tonen

Door Julian Huijbregts

Nieuwsredacteur

10-06-2020 • 17:00

114 Linkedin

Reacties (119)

119
117
49
3
0
52
Wijzig sortering
Heel leuk idee, maar hoe moet dit technisch gaan werken? Tremont heeft geen support voor AVX of VT, terwijl dat wel in Sunny Cove zit. Je kan dus niet zomaar een programma van de ene naar de andere core verplaatsen, omdat ze compleet andere instructies supporten!

Samsung heeft dit in het verleden geprobeerd, maar dat zorgt voor heel erg leuke bugs, zoals https://www.mono-project.com/news/2016/09/12/arm64-icache/ . Long story short: programma checkt op uitgebreide core welke instructies ondersteund zijn, OS verplaatst programma naar simpele core, programma probeert uitgebreide instructie uit te voeren. Crash.

Je zal dus altijd expliciet moeten kiezen of een programma óf altijd op de grote draait, óf altijd op de kleine. Dat maakt het toch een stuk minder nuttig.
Kan best zijn dat een AVX instructie bvb een fault gaat genereren waardoor het OS dan kan beslissen de grote core aan te zetten en de uitvoering daarop te laten verder lopen. Of zoals op Linux vroeger vaak gebeurde op ARM, die instructies dan te gaan emuleren a la softfpu.

Allenaal niet ideaal maar wel mogelijk.
Dat was ook het soort aanpak waar ik op uitkwam. Het nadeel hiervan is natuurlijk wel dat de latency hiervan hilarisch slecht is. Hopelijk heeft Intel iets slimmers bedacht.
Er zijn veel eenvoudige fixes te bedenken. Zo kan je een teller bijhouden van hoe vaak je die uitgebreide instructies gebruikt in een bepaald proces. Zolang dit beneden een bepaalde drempel blijft, kan je de instructie emuleren. Wanneer het de drempel voor "frequent" gebruik overschrijdt, dan kan de scheduler bijvoorbeeld beslissen om het proces vast te pinnen op de big cores. Ik zeg zo maar iets.

Besturingssystemen doen vaak dit soort hacks voor bepaalde CPU families. Zo zal bij een NUMA systeem of een Ryzen computer de scheduler ook vaak je proces vast pinnen op 1 core complex.
The processors are fully compatible with 32- and 64-bit Windows applications, staat in het artikel.

[Reactie gewijzigd door solozakdoekje op 11 juni 2020 06:49]

Dat hoeft niks te betekenen. Windows vereist helemaal nog geen AVX instructies. Er zijn veel uitbereidingen voor instructiesets die niet door elke processor ondersteund worden, maar wel in sommige applicaties gebruikt worden.

Bij games en DRM zie je vandaag de dag vaak dat soort dingen. Je kan prima Windows 10 draaien op een computer zonder AVX of SSE 4.2, maar games als Control of Assissins Creed: Odyssey zullen dan niet werken op die computers bijvoorbeeld.

Veel programma's maken optioneel gebruik van dergelijke instructies, en voeren bij het opstarten een controle uit om te zien welke uitbreidingen ondersteund worden door de processor. Bij x86 processors zoals die van Intel gebeurt dat via de cpuid instructie.

Het probleem waar @laurxp en ik het hier over hebben, is dat hier gebruik gemaakt wordt van verschillende types cores, en dat wanneer je de applicatie van core verhuist (zoals vaak gebeurt op multicore processors), je in dit geval dus mogelijks op een core kan eindigen die minder instructies ondersteunt dan die waar je applicatie in het begin de instructieset gecontroleerd heeft. Dat zou dan een illegal instruction fout veroorzaken, wat in de meeste gevallen zal leiden tot het crashen van het programma.
zo'n fout afhandelen in de hardware zonder dat het programma het zelf het in de gaten heeft lijkt me niet bepaald een gemakkelijke taak.

Edit: iets van te voren zou ik nog wel kunnen zien werken.. dat bij het decoderen al wordt besloten die instructie te verplaatsen naar de grote core... maar als ze dat niet voor elke instructie willen doen (wat belachelijk slechte performance zou veroorzaken) moet er op dat moment eigenlijk een signaal naar het OS gaan om het hele programma te verplaatsen.

[Reactie gewijzigd door Countess op 11 juni 2020 11:52]

Van te voren zou falen op een JIT, zoals in het voorbeeld.
Ik denk als het apparaat niet word gebruikt die kleinere cores worden ingeschakeld waardoor het apparaat
Minder stroom gaat gebruiken en dus de accu langer meegaat.
Btw dat processor ontwerp ziet er best goed uit.

[Reactie gewijzigd door rjmno1 op 11 juni 2020 11:34]

Misschien is het een speciale Tremont, maar dat weet ik niet zeker.
Ohh ja, 80 procent van de software zit gewoon nog op instructie set sse2, gaming en andere veel eisende programma's zitten op sse3 en sse4, ik vind het juist dapper dat ze iets nieuws proberen.

De adoptie van sse2 heeft ook al zo'n 15 jaar gekost.
❤ Beoordeel mijn jonge geschoren kutje alsjeblieft - https://foto013756872.imgfast.pw
Gezien taken schedulen en aan een specifieke core toekenen door het OS gedaan wordt, kan het OS hier rekening mee houden. Zoals dat nu ook al met HyperThreading/SMT gedaan wordt.

In het artikel staat ook dat intel met Microsoft heeft samengewerkt voor ondersteuning. Dus hier zal wel over nagedacht zijn.

En hoeveel programma's maken nou daadwerkelijk gebruik van AVX?
En hoeveel programma's maken nou daadwerkelijk gebruik van AVX?
Meer als genoeg dat er problemen ontstaan als het niet werkt.
kan het OS hier rekening mee houden
Hoe precies? Want programma's leveren standaard geen lijst aan van instructies die ze mogelijk gaan gebruiken. en iets maken wat daarvoor zou scannen is ook niet mogelijk want er kunnen dynamics externe libraries ingeladen worden met andere eisen.

Een oplossing in de hardware lijkt me waarschijnlijker, misschien dat bij het decoden van de instructies word besloten deze te verplaatsen naar de grote core. of gewoon AVX uitschakelen op de grote core.
Dat zullen ze toch wel oplossen? Er staat zelfs in het artikel dat ze met MS hebben samengewerkt zodat het (in windows in ieder geval lijkt het) goed werkt.
Mijn gok is dat die technieken gewoon allebei niet ondersteunt worden.
https://ark.intel.com/con...m-cache-up-to-3-0ghz.html

Het ding ondersteunt zo te zien geen AVX2, maar volgens de Intel ARK pagina wel VT-d. Ben benieuwd hoe dat werkt, maar misschien heet Wikichip het fout?
heb je überhaupt wel het hele artikel gelezen en wat voor technologie ze gebruiken ? https://newsroom.intel.co...s-dual-screens/#gs.7rysbt

Lakefield processors are the smallest to deliver Intel Core performance and FULL WINDOWS COMPATIBILITTY across productivity and content creation experiences for ultra-light and innovative form factors.

Intel Core processors with Intel HYBRID TECHNOLOGY DELIVER full Windows 10 application compatibility in up to a 56% smaller package area for up to 47% smaller board size1 and extended battery life, providing OEMs more flexibility in form factor design across single, dual and foldable screen devices while delivering the PC experiences people expect. They are also:
Minimale eisen voor Windows 10 is SSE2, gaat meer om programma's die gecompiled zijn met nieuwe instructies die niet worden ondersteund door deze cores zoals AVX.
Nog wel iets meer dan dat: SSE2, PAE, NX, CMPXCHG16B, PREFETCHW, LAHF/SAHF.
Ligt eraan, binnen VMware heb je EVC clusters. Met die optie is het mogelijk om ervoor te zorgen dat binnen een cluster diverse CPU architecturen en / of instructiesets gebruikt kunnen worden.
Sunny cove heeft alle instructie sets, https://en.wikichip.org/w...oarchitectures/sunny_cove

Tretmont ook,

https://en.wikichip.org/w...icroarchitectures/tremont
@sspiff

[Reactie gewijzigd door solozakdoekje op 11 juni 2020 13:34]

Tremont ondersteund geen enkele variant van AVX, Sunny Cove heeft AVX, AVX-2 en AVX-512.
Maar wel alle sse instructie sets
maar waar zie je ergens problemen ?
Sommige toepassingen/games/... gebruiken intussen AVX instructies. Wanneer je een programma draait dat AVX instructies gebruikt op een core die die instructies niet heeft, dan krijg je crashes.

Vaak geven die programma's nu een fout bij het opstarten met de vermelding van het probleem, of schakelen ze over naar een (tragere) variant van hun rekenroutines die deze instructies niet gebruikt.

Wanneer je echter in 1 CPU zowel cores met als zonder AVX ondersteuning hebt, daan gaan die programma's niet meer correct werken.
Wanneer je echter in 1 CPU zowel cores met als zonder AVX ondersteuning hebt, daan gaan die programma's niet meer correct werken.
kan je ook uitleggen waarom dan ?ze kunnen in de api van de software, dan wel games of photo shop gewoon een liberie of register schrijven in de code voor de tretmont, voor alle twee.daarbij denk ik dat de snelle core ook gewoon kan schalen naar zijn laagste frequentie, dus ook die snellere cores draaien niet altijd op zijn hoogste versnelling.

en ik denk dat dit ook min of meer gewoon een beta product is van intel, geen beta product, maar wel iets wat nog niet af is, misschien krijgen we hierna een refresh.daarbij als je zo graag wilt gamen, dan ga je dat natuurlijk niet op deze laptop doen, dan koop je een gaming laptop, die daar voor zijn gemaakt, als of iedereen met een dell xps 13 en externe gpu aan het gamen is, dat is ook gewoon een nish markt, kleiner dan 0 procent.


ik denk dat je een vergissing hebt gemaakt voor wie deze producten zijn gemaakt, gaming is niet de markt,voor waar deze producten voor zijn gemaakt.

[Reactie gewijzigd door solozakdoekje op 11 juni 2020 15:48]

Een applicatie hoort (in de regel) niet om te kijken naar waar het nu precies aan het uitvoeren is. Of dat op core 0 of 4 is, dat maakt weinig verschil. Het kan zijn dat de ene core wat trager is dan de andere, maar normaal ondersteunen ze wel dezelfde functionaliteit.

Het OS kan dan beslissen om je proces te verhuizen naar bijvoorbeeld een zuinigere core met minder features (dat is het hele punt van big.LITTLE).

Wanneer de big & LITTLE cores echter niet dezelfde featureset omvatten, dan kan dat niet zomaar. Gebeurt dat wel, dan krijg je situatie zoals Samsung op Android had, zoals @laurxp al aangaf. Dit probleem oplossen vereist een strategie, en die zal sowieso andere problemen of nadelen met zich meebrengen.

Als je je grote, snelle cores altijd moet laten aanstaan voor AVX instructies, verlies je al het nut van een asymmetrische processor. Je kan de grote cores inderdaad ook terugschakelen, maar het feit dat ze groter zijn (en dus meer functies, cache, en/of parallelle pijplijnen om instructies uit te voeren hebben), maakt ze inherent minder stroomefficient. Moest dat niet zo zijn, dan was er helemaal geen nood aan kleine cores.
While Arm has big.Little cores, the hybrid Intel architecture has been labelled Big-Bigger, and has hardware-guided OS scheduling that provides "real-time communication between the CPU and the OS scheduler to run the right apps on the right cores", Intel has previously said

https://www.zdnet.com/art...efield-hybrid-processors/
Dus, zoals gesuggereerd moest de OS scheduler aangepast worden...
Ik wacht rustig af wat Intel mijn verteld en of dit via een emulatie gaat gebeuren.daar is nog helemaal niks over los gelaten.

[Reactie gewijzigd door solozakdoekje op 11 juni 2020 16:37]

Je zegt wel dat die grote sunny cove cores niet kunnen schalen, maar dat kan wel. je kan deze altijd nog met een Tweak software down volten tot een maximaal wat jij wilt, zo wel hardwarematig(alleen Intel) als softwarematig kan dit, dus die tremont cores zijn niet nodig.

Maar ik denk dat die tremont cores gewoon zuiniger en goedkoper zijn om te maken.
En je kan zelf een specifieke core aanwijzen voor een bepaalde software

https://smallbusiness.chr...nate-cpu-usage-45952.html

Met tweak software van Intel kan het nog uit gebreider
Als ze daadwerkelijk zo zuinig zijn, zie ik hier ook wel toegevoegde waarde in voor de NUC producten van Intel zelf. Kan er nog niets over vinden, maar dit lijkt me de ultieme mini server processor. Ook het geïntegreerde geheugen is dan mooi meegenomen, hoef je alleen nog maar storage te kopen voor je barebone.

[Reactie gewijzigd door Palthe op 10 juni 2020 17:12]

Deze chip gebruikt Intel's duurste verbindings-proces, Foveros.

Dan nog Intel's duurste transistor proces, 10nm.
Dit scoort qua frequentie 1gHz slechter dan 14nm. Hoe lang deze nieuwe chip de turbo freq haalt wordt niet vermeld, dus het zal wel niet lang zijn.

Dan nog Package on Package RAM met LPDDR4, ook al niet goedkoop en niet uitbreidbaar.

Waarschijnlijk wordt dit een duur product. Natuurlijk, wie het echt wil kan er een prachtige NUC mee maken. Maar wil je een veelvoud betalen voor een net iets kleiner chipje?

@Arrigi Het onderwerp was een server, zie hierboven: Niet over tablets.

[Reactie gewijzigd door kidde op 10 juni 2020 18:14]

Laten we de prijzen dan eerst afwachten. Ik zie zeker wel voordelen in deze propositie, ook omdat het waarschijnlijk als geheel met het geïntegreerde geheugen voor een slag kleinere NUCs kan zorgen. Wellicht een fatsoenlijke opvolger van de Intel Compute Stick en daarvoor ben ik zeker wel in de markt, ook voor een eventuele meerprijs t.o.v. traditionele processoren.
Dan nog Package on Package RAM met LPDDR4, ook al niet goedkoop en niet uitbreidbaar.
Wat in de markt waar ze op mikken geen probleem is. Tablets zijn nooit uitbreidbaar geweest, enkele uitzonderingen (hybrides?) daargelaten.
Wat pas echt een aanfluiting is: macbooks met vastgesoldeerd RAM.
Ongelijk kan ik je niet geven. Ben zelf echter ook bezig met een thuisserver, dacht net als palthe daarom ook direct aan een servertoepassing. Voor mij was dat verbruik de trigger hiervoor.

Je argumenten zijn terecht. Deze oplossing appelleert niet aan de zelfbouwer door de restricties op uitbreidbaardheid. Zou de oplossing in een all in NUC product worden gestopt, kunnen we dan verwachten dat de NUC doelgroep gevoelig is voor het lage verbruik? Ik twijfel daaraan.

Als (home) server toepassingen meer uit elkaar getrokken worden in altijd aan en niet altijd aan functies dan zie ik voor dat beperkte altijd aan stukje wel een toepassingen voor dit soort geïntegreerde processoren. Zelfbouw komt dan tot zijn recht in het niet altijd aan stuk, met haar verschillende en conflicterende specs. Voor altijd aan is er echter een obsessie met verbruik. Nog meer dan dat dit bij laptop of tablet klanten het geval zal zijn. En juist die zuinigheid is iets waar Intel in het bijzonder goed in is. Ik hoop daarom toch een beetje dat Intel ook die server-kans uitnut. Misschien een ander publiek beogen dan het huidige meer feature gedreven NUC publiek.

[Reactie gewijzigd door teacup op 10 juni 2020 19:34]

Intel zal er vast wel mee bezig zijn, je hebt al een aantal jaren Xeon-D die Atom technologie gebruikt.
Ik verwacht deze chips inderdaad niet snel in NUC's, laat staan servers (al zal er vast wel een gek zijn ;) ).
Nee deze chips zal je terug gaan zien in (dure) ultra portables.
Waarschijnlijk wordt dit een duur product. Natuurlijk, wie het echt wil kan er een prachtige NUC mee maken. Maar wil je een veelvoud betalen voor een net iets kleiner chipje?
In NUC's zitten ook laptop processors, dus een uitbreiding in het assortiment daarin, zou mij niets verbazen, ze hebben daar al diverse CPU's in zitten. Maar om dat goed te kunnen zeggen, is het wellicht een idee om eerst de prijzen van Intel even af te wachten.

Naast NUC's zou dit ook best interessant kunnen zijn voor NASjes.

[Reactie gewijzigd door CH4OS op 10 juni 2020 19:37]

Gezien het DRAM twee aparte packages zijn, had Intel er ook voor kunnen kiezen om die weg te laten. Imo het ook dichterbij brengen van DRAM naar de CPUs slaat net de plank mis voor veel formfactors. Voor tablets en super compacte apparaten, sure, is het alleen maar een voordeel; voor laptops, barebones en servers is inderdaad de beperking van keuze vrijheid niet de moeite waard voor de performance winst.

Het combineren van Atom en Core is de enige manier hoe Intel de ARM architectuur kan beconcurreren. Dus deze step verdient respect (al was het gemotiveerd door een 'klant in het Amerikaanse leger' die deze oplossing nodig had). Ik hoop dat Intel simpelweg een variant uitbrengt zonder DRAM, en dan ook nog eens een aantal Atom cores combineren met wat H varianten van Core cores.
Anoniem: 951889
10 juni 2020 17:06
Waarom maar één krachtige core? Ik zie dit soort chips alweer massaal in €250 laptops verschijnen die dan 5 hele cores adverteren en mensen er thuis achter komen dat photoshop trager draait dan op hun ouwe dualcore...

Wat is uberhaupt het usecase van zo'n chip? Doen ARM SOC's het niet veel beter in het mobiele segment, en zuinige quadcores (die cores bijna helemaal uit kunnen zetten) in het laptop segment?
Intel wil in de markt van de tablets mobieltjes kunnen meedoen. x86 is echter niet zuinig genoeg te krijgen voor multicore socs voor die markt. Door die langzame cores kun je de benodigde zuinigheid verkrijgen en toch bij processen die meer performance nodig hebben meekomen. Achtergrondtaken kunnen prima door de zuinige cores worden afgewerkt.
Dan doet een ARM soc het toch beter. Die hebben minimaal twee krachtige cores(de Lakefield hier slechts een) en vier of zes zuinige cores. Een krachtige core zoals de Lakefield is wat krap.
Tja, maar sommigen willen graag x86-compatibilteit of zelfs gewoon per sé Intel ook al is er iets beters.
Juist om dat laatste (men wilt per sé Intel) zijn de IDT Winchip, Cyrix, DEC Alpha, PowerPC en de Cell cpu's verdwenen. (Al was de Winchip in dit lijstje niet beter)
Omdat je voor de prijs van 1 snelle core, misschien wel 4 langzame kan krijgen (door andere stroom, design, oppervlakte, ...requirements). De grootte van bijv. de core of interconnects kunnen enorm zakken als er minder performance eisen aan worden gesteld.

Dit is een van de eerste processors waar het bij gedaan wordt (hoewel je al van een heterogeneous processing platform kan spreken als er al bijv. een GPU is). Er zijn een aantal uitdagingen:
  • Hoe is de workload gekarakteriseerd (single of multithreaded, welke verhoudingen mbt kritieke pad)
  • Hoe is de scheduling; je kan nu dingen fout doen (de thread die processing power nodig heeft op de trage schedulen)
Er zijn al wat initiatieven gestart om dit soort zaken in de compiler en/of scheduler mee te nemen. Klein voorbeeld, er zijn er meer, zie https://www.codeproject.c...s-Programming-with-oneAPI ...
Anoniem: 951889
@cbravo210 juni 2020 18:24
Ik zie zeker toepassingen van big.little maar dan denk ik eerder aan 1 of 2 zuinige cores en 2 of 4 zware cores die helemaal uit kunnen, niet andersom :P
Dat hangt van de workload af, of dat efficient is. Bij parallelisme is 'weten' belangrijker dan 'denken'. Je gaat erg snel de mist in (meestal overschatten mensen de effectieve parallelisme). Ik denk wel dat ze hebben gebenchmarked / traces van echte systemen hebben gebruikt voor een gewogen gemiddelde.

Eigenlijk denk ik dat 1.4 of 2.4 een aardige sweetspot is voor de gewone burger (maar dat denk ik ook maar). Hoewel ik al vaker over het onderwerp heb nagedacht...

[Reactie gewijzigd door cbravo2 op 12 juni 2020 09:14]

Anoniem: 951889
@cbravo212 juni 2020 09:53
Eigenlijk denk ik dat 1.4 of 2.4 een aardige sweetspot is voor de gewone burger
Ja als je naar vandaag en het verleden kijkt wel. Als je naar trends bij smartphone apps kijkt en hoe die de laatste jaren langzaam naar de desktop zijn gesijpeld zou het me niks verbazen als parallelisme op de desktop alleen maar belangrijker gaat worden. Bijvoorbeeld de opkomst van neural nets in consumententoepassingen en de constant stijgende eisen van computer graphics en realtime beeldbewerking op smartphone camera's en dus ook laptop webcams. Zie bijvoorbeeld zoom en xsplit, digital assistants met lokale spraakverwerking, automatisch taggen en sorteren van foto's en andere documenten op inhoud, heuristische analyse van virusscanners, augmented reality en 3d graphics in alledaagse software...

Dat je origineel als lineair ontworpen programma's niet zomaar even paralleliseert is logisch maar wie doet dat dan ook. Dat is historisch het grootste nonargument tegen multithreading dat al begon bij de eerste dualcore.
...en mensen er thuis achter komen dat photoshop trager draait dan op hun ouwe dualcore...
Misschien is Photoshop niet zo'n goed voorbeeld omdat de meeste processen niet goed overweg kunnen met meerdere cores. Of er moet de laatste paar jaar iets wezenlijk zijn veranderd.

Wat tot twee drie jaar geleden duidelijk was was dat Photoshop meerdere cores goed kon inzetten voor dingen als Radial Blur filters. Maar welke consument gaat de digitale foto's van zijn dure digitale camera radiaal vervagen? Voor de meeste handelingen was destijds een singlecore net zo snel als een multicore.
Anoniem: 951889
@theMob10 juni 2020 18:35
Ik weet eigenlijk niet hoe photoshop precies met resources om gaat maar ik weet wel dat fotobewerkings apps en augmented reality toepassingen voor de mobiele markt zwaar multicore geoptimaliseerd zijn en vaak zelfs gpu compute gebruiken omdat er doorgaans weinig lineairs te vinden is in beeldbewerking.

Ik gebruik voor fotobewerking op de PC Affinity Photo en die lijkt wel gebruik te maken van meerdere cores. Nu net even een testje gedaan door op een 4K wallpaper aan wat sliders te hengsten met taakbeheer open, en alles wat ik geprobeerd heb gebruikt alle 16 threads die beschikbaar zijn. (gaussian blur, unsharp mask, en de inpainting brush)
Wellicht marketing en segmentatie. Ze verkopen dit en komen misschien binnenkort met 2x Sunny Cove +
4x Tremont voor een andere segment.
Je moet ook niet verwachten dat je met een (nieuwe) €250 laptop dingen als vlot photoshoppen kan doen. Doe je dit wel, dan ben je of opgelicht door de verkoper die er zelf ook niks van snapt, of heb je domweg iets gekocht dus eigen schuld dikke bult.

Geldt uiteraard niet als er ook daadwerkelijk geadverteerd wordt dat dergelijke laptop goed zou zijn voor dat soort taken. Helaas gebeurd wel met enige regelmaat |:(
Mooie peak-performance én mooie maximale batterijduur. Dus: snel, en de hele dag op één batterij.

Tenminste: onder normaal gebruik: beetje surfen, beetje typen, en slechts af en toe harde rekenkracht nodig.
Volgens mij zijn apparaten van 250 euro sowieso niet echt doelgroep van Photoshop gebruikers, dus als je met een dergelijk kostend apparaat denkt de kunnen Photoshoppen klopt er wel meer niet, eigenlijk.
Waarom maar één krachtige core?
Een klant heeft een batterij en een vouw-beeldscherm dat ze willen gebruiken, met bepaald stroomverbruik.
De klant bepaalt dat voor de gewenste accu-duur, de SoC (deze Lakefield dus) max. 7W mag gebruiken.

Dus de Intel-ontwerper krijgt een 'budget' van 7W.

Vervolgens krijgt hij LEGO-steentjes aangereikt:
-Een Ice Lake core ten waarde van 5W TDP;
-Een Tremont Atom core ten waarde van 0.5W TDP.

Dan zegt de klant: "Doe mij alsjeblieft maar max. prestatie binnen m'n budget".

OK, zegt Intel; wat kunnen we in die ruimte kwijt? Euuhh..

Ah ja, exact: 1x Ice Lake en 4x Tremont. Dan is 't budget op; en hebben we maximale prestatie, zodat de klant z'n gewenste accutijd voor het product (foldable tablet?) haalt.

N.B.: Bij ARM big.Little op Linux is het wel lang tijd zo geweest, dat de little en Big-kernen niet tegelijk konden werken; ook vanwege beperkingen in de Linux-scheduler. Dus de hele boel moest dan overgeheveld van 4 grote naar 4 kleine kernen; daarom waren de getallen groot /klein in het begin van big.Little ook gelijk. Echter, in dit geval, wat betreft Intel, gaat het om Windows; dus of bovenstaand verhaal klopt hangt af van Microsoft's capabiliteit om een "assymetrische scheduler" te bouwen. Samsung / Linux heeft het volgens mij > 1 jaar gekost.

Nou gaat "Microsoft" en "fatsoenlijke software" (in dit geval de scheduler van de kernel; een rete-complex stuk software) niet altijd goed samen, dus ik ga m'n adem niet inhouden...

[Reactie gewijzigd door kidde op 11 juni 2020 01:57]

Kun je uitleggen waarom een scheduler zo moeilijk is? Ik heb altijd de indruk gehad dat die van Windows niet deugt (threads altijd tussen cores heen en weer laten springen vroeger, itt Linux) maar snap niet waarom ze er zoveel moeite mee hebben.
Waarom maar één krachtige core? Ik zie dit soort chips alweer massaal in €250 laptops verschijnen die dan 5 hele cores adverteren en mensen er thuis achter komen dat photoshop trager draait dan op hun ouwe dualcore...
Je mag toch wel enigszins wat verwachten van een consument? Iemand die blind een wagen koopt met zes zitplaatsen en vervolgens den wagen krijgt zonder paard (aka. paard en wagen), is toch best wel iets mis bij de koper...

Kijk eens naar de TDP, deze is slechts 7W, ik vermoed dat het normale verbruik wel eens een stuk daaronder kan gaan liggen. AMD is imho helemaal niet zo sterk op het lowpower CPU vlak... AMD begint bij 25W TDP voor CPUs van 6+ jaar oud. Die 15W CPUs van AMD zijn namelijk nog niet verkrijgbaar en zelfs dan nog twee keer zo hoog als 7W...
Die low-power chips van AMD gaan dan ook niet op tegen deze van Intel. Dit is geen typische laptop-CPU. Intel zal deze chips ook niet aanprijzen voor een macbook, thinkpad of elitebook.

Verder zijn die moderne AMD-CPU's wel verkrijgbaar en komen er dit jaar nog genoeg andere laptops op de markt. En als je dit filmpje mag geloven kunnen ze zelfs gelijkaardig presteren als een mobiele Intel CPU met minder energie. Ik vind jammer genoeg geen geschreven bron over deze chip.
Anoniem: 951889
@Cergorach10 juni 2020 18:21
de gemiddelde consument weet niet eens wat tdp is. die denkt meer cores, meer giegaherts, beter!
het verschil tussen ram en opslag is bij de meesten niet eens helder.

Deze intel chip is waarschijnlijk véél beter in een facebook / nu.nl machine dan een normale x86 soc maar als nog slechter dan een vergelijkbare ARM chip. En als je af en toe toch een multicore load wilt draaien ga je gewoon het schip in met je big.little x86, want of je accu trekt leeg of je performance is flut.

Als je je af vraagt wat voor zware loads de gemiddelde facebooktablet te verduren krijgt, denk foto's bewerken (van die standaard apps waarmee je je reet kleiner of groter kan maken, kleurbalans aanpassen, die dingen) en live filters in videobellen is ook helemaal hip (geen makeup meer nodig, of je rommelige huiskamer vervangen voor een groene tuin uit het standaard assortiment virtuele backdrops)

je ziet juist dat er steeds meer vraag is naar multicore performance bij mobiele toepassingen dus ik snap deze intel chip gewoon niet.
Deze chip is gewoon het antwoord van Intel op de vele ARM chips die er aankomen. Als Intel helemaal geen alternatief in de markt zet, worden bedrijven bijna verplicht om ARM chips te gebruiken en hiermee hebben ze nog een kans in het lage segment. Ik denk dat er niet al teveel achter gezocht moet worden. Ik betwijfel ten zeerste of het iets uit gaat halen, maar dat zullen we dan wel zien de komende tijd.
dat is de marketing hier achter waarschijnlijk, kijk wij hebben net zo veel cores als the Ryzen CPU's, voor het zelfde geld.
Maar ja, we vertellen er niet bij dat hij veel langzamer is.
wat precies aansluit op de opmerking van Intel laatst dat "benchmarks niet belangrijk zijn het gaat om het praktisch gebruik"..... :X
Dat zou mooi zijn want nu krijg je 2 Atom cores in laptops voor rond de €250 :9
beter wachten op tigerlake
en zuinige quadcores (die cores bijna helemaal uit kunnen zetten) in het laptop segment?
Het doel is om deze laptops (met bijv. Windows) dus nog zuiniger te kunnen maken.
Als ze kunnen concurreren met ARM, altijd goed voor de consument.
Ik denk dat je deze chips vooral moet zien als de opvolgers van Gemini-Lake (Celeron N4xxx en Pentium N5xxx). Dat waren dual- en quad-core chips die enkele jaren geleden op de markt kwamen, toen met een TDP van 6W. Dus als het nu 7W is, is dit de logische opvolger. Die processoren ondersteunden toen, net zoals nu blijkbaar, ook max. 8 GB RAM, alleen zat het geheugen toen nog niet op de chip zelf. Prestaties verwacht ik dan ook iets beter dan Gemini Lake, maar dat wordt nog even afwachten.
Idd, lijkt mij dat je toch minimum twee krachtige cores nodig hebt.
Hoe kunnen die chips dezelfde TDP hebben? beter gebinned?
De TDP waarde bij Intel is sinds een aantal jaar op een heel andere manier gebaseerd. Sowieso is TDP altijd al iets anders geweest dan het daadwerkelijk stroomverbruik. TDP is een waarde waar fabrikanten hun systeem op ontwerpen. Met deze 7W moet bijv een Samsung in hun laptop voor 7W aan koelingcapaciteit inbouwen om de chip in toom te houden. De processor gaat dan aan de hand van zijn temperatuur bepalen hoeveel stroom hij kan en gaat gebruiken. Veel van de Core U chips hebben een TDP van 15W of 28W. Maar dat verbruik kan voor een korte periode pieken naar volgens mij 35W. Dat zal voor deze chips ook wel gelden.

Waarschijnlijk heeft die i3 dan net iets meer vrijheid in het bepalen wat hij doet met zijn clock frequenties maar zal het sneller neerkomen op een (nipt) langere accuduur vanwege lagere clocks.
Veel van de Core U chips hebben een TDP van 15W of 28W. Maar dat verbruik kan voor een korte periode pieken naar volgens mij 35W
https://www.tomshardware....-lake-cpu-123w-power-draw

Ik denk dat de pieken wel nog wat hoger zijn.
Ja maar dat is een desktop chip, de 10900k kan ook max 260w gebruiken
Een 10900T is geen desktopchip.

Edit: wel dus. Huh. Altijd verkeerd gedacht.

[Reactie gewijzigd door McGryphon op 10 juni 2020 21:40]

Jawel de 10900T is gewoon een LGA1200 chip
Zie edit. Ik weet niet waar het verkeerd is binnengekomen hier, maar I stand corrected.
Denk dat de Intel naamgeving gewoon ontzettend onduidelijk is; K, F, KF, KS, T, S, H, HQ, HK, X, XE, U, Y, Gx etc etc
Of freq door Intel ingesteld en niet instelbaar door de klant, dus je betaalt Intel extra om je product niet expres kreupel te maken.

1 van die 2.
is dit intels andwoord op het gerucht dat apple naar ARM wil?
Nee:

- Geheugen die(s) in de dezelfde behuizing als de processor die
- Via TSVs verbonden, Intel (TM) zet daar een eigen marketing naam op: Foveros (TM)
- Intel doet een Big.Little wat je bij ARM al jaren ziet.

Apple heeft Intel qua processor performance bijgehaald en wil niet meer afhankelijk zijn van Intel. Stelt ze in staat om CPU + GPU zelf te doen. Denk dat het ook einde oefening dan wordt voor AMD GPUs in iMacs en low/mid Macbooks,
Low MacBooks hebben toch ook helemaal geen AMD GPU? Bij 2600 euro begint het pas.
Ja dat klopt. Macbook Air, Macbook Pro 13" en de 21" iMac doen het met een ingebouwde Intel GPU. Pas vanaf van 27" iMac (en natuurlijk de Mac Pro en iMac Pro) en 16" Macbook Pro krijg je een AMD GPU.

[Reactie gewijzigd door loekf2 op 10 juni 2020 18:11]

interesant is de GPU ook krachtger dan intels iGPU/AMD APU?
Over dat laatste, in principe is er niets dat AMD tegen zou houden om ARM drivers te maken voor macOS. Hetzelfde geldt voor hw limitaties aangezien PCIe al langer gebruikt wordt binnen het ARM ecosysteem.
Apple heeft Intel qua processor performance bijgehaald.
Eerst maar eens zien. Geekbench is niet representatief voor desktop gebruik daarnaast heeft Geekbench een aantal keuzes gemaakt rondom hoe de tests worden uitgevoerd en dat is zeker niet in het voordeel van AMD64/x86.

AMD is iig veel sneller nu.
Foveros is combinatie TSV, die op die flipchip met microbumps en 3D geheugen op pilaren. Zijn meerdere verschillende technologieën.

Dit is meer equivalent aan TSMC SOIC.

[Reactie gewijzigd door Pinkys Brain op 10 juni 2020 23:54]

Als Apple wil dan gaat Apple.

Dit is Intels antwoord op Qualcomms 8CX.

[Reactie gewijzigd door kidde op 10 juni 2020 17:20]

bedankt voor de info dit wist ik niet
gaat ARM nog lager dan?

dan heeft het niet veel zin inderdaad
de snapdragon 855 zou 5 wat moeten zijn. dus ja
dat is inderdaad nogal en verschil dan zou dat niets worden mee eens
Dan is er uit de Atom serie toch nog iets nuttigs voortgekomen.
De Atom is natuurlijk al jaren zeer nuttig. Kijken bijvoorbeeld eens naar NAS devices en bepaalde Netwerk
en andere embedded oplossingen. Daar worden die chips zeer veel in gebruikt.
Voor heel veel devices die verkocht worden en waar een Atom in zit, is die eigenlijk niet krachtig genoeg. Een mooi voorbeeld daarvoor zijn terminal clients.

In de pricewatch vind je nu nog maar 5 "laptops"met Atom chips maar een paar jaar geleden was dat behoorlijk anders. Celeron's vind je er ook niet meer, maar nog wel 81 Pentiums waarvan sommigen uit dezelfde architectuurfamilie stammen, maar Pentium heeft nog niet de naam opgebouwd van (te) traag te zijn.

Bij de desktops vind je er nog wel 46 en 177 Celerons (waaronder een aantal NUCs) en 53 Pentiums.

Voor sommige NAS en andere netwerk-apparatuur zijn ze wel voldoende, maar daar zaten vroeger juist andere cpu's en die voldeden toen ook prima, en vaak met een lager stroomverbruik. Ook daar kun je dus de nuttigheid van het bestaan van de Atom betwijfelen. tot na de komst van de Atom zag je geen x86 cpu's in NAS systemen. In de pricewatch staan er nu 208 NAS-systemen met een Celeron, 102 met een Atom, 169 met een Xeon, 27 met een Pentium en 73 met een Core cpu. (samen 579) Tel daar de AMD's bij op (26 ryzens, 43 overige, samen 69) . Totaal x86 dus 648 stuks. Daarmee zijn de 82 Realteks, 71 Marvells en 161 Annapurna, 10 ARM Cortex socs, en 1 STMicroelectronics (samen 325) dus slechts nog goed voor zo een derde. Nu snap ik dat er een hele categorie zware snelle NAS systemen zijn bijgekomen (Xeon, Ryzen Core i7, ...) maar dus ook in de rest van het segment heeft Intel zich dus een flinke aandeel verovert waar zij dus pakweg 10 jaar geleden nog totaal niet in zaten. Zonder de Atom hadden die zware NAS-systemen dus wel Xeon's Ryzen's en Core cpu's gebruikt maar hadden de anderen prima gewerkt met Realtek, Marvell, Annapurna's en wat er destijds ook nog was.
Dat ben ik toch niet direct met je eens, in de regel voldoen Atoms prima voor Thin clients, ik heb zelfs her en der nog Thinclients van een jaar of 10 draaien bij klanten (met Atom cpu's) voor RDS werk, voldoet prima. Dus nee, daar ben ik zeker niet met je eens dat ze niet zouden voldoen. Mogelijk wanneer je ze inzet voor zaken die je eigenlijk niet zou moeten op een thinclient.

Maar goed dat is van toepassing op vrijwel alle zaken, je moet inderdaad geen notebook kopen met een atom cpu wanneer je workload zwaardere hardware vereist. Het is dan makkelijk roepen dat de hardware niet voldoet en "te traag" is, maar misschien is het dan beter om de hand in eigen boezem te steken en aan te geven dat je hardware gekocht hebt die niet voldoet voor de workload die je wil draaien. Kan gebeuren, maar is niet de schuld van de hardware.

Bij NAS apparaten hetzelfde, wanneer je enkel de nas functionaliteit nodig hebt voldoen die marvells e.d. prima. Wil je echter zaken draaien als docker containers (op supported wijze) moet je bij Synology bijvoorbeeld minimaal een Atom gebaseerde NAS hebben. Op mijn inmiddels 8-9 jaar oude Synology met met Atom cpu kan ik bijvoorbeeld heel mooi nog steeds Adguard / Pi-Hole en mijn Ubiquiti controller draaien in Docker. Ik zou die Atom ook niet zien als "zware NAS Systemen", vaak zijn het gewoon tegenhangers van de ARM SoC gebaseerde NAS systemen met net een beetje meer functionaliteit.

Wil je echter volledige (multipurpose) VM's gaan draaien dan zal een Atom ook al snel niet voldoen en zal je een celeron, pentium of zelfs nog zwaarder (Core, Ryzen e.d.) willen hebben.

Kortkom let goed op wat je vereisten zijn en baseer daar je aankopen op. Atoms zijn prima producten, maar ze moeten wel bij de workload passen.
Bij een vorige werkgever werd er een HP "nettop" met atom aangeschaft om in te loggen op de nieuwe terminal server (Windows server 2008) het ding was regelmatig zo traag dat zelfs het inloggen op de terminal server niet lukte, vooral nadat het dingetje al een tijdje meedraaide.

Voor een huis-tuin-en-keuken-nas voldoen die Marvells inderdaad vaak wel, maar wordt je nu dus vaak gedwongen naar een Atom die een veelvoud aan stroom verbruikt. Wat betreft de docker containers, dan is het strikt genomen dus geen NAS meer. Nu zijn er NAS systemen die hondersen of duizenden gebruikers van data moegen voorzien, dat trek je inderdaad niet meer met een Marvell. Voor dat soort dingen gebruikte men daarvoor een high-end Xeon server met raid, en nu noemt men dat dus ook al een NAS.

En een VM draai je al helemaal niet op een NAS. Dat doe je op een proliant of zo, en als die VM dan als fileserver of als database server draait dan kan diens data-opslag inderdaad op de NAS zijn. Dan zal een Atom-NAS inderdaad al snel te traag zijn.

De Atom is een CPU die vaak net niet optimaal is, als hij snel genoeg is, dan verbruikt hij onnodig veel, als hij niet onnodig veel gebruikt dan is hij zeker te traag.
Qua thinclients, een aantal relaties van ons gebruiken nog steeds bijv. HP T5740's ( https://support.hp.com/us-en/document/c01926337 ), bijna 10 jaar oud, maar voldoen prima voor RDS werk.

Die nettops zijn volgens mij inderdaad niet heel geschikt als "Thinclient", maar daar zijn ze voor zover ik weet ook nooit voor op de markt gezet. Volgens hadden die dingen Windows 7 starter als OS in plaats van Embedded. Ik denk een typisch gevalletje van de verkeerde hardware voor de verkeerde workload. Dat kun je de hardware niet kwalijk nemen.

Verder denk ik dat je er teveel vanuit de visie grootzakelijk gebruik naar kijkt, in dat opzicht gezien ga je inderdaad normaliter niet een Synology of Qnap inzetten voor bijvoorbeeld Docker of VM's. Daar gebruik je inderdaad andere (gecertificeerde) hardware voor. Dat kan inderdaad een Proliant zijn, maar ook heel andere apparatuur. Voor thuis gebruik kan je echter prima VM's of Docker containers op instap Synology of Qnap NAS systemen draaien met Atom (Docker) of Celerons (VM's en/of Docker) , sterker nog, daar worden ze juist voor ontwikkeld door deze partijen (net als instap klein zakelijk). De tijd dat een NAS enkel een "dom" stukje storage was ligt allang achter ons, tegenwoordig zijn NAS devices veelal miniservers die tal van takes vervullen, zowel zakelijk als bij de consument.

Daarnaast zijn Atom erg geschikt (en dus ook veel gebruikt) in industriële toepassingen en netwerk apparatuur.
Die nettops zijn volgens mij inderdaad niet heel geschikt als "Thinclient", maar daar zijn ze voor zover ik weet ook nooit voor op de markt gezet.
Nettops zijn vooral in de markt gezet om een overtollige voorraad verouderde chipsets te verkopen, daarvoor is de eerste generatie Atoms eigenlijk specifiek voor ontworpen. Een doelgroep is er naderhand bijgezocht (o.a. embedded). Fabrikanten zagen het echter vooral als een optie om meer winst te maken met netbooks, Asus eerste exemplaar daarvan was niet met een Atom maar met een (al veel betere) Celeron. De chipsets waar het in deze over ging verbruikten echter veel te veel stroom voor gebruik in een een mobiel device, dus in de netbooks zijn die chipsets nooit gebruikt.

[quote]Volgens hadden die dingen Windows 7 starter als OS in plaats van Embedded.
Dat was vooral bij netbooks, en voor beiden vooral als die al op hun retour waren. De netbook-rage begon iets eerder en eerst met Linux, daarna XP als OS. Nettops hebben bij mijn weten nooit Linux als OS gehad (thin clients dan weer wel) maar zijn voor het grootste deel van af fabriek voorzien van Windows XP, het exemplaar waar ik naar verwees ook. Voor nettops heb ik geen overzichtje kunnen vinden, en het [url=https://en.wikipedia.org/wiki/Comparison_of_netbooks]overzichtje voor netbooks
noemt voor de verschillende modellen geen jaartallen of datums, daar zien we dat er ook nog versies zijn geweest met Vista, zowel Vista Basic, Vista Home als Vista Ultimate, maar ik kan dat voor nettops niet bevestigen. De laatste exemplaren van de netbooks zijn inderdaad uitgerust met Windows 7 starter, de komst van Windows 8 bezegelde het lot ervan doordat het minimaal een schermresolutie eiste van 768px verticaal.

Of er überhaupt nog nettops geleverd zijn met Windows 7 (starter of een andere versie) kan ik noch bevestigen, nog ontkennen, ik kan er gewoon niets van terugvinden. Wel weet ik dat de embedded gpu van het ene exemplaar bij die werkgever, niet om kon gaan met de bredere schermresolutie van de toen verkochte nieuwe schermen. Ik denk dat dit wel eens de voornaamste reden kan zijn geweest voor het destijds snelle verdwijnen van de nettop, toen Intel's voorraad verouderde chipsets uitverkocht was, was er niemand meer in geïnteresseerd.
Ik denk een typisch gevalletje van de verkeerde hardware voor de verkeerde workload. Dat kun je de hardware niet kwalijk nemen.
https://en.wikipedia.org/wiki/Nettop#History
Another commonly held view at the time was their use as a stepping stone towards a Thin Client-based always online computer that would "replace inefficient PCs".
Verder denk ik dat je er teveel vanuit de visie grootzakelijk gebruik naar kijkt, in dat opzicht gezien ga je inderdaad normaliter niet een Synology of Qnap inzetten voor bijvoorbeeld Docker of VM's. Daar gebruik je inderdaad andere (gecertificeerde) hardware voor. Dat kan inderdaad een Proliant zijn, maar ook heel andere apparatuur.
De Proliant was inderdaad slechts een voorbeeldje, Dell en IBM/Lenovo hadden en hebben genoeg varianten.
Voor thuis gebruik kan je echter prima VM's of Docker containers op instap Synology of Qnap NAS systemen draaien met Atom (Docker) of Celerons (VM's en/of Docker) , sterker nog, daar worden ze juist voor ontwikkeld door deze partijen (net als instap klein zakelijk).
De normale thuisgebruiker zal heel zelden die functies gebruiken (sterker nog de normale thuisgebruiker gaat steeds meer naar de cloud (iCloud, Google Drive, Microsoft Onedrive, Dropbox). Nu is dat niet de typische klant van QNAP en Synology, die dat inderdaad voor de kleinzakelijke markt ontwikkeld.
Echter zonder VT-x en VT-d zijn die Atoms en Celerons daar ook niet echt geschikt voor. Gelukkig sijpelen deze technieken nu wel langzaam door naar beneden, dat licht echter niet aan Intel, maar vooral aan AMD die deze features nooit uit hun budget-cpu's heeft weggestript.
De tijd dat een NAS enkel een "dom" stukje storage was ligt allang achter ons, tegenwoordig zijn NAS devices veelal miniservers die tal van takes vervullen, zowel zakelijk als bij de consument.
Dat er voordelen zijn, omdat je niet ook nog een aparte server ervoor hoeft neer te zetten is duidelijk. De configuratie is, door de manier waarop QNAP en Synology dit inrichten, ook nog een stukje makkelijker. Echter, de Celeron en Atom zijn, juist door het ontbreken van VT-x en VT-d, niet echt optimaal, en vooral de Atom verbruikt voor de processorkracht die hij levert dus ook nog relatief veel stroom. Voor een dergelijk device is x86 ook niet echt noodzakelijk ... tenzij je dus in die VM een Microsoft-OS wilt draaien. Dan is echter een i3 (en voorheen een i5) toch wel een betere keus, vooral als je een low-voltage variant daarvan gebruikt.
Daarnaast zijn Atom erg geschikt (en dus ook veel gebruikt) in industriële toepassingen en netwerk apparatuur.
Vooral als x86-compatibiliteit noodzakelijk is, een lage prijs belangrijk en een iets hoger verbruik ten opzichte van bv ARM geen probleem is.
Qua nettop / netbook, Windows XP, Vista of 7 starter schaar in onder 1 noemer, dat zijn namelijk in principe op dat soort hardware geschikt als thinclient. Alleen al omdat ze amper centraal te managen zijn, iets wat je met Thinclients juist wel wil.

Dat stukje over nettops als "stepping stone" vind ik opzich wel interessant, Thin clients waren er immers allang voordat deze nettops / netbooks een ding werden, daarnaast werk ik zakelijk al sinds eind jaren 90 begin / 2000 met Terminal servers (later RDS) en ik heb echt nog nooit gezien dat dit soort apparatuur aangeboden werd als Thinclient. Wel grappig om te zien.

Ik vraag me trouwens wel af hoe je er bijkomt dat Atoms / Celerons geen VT-x en VT-d support hebben, VT-x komt sinds 2010 al voor bij Atoms (niet bij alle varianten, maar wel bij de varianten gericht op workloads die dat vereisen), VT-d sinds 2015, Celerons supporten beide al sinds 2010, zie bijvoorbeeld: https://ark.intel.com/con...53-2m-cache-1-33-ghz.html

[Reactie gewijzigd door Dennism op 12 juni 2020 11:04]

Ik vraag me trouwens wel af hoe je er bijkomt dat Atoms / Celerons geen VT-x en VT-d support hebben, VT-x komt sinds 2010 al voor bij Atoms (niet bij alle varianten, maar wel bij de varianten gericht op workloads die dat vereisen), VT-d sinds 2015, Celerons supporten beide al sinds 2010, zie bijvoorbeeld: https://ark.intel.com/con...53-2m-cache-1-33-ghz.html
Ten tijde dat ik een Lenovo 530E kocht, met i5 had de i5 wel VT-x en VT-d maar de i3 niet en alles wat daaronder zat ook niet. Rond die tijd ws er inderdaad een enkel Atom model voorzien van VT-x maar die was niet beschikbaar voor consumenten/in consumentendevices, werd alleen aan de industrie geleverd.
Vanaf, ik dacht de 6e generatie Core i, is VT-x ook van de i5 naar de i3 doorgezakt en inmiddels is de i5 naar 6-core en de i3 naar 4-core gegaan ipv 2-core/4-threads.

Het niet centraal kunnen managen is inderdaad een probleem, maar toen ik bij een ICT-bedrijf werkte waren dedicated thin clients, o.a. van HP met Linux en Samsung met Windows 7 embedded, ook niet op afstand te managen, destijd werd als voordeel van thin clients gezien dat ze "geen onderhoud nodig" hadden, en dus was op afstand managen niet nodig. In de praktijk zijn we toch bij een klant die deze dingen gebruikten (Samsung thin client met vast scherm) diverse keren terug moeten gaan omdat er in Windows 7 embedded instellingen om zeep waren geholpen, ondanks dat de gebruiker dus geen administratierechten had.
Ik had het zelfs fout, Atoms hadden in 2008 al VT-x, die ook https://ark.intel.com/con...r-Family=29035&2_VTX=True (paar keer op show more klikken), het is ook niet een "enkel Atom model", maar het betreft een zeer groot deel van de product range.

i3's net VT-x en VT-d zijn inderdaad volgens mij vanat 6th gen, met enkel VT-x veel eerder al trouwens, de eerste desktop i3 had al vt-x ( https://ark.intel.com/con...or-4m-cache-2-93-ghz.html ), net als de eersdte mobile i3's van diezelfde generatie, sterker nog, vt-x is eigenlijk al standaard vanaf de voorlopende core 2 duo cpu's in 2006 ( https://ark.intel.com/con...-86-ghz-1066-mhz-fsb.html ).
Het niet centraal kunnen managen is inderdaad een probleem, maar toen ik bij een ICT-bedrijf werkte waren dedicated thin clients, o.a. van HP met Linux en Samsung met Windows 7 embedded, ook niet op afstand te managen, destijd werd als voordeel van thin clients gezien dat ze "geen onderhoud nodig" hadden, en dus was op afstand managen niet nodig.
Vreemd, daar deze Thin clients vanaf begin af aan te centraal / remote managen zijn geweest met o.a. group policy's e.d., en qua updates met tools als Wsus en SCCM. Daarnaast heeft HP de "Device manager" software om Thinclients centraal en remote te managen. Die zijn vanaf begin af aan centraal en remote te managen. Dat thinclients geen onderhoud nodig hebben klopt ook niet, ook Windows Embedded wordt gewoon door MS voorzien van maandelijkse updates, waarbij het best practise is deze uit te rollen, daarnaast brengen fabrikanten als HP regelmatig nieuwe OS images uit om uit te rollen en ook updates voor de software packages (denk een Citrix, VMware en remote desktop clients). Nee, ze hebben een stuk minder onderhoud nodig dan standaard desktops, maar "geen onderhoud" is enkel een fabeltje dat vaak door verkopers gebruikt werd.
In de praktijk zijn we toch bij een klant die deze dingen gebruikten (Samsung thin client met vast scherm) diverse keren terug moeten gaan omdat er in Windows 7 embedded instellingen om zeep waren geholpen, ondanks dat de gebruiker dus geen administratierechten had.
Dat lijkt dan een configuratie fout geweest te zijn van degene die ze uitgerold heeft, immers hebben TC's met W7e een write filter waardoor aanpassingen na iedere reboot weer verdwenen zijn. Dit write filer is alleen (tijdelijk) uit te zetten met admin rechten. Een normale gebruiker kan dus een thinclient in standaard configuratie nooit permanent voorzien van andere instellingen. Uit en aanzetten zet immers de bestaande instellingen weer terug.
Ik had het zelfs fout, Atoms hadden in 2008 al VT-x, die ook https://ark.intel.com/con...r-Family=29035&2_VTX=True (paar keer op show more klikken), het is ook niet een "enkel Atom model", maar het betreft een zeer groot deel van de product range.
Zo op het ook lijkt dat een indrukwekkend lijstje, maar dit waren dus allemaal modellen die niet voor consumenten beschikbaar waren. Voet je ook VT-D toe, dan krijg je een lijstje dat begint in Q4 2016

Hoe dan ook, de modellen die op de consumentenmarkt met name verkocht werden, hadden het niet. De meest verkochte modellen staan er niet in, zoals de (nettop modellen) 230, 330 (Bonnell), D410, D425, D510, D525 (pineview), D2500, D2550, D2560, D2700, D2701 (cedarview) of netbook modellen N270, N280, N435, N450, N455, N470, N475, N550, N570, N2100, N2600, N2700 (Bonnell).

De modellen die het wel hadden, zoals uit de Z-serie (bv Z500, Z510, Z550) waren bedoeld voor IoT-devices en telefoons. De E-series waren bedoeld voor embedded toepassingen, maar daar was volgens mij - zeker toendertijd - geen behoefte aan virtualisatie.

Vanaf Bay Trail werd de Atom 64-bits, maar daar zien we dat de Bay-Trail-1 E-series ook geen VT-x ondersteund. VT-x komt pas bij Brasswell en VT-d pas bij Apollo lake, beide in 2016.

Bonell Server SOC's met ondersteuning voor ECC hebben dan weer vanaf 2012 VT-x, en VT-d komt pas bij Denverton in 2017.
https://en.wikipedia.org/...ntel_Atom_microprocessors
i3's net VT-x en VT-d zijn inderdaad volgens mij vanat 6th gen, met enkel VT-x veel eerder al trouwens, de eerste desktop i3 had al vt-x ( https://ark.intel.com/con...or-4m-cache-2-93-ghz.html ), net als de eersdte mobile i3's van diezelfde generatie, sterker nog, vt-x is eigenlijk al standaard vanaf de voorlopende core 2 duo cpu's in 2006 ( https://ark.intel.com/con...-86-ghz-1066-mhz-fsb.html ).
Wat VT-x betreft in de i3 wel, maar ik had het ook over VT-x én VT-d. Overigens was het destijds gewoon een loterij, want de meeste van die cpu's zaten op moederborden met chipsets die het niet ondersteunden, en als de chipsets het wel ondersteunden, dan was het ofwel uitgeschakeld in de BIOS of de BIOS ondersteunde het niet.
Wat betref de Core 2 Duo's, pas Wolfdale (E8190, E8400, E8600, E8700) uit 2008 ondersteund het (en Yorkfield-6M/Yorkfield Q8200 .. Q9650), maar niet alle modellen en ook de "Core 2 Extreme" versies niet.
Vreemd, daar deze Thin clients vanaf begin af aan te centraal / remote managen zijn geweest met o.a. group policy's e.d., en qua updates met tools als Wsus en SCCM.
Wij hadden geen Wsus of SCCM, wel KACE K1000 en K2000, ook voor het Windows update management.
Daarnaast heeft HP de "Device manager" software om Thinclients centraal en remote te managen.
De HP's waren al in gebruik bij sommige die klanten als ze bij ons klant werden.
Dat lijkt dan een configuratie fout geweest te zijn van degene die ze uitgerold heeft, immers hebben TC's met W7e een write filter waardoor aanpassingen na iedere reboot weer verdwenen zijn.
Geloof me, dat stond aan.
Een normale gebruiker kan dus een thinclient in standaard configuratie nooit permanent voorzien van andere instellingen. Uit en aanzetten zet immers de bestaande instellingen weer terug.
Klopt, dat deed de gebruiker ook niet, dat kwam vanuit het systeem (W7e) zelf, dat bepaalde instellingen na enkele maanden plotseling weer op default stonden.

[Reactie gewijzigd door BeosBeing op 12 juni 2020 12:58]

De chips worden uitgerust met maximaal 8GB geheugen. Is dit een extra cache geheugen (bij de aanwezige cache soort L4?) of werkgeheugen? 8GB is tegenwoordig een standaard en de 12GB en 16GB komen er met een jaar 1,5 jaar ook wel aan en dan vind je dit in de winkels.

Zeker Google Chrome etc kan behoorlijk wat werkgeheugen verslinden.
De 8gb is het werk geheugen alles zit op een chip geïntegreerd.
Zo jammer dat ze de aanduiding i3 en i5 gaan gebruiken voor zo iets langzaams...
Waarom noemen ze dat langzame ding nou niet gewoon i1 en i1,5 voor de iets sneller geclockte?

Ze willen natuurlijk graag dat mensen denken dat ze een i3 kopen, maar in de praktijk verlagen ze de betekenis en waardering van hun eigen aanduidingen.
Inderdaad zo veel benamingen en extra's als K F de gemiddelde consument ziet door de bomen het bos niet meer |:( maar gelukkig zijn wij er om alle vragen te beantwoorden 8-)
Zelf zou ik wel graag die Lego set hebben, zou toch mooi staan naast de PC
Op de nopjes staat geen Lego-logo, het zijn dus maar Chinese imitatieblokjes.
❤ Beoordeel mijn jonge geschoren kutje alsjeblieft - https://foto013756872.imgfast.pw

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee