Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 28 reacties
Bron: AnandTech

Anand Lal Shimpi van AnandTech doet uitgebreid verslag van een bezoek aan één van de grootste Intel Labs, gelegen in Hillsboro - Oregon. Op het complex, waar vijftienduizend mensen werkzaam zijn, wordt ondermeer gewerkt aan de ontwikkeling, verbetering en validatie van wafers, processors, chipsets, Internet-, netwerk- en communicatieproducten, componenten én de desbetreffende productieprocessen.

Intel Labs in Hillsboro OregonAnand onthult helaas geen geheimen, maar bespreekt wel een aantal interessante onderwerpen, over wat er zoal bij de ontwikkeling van nieuwe chips komt kijken. Zo zien we een experimentele 32-bits ALU op 10GHz draaien en praten Intel engineers enthousiast over een techniek die 'adaptive body bias' genoemd wordt. Een techniek die dynamisch regelt dat bepaalde tragere transistors op een hogere frequentie gaan werken, zodat zij niet langer de zwakste schakel in een CPU vormen en de processor afremmen.

Een andere prestatieverhogende techniek die de revue passeert is ILP (Instruction Level Parallellism). Op dit moment werken AMD en Intel ieder op een eigen manier, aan het vergroten van het aantal instructies die tegelijkertijd verwerkt kunnen worden door een CPU. Intel heeft recentelijk Hyper-Threading Technology (HTT/SMT) geïntroduceerd en van AMD is bekend dat men werkt aan een multi-core versie van haar Hammer-processor. Twee identieke cores aan elkaar plakken in één package, noemt Anand een eenvoudige benadering. Intel kijkt ondertussen ook naar multi-cores, maar werkt aan een elegantere oplossing, welke het ras naderende probleem van hoog stroomverbruik en koelproblemen bij multi-cores moet omzeilen, aldus Anand:

Intel Inside logoIntel's theory revolves around having two cores, but not necessarily of identical characteristics. It turns out that a good part of the time your CPU is waiting for things like your disk drive or main memory and thus isn't gaining much from running at full speed. Thus if you had two cores, one high-performance and one lower-performance you could save power and potentially even transistors if some functionality was removed from the lower-performance core. The high-speed core would be used for critical data execution and the other for execution of data that more dependent on slower paths such as from main memory or disk subsystems.

Anand vervolgt met het bespreken van geheimzinnige machines, zoals een Laser Voltage Probe (LVP) - waarmee men chips controleert - en een Focused Ion Beam (FIB) - waarmee men onchip 'chirurgische' operaties kan uitvoeren, die allen niet gefotografeerd mochten worden. Vervolgens worden Intel's System en Compatibility Validation Labs bezocht. Daar worden producten onderworpen aan zeer lange en uitgebreide tests: zo werden er toekomstige Plumas chipsets getest via scripts die ruim een miljoen tests per dag en uiteindelijk bijna een miljard totaal doorlopen.

Gesloten deuren voor 'Laser Voltage Probe' ruimte

Hillsboro zou ook de vestiging zijn waar, volgens aanhoudende geruchten, een groep ingenieurs zouden werken aan Intel x86-64 processors. Anand zegt dat het onzin is om aan te nemen dat een dergelijke oplossing de plaats in zou nemen van de Itanium. De IA-64 chip was en is bedoelt als een niche-product en komt voorlopig alleen in het topsegment van de servermarkt. Hij sluit niet uit dat Intel aan een x86-64 werkt en is er van overtuigd dat, wanneer voor Intel blijkt dat de x86-64 route zinnig is geworden, zij die dan ook zeker zal bewandelen. Anand begon en besluit zijn verslag met de opmerking dat de indruk van sommigen, dat Intel een marketing-driven company zou zijn, een onjuiste is. Intel is volgens hem bovenal gedreven door engineering en technologie.

Moderatie-faq Wijzig weergave

Reacties (28)

het gebruik van 2 cpu's is wel degelijk handig in mijn ogen...
kijk maar naar je geheugen als ik nu een moederbordje neem AMD 1,4 Athlon xp met SDRAM

en ik zet daar bijv een 133 en een 100 Mhz dimm in dan zal het ram op 100 mhz draaien maar als je nu die trage dimm het trage en lompe werk zou kunnen laten doen en die 133 bijv je videokaart kunnen laten ondersteunen zou je performance van je pc in een keer een stuk omhoog gaan hetzelfde met je cpu...

mijn cpu draait nooit op volle toeren omdat hij taken tegelijk moet door sturen die zoveel van snelheid verschillen dat hij er tussen in blijft hangen.. verdeel je nu die taken over 2 cpu's gaat en je pc beter lopen en je overall performance zal dan ook aanzienlijk toenemen...
doen we dit niet al jaren?

vroeger, in de tijd van Fred Flintstone maar sommigen kunnen het zich nog herinneren, had je een 8087 FPU. Deze kon je kopen en op het mobo prikku.

de volgende stappen waren 80187 en 80287. In de 386 zat ie opeens in de core ingebakken. dus twee assymmetrische units op een plakkie.


nix nieuws dus. oude wijn in nieuwe zakken. Alleen zal alles wel veel moderer zijn dan toen.

Dus wellicht een vector unit ipv een fpu. ik denk maar ff hardop.
Hij zat er pas in in het 486 tijdperk. De 386 had nog gewoon een 387 copro. Dit was ook niet een extra processor die meer van hetzelfde deed. Dat was puur voor floating-point berekeningen die de echte CPU toen gewoon nog niet kon. Vette rekenprogramma's vereisten soms een copro. Intel wil hier een transparante techniek gebruiken door een brakke CPU te mixen met een High-end CPU, om zo de High-end nog beter te laten presteren. Een hele andere benadering dus.
Jouw idee vereist dat je twee kanalen naar het RAM hebt. Dat komt doordat je dan als het ware 2 memory-controllers nodig hebt: 1 die op 100 MHz draait en 1 op 133 MHz. De enige chipset die op dit moment zoiets aankan is de nForce van nVidia.

Dat alleen is nog niet genoeg: er moet ook ondersteuning komen vanuit de CPU, onder de vorm van NUMA: Non Uniform Memory Architecture. Dat systeem gaat er dan van uit dat niet alle geheugen identiek is. Voor zover ik weet bestaan er op dit moment nog geen enkele CPU die dit ondersteunt in de mainstream.

De eerste CPU die NUMA en multi-channel memory zal aankunnen zou de AMD K8 Hammer moeten worden. De Hammer ziet het geheugen dat aan de CPU zelf gekoppeld is (aan de geïntegreerde memory-controller) als van hoger kwaliteit zijnde dan het geheugen dat aan een andere CPU hangt.

Je zou die technologie van de Hammer kunnen gebruiken voor hetgeen jij zegt: door de Hammer wijs te maken dat het trager RAM in het systeem van lagere kwaliteit is dan het snellere RAM.
Als je idd 2 cpu's handig vindt, moet je gewoon ff een dual mobo kopen en 2 procs. ;) Maar dan wil ik je wel eraan herinneren dat er bijna geen software is die hier effectief gebruik van maakt, zoals je wel vaker op t.net voorbij ziet komen.

Bovendien zorgt het gebruik van 2 cores in een cpu voor de nodige problemen zoals hier gezegd, zoals extra warmte en stroomverbruik. Daarom denk ik dat het idd nuttig is als Intel ook naar andere manieren kijkt om de prestaties op te krikken.
Wel jammer dat het om een demonstratie van 1 ALU gaat, niet veel meer dan een 32bits rekenmachine met en 10Ghz klok.

Ik ben benieuwd hoelang we moeten wachten op een complete CPU met die klokfrequentie... (2,3,4 of 5 jaar?)
Reken maar uit met de wet van Moore. Januari 2002 op 2 GHz. Dus 4 GHz over 18 maanden. Pakweg over 40 maanden dus, ik gok zo rond april 2005 :+ Die limiet is alweer dichterbij dan je denkt!
Ware het niet dat Moore alleen betrekking heeft op de dichtheid van transistoren... en bovendien geen 'wet' maar een gelijkmatigheid is.
AnandTech werpt een blik 'inside Intel'
Die is ook anders op te vatten :). iig een uitnodigende titel om het verhaaltje te lezen. Voor hetzelde geld zit AnandTech idd met blikken te gooien. :D
Intel lijkt toch goed bezig te zijn voor de komende tijd als ik dit zo lees.

Wel leuk lijkt dat me om eens achter de schermen te kijken, ookal kan je er natuurlijk vanuit gaan dat ze AnandTech alleen hebben laten zien wat ze willen dat we te zien krijgen, en niks meer en niks minder.

wel groffe machientjes hebben ze om die chipjes te bakken...

Over die multicore... het idee van AMD is natuurlijk wel goed afgezien van het stroomverbruik, en als je een chip kan bakken die tegen hoge temps kan is dat wel best te doen, maar als intel een low-power mogelijkheid kan vinden zal dat toch beter zijn, want hoe koeler een chip, hoe beter die presteert (ik dacht dat het beste rond -90C lag)
Gaaf zeg, eerst had je 'Intel Inside' nu heb je zelfs'Inside Intel' :P

Goeie zet van ze laat ik het 'gratis' publiciteit noemen net als bedrijven die op beursen!
:9 :9 :9

Snap ik het goed dat ze processoren in twee delen gaan maken? Een deel voor het aansturen van al je kaarten enzow in je machine en een ander deel voor het verwerken van alle processen? Lijkt me een fijne optie, alleen bekruipt me to een btje het gevoel dat men dit wel al een paar weken eerder had kunnen bedenken ( :? of had men toen nog niet genoeg aan de huidige opzet verdiend ...? :? ).
nee hoor, de cpu's van amd hebben 2 cores die gewoon net als nu beide gegevens verwerken.

de cpu's van intel hebben HTT en die zijn in staat 2 dingen op 1 core te doen. Maar dan moet de software daar wel voor geoptimaliseerd zijn.

het aansturen van pci, agp enzo gebeurt in je chipsets en staat dus los van de technieken voor cpu's..
D'r is toch ook zoiets als 'n IO proccesor dan komt de CPU's helemaal niet meer erbij kijken of alleen voor initaliseren.

die passen ze vaak toe op server boordjes.
heb je gezien wat voor koelers er nu op de markt komen ze worden steeds groter en begruiken dus ook meer stroom... ze moeten harder blazen om die chipjes te koelen..

ik denk dat AMD en INTEL snel tegen de lamp aan gaan lopen en moeder borden moeten gaan produceren waar 2 chips op kunnen met ieder een aparte koeler en goed verdeelde taken zo zal de chip koel blijven en het stroom verbruik ook minder
dus de pc wordt goedkoper met een beter performance in mijn ogen...
Mensen snap het nou eens, de wet van Moore gaat niet over kloksnelheid maar het aantal transistors dat iedere 18 maanden verdubbelt.
Daar worden producten onderworpen aan zeer lange en uitgebreide tests: zo werden er toekomstige Plumas chipsets getest via scripts die ruim een miljoen tests per dag en uiteindelijk bijna een miljard totaal doorlopen.

Dat is dus 1 miljoen dagen = 2740 jaar! ;) hehehe

zeker verdeelt over meerdere chips want anders kunnen ze nog lang wachten =)
Stel: 0,9 miljard gedeeld door 1,2 miljoen = 750 dagen. Ergens in het bronartikel heeft men het over tests van anderhalf jaar. Maar ik kan me voorstellen dat dat toch verdeeld wordt.
1 miljard is 1000 miljoen, dus duizend dagen. In principe 3 jaar. Waarschijnlijk zijn er meerdere mensen tegelijk bezig en wordt het dus wat korter.
10Ghz now whe're talking :9~
Daar worden producten onderworpen aan zeer lange en uitgebreide tests: zo werden er toekomstige Plumas chipsets getest via scripts die ruim een miljoen tests per dag en uiteindelijk bijna een miljard totaal doorlopen.
Dwz dat ze dus 1000 dagen draaien... bijna 3 jaar..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True