Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 54 reacties

Intel doet onderzoek naar optische interconnects op cmos-chips. De chipfabrikant heeft zijn hoop op de technologie gevestigd om de bandbreedte-problemen te lijf te gaan die ontstaan naarmate het aantal cores van een processor stijgt.

Tijdens de International Solid State Circuits Conference deed Intel uit de doeken hoe het denkt de elektrische interconnects tussen chips te gaan vervangen. De fabrikant verwacht dat chips over steeds meer cores gaan beschikken en experimenteert in het kader van zijn terascale-project al met een 80core-processor. De toekomstige architectuur maakt echter een bandbreedte van 200GB/s tot wel 1TB/s noodzakelijk en dit zal tot een toename van de complexiteit van chips en het gebruik van dure materialen leiden, beschrijft Intel in zijn white paper.

"Het voorstel is om elektrische interconnects tussen chips te vervangen door optische interconnects vanwege zijn terahertz-bandbreedte, lage verlies en lage cross-talk", staat in het document. Op de korte termijn denkt Intel aan een hybride aanpak waarbij optische transceivers met een microprocessor geïntegreerd kunnen worden. Tijdens de SSCC-conferentie beschreven de Intel-onderzoekers een prototype van een 90nm-microprocessor met 8-kanaals optische tranceivers die een bandbreedte van 10GB/s mogelijk maken. Op de lange termijn hoopt het bedrijf 100GB/s tot 1 TB/s te kunnen halen.

Intel optical tranceiver
Moderatie-faq Wijzig weergave

Reacties (54)

Dit klinkt misschien als een gekke vraag, maar waarom concentreren ze niet op de ontwikkelingen van een enkele core. In plaats van Dual Cores dus gewoon Single Cores produceren die veel sneller zijn. Dan kan je dat ontwerp vervolgens weer gebruiken om dual en quad cores te maken gebaseerd op diezelfde chip?
Een belangrijke limiet is de limiet van de lichtsnelheid. ligt haalt maximaal 300 000 000 m/s
een electrisch signaal haalt ruimt 200 000 000 meter per seconde

stel je hebt een chip die werkt op 4GHz dan wil dat zeggen dat electrische signalen steeds een bepaalde cyclus doorlopen en bepaalde afstanden afleggen door de chip.

in 1 cyclus kan het electrische signaal 200 000 000 m/s gedeeld door 4 000 000 000 cycli per seconde is dus 0,05 meter maximaal per cyclus oftewel 5 centimeter. Dit wil zeggen dat een electrisch signaal theoretisch hoogstens 5 cm mag afleggen door alle bochten die er zijn in een cpu core gedurende een cyclus. Dit is natuurlijk heel weinig 5 cm voor de maximum baanlengte van een electrisch circuit. Bovendien is 5 cm theoretisch in de praktijk zal het slechts 2 of 3 cm zijn in verband met de schakeltijd van de transistors.

En daarom is er ook daadwerkelijk een fysieke limiet aan de maximale frequentie waarbij cycli in een cpu doorlopen kunnen worden.

Omdat er een maximale frequentie is voor een bepaald chip design, is het logisch te proberen dan maar meer rekenkracht te halen uit meerdere units als 1 unit niet echt sneller kan worden gemaakt. (zoals vroeger toen de frequentie ieder jaar aanzienlijk steeg en dat een duidelijke indicator was van de snelheid van een chip als geheel)
in 1 cyclus kan het electrische signaal 200 000 000 m/s gedeeld door 4 000 000 000 cycli per seconde is dus 0,05 meter maximaal per cyclus oftewel 5 centimeter. Dit wil zeggen dat een electrisch signaal theoretisch hoogstens 5 cm mag afleggen door alle bochten die er zijn in een cpu core gedurende een cyclus.
Waarom? Het signaal is een lopende golf dus het mag al lang meermaals van waarde veranderd zijn vooraleer het op zijn bestemming aankomt; de latency is wel beperkt door de lichtsnelheid (maar optische signalen zijn daar niet veel beter in dan elektrische) maar niet de bandbreedte.
Het maakt het ontwerpen van een chip er natuurlijk niet eenvoudiger door (als signalen op de bus er meerdere kloktikken over doen om de andere kant van een bord chip te bereiken moet in het ontwerp voorzien worden dat er een al dan niet geheel aantal klokcycli extra gerekend wordt (of de timing uit het signaal zelf gehaald wordt in een asynchroon ontwerp)
Hier wil ik aan toevoegen dat naast de snelheid nog een groot aantal issues optreden :

- Impedantie
- Crosstalk
- RxC (weerstand x capaciteit) (Beide worden verlaagd door een schaalverkleining wat terug betere blokgolven geeft))
- skinning
- migratie (alhoewel dit een minor issue is)
- ...
Helaas heeft je toevoeging maar weinig waarde voor de gemiddelde tweaker, hoewel ik redelijk wat denk te weten over de hardware in mijn PC zijn veel van deze termen mij onbekend. Dus hoewel maltesersnoepie zijn verhaal erg helder was is jouw reactie vooralsnog een nutteloze toevoeging, misschien kun je het wat verder uitleggen? :)
zo even uit me hoofd, eens kijken wat er van school is blijven hangen.

- Impedantie :
een spoel wil zijn energie niveau behouden dit veroorzaakt een vertraging in het energie niveau van het signaal. ( en ja, één draadje is ook een spoel )

- Crosstalk :
Als twee draadjes naast elkaar liggen, zal door magnetisme het signaal ook op het tweede draadje te vinden zijn. zoals ik al zei, één draad is ook een spoel.
Dit probleem word vaak opgelost door er een massadraadje tussen te leggen.

-RxC :
Behalve dat een draad een spoel is, is een draad ook een Condensator, en een weerstand. laten die drie dingen nou net een signaal generator netwerk vormen.

-Skinning :
Electriciteit heeft de gekke eigenschap om bij hogere frequenties alleen de buitenste laag van een geleider te gebruiken. daarom zijn luidsprekerdraden ook altijd van die draden met erg veel kleine draadjes. bij een massieve draad zou de kern niet gebruikt worden. Hoe hoger de frequentie, des te meer word kern niet gebruikt.

-Migratie............ tja, geen idee.


Wat maltesersnoepie wel vergeten is in zijn aannames is dat een elektrisch signaal dan wel langzamer is, het hoeft niet twee keer om gezet te worden, wat een licht signaal natuurlijk wel moet. van elektrisch naar licht en weer terug. dit is natuurlijk een grote beperking. Hierdoor word er ook alleen onderzocht voor de interconnects van cores onderling. door deze interconects van fiber te maken, kunnen ze routes afleggen welke met standaard banen in het silicium niet mogelijk zouden zijn.
Volgens mij zijn speakerdraden multicore omdat ze anders te stug zijn voor hun dikte. En audiofielen willen graag dik draad :)
En verder natuurlijk een SPDIF verbinding naar de versterker toe.
- RxC (weerstand x capaciteit) (Beide worden verlaagd door een schaalverkleining wat terug betere blokgolven geeft))
bij een verkleinig worden de baantjes dunner, dus neemt de R toe...
De lengte neemt ook af , dus daarmee neemt de weerstand weer af, maar de doorsnede van de baantjes neemt sneller af (breedte x hoogte)
Bovendoen gedraagt een baantje bij deze frequenties zich al snel als lange leiding, dus treden andere effecten op. (looptijd, leidingverliezen, faseverschuivingen)
De uitleg beschrijft niet de limiet. Een electrisch signaal van 4GHz of meer kan heel goed veel meer dan 5 cm afleggen. Je moet natuurlijk wel zorgen dat alle gerelateerde signalen de zelfde weg afleggen zodat ze zich in de zelfde klok cyclus bevinden.

De limiet is natuurlijk de snelheid van de transistoren, de energie die nodig is om ze om te laten klappen en de parasitaire capaciteiten.
Omdat aan het verhogen van het aantal instructies per clock tick een einde komt. Het enige wat dan nog overblijft is het verhogen van de kloksnelheid, en dat gaat weer ten koste van het energie verbruik. De oplossing is dus parallele verwerking door meerdere cores.
Om precies te zijn is de rek in het verhogen van de kloksnelheid er wel zo'n beetje uit (zonder het energieverbruik te laten exploderen) en zit de research juist in het verhogen van het aantal instructies per clock tick.

Even heel kort:
Eerst verhoogden we de clocksnelheid door pipelining. Leuk idee, maar om nou je adders te splitsen over twee stages... Hoe korter de stages, hoe meer buffers je nodig hebt, dus dat houdt vroeg of laat op (een paar jaar geleden om precies te zijn). Zoek de ontwikkeling van kloksnelheden maar eens op, dat groeide lekker snel van 66 MHz naar een GHz, maar sindsdien groeit het veel minder snel (let op dat je naar de echte kloksnelheid kijkt; een Athlon 4800+ draait op 2,4 of 2,5 GHz (afhankelijk van de stepping), niet op 4,8 HGz!).

Tegelijk daaraan bedachten ze bij Intel out-of-order executie. Stel je hebt drie instructies, C := A + B, E := C + D en Z := X + Y. Dan kun je ze wel op volgorde uitvoeren, maar vanwege dat pipelinen moet je wachten tot C := A + B helemaal klaar is voordat je met E := C + D kunt beginnen. Het is dan sneller om eerst even Z := X + Y de pipeline in te sturen terwijl je wacht totdat je kunt beginnen met E := C + D. Het (in hardware) uitzoeken van geldige volgordes is echter een nogal lastig verhaal en kost tegenwoordig net zoveel ruimte op je chip als de ALU zelf. [Sommige nieuwe architecturen, zoals Larrabee en Cell, gebruiken geen OOO, juist omdat ze de transistoren die dat kost liever gebruiken voor een extra ALU.]

Als je het aantal clocks-per-seconde niet verder omhoog kunt gooien dan moet je dus het aantal instructies-per-clock opschroeven. Ooit leek het ideaal om zo dicht mogelijk bij de 1 te komen (elke clock een instructie uitvoeren), maar toen bedacht iemand dat je je helemaal niet door die magische grens tegen hoeft te laten houden, je gooit gewoon meerdere executie eenheden op een chip (als ik me goed herinner heeft bijvoorbeeld de Athlon 64 er 3). Zeker in combinatie met OOO kun je dan best meerdere instructies per clock uitvoeren. Het nadeel is echter vergelijkbaar: veel management-overhead.

Let erop dat tot hier er nog steeds maar één thread per keer kan worden behandeld. Dus bijvoorbeeld OOO herordent de instructies van een enkele thread (zorgen dat dat allemaal goed gaat zodra het OS opeens van thread wil wisselen levert nog meer overhead op). Hierna kwam het idee van hyperthreading; zelfs met OOO komt het vaak zat voor dat je zit te wachten totdat vorige instructies klaar zijn of (nog veel erger) dat trage geheugen eindelijk eens een keer zijn data aanlevert (nee, ik wil niet eens denken aan het inlezen van een memory page vanuit virtueel geheugen (harde schijf) naar fysiek geheugen, dat duurt helemaal een eeuwigheid). Dan is het fijn als je een andere thread (die in principe immers volkomen onafhankelijk is) bij de hand hebt, want daar zitten waarschijnlijk wel instructies in die vast de pipeline in kunnen. Om heel eerlijk te zijn weet ik niet precies wat hier de nadelen van zijn, maar ze moeten er zijn want Intel heeft het na een tijdje eruit gegooid (al komt het nu weer terug) en AMD heeft het nooit gebruikt.

Om nog meer instructies tegelijk te kunnen verwerken kwamen daarna de multi-cores. Tot op zekere hoogte is dit vergelijkbaar met een combinatie van meerdere execute units en hyperthreading: meer hardware die daadwerkelijk aan het rekenen is (in plaats van overhead) en meer onafhankelijke instructie-stromen (threads) die verwerkt kunnen worden. Het verschil tussen een dual core zonder hyper threading en een single core met hyper threading is natuurlijk dat een dual core niet over kan schakelen naar de andere thread (die draait immers op een andere core) als er even niks te doen is.

Het probleem waar multicores tegenaan lopen is dat threads de vervelende neiging hebben om met elkaar te willen communiceren (expliciet via IPC, of impliciet via het gebruik van hetzelfde geheugen). Hoe meer cores je hebt, hoe meer communicatie bandbreedte er nodig is. Dat wil Intel nu oplossen via optische interconnects, met een hoge bandbreedte en (vermoedelijk) minder ruimte op de chip.

Huiswerk: zoek een plaatje op van een moderne processor (bijvoorbeeld via deze pagina) en zoek de volgende onderdelen op: integer alu, fp alu, integer register file en fp register file. Hoeveel procent van de ruimte nemen deze ongeveer in? Toch zijn dit zo ongeveer de enige eenheden die daadwerkelijk werk verzetten, alle andere zooi die er omheen gebouwd zit (OOO-unit, branch prediction unit, instruction fetch / decode units, memory management unit, TLB en alle caches) dient alleen maar om te zorgen dat die ALUs zo efficiënt mogelijk aan het werk gehouden worden.

edit:
Ehm, dat was een iets langere post dan ik had verwacht...

[Reactie gewijzigd door robvanwijk op 14 februari 2009 00:49]

Omdat een single-core sneller maken tot een dramatisch hoger verbruik leidt. Het omgekeerde is juist veel interessanter: ietswat tragere maar zeer zuinige cores ontwikkelen (zoals Atom) en daar dan een groot aantal van samenbrengen op één chip en efficiënt laten communiceren.
dat is interessanter voor een aantal taken...maar zeker niet voor alles
en zoiets hebben we al lang, het heet een GPU.
en zoiets hebben we al lang, het heet een GPU.
Sorry, maar da's helemaal fout. Bijvoorbeeld de G92 GPU van een GeForce 9800 bevat niet meer dan 8 cores. Hun rekenkracht komt dus niet voort uit een hoog aantal cores, maar wel uit zeer brede vectoreenheden. Dat beknot echter wel de flexibiliteit, omdat alle elementen uit een vector dezelfde bewerking ondergaan.
Ik mis er nog eentje in bovenstaand rijtje, en mss nog wel de belangrijkste?

Productie-kosten... complexe cores zijn nu eenmaal duurder te produceren dan simpele eenheden. Vele eenheden zijn dan goedkoper als 1 complexe. De foutmarge tijdens productie neemt ook toe naarmate de cores complexer worden.
Productiekosten zijn leuk he, maar ik vraag me alleen dit af he: als je een complexe core minder complex maakt, en hij gebruikt bijvoorbeeld nog maar 25% van de energie die zo'n complexe verbruikt.... en je stopt er dan 80 bij elkaar. Dan gebruik je toch nog steeds vele malen meer energie?

[Reactie gewijzigd door SiliconError op 13 februari 2009 21:16]

Als jij 2 processoren hebt met dezelfde prestaties:
Proc 1: 1 core, 100W energie
Proc 2: 80 cores, 25W energie per core
Dan doe je iets flink fout.

Maar het probleem ligt net iets anders. Als ik 1 core zou opvoeren/ombouwen om 2x hogere prestaties te halen en ik zet daarnaast 4 van de niet opgevoerde cores, dan zijn die 4 cores nog altijd zuiniger dan die éne opgevoerde. Al gebruik ik de modernste technieken die beschikbaar zijn voor massaproductie.

We zitten redelijk aan de max van wat er momenteel haalbaar is per core. Zodra je hoger gaat ga je veeeeeel meer energie verbruiken. Anderen kunnen veel beter dan ik uitleggen waarom dit is, dus daar waag ik me even niet aan. Maar het punt is dus dat de fabrikanten constant een afweging maken van wat de meest optimale combinatie is van prestaties per core en aantal cores. 80 cores die amper wat kunnen heb je niks aan, maar 1 core die 500W trekt gaat ook niet goed verkopen.

[Reactie gewijzigd door Nijn op 13 februari 2009 22:33]

Tegen de tijd dat dit gevalletje algemeen goed is, gebruiken we allemaal groene energie :D Maar het zal wel loslopen. Ten eerste zal de techniek nog wel verder te verbeteren zijn, en ten tweede, wie heeft er nu 80 cores nodig? Alleen servers zouden daar wat mee kunnen. Voor ons thuisgebruikers is de quadcore eigenlijk al overbodige luxe omdat veel apps en games er niet 100% gebruik van maken.
Omdat we in single cores een beetje tegen de top aan zitten. Goed, de productiemethode kan nog een paar nanometertjes omlaag waardoor het voltage omlaag kan en dus de snelheid weer een stukje omhoog, maar op een gegeven moment ga je daar ook tegen bepaalde barrières aan lopen.

En het is natuurlijk ook niet altijd slecht om op multicores te richten, op die manier loop je bijvoorbeeld tegen dit soort bandbreedte problemen aan, en als die optische verbindingen klein genoeg zijn te krijgen kun je ze ook weer op chip-niveau gebruiken waardoor we ons weer een tijdje op de doorontwikkeling van enkele cores kunnen richten.

Zo zie je maar, alles hangt met elkaar samen, en soms moet je rennen voor je kunt leren lopen.
Op een gegeven moment kan het ook niet kleiner, nu al krijgen de Intels van deze wereld last van een tunnelstroompje (quantummechanika) in hun kleine transistors in onze CPU's.
Dat kost dan weer flink wat meer energie dan dat het snelheidswinst opleverd.
Ik vraag me af welke naam ze hebben bedacht voor hun 80-core :)
Waarom verkopen ze die chip eigenlijk nog niet?
Niet als 80-core natuurlijk, de meeste mensen hebben nog wel genoeg aan een quadcore, maar hij doet 3,16GHz bij 0,95V, wat resulteert in slechts 62W!
Snij de chip in 20 stukken, en je hebt een 3,16GHz quadcore dat 3W verbruikt! (Natuurlijk theorie, in praktijk kan je ze niet zo maar in stukken snijden). Maar zelfs een quadcore van 62W op 3,16GHz is al niet slecht (hoewel ik moet oppassen met wat ik zeg: veel GHz hoeft niet gelijk te staan met veel snelheid). In ieder geval kunnen ze niet slechter doen na er 74 cores eraf gehaald te hebben :9.
Ook doet hij (met 80 cores) 5,7GHz op 1,35V (waarbij hij 265W sap vraagt :D), wat ook niet slecht is. Er moet maar 1 brakke core tussen zitten om alles onstabiel te krijgen.
Zou het stiekem een ES zijn van 32nm? _/-\o_
En effe serieus: minstens 8 miljard transistors! Het kan nooit dat die yields in orde zijn...

[Reactie gewijzigd door Malantur op 13 februari 2009 20:35]

Ik vraag me af welke naam ze hebben bedacht voor hun 80-core
Videokaart?

Had Intel niet jaren geleden al het voltallige 3Dlabs ingehuurt, die al met het net opkomende DX8.1 tijdperk de grafische core al opdeelde in losse programeerbare in order executie units. Geflopte WIldcat VP reeks welke toendertijd nog niet goed kon schalen. Ofwel ATI en nVidia die iets meer geld had voor meer personeel het sneller uit te werken?

In de order van gekoppelde nieuwsberichten en mijn visie, voor velen kwam de Atom onverwacht, naar mijn mening een deelproject. Een gat in de markt om het algehele project alvast een verse financiële injectie te geven (gecombineerd met oude voorraden). Dat Intel experimenteerd met 80 cores, wil niet zeggen dat ze 80x een Core i7 aan elkaar koppelen. Dán zou die computer met één CPU al 3 fasen eten.

Misschien is het aan het floppen. Ben een realist en niet iemand met boven natuurlijke gaven. Gewoon een redenatie. Net als ik jaren geleden al aan gaf dat interconnects beter over fiber kon, omdat alles steeds sneller wordt en bepaalde technologiën iets minder snel gaan.

Stel je neemt ieder jaar een nieuw moederbord, grote kans dat je 4 keer een moederbord hebt waar je "dezelfde" southbridge aan schaft, steeds weer twee PCI-E x16 sloten etc. Dan is de stap gewoon kleiner als je richting industrial computers gaat. Een passieve backplane maar dan als een dochterbord, waarbij interconnects naar bandbreedte intensieve links over fiber gaan. Losse kaarten met alleen een multicore CPU en geheugen in de vorm als jij je 5.25" drives monteerd. Futuristisch over koper, een fantastische oplossing over fiber. Zeker omdat ze al jaren aan het experimenteren zijn en directe interlinks al een paar jaar op een chip kunnen worden ingebakken. Kan je in plaats van je processor alleen je host interlink 'processor' vervangen. Klinkt duur, maar bepaalde dingen schaf je niet iedere keer aan. Vaak gaat bij een standaard consument een monitor ook 3 generaties PC mee. Initiëel een grotere investering, kwestie van TCO marketeren.

[Reactie gewijzigd door Hardware Junk op 14 februari 2009 00:09]

Ik vraag me af welke naam ze hebben bedacht voor hun 80-core
Waarom verkopen ze die chip eigenlijk nog niet?
Omdat dit een experiment is (genaamd Terrascale) en de cores geen volwaardige functionaliteit hebben. Men wil er specifiek de bandbreedtebehoefte mee in kaart brengen.

[Reactie gewijzigd door c0d1f1ed op 13 februari 2009 20:28]

het 80 core concept is Idd nog experimenteel maar Intel is erg hard op weg naar nog veel snellere cpu's zo blijkt maar weer. Ik vind Core I7 persoonlijk al een monster tegenover de competitie vooruitgang is altijd goed en het wordt inderdaad interconnect dat steeds belangrijker word voor het schalen van cpu's al die bewerkte en berekende data moet tussen de cores uitgewisseld worden en moet uiteindelijk een geheel aan code vormen het zou goed kunnen dat uiteindelijk er een soort rush circuit cpu komt waar door een heleboel cores alles opgedeeld wordt berekent ongeacht software ondersteuning en een core zich helemaal focust op het samen voegen van de bewerkte data. Dat lijkt mij het meest simpele concept van de manier van bereken. Maar doordat alle data uitgewisseld moet worden tussen de cores is het erg belangrijk dat er een hoge Interconnect snelheid is. misschien dat dit uiteindelijk zelfs belangrijker gaat worden voor de totale snelheid dan de snelheid van een enkele core
Ja ik las het net, ze zijn gebaseerd op floating point engines, niet op integer engines.
Ik bedoelde niet Terrascale als naam, maar als een quadcore 4 cores is, wat is een 80 core dan?
dit bekt niet lekker....
Pentium 80 Inside :P

Maar hoe gaan de OS producenten zoals MS hiermee om als het er werkelijk 80 cores in 1 processorsocket worden? Nu mag je fysiek een processorsocket gebruiken voor een licentie van windows 2003 server gebruiken, naar ik meen.
Of is dit meer een verhaal van: 'the future will tell us more'.
Persoonlijk vind ik het veel interessanter hoe een OS 80 cores tegelijk nuttig bezig kan laten zijn. Zowel uit practisch oogpunt als vanwege het feit dat dat nu eenmaal mijn studie is. :p

Die licentie-blaat lost zich vanzelf op. Of dacht je nou echt dat MS een OS in de winkel legt met daarop een sticker "dit product mag alleen in low-end machines (max 64 core) gebruikt worden, als je een 80 core machines hebt moet je maar Linux gaan draaien". :+
80 core en x86 architectuur, dus een 8086. Grappig hoe de geschiedenis zich gaat herhalen, alleen in dit geval exponentieel.
Persoonlijk vind ik het veel interessanter hoe een OS 80 cores tegelijk nuttig bezig kan laten zijn. Zowel uit practisch oogpunt als vanwege het feit dat dat nu eenmaal mijn studie is.
Heeft SUN niet de ROCK processor, die met vele threads werkt? De software hiervoor is vast ook al redelijk geschikt voor dit intel ding? Lijkt me daarnaast zelfs een basis voor toekomstige thuissystemen.
@robvanwijk:

Voor het besturingssysteem zelf lijkt me dat niet zo heel moeilijk, als je bijvoorbeeld naar de hoeveelheid services kijkt die vandaag de dag al tegelijk draaien. Zo lang die niet van elkaar afhankelijk zijn (synchronisatie hell) kan je die gewoon allemaal op aparte cores laten draaien. Het probleem is dan dat het RAM-geheugen het niet bij kan houden. En als je wel met synchronisatie-problemen temaken krijgt (i.e. een simulatie van vele deeltjes die aan elkaar trekken? Of minder theoretisch: folding@home of bsnes) kunnen de cores niet snel genoeg met elkaar praten.. in ieder geval op het moment niet. Hopelijk komt daar verandering in wanneer we nog meer cores krijgen en optische technologieën zoals deze toegepast worden.

[Reactie gewijzigd door Mitsuko op 14 februari 2009 19:13]

Mijn fout, dit gaat inderdaad niet zozeer over het OS, die kan gewoon beschikbare threads verdelen.
Ik had moeten zeggen dat ik me afvraag hoe programmeurs/compilers hun code zo gaan schrijven dat het onder te verdelen is in zeer veel (liefst schaalbaar) aantal threads.

Overigens helpen services je niet veel om cores aan de gang te zetten, omdat veel ervan voor een groot deel van de tijd slapen.
Dat doet me denken aan mijn oude Pentium 75 ;)
Ik denk het wel.
Ik weet niet eens zeker of de huidige OS-sen wel zoveel processoren aankan?
zolang het maar goed verkoopt zal ze dat niet boeien :Y)
octacontacore...

OCCO inside?
En effe serieus: minstens 8 miljard transistors! Het kan nooit dat die yields in orde zijn...
Het is een research project, dus daar zijn lage yields een veel kleiner probleem dan bij massaproductie voor de markt.
"hij doet 3,16GHz bij 0,95V, wat resulteert in slechts 62W!"

Maar mischien hebben ze wat moeite met de 65A aan stroom die ze daarvoor nodig hebben. Hoeveel Ampere kan 1 pinnetje verdragen?
In de PDF op Intel's site lijkt het erop dat de optische aansluiting bovenop de chip zit.
Oftewel de optische geleiders komen loodrecht op de print te staan. Daardoor zou een computer in de toekomst nog wel eens meer een 3D volume worden, ipv. een relatief plat object.
Zou ook wel grappig zijn als dit soort interfaces gebruikt gaan worden tussen andere componenten zoals een videokaart of een storage-cabinet of gewoon een schijf.
Dingen hoeven dan niet meer een zelfde voeding te hebben, geen last meer van storingen door apparaten in de buurt en de verbindingen zijn relatief makkelijk weg te werken. Hierdoor zou je dus niet meer gebonden zijn aan een vaste formfactor voor je kast.
ik denk dat je in de probleem komt met de koeling van de chips.
Nu staan de elektrische pinnetjes ook al loodrecht op het chipoppervlak he? aan de onderkant dan.
We komen weer een stapje dichterbij...

Er werd al veel eerder voorspeld dat alleen elektrische verbindingen binnen chips of zelfs op mobo niveau op een gegeven moment de bottleneck zouden worden (ik houd de bron even tegoed). En nu zijn we dan eindelijk bijna op dat punt aangekomen.

<rant mode>

Ik weet nog dat we vroeger 's zomers maar beter niet de 'computer' (lees: klaslokaal vol met lampjes, tapereaders, ponskaartlezers en -schrijvers etc.) konden gebruiken omdat door de warmte hij teveel fouten maakte, en zelfs in de winter was het soms een beetje gokken of de zoveelste decimaal wel klopte... ah de goede oude tijd ^_^

En nu staan optische processoren voor de deur, en quantumcomputing is ook niet ver weg meer. Nu nog een oplossing voor de koppigheid van de mens waardoor alle problemen die we 'onoplosbaar' noemen veroorzaakt worden. Eens zie ik het nog wel de kant van De Totale Robot van Asimov op gaan (I, Robot voor degenen die hem in het Engels gezien/ gelezen hebben).

</rant mode> :P
Ach, als we opeens alle voorspellingen die ooit gedaan zijn (en nee, ik heb het niet eens over 640 KB en 5 computers) gaan geloven... Je weet toch wel dat we volgens de natuurkundigen vandaag de dag eigenlijk niet kleiner kunnen etsen dan 40 of 45 nm? De details snap ik ook niet, maar het komt door iets dat de "difractie limiet" heet. En al die 32 nm chips dan? Tja, bij ASML spelen ze een klein beetje vals door creatieve oplossingen te vinden (bijvoorbeeld dual patterning) voor dat soort practische problemen. Net zoals AMD en Intel hun processoren nog steeds sneller maken, terwijl ik ooit tijdens een college een slide heb gezien waarin voorspelt werd hoeveel energie zo'n processor dan nodig zou hebben (op die slide stonden ook lijnen ingetekend voor onder andere de output van een kerncentrale :p ). We vinden de huidige TDPs hoog, maar het is veel minder erg dan toen voorspeld werd.

<OT>
Het maakt nogal een verschil of je I, Robot gezien of gelezen hebt...
</OT>
Die bandbreedte is wel mooi, maar wat met de vertraging die optreed door de omzetting elektrisch -> optisch en omgekeerd?
Die valt best mee. Lasers voor bijvoorbeeld telecom lopen nu al op 40Ghz. Daarmee vergeleken is de 1.6Ghz van QPI erg langzaam. Laat de omzetting een vertraging van 1T introduceren, dan is dat nog steeds maar 25 ps. Dat soort tijden kun je beter in millimeters gaan uitdrukken, 7.5 mm !
als de limiet zoals maltesersnoepie de lichtsnelheid/elektrische snelheid is dajn geeft dit dus theoretisch een snelheidswinst van factor 1.5 dus nog afgezien van de tijd die nodig is voor het omzetten van elektrisch naar optisch en terug. lijkt me niiet echt de investering waard dus kun je beter het aantal verbindingen verdubbelen, dan verdubbel je ook de bandbreedte.

<mierenneukmodus>
teraherts-bandbreedte=terahertz-bandbreedte
</mierenneukmodus>
Hij heeft het volgens mij over latency, niet over bandbreedte.
De lichtsnelheid door glas is volgens mij niet veel sneller dan de elektrische snelheid door koper.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True