Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: ZDNet

Bij ZDNet is een interessant interview te lezen met Charles Gwyn, de baas van het Extreme Ultraviolet LLC consortium. Deze groep van 150 mensen, afkomstig van onder andere AMD en Intel, is al sinds 1997 bezig met het ontwikkelen van UV-waferscanners, die binnen vier jaar hun intrede zullen doen om chips met transistors van 0.07 micron en kleiner te bakken. De technologie moet het mogelijk gaan maken op 10GHz processors op de markt te brengen, die evenveel werk kunnen doen als miljoenen kostende supercomputers van dit moment. In het interview vertelt Charles over de werking van zijn levenswerk en de lange weg die het team heeft doorlopen:

What obstacles has your team encountered?
Initially there were a whole series of showstoppers. There were many who said we couldn't build the optics--that we couldn't produce a source that would generate sufficient EUV (Extreme Ultraviolet) flux--and then the whole system had to operate in a vacuum. It's been a lot of gradual progress, but I think we've made steady progress over the last three years. And we've got some very bright people working in the laboratory on the problem. We have a milestone this spring, which is the demonstration of this (alpha tool), the first full field-scanning tool.

What will people do with chips that are 10GHz and faster?
If you have circuits that operate at 10GHz, which really are representative of the first technology that we will use EUV to build, you could imagine having real-time translators that would translate one language to another. Basically, you would have the equivalent of a supercomputer, found only in labs (right now) on your desktop. And, of course, there are all kinds of graphics and games that continue to use more and more processor speed.

Moore's wet zal, als het ze lukt om het project af te krijgen (ze schatten zelf dat de kans daarop 90% is), zeker weer een decennium kloppend zijn.

Moderatie-faq Wijzig weergave

Reacties (53)

Zeer goed!!. Ik had al eerder gehoord van deze techniek en nu blijkt dat ze dus verder zijn dan ik in eerste instantie dacht. Het wordt ook wel tijd, want de huidige scanner/stepper-techniek begint tegen zijn grenzen aan te lopen. (Daarom zijn de huidige processoren ook van die grote plakken). Met deze nieuwe techniek zullen de processorfabrikanten in staat zijn om nieuwe processoren te maken die meer kunnen, op een hogere snelheid en met minder energie dus minder warmteontwikkeling.

Laat maar komen... :P
Valt best mee, grote plakken.. 486DX is bijna net zo groot als een Duron
en op kleinere chippies ;)
Ontzettend leuke techniek, maar eigenlijk moeten ze wel! Dat is ook iets wat ik niet direct in het artikel zie: tegenwoordig willen we allemaal steeds geavanceerdere IC's met steeds kleinere 'sporen'. Het probleem nu is dat de golflengte van het laserlicht wat nu gebruikt wordt simpelweg groter is dan de grootte waarin je die 'sporen' wil hebben. Tja, en dan kun je ook geen IC maken op zo'n klein niveau: ze moeten dus wel naar een productieproces overstappen met licht dat een kleinere golflengte heeft.

Ik vind het alleen wel jammer dat het artikel niet zo diep gaat: ik heb het idee dat er meer verlekkerd ( :9) gekeken wordt naar de snelle processors die je zo kunt maken dan naar de techniek zelf.
Door deze techniek te gebruiken haal je jezelf wel een enorme hoeveelheid problemen op de hals. Als je bijvoorbeeld een lens gebruikt om dat UV-licht door te sturen, dan is dat ding na een uur of honderd niet meer te gebruiken. Dan kun je 'm weggooien en dit effect wordt alleen maar erger als je licht met kleinere golflengtes gebruikt. En ook het gebruiken van steeds grotere precisie brengt veel problemen met zich mee: moet je voorstellen dat je zo'n IC aan het maken bent met 'sporen' van ongeveer een tiende van een nanometer: als er dan vijf kilometer verder een trein of een vrachtwagen voorbij rijdt, dan merk je dat gewoon! En dat moet je wl compenseren...
Er zijn ook andere mogelijkheden : beschrijf je plakje silicium met: electronen, ionen of gebruik rontgenstraling. Trouwens, EUV zou op een golflengte moeten werken van 13 nm, iets wat eigenlijk geen UV meer is maar niet eens zo heel zachte rontgenstraling.

Thor-korenwolf : het lijkt mij dat je gewoon mee moet gaan helpen met die mensen bij ASML, ooit gedacht om daar te solliciteren ?
Diep respect voor dit soort ontwikkelaars die durven te gaan voor zo een lange ontwikkelings procedure die zo weinig zekerheid heeft, maar het is wel kicken natuurlijk als je het lukt, bedenk eens wat voor invloed dit zal hebben op zaken als :

-Voorspellen natuurrampen
-DNA onderzoek naar erfelijke ziekten
-Ruimte Technologie

Etc.
Go For IT!
2e die begint over DNA en een verkeerde toepassing met computers. Misschien dat je het matchen van verkeerde genen bedoeld? Kan, maar dan moeten ze eerst de genen vinden waar ze op zitten, en op de computers wachten die het rekenwerk doen is op dit moment niet echt het grootste probleem!

Ruimte technologie? Wat wil je daarmee? Kunnen we nu wel een of andere alien bereiken? Of mooiere ruimtestations bouwen? Of beter simulaties draaien van wat er met het heelal zal gebeuren?

Natuurrampen heeft mister Edge al uitgelegd. Misschien dat je eens wat op moet zoeken over de chaos theorie. Is erg leuk. "Butterfly flaps it wings in Tokyo, it rains in New York" is de beroemde zin. Denk er eens over na!

Dit is geen grote afzeik actie, maar mensen moet wel eerst even nadenken over toepassingen van dit soort dingen, ipv gelijk dingen te blaten die de Volkskrant zou zeggen (goh, waarom pik ik de volkskrant er nou uit }> ).

Ik heb nog niemand over CAD en andere 3D toepassingen gehoord. Daar zou dit icm een goede videokaart toch wel meer voordeel op kunnen leveren. Voor architecten is het een hemel, kunnen ze de hele handel eerst echt goed simuleren voor ze het bouwen.
Wat zal zo'n architekt nou willen testen?
Hoe het eruit ziet en hoe sterk het gebouw is.
Hoe het eruit ziet kan je zelf wel bedenken, maar om de sterkte van een gebouw te bereken heb je wel iets 'snels' nodig.

Volgens mij is een aardbeving ook een natuurramp. Om de effecten door te bereken op een ontwerp is het idd wel makkelijk om een systeem te hebben die de berekening in een paar minuten doet ipv uren/dagen. :)
Wat zal zo'n architekt nou willen testen?
Hoe het eruit ziet en hoe sterk het gebouw is.
Hoe het eruit ziet kan je zelf wel bedenken
Je kan fantaseren wat je wilt, maar er is toch een groot verschil tussen een 2D bouwtekening en een 3d virtual reality model van een gebouw. Dat laatste wordt een stuk makkelijker met een stel snellere procs. Kun je zelfs gaan denken aan cosmetische wijzigingen met de klant doornemen terwijl je door het huis 'loopt' (in VR).
ja sorry hoor maar dat moet je me dan toch eens uitleggen hoe krachtigere processors gaan helpen in het voorspellen van natuurrampen :?

Dat kn je namelijk niet voorspellen. Ja ok, misschien een paar uur vantevoren maar met de recente aardbevingen nog in het geheugen kun je rustig zeggen dat je daar dus nix aan hebt.
Metereologen kunnen met betere computermodellen bijvoorbeeld tornado's beter voorspellen. Geologen krijgen een beter inzicht in bijvoorbeeld zaken als vulkanisme en aardbevingen.

Wat betreft DNA onderzoek, tja volg deze link maar en lees eens wat artikeltjes dan weet je waarschijnlijk wat meer :

http://www.google.com/search?q=DNA+Research+and+supe rcomputers

Ach en ik hoop toch niet dat ik moet uitleggen wat extra computerkracht betekent voor ruimte onderzoek?
Zo zie je maar weer dat voor het ontwikkelen van de betere processors een veel langere ontwikkeltijd nodig is. Gekeken naar deze techniek en de Itanium ed..
Zo zou je als pessimist kunnen concluderen dat de processors die voor het merendeel in de winkels liggen eigenlijk niet goed zijn uitontwikkeld.. :) (das ook volgens mij de reden dat ze een 386 in het International Space Station gaan gebruiken..)
nee ze gebruiken speciaal aangepaste 386 en 486 cpu's in de ruimte omdat normale cpu's niet bestand zijn tegen de hoge stralingsgehaltes buiten de dampkring (zonnestralen e.d.)

een normale pentium 2, 3, AMD of whatever zou binnen enkele seconden doorfikken vanwege defecte componentjes :)
Ehm... dacht toch echt dat ze sparc32'sgaan gebruiken (5 of 6 stuks die met elkaar stemmen). cpu-power gelijk aan een 486-dx2-66.
Op die dingen draait een speciaal voor de sparcs geschreven os die alleen maar op deze 6 stukken blik kunnen draaien...

Een Pxxx houdt het overigens wel langer vol. Bij spaceshuttle missies nemen ze IBM ThinkPads mee en die gaan max. 1 jr. mee in 'outer-space'.
De enige reden waarom er in de ruimte van die aftandse chips worden gebruikt is de lange ontwikkel tijd van die ruimte capsules (10-15 jaar) en tien jaar geleden was een 486/sparc32'sgaan nog heel gangbaar, en bovendien hebben ze daar boven ook niet zo'n behoefte om quake te kunnen spelen :)

En zoals eerder als gezegd, er gaan voor de email ed ook een aantal laptops mee naar boven :)
Als ze de power niet nodig hebben? Ze zullen wel veel dataverkeer hebben, het het meeste echte rekenwerk op aarde doen. :)
Wat zal het video monteren heerlijk verlopen! Ook ultra hoge compressie met hierdoor nog sneller in nog hogere kwaliteit beelden over de aardbol...
Windows wordt dan waarschijnlijk meer 3D en heeft meer animaties ed. Totaal een zelfdenkende spellingcontrole... Heerlijk, maar eerst zien en dan geloven!
Tuurlijk, als de capaciteit er is, dan hebben al die programmeurs zo 1-2-3 eventjes alle software bij de hand. NOT. Zo'n vaart zal het dus niet lopen. Zit je met je 10Ghz proc. waar weinig programma's nog veel van gebruiken.

Ik heb het niet over encoding, raytracing, CAD/3D, etc. Daar is brute kracht wel handig.

PS: Niet dat ik het niet leuk zou vinden, 10Ghz B-)
Windows wordt dan waarschijnlijk meer 3D en heeft meer animaties ed.
nee dank je, ik vond die screenshots van Windows XP al erg genoeg.
over een tijdje zit je als je een uur met je PC aan het werk bent 15 minuten daarvan naar een of andere kazige animatie te kijken die je al 100 keer gezien hebt
nee dank je, ik vond die screenshots van Windows XP al erg genoeg.

Dan ben jij zeker ook iemand die roept toen windows 3.0 net uitkwam:
'Wat moet ik met die grafische windows en knoppen en die muis. Al mijn programma's draaien toch gewoon onder dos.'

Heb je nooit gehoord van spraakherkenning, realtime beeldverwerking? Al dat soort gadgets worden over een tijdje voor gewoon aangenomen. Denk even een decennia terug wat je met je pc kon doen.
Heb je nooit gehoord van spraakherkenning, realtime beeldverwerking? Al dat soort gadgets worden over een tijdje voor gewoon aangenomen. Denk even een decennia terug wat je met je pc kon doen.
Tja, er is nog heel wat te doen op het gebied van gebruikersvriendelijkheid. Op het gebied van vertalen bijvoorbeeld: stel je eens voor dat je in alles op het Internet in het Nederlands terug zou zien en gewoon in het Nederlands kon schrijven. Iemand die Swahili leest krijgt het in die taal te zien, een Japanner in het Japans.

Dit zijn dingen die heel erg veel werk met zich meebrengen en hoe sneller de cpu, hoe beter het kan.

Het vreemde is dat automatisch vertalen al heel lang een doel is binnen de informatica. Hoewel er duidelijk vorderingen worden gemaakt zijn we er nog lang niet en wat extra brute force kan waarschijnlijk geen kwaad.....
Oei, moet ik zeker over een tijdje mijn cpu insmeren, zodadelijk wordt hij wel erg bruin, met al die ultraviolette stralen ;)
De CPU's worden gebakken met UV licht, ze geven het niet af. Dus de zonnebrandolie mag in de kast blijven.
Wat ze wel afgeven is een stevige dosis microgolven!
Een keuken-magnetron zit nl zo rond de 5Ghz.
Dus als je trek hebt in een tosti... CD la open broodje hamkaas erin en 30seconden op vol vermogen :Y)
Misschien wel een rage hoor PC met kleurtje :)
Maar dan moeten er ook gelijk extra coolers ingebouwd gaan worden want het kan nog wel eens super warm gaan worden ;)
Ik denk dat deze techniek pas echt impact gaat hebben op AI. Voor degene die ik nu al kwijt ben, AI is artificiele intellegentie. Daar zijn ze nu al aardig mee aan de weg aan het timmeren. Wetenschappers verwachten binnen 10 of 20 jaar een menselijk brein, of iig de werking daarvan aardig te kunnen nabootsen met een computer. Als deze EUV techniek doorzet, kan dat nog leuk (of vrij angstaanjagend) worden. Ze zeggen hier dat dit pas het begin van UEV techniek is. Ik ben erg benieuwd waar dit toe gaat leiden.
<quote>
Daar zijn ze nu al aardig mee aan de weg aan het timmeren. Wetenschappers verwachten binnen 10 of 20 jaar een menselijk brein, of iig de werking daarvan aardig te kunnen nabootsen met een computer.
</quote>

Hihi.. grapjas... beetje naief ben je wel.. Ik kan natuurljk niet zeggen hoever ze met AI zijn over 20 jaar. Maar ik zal even een vertaling van jou "Daar zijn ze nu al aardig mee aan de weg aan het timmeren." ---> Computers zijn strontjedom en kunnen nog geen ene reet... iig niets wat ook maar in de verste verte in de buurt komt van het menselijk brein.

Ze hebben idd wat leuke dingetjes gebouwd met kennisgestuurde systemen ed. , maar het blijft bij spielerei en absoluut niet te verglijken met "echte" intelligentie.
Ik zal het geheel dan maar wat uitleggen, met aardig aan de weg timmeren bedoel ik dat ze nu iig volop bezig zijn het te ontwikkelen, dat een AI computer de intellegentie heeft van een tuindeur weet ik ook wel. Ik bedoel alleen maar te zeggen dat men echt toekomst ziet in het hele AI gebeuren. En verder, men verwacht over 10 a 20 jaar heel veel verder te zijn.......

Dit was wel verschrikkelijk off-topic....sorry.....
Waar ik werk (ASML) zijn we al veel langer met DUV bezig. Er worden ook al DUV steppers en scanners verkocht.

kijk maar eens op

http://www.asml.com/prodtech/stefr.htm

[edit] Hmm niet goed geleven, men heeft het hier over Extreme UV ..
Dit gaat niet over DUV, maar over EUV. Da's nog een stapje kleiner. De machines van ASML met DUV hebben een golflengte van 236 nm. Daarmee zou je dus theoretisch .12 um chips mee kunnen bakken. Met EUV kun je nog kleiner.
Lekker zon snelle cpu!

Het roept wel wat vragen bij mij op:

- Moet er weer een vertrager komen (zoals met clipper apps al het geval was)
- is uv straling in cpu's wel gezond voor pc plakkers zoals ik? of moet ik me ook insmeren? vooral als ze spreken over EXTREME UV?
- Waar haal je die UV vandaan? krijgen we een processor met zonnecellen of moeten we hem navullen met UV plugin--blikjes ?

Ik ben benieuwd!
Het is dan ook alleen voor het maken van de processor. Daarna komt er geen UV meer aan te pas. Het voordeel van UV is de korte golflengte, waardoor kleinere dingen op het silicium geetst kunnen worden.
zou live televisie dan nog "betrouwbaar" (niet gemanipuleerd) zijn?
Dat is nu toch ook al niet meer betrouwbaar. Voor-opgenomen beelden uitzenden als zijnde live. Bah.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True