Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 69, views: 27.902 •
Submitter: Who Am I?

Microsoft gaat een miljoen euro steken in onderzoek van de TU Delft naar de bouwstenen van een quantumcomputer. Microsoft heeft het onderzoeksteam van de universiteit benaderd naar aanleiding van eerdere onderzoeksresultaten.

Onderzoeksleider en Spinozaprijswinnaar Leo Kouwenhoven heeft tal van publicaties over zijn onderzoek naar qubits in gerenommeerde wetenschapsbladen als Nature op zijn naam staan. Qubits kunnen in hun staat van superpositie tegelijkertijd als 0 en 1 dienen en meerdere quantumbits die met elkaar verstrengeld zijn kunnen razendsnel bepaalde typen complexe berekeningen afhandelen. Vooral het gecontroleerd manipuleren van qubits en het verstrengelen blijkt enorm lastig.

Kouwenhoven en zijn team van het Kavli-instituut voor Nanowetenschappen in Delft onderzocht jarenlang de mogelijkheden van de spin van een elektron om als qubit te dienen. Het lukte de wetenschappers onder andere om een dubbele qubit, gemaakt van twee elektronen die ieder in een draad van indium-arseen zaten, te manipuleren. Dit onderzoek kreeg de aandacht van Microsoft. "Voor ons was dat destijds leuk fundamenteel onderzoek waarmee we na de publicaties wel zo'n beetje klaar waren. Nu pakken we snel de draad weer op.", zegt Kouwenhoven hierover in de Volkskrant.

Het concern uit Redmond ziet blijkbaar potentie in de methode en nam contact op met Kouwenhoven en de zijnen. Binnenkort tekent het softwareconcern een contract in het kader van een industrieel-partnerprogramma voor de investering van een miljoen euro. Ook de Nederlandse Stichting voor Fundamenteel Onderzoek der Materie draagt een miljoen euro bij. Onbekend is waarom Microsoft in het onderzoek investeert. Een quantumcomputer wordt voor slechts een handjevol typen berekeningen interessant, maar daaronder vallen wel voor het bedrijf interessante toepassingen als encryptie en decryptie en razendsnel zoeken in enorme databases.

Reacties (69)

Reactiefilter:-169063+141+210+31
"Een quantumcomputer wordt voor slechts een handjevol typen berekeningen interessant"

Waarom zijn quantumcomputers dan niet geschikt voor de meer doorsnee taken?
Omdat de huidige computers al grotendeels voldoen. M.a.w. je hebt geen quantum computer nodig om een leuk spel te spelen.
Precies, ik vermoed dat dat net als Reduced Instruction Set Computing vs Complex Instruction Set Computing is.

Idee was dat je met een complex instruction set complexe shit makkelijk kan doen, maar in de praktijk maken compilers van de vetste shit het liefst simpele instructies omdat dat veel makkelijker gaat en optimaler is.
Mag ik je er dan even op wijzen dat het meeste in de huidige PC gebruikte x86 een CISC is.
RISC wordt vooral voor processoren in gsm's en andere draagbare apparaten gebruikt hiervan is ARM het meest bekende voorbeeld (smartphones e.d.).

Je vergelijking gaat dus niet echt op. RISC en CISC worden beide gebruikt en het klopt dat door sommigen RISC steeds interessanter wordt gevonden. Maar omdat CISC overal al is geïmplementeerd zul je dit nog heel lang blijven zien. Een processor verander je namelijk niet van de één op andere dag.
Echter zijn de 2 typen instruction sets dicht naar elkaar gegroeid, Intel heeft in zijn CISC bv veel instructies afgevoerd
RISC en CISIC zijn geen aparte groepen meer. In x86-architectuur die oorspronkelijk CISC probeert men heel veel RISC-principes te gebruiken. Hierdoor zijn hedendaagse x86-processoren eigenlijk hybride. Ik zou het RCISC noemen. Dingen zoals pipelining, cache en hardware intstructies waren allemal RISC elementen. Maar ik denk dat je tegenwoordig moeilijk een nieuwe x86-CPU zult vinden zonder die dingen ;).
Niet helemaal waar.

Intel's recentste processoren hebben eigenlijk een RISC core die µops afhandelt. In de instruction decode stap worden CISC instructies omgezet in 1 of meerdere RISC µops die dan door de RISC core afgehandeld worden. Het is dus eigenlijk een RISC core met CISC support.
Met "RISC core met CISC support" suggereer je dat je voor x86 programma's kan schrijven met RISC instructies. Maar dat is niet waar. De RISC-achtige instructies worden alleen intern gebruikt. In zijn geheel zijn Intel's x86 CPU's nog altijd CISC.
Met "RISC core met CISC support" suggereer je dat je voor x86 programma's kan schrijven met RISC instructies. Maar dat is niet waar. De RISC-achtige instructies worden alleen intern gebruikt. In zijn geheel zijn Intel's x86 CPU's nog altijd CISC.
of beter, waar je er mee praat, is CISC. Je kan 't RISC gedeelte niet zelf aanspreken.
Als jij weet hoe de CISC instructies omgezet worden naar RISC dan kan je via CISC enigzins beinvloeden wat voor RISC insructies er gegenereerd worden.

Sterke nog, je zou die CPU zelfs kunnen voorzien van een eigen vertaalslag (eigenlijk dus je eigen CISC inscructieset).
Je moet er dan wel rekening mee houden dat de infrastructuur op die processor aan de buitenkant ontworpen is om CISC instructies te transporteren.
Het zal dus nooit efficient worden om aan de buitenkant een RISC instructieset aan te bieden, dan gebruik je een groot deel van de beschikbare bandbreedte niet en vormen zich bottlenecks.
Maar het kan wel! :9
De hele Intel instructieset is in software gedefinieerd.
Haha, deze zinnen ga ik uit mijn hoofd leren voor verjaardagen enzo.. ;)
En wat doet die hele discussie er nou eigenlijk toe, over wat voor type processor iets is? Tis maar net wat voor naampje je er aan geeft. Uiteindelijk interesseert de instructieset van je cpu je alleen wat als je compilers of drivers schrijft (of in de jaren 90 bent blijven hangen en nog assembler gebruikt). De rest van de wereld schrijft z'n code gewoon in een programmeertaal en ziet nooit wat van die hele instructieset.
Dit is al bijna net zo zinloos als de hele discussie over of een microkernel of monolitische kernel nou beter is.
Vind dit wel een heel hoog "32 bit is meer dan genoeg" / "640k is meer dan genoeg" gehalte hebben, vind je ook niet?

We zien over 10 jaar wel weer waar we staan. Overigens hoeft het niet alleen interessant te zijn voor rekencapaciteit. Misschien heb je met zulke systemen minder watt nodig voor dezelfde prestaties :Y)
Geen idee, niemand heeft deze uitspraken ooit gedaan, dus...
“640K ought to be enough for anybody.” This quotation is attributed to Bill Gates, but Mr. Shapiro suspects that it is apocryphal, and is seeking the person who either said it or first attributed it to Mr. Gates.

Weet niet of het wel gefundeerd is.
Niemand kan voorzien wat er precies gaat gebeuren.
die 640K was in zijn tijd meer dan genoeg ja...

als je rondkeek dan zag je namelijk dat andere "PC's" vaak maar 16 of 32 KB hadden; dus dan was 640K zeer veel en meer dan genoeg..

echter heeft bill gates nooit gezegd dat men nooit meer zou nodig hebben... (daar doel je toch op hé met die uitspraak?)

en dat 32-bit genoeg is, da's waarschijnlijk aan jouw eigen fantasie ontsproten onderweg naar de 640K historie..
Ik weet niet of je er van op de hoogte bent dat het hele 640k verhaal er wel toe had geleid dat al het geheugen wat er daarna geïntroduceerd werd extended of expanded memory werdt. Waardoor geheugen aanspreken wat omslachtiger was geworden en er dus in die tijd snelheid verloren ging.
om nog maar te zwijgen of je je FOUTE citaat. ought to be enough - = zou genoeg moeten zijn, en dat is heel wat anders dan is meer dan genoeg ....

en eigenlijk had ie gelijk, als men al die tijd fatsoenlijk had geprogrammeerd - had die 640k voor lange tijd genoeg geweest.

maar het is net als met bijv een benzine motor, waarom moete doen om 1 op 50 te rijden als een liter benzine toch maar een 50ct kost ... maar dan wordt het ineens 2,50 en nu zie je ze ineens wel, en vind je vanuit het niets ineens 1,3 turbo injectie motoren (terwijl je die eerst alleen in 2L motoren zag... -

als morgen de ram prijzen stijgen naar 200 euro per gb - dan doet windows 9 het weer met 256mb... of zelfs met 128??

[Reactie gewijzigd door i-chat op 3 juni 2011 23:41]

Beetje onzin natuurlijk. Door efficienter te programmeren kun je software optimaliseren, maar niet totdat je Windows 7 in 640k krijgt. Al is het alleen al omdat je tegenwoordig de computer heel anders gebruikt dan vroeger. Op een tekstscherm is 640k misschien genoeg. Een scherm van 1920x1080 (hd video) heeft echter al +/-2 megapixels nodig, en dat is om 1 frame in het geheugen te houden. De tijden zijn veranderd, en de eisen aan hardware ook.
De grootste reden dat ze vroeger 640k wel genoeg vonden en tegenwoordig niet meer, is omdat men in die tijd nog niet in had kunnen zien welke kant computers op zouden gaan, hoeveel toepassingen ze zouden krijgen en hoe belangrijk ze in ons moderne leven zouden worden. Als je ze als veredelde typemachine ziet, dan zou 640k misschien genoeg zijn ;)
maar het is net als met bijv een benzine motor, waarom moete doen om 1 op 50 te rijden als een liter benzine toch maar een 50ct kost ... maar dan wordt het ineens 2,50 en nu zie je ze ineens wel, en vind je vanuit het niets ineens 1,3 turbo injectie motoren (terwijl je die eerst alleen in 2L motoren zag... -
Ik weet niet in hoeverre je post op feiten gebaseerd is of dat je dat dacht, maar je kent de Renault 5 GT Turbo? 1,2l turbo, jonge!
Waarom niet? Misschien kun je op een quantum computer een potje schaken EN een echt gesprek met kunstmatig AI voeren...
Denk aan een zelfdenkend huis in Eureka (tv serie).

[Reactie gewijzigd door Dark Angel 58 op 3 juni 2011 19:35]

Omdat de huidige computers al grotendeels voldoen. M.a.w. je hebt geen quantum computer nodig om een leuk spel te spelen.
4086 voldeed toen der tijd ook. ;)
4086??

dat heeft nooit bestaan hoor ...

je bedoeld een 486 (eigenlijk een 80486 om volledig te zijn)...
en eigenlijk is een 486 niet meer dan een 386 processor met wat optimalisaties.. de 386 was wel degelijk een stap vooruit van de 286; want de 386 had zgn "protected mode" en 32-bits modus; terwijl de 286 op 16-bit bleef hangen en geen protected-mode (uitgebreid geheugenbeheer) kende...
Dan is een Pentium 4 dus eigenlijk ook een opgedofte 386.
De eerste Pentium had als benaming idd 80586. Vanaf daar zijn ze iirc begonnen met Xste generatie pentium en Families.

Maar ja, om backwards compatible te kunnen blijven, zul je aan bepaalde zaken vast blijven zitten.


OT: Quantumcomputers zullen ooit wel voor huis-tuin-en-keuken PCs worden gebruikt, daar ben ik niet bang voor. Het is eerder de vraag wanneer.
Wel leuk dat Microsoft geld sluist naar ons kikkerlandje :). Zijn toch wel wat TU's in nederland die hoog aangeschreven staan, en dat wordt zo alleen maar beter.

Hopen dat de overheid niet te veel gaat bezuinigen op onderwijs, of dit houdt ook op...
een quantum pc van 3 qubit? zou genoeg moeten zijn voor iedereen :P
ik wil maar zeggen - ook kwantum pc zul je met meer of minder instructie-eenheden kunne bouwen zoals streem processors op een gpu vermoed ik.
Pentium (met of zonder MMX) ~ 80586
Pentium Pro, II, III ~ 80686

Tot daar is het nog enigszins duidelijk wat wat is,
na de Pentium 4 is het wat vager. Er zijn verschillende modellen van de Pentium 4, waarbij de latere modellen dus 64-bit support hebben. Dat zal is genoeg reden om een nummertje omhoog te gaan, maar ik geloof dat de gewone pentium 4 op 80786 uitkomt, en de 64-bit versie op 80868... vroeger was het in ieder geval een stuk duidelijker
Helaas, ze zijn volledig afgestapt van de x86-nummering. De originele Pentium was niet de 80586 maar de 80501. De eerste Pentium 4 was 80528 en Sandy Bridge is 80623, het is gewoon een saai intern projectnummer dat voor iedere chipvariant met 1 wordt opgehoogd. Het heeft weinig zin om te speculeren wat de nummers geweest zouden zijn als men door was gegaan met de ouderwetse manier van marketing, want er zit meestal weinig logica achter marketing ;). Toch heeft men dat in bepaalde software zoals compilers nog een tijdje geprobeerd, waardoor je op veel plaatsen "586" en "686" tegenkomt, terwijl die eigenlijk niet bestaan.

[Reactie gewijzigd door Wouter Tinus op 6 juni 2011 09:09]

een 686 dus (hyper threading)
je bedoeld een 486 (eigenlijk een 80486 om volledig te zijn)...
Nee doelde natuurlijk op de 8086, typo. ;)

Dat was de eerste x86 chip die ze maakte en dat was toen ruim voldoende, bestond toen immers geen software die meer nodig had. Maar kijk eens waar we nu staan met de 8086 klonen zoals de i7. Dat hadden ze toen niet kunnen bevatten en dachten dat zoveel rekenkracht nooit nodig zou zijn of überhaupt mogelijk zou zijn.

Zelfde geldt uiteraard voor de huidige situatie en met de situatie die wel over 30 zullen kennen, wij kunnen nu amper indenken wat voor rekenkracht de pc's dan zullen hebben. Zal misshcien wel 10.000 x krachtiger zijn dan de huidige top systemen. En met de bijbehorende software en games.
Misschien doelde hij op de 4004 of de 4040 :)
Er is ook een 8008 en een 8080 geweest. Maar echt bekend in de pc wereld werd Intel met de 8086 en 8088.
Daar alle waarschijnlijkheid is een normale cpu toch sneller voor bepaalde taken. Een GPU is bijvoorbeeld sneller met het renderen van grafische dingen omdat het beter is met floting points dan een CPU. Dat soort dingen zul je ook wel zien bij quantum computers

Software leren maken is ook belangrijk, een goed voorbeeld is de overgang van single core naar multi core cpu's waarbij software designers opeens met threads moesten werken en hun berekeningen zodanig opsplitsen dat het rendabel is. Dit is vandaag de dag nog steeds een probleem. Ik kan me voorstellen dat je niet in een keer de beste oplossing hebt gevonden voor quantum computers.

Er is trouwens al een 128 qbit computer te koop: http://www.dwavesys.com/en/products-services.html

[Reactie gewijzigd door wootah op 3 juni 2011 18:24]

Hoewel ik de productpagina niet heb gelezen vermoed ik dat niet alle qbits met kwantumverstrengeling omgaan. Er worden waarschijnlijk tussenstappen genomen welke de effecten van de qbit gedeeltelijk teniet doen. Met drie van die apparaten zou je anders iedere vorm van asymetrische encryptie kunnen kraken (iig alles dat op integerfactorisatie gebaseerd is, zie Shor's algoritme).

Eind 2010 was het wereldnieuws dat er 8 qbits waren om mee te rekenen, 128 is nogal wat meer. -- na even lezen gaat het om cellen van 8 qbits, dus het zou me niets verbazen als hier hier om hetzelfde gaat als eind 2010.

In het artikel wordt al aagegeven dat bepaalde dingen, zoals indexatie van databases en cryptografie hier baat bij hebben, maar algemene taken kan je beter door een normale cpu af laten handelen.
Een quantumcomputer wordt voor slechts een handjevol typen berekeningen interessant
Hebben we het nou nog niet geleerd?

- "I think there is a world market for maybe five computers." -- Thomas Watson, chairman of IBM, 1943.
- "640K ought to be enough for anybody." -- Attributed to Bill Gates, 1981, but believed to be an urban legend.

Straks hebben we er allemaal eentje onder ons bureau.

[Reactie gewijzigd door RefriedNoodle op 3 juni 2011 17:41]

Straks hebben we er allemaal eentje onder ons bureau.
Met je laatste zin maak je precies dezelfde "fout" als de 3 mensen die je quote.
Het gaat hier niet om een bepaald pessimisme of weinig toekomstgerichte blik; er is op dit moment gewoon pas voor een beperkt aantal problemen aangetoond dat ze in minder berekeningen per 'probleemgrootte', zoals Grover's algoritme bijvoorbeeld heeft aangetoond voor het doorzoeken van een ongesorteerde lijst gegevens; hierbij hoeft de helft minder stappen gedaan te worden ten opzichte van een conventionele computer.

Voor andere problemen is vervolgens ook aangetoond dat het een marginale tot geen winst te behalen is dmv een quantum computer, neem hierbij de kosten en tijd die erin gaan zitten om een QC te ontwikkelingen en op vergelijkbare kloksnelheid te brengen als de huidige systemen en dan wordt het niet zomaar een heilige graal van de IT op het moment.

[Reactie gewijzigd door Leftblank op 4 juni 2011 18:39]

Tja, als straks decryptie via QC mogelijk is dan moeten we wel een QC onder ons bureau hebben om toch nog veilig te kunnen surfen :)
- "I think there is a world market for maybe five computers." -- Thomas Watson, chairman of IBM, 1943.
Ik denk dat de strekking van die quote best klopte. in 1943 was er waarschijnlijk echt geen grotere markt dan 5 computers, wereldwijd. (waarvan er eentje bij Hitler en trawanten stond, een nogal duistere bladzijde in de IBM geschiedenis)
Zonder goed gereedschap geen resultaten natuurlijk...als in de tijd van Einstein geen wiskunde en telescopen bestonden, had hij ook geen ontdekkingen kunnen doen :)
Dit zou best weleens een belangrijk stuk gereedschap kunnen worden in de Life-Science wereld (DNA-sequencing en eiwit-folding bijv.), Particle Physics wellicht (CERN o.a.) en de opkomst van de nano-technologie op grotere schaal, gezien deze items soms ook enorm veel specifieke rekenpower gebuiken.
Bah, ik had een donatie wel tof gevonden maar met Microsoft in zee gaan staat me niet zo aan.
Bij mijn studie zijn ze ook in zee gegaan met Microsoft met als gevolg dat ze allerlei vakken hebben aangepast aan Microsoft software pakketten.

Ik ben niet bepaald anti Microsoft, ik ben een tevreden Windows gebruiker maar vind dat je moet kunnen werken met verschillende soorten systemen. Ik zou dus ook tegen enkel en alleen maar gebruik maken van open-source pakketen of alleen maar Mac's zijn.


Bij Microsoft krijg ik dus hierdoor het vervlende gevoel dat ze overal hun tentakels omheen proberen te wikkelen. Daar tegenover, het lijkt me ook lastig voor kleine bedrijven om in dit soort onderzoek te investeren. Bovendien is het mij niet bekend wat voor rechten Microsoft er op na houd met dit contract.

Desalniettemin, het onderzoek dat naar quantum computing wordt gedaan is heel erg tof en ik ben blij voor de onderzoekers dat ze in staat zijn financiële steun uit de industriële sector aan te trekken.
Dat is anders wel hoe je als groot bedrijf ontwikkelaars aan jouw platform verbindt. Als je het niet lukt door innovatie, dan maar door indoctrinatie. Zo werkt het ook met Cisco-certificaten voor MBO scholieren systeembeheer.

Overigens denk ik niet dat je deze donatie kan vergelijken met hoe een partnerschap met Microsoft op jouw school is gegaan. Het Kavli-instituut heeft immers een naam als wetenschappelijk topinstituut hoog te houden.
Microsoft geeft een mijoen, de FOM ook en het team gaat weer verder.
""Voor ons was dat destijds leuk fundamenteel onderzoek waarmee we na de publicaties wel zo'n beetje klaar waren. Nu pakken we snel de draad weer op.", zegt Kouwenhoven hierover in de Volkskrant."
Schemert in door dat anders enkele mensen weggekocht zouden worden door Microsoft
Je zegt dan wel dat je geen anti-Microsoft bent, maar de manier waarop je redeneert getuigt toch van een beetje afkeer van Microsoft en blindelings denken dat Microsoft evil is.

MS investeert geld en daar hopen ze op de langere termijn veel voordeel uit te halen door software te ontwikkelen die op deze computers gaat werken. Die 1 miljoen euro is een deel van R&D. En een miljoen is echt een schijntje vergeleken met de miljarden die ze in andere projecten stoppen.
Hij legt toch duidelijk uit dat hij bang is voor een monopolie positie op softwaregebied en dat hij dat liever niet ziet. Dat jij daar dan weer heel iets anders uit probeert te halen vind ik raar...
''gemaakt van twee elektronen die ieder in een draad van indium-arseen zaten'' ....

Nu pakken we snel de draad weer op.", zegt Kouwenhoven hierover in de Volkskrant.''



Heel subtiel.
een quantumcomputer is anders dan een normale pc.
een huidige pc rekent met bytes. dus een 0 of een 1.
in een quantum systeem kan een groepje ionen bijvoorbeeld een spin hebben van zeg 1 of een nul. echter gebeurd iets vreemds hier in. als je bijvoorbeeld met een laserstraal deze spin wijzigt, kun je deze spin veranderen van de ene waarde in de andere. echter als je bijvoorbeeld de helft aan energie gebruikt voor deze laserstraal ontstaat er zoiets als een superpositie. dit wil zeggen dat deze ionen zowel een opgaande als een neerwaartse spin tegelijkertijd hebben. of anders gezegt. de waarde 0 en 1 bestaan tegelijkertijd. dit heeft zijn voordelen. als je namelijk 4 van deze qbits zou hebben, zou je dus een getal van 16 mogelijkheden tegelijkertijd kunnen bevatten. 4^4
een normale pc zal alle 16 mogelijkheden na elkaar moeten uitproberen voordat deze alle waarden heeft gehad.
be een quantumsysteem verdubbeld dus zijn rekenkracht bij elke qubit die wordt toegevoegd.
zie het als een extreem groot parallel systeem
reken maar uit wad bijvoorbeeld een 128 qubit systeem zou kunnen doen met een bruteforce methode.
of bijvoorbeeld het gebruik van databases. zie het als toepassingen waar veel data tegelijkertijd doorzocht moeten worden.
echter is het niet gemakkelijk dit te realiseren. ten eerste verbied het onzekerheidsprincipe van heisenberg de voorspelbaarheid van zo`n systeem.
je kunt verschillende uitkomsten krijgen bij herhaalde opdrachten. in dat geval ga je naar een gemiddelde kijken van deze uitslagen.
tevens dienen deze qubits met elkaar gekoppelt zijn om te kunnen communiceren. oftewel verstrengeld. dit geeft zijn problemen, aangezien de geringste invloed van buitenaf deze toestand verbreekt. (dus ook de meting van deze spin) er treed dan decoherentie op.
Het meten van deze spintoestanden vergt een uiterst snelle meetmethode. aangezien de meting de uiteindelijke uitkomst beinvloed moet dit zeer snel gebeuren.
er zijn extreem koude temperaturen voor nodig om deze toestand te bereiken. zo rond het absolute nulpunt.
uiteindelijk dus niet een systeem die linear taken verwerkt, maar in 1 keer alles tegelijk afwerkt, ik zie me dus niet over 10 jaar een spelletje COD op doen.
Heu,.. 4^4 is niet gelijk aan 16 he! Als je 4 BITS hebt kun je 16 mogelijkheden hebben (zei het niet tegelijk). Lijkt me allemaal wat kort door de bocht. Kgeef wel toe dat ik er zelf ni echt veel van weet...

Ik dacht ook dat een qubit gemanipuleerd zou kunnen worden om bijvoorbeeld 40% "1" te zijn en 60% "0".
"uiteindelijk dus niet een systeem die linear taken verwerkt, maar in 1 keer alles tegelijk afwerkt, ik zie me dus niet over 10 jaar een spelletje COD op doen."

Dit klinkt mij toch echt in de oren als een technologie die dan juist PERFECT is voor het renderen van graphics.
+1..

Graphics hebben toch vrijwel geen begrenzing van mogelijkheden.. Ray tracing bijvoorbeeld; is toch hardware technisch nog niet relevant op het moment maar de mogelijkheden ermee? Ik zie mezelf hier BF 10 of COD 23 wel mee spelen hoor! x) Als je de trailer van BF3 nu al mag geloven kan ik niet wachten!
Als technische natuurkunde student erger ik me dood aan dit soort verhalen. Ga óf een college lesgeven volgen zodat je verhaal meer zin maakt, óf spendeer minder tijd op Wikipedia. Aan de hand van dit verhaal vraag ik mij serieus af of je ooit een college over quantum mechanica hebt gevolgd.
Ten eerste hebben 'een groepje ionen' geen spin van 1 of 0. De elektronen binnen een ion (of laten we voor het gemak maar gewoon atoom zeggen) hebben altijd een half-integer spin. Dus spin 1/2, 3/2, 5/2 ect. Negative waardes zijn ook mogelijk. Aan de hand van deze spin benoemen ze de qubit 0 of 1 zodat ze in binaire waardes kunnen werken.
Ook claim je dat het meten zeer snel moet gebeuren. Dit is gewoon klare onzin. Als eenmaal een elektron is gemeten, dan valt zijn golffunctie ineen. Niks onzekerheidsrelatie. Zeker bij verstrengelde elektronen gaat dit niet op: Als het ene elektrongemeten wordt (en dus zijn golffunctie 'verliest') dan behoud dat andere elektron zijn golffunctie terwijl je wel zijn spin weet. De onzekerheid relatie geeft juist aan dat je niet de spin langs twee assen tegelijk kunt meten. Niet tegelijk, niet heel snel na elkaar, dat kan gewoon niet.

Ik zal hier mijn geklaag maar beëindigen, gezien het verder niks bijdraagt bij het topic.
Ik zou graag meer van dit 'geklaag' willen zien aangezien je hier juist on-topic bent. Mensen vergeten dat een quantumtoestand veranderd zodra je deze waarneemt. Wanneer je de helft van een verstrengeld paar waarneemt dan ken je de staat van de één en van de ander zul je deze moeten aannemen.

Een tijd geleden heb ik een aantal boeken gelezen en vooral het principe dat het mogelijk is om een foton te ontdoen van zijn eigenschappen en er de eigenschappen van een ander foton op kunt projecteren (in het boek werd gesproken over quantumteleportatie) heeft mij geboeid.
Zijn jouw woorden nu al weer achterhaald ? Lijkt er wel op he ?

Zie link.

http://www.bbc.co.uk/news/science-environment-13626587
En volgens mij heb jij niet meer dan het eerstejaarscollege gevolgd. Het stuk van trithiumghost is in grote lijnen wel correct (op spelfouten na :)). Zie bijvoorbeeld dit artikel dat over een qubit gaat die zelf bestaat uit meerdere deeltjes. Hier kan dus duidelijk worden gesproken over een groep deeltjes die in 2 toestanden kan verkeren.

Ionen zelf hebben ook wel degelijk een spin. Zie http://en.wikipedia.org/wiki/Nuclear_magnetic_moment.

Het meten moet inderdaad snel gebeuren, want golffuncties blijven niet eeuwig bestaan en vallen uiteen: Dit is de decoherentie, waar trithiumghost het over heeft.

Ik denk dat je wel gelijk hebt dat het Heisenbergsonzekerheidsprincipe niet de oorzaak is van het indeterministische karakter van quantum berekeningen, maar als ik even snel op wikipedia kijk zie ik wel dat er slechts een kans is dat een quantum berekening correct is, dus deze zal altijd klassiek geverifieerd moeten worden.

Het voorbeeld van de verstrengeling van electronen dat jij geeft klopt niet. Je kan niet het ene electron meten van een verstrengeld paar, terwijl de golffunctie van de andere electron behouden blijft. De electronen zijn verstrengeld en je kan dus sowieso al niet spreken van het ene electron en het andere. De verstrengelde golffunctie is 1 functie. Als je daar een electron uit haalt bestaat deze golffunctie simpelweg niet meer. Zoals je zelf zegt is dan van beide electronen de spin bekend. DIt was niet geval toen de electronen nog verstrengeld waren.
Ik geeft ook rustig toe dat ik niet alles weet. Ik ben maar een student en heb nog veel te leren. Mijn punt was echter dat trithiumghost op mij over kwam als wikiwetenschapper. Mocht ik dat fout hebben dat moet hij zelf maar eens overtomen als iemand die dichter bij de stof staat. Zijn verhaal was dusdanig vaag dat mensen die hier weinig vanaf weten op een verkeerd been gezet worden. Hoe denk je anders dat mensen een totaal rampenscenario over nanodeeltjes in hun kop krijgen?
Je hebt echter wel gelijk over mijn voorbeeld over het elektron paar. Dat had ik net verkeerd om geïnterpreteerd. Ik had singlet en triplet door elkaar gebruikt.
Ook zeg ik nooit dat elektronen geen spin hebben, ik zeg dat elektronen half-integer waarden als spin hebben. Dit maakt juist het verschil tussen bosonen en fermionen.
Het is heel normaal dat grote bedrijven geld investeren in onderzoek op Universiteiten. Bedrijven als Philips, Royal Haskoning, Vodafone etc doen dit al jaren. Hoe denk je anders dat universiteiten budget moeten vinden voor dure langdurige projecten? De overheid bezuinigt ook steeds meer, waardoor je nog meer genoodzaakt bent bedrijven te vinden die willen investeren in jouw projecten.

Ik denk dat Microsoft geld heeft gestopt in dit project, omdat er nogal goed onderzoek wordt gedaan op de TU Delft wat betreft quantum computers. Van tijd tot tijd lees je ontdekkingen welke uit de TU Delft komen.

Verder wat is er zo vreemd aan dat Microsoft hier geld in stopt? Microsoft weet heel goed dat het een kwestie van tijd is voordat er quantum computers komen. En tegen die tijd wil Microsoft ook software klaarhebben die daar gebruik van maakt. Alle bedrijven hebben belang bij onderzoek. Het is niet dat ze opeens uit liefdadigheid geld gaan doneren. Voor wat hoort wat.

[Reactie gewijzigd door Relief2009 op 3 juni 2011 21:58]

Het grote verschil zit hem dus in het lineaire vs het parallelle berekenen. Lineaire berekeningen zullen wellicht even snel gaan als de huidige computerarchitectuur. De parallelle berekeningen kunnen allemaal tegelijkertijd worden uitgevoerd.

Als je kijkt naar huidige toepassingen, of dat nou het spelen van een spelletje is of het maken van weersberekeningen (Earth simulator) dan is een groot deel daarvan parallel. Als die parallelle berekeningen allemaal tegelijk berekend kunnen worden, heb je een enorme snelheidswinst.

Gezien de complexiteit van de apparaten schat ik in dat deze voorlopig aan de cloud computing kant het beste tot zijn recht komt. Eerst op de plek waar nu supercomputers staan (Cray, Big Blue, Earth Simulator), en daarna naar de lagere markt, bijvoorbeeld in het datacenter van Google, Amazon, MS Azure of whatever. Thuis zullen ze voorlopig nog niet staan.

Maar laat ze ze eerst even uitvinden en dan zullen we het zien :)

[Reactie gewijzigd door Metallator op 3 juni 2011 22:02]

Dit is leuk voor mij, vooral omdat ik me bachelor eindproject in dezelfde afdeling van plan ben om te doen in september :P
Door dat ene kleine spelfoutje kan ik moeilijk geloven dat je aan het TU studeert.
Want mensen aan de TU kunnen geen spelfouten maken? :) Ook TU'ers zijn en blijven normale stervelingen ;)
Handig voor toekomstige server-parks... prijs/performance voordelen vooral bij hele snelle processing. Toekomstige investering.. verstandig als veel naar de cloud gaat maar daar is opslag ook weer erg belangrijk en dat is een ander stukje hardware. :P

Op dit item kan niet meer gereageerd worden.



Populair: Samsung Intel Smartphones Processors Sony Microsoft Games Apple Politiek en recht Smartwatches

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013