Lichtmanipulatie ingezet om quantumcomputer te maken

Wetenschappers hebben een materiaal ontwikkeld om 'quantumlicht' te maken, waarmee snellere communicatie in computersystemen mogelijk is. Ook vormt het aanpassen van eigenschappen van fotonen de basis voor quantumcomputers.

Met speciaal ontwikkelde materialen kunnen de eigenschappen van individueel afgeschoten fotonen, deeltjes waaruit licht is opgebouwd, bewerkt worden. Daarmee worden de lichtdeeltjes ingezet om informatie mee op te slaan, aldus de wetenschappers van de Amerikaanse Purdue-universiteit. De fotonen moeten gebruikt worden om informatie vervolgens ook weer uit te kunnen lezen. Vooral het uitlezen van qubits, bits die met quantummechanische eigenschappen van deeltjes werken, is momenteel nog een struikelblok voor quantumcomputers. Door gebruik te maken van dergelijke materialen kan licht op ongebruikelijk wijze verstrooid worden, bijvoorbeeld in hyperboolvorm.

Een van de bedachte methodes is het koppelen van individuele fotonen met zogenaamde plasmonen; 'quasideeltjes' die bestaan uit oscillerende elektronen in geladen deeltjes. Een nanodraad met deze onderdelen zou gebruikt kunnen worden om informatie mee op te slaan en weer uit te lezen. De quantumstaat van het gebruikte materiaal bepaalt de 'routering' van het licht, wat gebruikt kan worden in een quantumcomputer. In eerder wetenschappelijk onderzoek lieten Nederlandse wetenschappers al zien plasmongolven te kunnen gebruiken in computertechnologie. Het koppelen van plasmonen met fotonen moet een stabiele bron van individuele fotonen opleveren voor gebruik in een quantumcomputer.

Voor de ontwikkeling van de quantumcomputer, die op termijn de conventionele computer moet vervangen, worden verschillende deeltjes getest op hun capaciteiten om een qubit te vormen. Deze quantum bits verschillen van conventionele bits doordat ze in superpositie tegelijkertijd de waarden 0 en 1 aan kunnen nemen. Vaak wordt gebruikgemaakt van de spin van elektronen om een qubit mee te maken.

Quantumcomputers hebben de potentie om vele malen sneller te zijn dan conventionele computers, maar er is nog veel onderzoek nodig naar de benodigde quantumbits, ofwel qubits. Door gebruik te maken van licht kunnen niet alleen qubits worden gemaakt; optische communicatie kan vele malen sneller werken dan conventionele methoden.

Foton dispersion

Links: conventioneel verstrooid licht. Rechts: verstrooid licht met een speciaal materiaal.

Door RoD

Forum Admin Mobile & FP PowerMod

29-10-2011 • 13:38

41

Reacties (41)

41
41
22
5
1
16
Wijzig sortering
"Een computer rekent in bits die een ‘1’ of een ‘0’ voorstellen. Bitjes van een kwantumcomputer, qubits geheten, hoeven niet te kiezen tussen 0 en 1, maar kunnen dankzij de wondere eigenschappen van de kwantumwereld beide waarden tegelijk aannemen. En dat ook nog eens in alle mogelijke verhoudingen."

Dit is natuurlijk de theorie, maar zoals het artikel al aangeeft zal het nog wel even duren voordat wetenschappers het zo ver hebben ontwikkeld dat het voor de consument beschikbaar zal zijn. Reden: groot nadeel van quantumdeeltjes is dat ze uiterst gevoelig voor storingen en pulsen zijn, hierdoor loopt de ontwikkeling veel vertraging op..

http://www.wetenschap24.n...ingpongen-met-qubits.html

[Reactie gewijzigd door Gertjezzz op 23 juli 2024 11:52]

Wat je noemt is slechts één van de velen redenen, maar wel een grote. Ook zul je LN2 (of erger, helium) koeling niet snel terug vinden in consumentenelektronica, en vooralsnog is quantum-computing bij kamertemperatuur toekomstmuziek (al is 't theoretisch mogelijk). En dat is nog maar het topje van de ijsberg; voor quantumcomputing moet alles weer back to the drawing board; omdat werkelijk elke operatie anders verloopt (niet load > run > read maar prepare > evolve > measure of prepare > measure) en omdat je qubits niet kan uitlezen, kopiëren, of zelfs ongemoeid laten zonder de staat significant te veranderen, zelfs die van andere qubits. Daartegenover staat natuurlijk dat het de logische volgende stap voor processors is omdat de miniaturisatie vroeger of later toch tegen de grenzen van kwantumeffecten gaat aanlopen terwijl we de ideale 1 electron per state change van traditionele transistors naderen.
misschien leuk om hier is naar te kijken. het is leuk om meteen door een encryptie te komen met quantum computers, maar hoe bescherm je je er eigenlijk tegen?

http://www.nikon.com/about/feelnikon/light/chap04/sec01.htm
Grappig om te zien/lezen dat quantum encryptie gebruik maakt van polarisatie.. Daar denk je niet vanzelfsprekend aan.

Zelf werk ik veel met polarisatie eenheden, vooral circulaire polarisatie in radartechnieken of horizontale/verticale (net wat voor soort zonnebril je nodig hebt (water of weg)) polarisatie techniek. Hier heb ik dus nog nooit bij stil gestaan, weer wat geleerd! :)
Quantumcomputers hebben de potentie om vele malen sneller te zijn dan conventionele computers, maar er is nog veel onderzoek nodig naar de benodigde quantumbits, ofwel qubits. ""

Dat is wel een understatement, hier een autoriteit op gebied die het één en ander uitlegt:
http://www.youtube.com/watch?v=rLBpz35QCHA Mind boggling is het woord wat er het best bij past.

Een mogelijk nog groter probleem dan grote hoeveelheden qubits het ontwerpen van de algoritmes die geschikt zijn voor de quatumcomputer. Maar als het allemaal is opgelost dan hoeven we ons niet meer druk te maken over zaken tweaken. http://www.youtube.com/wa...Wfod_8JsM&feature=related

[Reactie gewijzigd door pakka680 op 23 juli 2024 01:27]

Terrwijl mijn intelligentie op diverse vlakken bovengemiddeld is bevonden, voel ik mij, wanneer ik zoiets als dit lees, nou niet bepaald intelligent. Ik begrijp er maar weinig (tot niets) van. Hoewel het allemaal reuze interessant is, ervaar ik het ook deels als beangstigend om het feit dat ik de materie niet begrijp.

Ontwikkeling met binaire technologie vereist al veel studie. Er zijn geweldige dingen mee te realiseren, maar er valt ook nog genoeg over te leren. Wanneer dit gepaard gaat met andere zaken zoals multi-threading / concurrency / multi-core optimalisaties, dan zie je gewoon dat het voor veel ontwikkelaars al snel te hoog gegrepen is, of teveel werk is. Er is zo ontzettend veel techniek beschikbaar, terwijl deze verre van allemaal wordt benut voor ontwikkelling.

Het zet me dan ook aan het denken: wanneer deze techniek over een aantal decennia gangbaar zou zijn, hoeveel opleiding en kennis zou een ICT-er dan wel niet moeten hebben om uberhaupt quantum-software te kunnen gaan ontwikkelen. Ons leven is maar relatief kort. Zie ik het fout wanneer ik denk dat dit eindeloos studeren gaat worden (in diverse disciplines), terwijl de daadwerkelijke praktische arbeidsuitvoering maar enkele jaren zou kunnen betreffen? En dat is dan ook nog eens er vanuitgaande dat er maar een handje vol mensen zullen zijn met voldoende intelligentie om zich zulke materie eigen te maken... I feel lost.
Anoniem: 374632 @CoreIT29 oktober 2011 14:42
....toch gek dat jij met je bovengemiddelde intelligentie zich laat leiden door zoiets eenvoudigs als angst voor het onbekende....
Het grootste struikelblok van intelligente mensen is het feit dat ze alles willen weten en _begrijpen_. Dat is dan ook de reden dat ze/we* bang zijn voor het onbekende.

Een stratenmaker zal waarschijnlijk zijn schouders ophalen als je hem vraagt of hij bang is dat computers de mensen gaan vervangen of zelfs overnemen. Waarom zou hij het antwoord op die vraag hoeven te weten?

Ik volg trouw elke dag het nieuws en mijn (niet bijster intelligente) ex vroeg eens: waarom doe je dat? Ik antwoordde "voor mijn algemene kennis". Waarop ze vroeg "En wat doe je er dan mee?" Ehhhhhhh...........

* welk woord daar hoort te staan mogen jullie zelf beslissen

[Reactie gewijzigd door BartOtten op 23 juli 2024 11:52]

Mee eens. Ik weet ook graag alles.. ;)

Je zou toch kunnen zeggen dat een "intelligent mens" de werking van de angst voor het onbekende begrijpt en onderkent....
Misschien wel omarmt omdat in het onbekende meer kennis besloten ligt.

Dat is imho ook de drijfveer van de mensheid, to boldly go where no man has gone before...
Angst voor het onbekende...Of toch maar niet...

De tegenstelling viel mij op vandaar de reactie.
Op korte termijn niets. Maar op langere termijn kan ik oplossingen bieden die jij in de toekomst niet kunt omdat jij een korte termijn visie hebt.

Angst teistert een heleboel intelligente mensen. Het kan hun drijfveer zijn.
Maar ik vind dat angst niet de juiste definitie is. Ik zou liever uit willen gaan van leergierigheid.

Ik zag dat er gesproken is over "angst" over dat er te weinig mensen in de stof verdiepen. Maar er is maar 1 persoon nodig die een oplossing vind. De tijd dat het gebeurt met minder zal statistische verlengt worden. Dus als je dit intresseerd dat raad ik je aan om er iets mee te doen. Heb je andere doelstellingen dat adviseer ik lees er wat en verbreid je algemene kennis.

Verder over de discussie over AI.
Inderdaad als quantum pc toekomst worden is de extra rekenkracht een mooie toevoeging. Dit zou beteken dat een AI op vele kleinere schaal geproduceerd kan worden. We zitten nu tussen de 20 a 40 na op het gebied van printen can chips. Op quantum niveau zou dat 1na zijn.

Het probleem op het moment van een AI is niet de hardware het is de software en financiering. Niet iedereen is in de gelegenheid om een hele server op te zetten en te beschikken over alle kennis die noodzakelijk is om een algemene kennis op te laten rusten. Het dichtstbijzijnde op dit moment is Watson. Maar dit alleen is geen AI, Over een paar jaar zie je dat er net als bij Asimo dat verschillende technieken ontwikkeld door verschillende laboratorium en dan door een groot bedrijf bij elkaar wordt gezet. Een Ai is op conventionele technieken al heel dichtbij.

Quantum zelf heel simpel gezegd is voornamelijk resultaten die we krijgen door middel van experimenteren op nano schaal. Tijdens het experimenteren komen er resultaten binnen die voor ons magische lijken. Maar het zijn mogelijkheden die ten goede kan komen voor de gehele mensheid.
even OT: Dus er zaten zoveel gaten in dat ze niet meer te redden was?
RIP (rommel in prullenbak)
Anoniem: 140398 @CoreIT29 oktober 2011 14:49
We hebben de hulp van quantumcomputers om voor de zelfde computers programmatuur te ontwikkelen. Het is een kip ei probleem. Als je een ai ontwikkelt kan de ai zichzelf verder ontwikkelen. En dat je de materie niet begrijpt komt doordat de wetenschappers de materie ook nog niet echt begrijpen, waardoor ze hem alleen door middel van zeer ingewikkelde theoriën kunnen trachten te verklaren. Het wachten is op een nieuwe Einstein die de puzzelstukjes op de juiste manier verbindt.
Ik verlaat het artikel wellicht. Maar de kip (zoals we die NU kennen) was er na het ei (ook zoals we die NU kennen). Waarom? Je zegt het zelf, door ontwikkeling ofwel evolutie. Daar is de evolutietheorie volgens mij wel duidelijk in.

Zonder twee kippen kun je geen ei maken. Zonder twee eieren heb je geen twee kippen. Dat is een waarheid als een koe.
Maar je kunt wel twee geslachten hebben die samen (geleidelijk aan) een nieuwe voortplantingsprincipe vormen door kruising en mutaties. Tuurlijk is het principe ei er niet in een dag, net als de principe kip. Maar het kip en ei probleem bestaat naar mijn idee (strikt genomen) niet. Bij kip en ei probleem denkt men teveel in hokjes, in zwart/wit, of in eentjes en nulletjes. Maar wat zit daartussen, of misschien zelfs ervoor!

[Reactie gewijzigd door Anoniem: 201824 op 23 juli 2024 11:52]

Zal het vertalen, artikel is redelijk ingewikkeld geschreven, terwijl het best makkelijk uit te leggen is.

Licht kun je soms beschouwen als een deeltje, zeg maar een tegenhanger van een atoom.
Deze lichtdeeltjes hebben van nature erg veel eigenschappen, 'kleur', vorm etc etc.
Omdat die zoveel eigenschappen hebben is het moeilijk deze uit te lezen/bewerken, een struikelblok voor quantumcomputers.

Met speciale materialen kun je sommige eigenschappen van een lichtdeeltje 'verwijderen'.
Hierdoor is het makkelijker ze uit te lezen/beschrijven, je hoeft bijvoorbeeld alleen op de 'vorm' te letten. En dus makkelijker een quantumcomputer ermee te bouwen.

Disclaimer: Over het volgende deel ben ik het niet zo zeker, correct me if im wrong :).

De aangepaste lichtdeeltjes kunnen worden gelezen en beschreven door een 'nanodraad'. Deze draad bevat wat extra elektronen.

Lezen: als daar een lichtdeeltje op valt kan het worden geabsorbeert door een elektron. Hierdoor heeft het elektron genoeg energie om aan een atoom/ion te ontsnappen, en gaat er een stroompje lopen.

Schrijven: een elektron kan een 'teveel' aan energie afstaan. Dit gebeurt in de vorm van een lichtdeeltje.

^ zie fotoelektrisch effect.

Licht wordt gebruik omdat het quantumeffecten vertoond, bijv. inteferrentie, en kan dus gebruikt worden voor bepaalde berekeningen (vraag me niet hoe) :).

[Reactie gewijzigd door C.Hariri op 23 juli 2024 11:52]

Deze technologie verandert het principe van de computer niet, slechts de implementatie. Software schrijven zal nauwelijks veranderen (behalve dan dat we nog meer resources gaan verkwisten, omdat er toch genoeg rekenkracht is).
Een programmeur van nu hoeft toch ook niet alle transistors in een processor te begrijpen om te kunnen programmeren? Zelfs voor het programmeren in assembly hoef je niet alle details te weten over hoe de processor inelkaar zit. Dit zal met quantumcomputers net zo gaan.
Ik denk niet dat ik het daar mee eens ben: Met een kwantumcomputer zou je je probleem in lange reeksen van qubits moeten rangschikken. De huidige programmeergereedschappen nodigen je niet bepaald uit om dat te doen, maar nodigen je juist uit het algoritme zo op te schrijven dat kandidaatoplossing voor kandidaatoplossing getoetest wordt op correctheid. Als je een kwantumcomputer bestaande broncode laten uitvoeren lijkt mij dat je de rekenkrachtvoordelen van kwantumcomputers maar moeilijk kunt uitbuiten.
Dat is deels waar, maar dat is een tussenlaag die in de huidige gereedschappen ontbreekt, lijkt me, en die er dus bij gaat komen. Dat verandert dus niet de implementatie. Want die tussenlaag hoef je vervolgens weer niet te kennen. Tenminste als het principe ofwel de tussenlaag volledig uitgewerkt is om de correctheid te toetsen op een gestandaardiseerde manier.
Je kent kent de "Stelling voor eeuwige werkgelegenheid voor compilerbouwers"?

Een zeer bekend onberekenbaar probleem is het halting-probleem: Het is onmogelijk een programma te schrijven te dat bepaalt of een ander programma stopt.

Als er een perfecte compiler zou kunnen bestaan, dan zou hij een programma dat niet stopt optimaliseren tot:

program stopt_niet;

begin
while true do;
end.

Maar dan zou je deze perfecte compiler kunnen gebruiken om het halting-probleem op te lossen, want je kijkt gewoon of hij een programma reduceert tot het bovenstaande en je weet of het programma stopt.

Ofwel: Een perfecte compiler bestaat niet. Voor iedere compiler bestaat een betere compiler.

Vanuit dit oogpunt moet je zeer skeptisch zijn dat dit met een tussenlaag opgelost kan worden. Maar we kunnen ook naar de praktijk kijken. Er is momenteel veel niet-parallelle software geschreven in derdegeneratietalen in omloop. Momenteel neemt de snelheid van een processorkern bijna niet meer toe en worden er vooral steeds meer processorkernen toegevoegd. Bovendien beschikt de doorsnee PC over een GPU die een gigantische hoeveelheid rekenpotentieel heeft.

Bestaat er een tussenlaag die niet-parallelle code in een derdegeneratietaal kan omzetten in code die meerdere processorkernen gebruikt of een GPU weet te gebruiken?

Jazeker, dat bestaat. Is het ook effectief? Nee. Je haalt er amper meer rekenkracht uit. Om al je processorkernen te gebruiken of een GPU goed te benutten is nieuwe software nodig die op een andere manier geschreven is (o.a. worden vaak nieuwe programmeertalen ingezet).

In de informatica gold de gouden regel dat het altijd goedkoper is nieuwe hardware te kopen (die volgens de Wet van Moore steeds sneller wordt), dan programmeurs in te huren om software te optimaliseren. Die regel geldt niet meer. Hij is op de International Supercomputing Conference deze zomer in Hamburg zelfs officieel ten grave gedragen. Meer rekenkracht betekent vanaf nu de handen uit de mouwen steken.

Maar dat gaat over parallelisering en GPU's. Hoe zit het met de kwantumcomputer. Een kwantumcomputer wijkt in programmeermodel veel verder af van de huidige computers dan parallele hardware van niet-parallele hardware afwijkt. We kunnen dus gerust aannemen dat het bouwen van een tussenlaag waarbij programmeurs door kunnen gaan zoals ze altijd deden erg moeilijk gaat zijn, en daarom zeer weinig effectief gaat zijn.

De conclusie is dat kwantumcomputers zodra ze beschikbaar komen geheel nieuwe programmatuur nodig hebben. Wellicht zal het vergelijkbaar zijn met hoe de kunst van het programmeren zich in de jaren '60 en '70 van de vorige eeuw ontwikkelde.
Nee die stelling kende ik niet, en had het ook niet zo bekeken.

Zo diep zit ik ook niet in de software ontwikkeling (en -geschiedenis). Over het algemeen hoef ik dat ook niet te weten waar ik software ontwikkel (domweg: schermen bouwen en meestal relatief eenvoudige methods schrijven). De optimalisering regelt de compiler voor me. Daarom was ik van mening dat de compiler (of nog iets hogers) als tussenlaag tussen machinetaal en programmasoftware dat voor mij gaat doen. De programmasoftware is voor mij de implementatiedeel.
Welke vorm de technische architectuur, en hoeveel lagen op lagen in de gehele software zitten maakt mij niet uit, alleen het platform waar ik kennis van heb. Maar daarmee zie ik nu dat ik het over een heel ander niveau heb :S, en je hebt gelijk.

Tegelijk vraag ik mij dan af of het type software dat ik en vele anderen maken en gebruiken ook wel nuttig is om met quantumcomputers toe te passen? Wat heb je aan de kwantumcomputers als je code over het algemeen toch vaak relatief eenvoudig werkt? Maar dat is ergens jouw punt dan ook in je reactie op Ruud v A, als ik je goed begrijp. Het vereist dus een andere toepassings-, denk- en werkwijze ten opzichte van de huidige programmatuur?
Ik denk dat er dan (nog) meer specialisatie komt, kijk bijvoorbeeld naar de medische wereld. vroeger (paar honderd jaar geleden) had je gewoon een arts die alles deed medicatie, operaties (voor zover dat toen van toepassing was), nu heb je specialisten voor ieder onderdeel van het menselijk lichaam.
Anoniem: 201824 @Simmie29 oktober 2011 16:17
Zou goed kunnen ja. Hetzelfde zie je in de structuur van bedrijven. Waar je in een klein bedrijf naast bijv. ontwikkeling misschien ook zelf de administratie doet, doet in een groot bedrijf een gespecialiseerd iemand de ontwikkeling, en een gespecialiseerd iemand de administratie.
Zie ik het fout wanneer ik denk dat dit eindeloos studeren gaat worden (in diverse disciplines), terwijl de daadwerkelijke praktische arbeidsuitvoering maar enkele jaren zou kunnen betreffen?
Ja dat zie je verkeerd, want zoals zoveel techniek en wetenschap is ook de huidige digitale techniek ontwikkeld in de loop van meerdere generaties. Dus ook voor het ontwikkelen van quantum technologie zijn meer dan "enkele jaren arbeidsuitvoering" beschikbaar.

Dat soort ontwikkelingen heeft hebben ook niet alleen te maken met intelligentie, maar minstens zo veel met ervaring.
Anoniem: 201824 @CoreIT29 oktober 2011 15:29
Ik denk dat het wel te leren valt, je gaat immers niet verder onderzoeken naar wat al bevestigd is, je begint vanaf een punt waar anderen gestopt zijn (tenzij je een tegendeel wilt en kunt bewijzen op bijv. relativiteitstheorie :P). Wel zal het veel tijd kosten, maar dat is wel gebruikelijk in de wetenschap. Maar vergeet niet dat nieuws dat we 1000 kunnen worden (in de toekomst) :)

Edit:
Zelfde geldt voor ontwikkel technieken. Je bouwt de ene techniek op de ander. De basis blijft hetzelfde, en hoef je dus niet te kennen.

[Reactie gewijzigd door Anoniem: 201824 op 23 juli 2024 11:52]

dat valt best mee, je bouwt software nu al met behulp van andere software en frameworks die het toegankelijker maakt. slechts weinig programmeurs weten nog hoe assembler werkt en toch kunnen het best goede programmeurs zijn. je kan zelfs een eenvoudige website 'programmeren' zonder ook maar enige technische kennis. IT steunt nu al, uit noodzaak, op het principe van hergebruiken van mekaars expertise.

dit zal bij quantumcomputers ongetwijfeld ook gebeuren.
Bij quantumcomputers krijg ik toch altijd het idee dat het maken van een echt AI mogelijk word.
Bij quantumcomputers krijg ik toch altijd het idee dat het maken van een echt AI mogelijk word.
Zeker omdat zowel intelligentie en quantum processen mysterieus lijken?

Ik zie niet in waarom er een speciale link zou zijn tussen quantum processen en AI. Quantum processen treden overal op, zelfs bij een binaire computer. De quantum processen zijn hier echter verwaarloosbaar binnen de logica. Ik zie niet waarom dit bij AI processen anders zou zijn. Of denkt men soms dat quantum processen een belangrijk onderdeel zijn van gedachten vanwege het feit dat de laatste ze zo ongrijpbaar lijken?
Volgens mij bedoelt bucket dat de enorme hoeveelheid rekenkracht die je tot je beschikking krijgt met een quantumcomputer wel eens heel goed inzetbaar zou kunnen zijn voor echt AI.
Ik denk dat een probabilistic systeem uitermate geschikt is voor AI.

[Reactie gewijzigd door Anoniem: 109989 op 23 juli 2024 11:52]

helemaal mee eens. het is sowieso bijzonder, en een goudmijn aan rekenkracht, hoewel we nog eerst even moeten ontdekken hoe alles nou precies werkt... (en hoe we het kunnen laten werken zoals we willen)

Ik hoop dat we over 10 jaar al een paar sprongen vooruit zijn en tegen die tijd kunnen rekenen.
Het echte originele artikel is gepubliceerd in Science en hier is een samenvatting van dat artikel (als je toegang hebt ook het echte artikel) te vinden:

http://www.sciencemag.org/content/334/6055/463.summary
Omdat sommige aspecten van quantum computing fundamenteel anders in elkaar zitten, zouden sommige numerieke problemen bijvoorbeeld veel sneller opgelost kunnen worden, met alle toepassingen van dien.

Voorbeeld: Encryptie technologie maakt vaak gebruik van het feit dat het heel lastig is dingen die met priemgetallen versleuteld zijn brute force terug te rekenen. Versleutelen gaat in een fractie van een seconde, maar doordat het probleem niet makkelijk te reduceren/op te spliten is duurt het reconstrueren zonder sleutel vele jaren. Banken en digitale beveiligingsbedrijven zijn geloof ik dus aardig geinteresseerd in mensen die goed nieuwe priemgetallen kunnen vinden. Wat ik heb begrepen is dat quantum computing deze terugberekening wel min of meer even efficient/snel kan, waarmee de encryptiebusiness natuurlijk een groot probleem zou kunnen hebben. Precies daarom zijn het volgensmij juist van dit soort bedrijven die geinteresseerd zijn in de ontwikkeling van quantum computing (security through obscurity is blijkbaar geen populair credo bij hen).

Hoe dan ook, er wordt heel veel onderzoek gedaan naar allerlei vormen van quantum computing die niet allemaal niet perse evenveel met elkaar te maken hebben of compatible zijn. Totdat er ergens echt grote sprongen worden gemaakt en een bepaalde invalshoek dominant wordt (en heb niet het idee dat daar al sprake van is) blijft dit allemaal redelijk speculatief en ver weg. Maar als dat wel gebeurd kan het natuurlijk snel verkeren. =p
Anoniem: 343588 29 oktober 2011 19:16
Dit is geen quantumcomputer, dit is een photonic computer ofwel photonics ipv electronics.

Heb er zon hekel aan dat mensen het quantum woord verprutsen. Het is gewoon een marketing term geworden, jammer :(
Eeeeehm, goed punt. Maar het punt was toch juist dat je hier met superposities van losse fotonen kunt werken en het dus wel quantum-computing-relevant was?

Dat suggereert de titel iig wel, maar misschien moet ik de volgende keer beter lezen wat het precies over gaat...*bloos*
Anoniem: 343588 @Crovmon29 oktober 2011 20:47
Je kan ook en quantum gerelateerde uitleg geven over een normale hardeschijf, dat betekent nog niet dat het een quantum schrijf is.
Ehm ja, maar het is niet dat QM er even bijgesleept wordt om photonic computing uit te leggen zonder dat het verder relevant is (wat jij nogal impliceert met je eerste post). Ze proberen met deze materialen nou juist uit fotonen 'qubits' uit te lezen, waarop je bijvoorbeeld net een QM-operaties hebt uitgevoerd (i.p.v. met bijvoorbeeld transistors logische bewerkingen doen). Dat lijkt me zo'n beetje de definitie van quantum computing zelfs al betekent dat in dit geval overlap tussen twee concepten van quantum computing and photonics.

Lijkt me iig geen reden om mensen die (vrij begrijpelijk) het quantum aspect wat interessanter vinden dan het fotonische aspect af te zeiken.
Volgens mij is het gewoon een nieuwe techniek om binair rekenen sneller te maken.
Principes die al decennia gehanteerd worden zullen vast niet zomaar ineens vervangen worden.
Binair is binair en dat zal ook zo blijven.
het hele principe waardoor qubits zo snel zouden kunnen zijn (lees: kunnen) zijn is omdat ze niet alleen binair hoeven te zijn. Ik denk dat we dus niet bij binair zullen blijven, maar ooit over zullen stappen op qubits o.e.d.

Dat is eigenlijk de enige reden waarom men hier onderzoek naar doet.
Ik vraag me af, wat moeten we met al die snelheid? een van de antwoorden is, een misselijkmakend groot OS draaien, het 12 petabyte grote windows24 en inderdaad een heuse AI. al denk ik dat we al heel wat snelheid kunnen maken met distributed ( lees cloud computing ) in het internet dus tot die tijd is er nog heel wat te verwachten. We zullen wel zien.
wat dacht je van simulaties draaien? Nu zijn er voor vele simulaties (van het weer, ontstaan van het helal, etc...) vele honderduizenden rekenuren nodig. Een quantumcomputer zou dit vele duizenden malen sneller kunnen doen.

Op dit item kan niet meer gereageerd worden.