Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties

Onderzoekers van de universiteit van Bristol hebben een silicium chip ontwikkeld die massaproductie van onderdelen voor quantumcomputers mogelijk zou maken. De silicium circuits maken gebruik van fotonen in plaats van elektronen.

Silicium quantumchipDe Britten meldden de ontwikkeling van hun quantumchips tijdens het British Science Festival, dat van 4 tot 10 september plaatsheeft. De onderzoekers van het Centre for Quantum Photonics van de universiteit van Bristol maken gebruik van silicium om hun quantumcircuits te bouwen en kregen daarbij hulp van een Schotse universiteit en de TU Delft. In de circuits worden fotonen in plaats van elektronen gebruikt om berekeningen uit te voeren. Daarbij zouden de chips gebruikt kunnen worden om quantummechanische effecten als superpositie en verstrengeling te benutten.

De overstap van glazen naar silicium circuits voor fotonen zou de componenten voor een quantumcomputer ruim duizendmaal kleiner maken. Bovendien kunnen silicium circuits relatief eenvoudig geïntegreerd worden met bestaande hardware. Ook moet massaproductie mogelijk worden door lithografische standaardapparatuur te gebruiken. Daarmee zeggen de onderzoekers uit Bristol alle componenten in handen te hebben en aan alle voorwaarden te voldoen om een quantumprocessor te produceren.

Moderatie-faq Wijzig weergave

Reacties (58)

Superpositie is het effect dat een foton pas een deeltje wordt als het gemeten wordt. Zet je bijvoorbeeld een fotonenkanon voor een plaat met 2 spleten, met daarachter een fotografische plaat, dan zal er te zien zijn dat de fotonen elk door allebei de spleten tegelijkertijd gegaan zijn. Op het moment dat er bij de spleten zelf gemeten wordt, gaan de fotonen wel door 1 spleet.

Kwantumverstrengeling is het effect dat als een foton in tweeen gesplitst wordt met een half doorlatende spiegel, de spin van het ene foton altijd het omgekeerde is van het andere foton. Dus door de spin van de ene foton te bepalen, weet je automatisch wat de spin van het verstrengelde foton moet zijn.

Beide zijn echter niet te gebruiken voor informatieoverdracht, dus hoe dit van toepassing kan zijn in een kwantumprocessor weet ik niet.
Als je niet meet gaan in het zg double slit expiriment de fotonen als golf door beide spleten, en krijg je een interferentiepatroon op de fotografische plaat. Als je wel meet, krijg je 2 lijnen.

Het gekke van kwantumverstrengeling is dat de beinvoeding die op je 1 foton doet, direct ook op het andere foton plaatsvindt, al zit er lichtjaren in afstand tussen de twee. Einstein noembe het al "spooky action at a distance".

Als dit principe ooit in communicatie mogelijk wordt, zouden tijdvertragingen bij ruimtemissies een ding van het verleden worden.
Via kwantumverstrengeling kun je NIET instantaan informatie versturen, dit zou in strijd zijn met de speciale relativiteitstheorie. Zie de Einstein-Podolsky-Rosen paradox:

http://en.wikipedia.org/wiki/EPR_paradox
Volgens mij juist wel? ik geef meteen toe dat ik me er niet heel erg in verdiept heb en het absoluut niet mijn werkgebied is, maar heb over de laatste 2 jaar uit de verschillende artikelen dit begrepen;

Als ze de staat van 1 van de 2 atomen veranderen, dan veranderd de andere ook, zelfs als er afstand tussen zit, en dat is door verschillende teams op verschillende locaties bewezen, over een afstand van 1meter tot uiteindelijk 40km ofzo?

Nogmaals sorry als ik iets doms roep, dit is echter wat ik uit de verschillende blogs begrepen heb/had.

En je kunt ook veel zeggen over hoe bruikbaar dat zou zijn, dan moet je dus eerst iemand een blokje atomen sturen met de post voordat je met ze kan 'wordfeuden' ofzo? lijkt me niet echt vooruitgang, misschien voor labs.

[Reactie gewijzigd door olivierh op 4 september 2012 17:51]

Nee, dit is onjuist. Het enige wat mogelijk is, is een correlatie opbouwen tussen verschillende systemen die (ver) uit elkaar verwijdert zijn en dat is echt wat anders dan informatie versturen. Zie inderdaad http://en.wikipedia.org/w...ity_in_the_EPR_experiment
Als ik het goed heb begrepen dan zijn wetenschappers vandaag al in staat om dankzij die kwantumeffecten bepaalde berekeningen te kunnen maken. De berekeningen zijn wel specifiek maar dat is denk ik een beetje vergelijkbaar met een grafische kaart. Hoewel ze nu een kwantumchip kunnen maken staan ze nog ver van de productie van een volledige kwantumprocessor. Het artikel gaat wel in de richting van een toekomstige processor met een specifieke kwantuminstructieset.

Daarbij vind ik nergens in het artikel hoeveel kwantumbits deze chip kan gebruiken. Stel dat de chip met slechts 1 quantumbit kan werken dan zie ik weinig toegevoegde waarde. Moet de chip niet eerder met 32 of 64 verstrengelde kwantumbits kunnen werken om een toegevoegde waarde te kunnen bieden?
Tijdens mijn studie had ik ook een gevraagd hoeveel Qubits je nodig hebt om zinvoll te kunnen rekenen. Het antwoord was een paar duizend (zou dus te vergelijken zijn met transistoren; met een paar duizend transistoren kun je een bruikbare microcontroller bouwen).
Je bedoelt net zoiets als de MMX instructies op huidige processors? Het voegt iets toe aan de al bestaande instructies in de processor.
Het gaat niet over informatieoverdracht maar over het feit dat je kwantumsuperpositie kunt gebruiken om bepaalde algoritmes te versnellen. Zo bestaat er bijvoorbeeld een snel zoekalgoritme (Grover's search) dat gebruik maakt van superpositie om meerdere antwoorden tegelijk te controleren (simpel gezegd). En inderdaad, verstrengeling heeft hier in z'n geheel niets mee te maken, al zul je dat wel kunnen gebruiken om een kwantum staat te teleporteren.
Een kwantumcomputer koop je niet bij de Kwantum. Sterker nog; die koop je voorlopig nergens.

De theorie achter de kwantumcomputer waarbij een kwantumdeeltje gebruikt kan worden voor eenheden die tegelijkertijd waarden tussen 0 en 1 bit aannemen is leuk. In theorie kan een kwantum-binaire eenheid (qubit) van de kwantumprocessor waarden aannemen die 0 en 1 tegelijk zijn. Hierdoor kan een n-qubit systeem beschreven worden met 2n vectoren in de Hilbertruimte. Door dit fenomeen stijgt de capaciteit van kwantumcomputers exponentieel met het aantal qubits; Waar een klassieke computer 64 bits nodig heeft om 264 waardes uit te drukken, heeft een kwantumcomputer slechts 5 qubits nodig.
In de tijd dat een kwantumprocessor 2n berekeningen kan uitvoeren, heeft een klassieke processor er net 1 gedaan. Hierdoor is het theoretisch mogelijk enorm snel parallelle berekeningen uit te voeren die met onze desktops (hoe snel ook) onmogelijk zijn.

De kunst is om de kwantumtoestand van de qubits lang genoeg stabiel te houden om gegevens te kunnen verwerken en uit te lezen - anders is een qubit (hoe mooi ook) waardeloos.
En hoe dicht we er ook bij komen:
http://www.nature.com/nat...7392/abs/nature10900.html (altijd leuk)
...het zal nog heel lang duren voordat dit een commercieel toepasbaar product zal worden.

[Reactie gewijzigd door mrlammers op 4 september 2012 16:56]

Ik volg je niet helemaal. Om 264 waardes uit te drukken heb je aan 9 bits voldoende.
Met acht bits heb je 256 waardes, met negen bits heb je 512 waardes, dus om 264 verschillende waardes uit te kunnen drukken heb je aan 9 bits voldoende.

(2⁶⁴ is ongeveer 18 triljoen)

Jij stelt dat de tijd die een kwantum computer nodig heeft 2n is ten opzichte van een conventionele computer. Ik neem aan dat je andersom bedoelt, anders zou de kwantum computer een stuk trager wezen hè. Minder tijd nodig is sneller hè.
Iedereen is in ieder geval wakker.
typo & {sup} vergeten.
Gerepareerd. :)

[Reactie gewijzigd door mrlammers op 4 september 2012 17:08]

Sterker nog, er is een bedrijf dat quantumcomputers maakt en verkoopt.

http://www.dwavesys.com/en/dw_homepage.html

Alhoewel er een 'academische' discussie gaat of dit werkelijk quantumcomputers zijn..... aangezien er weinig onafhankelijke informatie beschikbaar is, behalve de claims van het bedrijf zelf.
...het zal nog heel lang duren voordat dit een commercieel toepasbaar product zal worden.
En op welk moederbord kun je die processor dan prikken? Ik heb 'm nog niet gezien in Pricewatch. En welk OS draai je dan op je kwantumcomputer? En iedereen heeft straks een cryo-installatie thuis die kan koelen tot nabij nul Kelvin?

De academische discussie die jij aanhaalt is terecht. De kwantumcomputer van D-Wave gebruikt wel de fysische eigenschappen van qubits, maar vertaalt de boel daarna gewoon weer terug naar eenen en nullen om ze op conventionele wijze te verwerken.
Begrijp me niet verkeerd, ik geef ze wel credit; je moet per slot van rekening ergens beginnen...

...en als ie komt, dan maakt ie meteen van elke moderne desktop zoals we die nu kennen een pre-historisch werktuig. ;)

[Reactie gewijzigd door mrlammers op 4 september 2012 17:36]

De tijd die een kwantumprocessor nodig heeft om berekeningen uit te voeren is 2n ten opzichte van 1 voor een klassieke processor. Hierdoor is het theoretisch mogelijk enorm snel parallelle berekeningen uit te voeren die met onze desktops (hoe snel ook) onmogelijk zijn.
Bedoel je niet dat de kwantumprocessor 1 nodig heeft en een klassieke processor 2n? Want anders constateer ik een gigantische contradictie omdat 2n significant meer tijd kost dan 1 ;)

En:
Waar een klassieke computer 64 bits nodig heeft om 264 waardes uit te drukken, heeft een kwantumcomputer slechts 5 qubits nodig.
Voor 264 discrete waarden zijn er 9 bits nodig, daarmee kun je alle waarden in het bereik [0,511] aanduiden. Ik snap dan ook niet waarom je 64 bits nodig hebt, tenzij je het over padding en dergelijke hebt op een 64-bits processor. Ik neem trouwens aan dat je bedoelde 2^8 = 256, dus 8 bits om 255 waardes te uitdrukken, wat je met 5 qubits kunt doen op een quantumprocessor.
Uhm... 264 verschillende waarden kunnen uitgedrukt worden met 9 bits (2^9). Dus 64 bits lijkt hier een beetje overkill.
Naast stabiliteit wat een hele klus is en blijft is het tweede probleem het schrijven van een algoritme wat geschikt is. Er zullen ongetwijfeld mensen zijn die er goed in zullen zijn of worden maar het vergt een compleet andere denkpatroon.
Zou dit ook een doorbraak zijn opti-elektronica? Als je iets over glasvezel stuurt moet het altijd terug worden omgezet naar een 'elektronen' signaal. Hiermee is het mss mogelijk om een puur optische computer te maken? Of toch een 'optische' router...?
Er is bijzonder weinig informatie beschikbaar wat ze nu precies hebben gemaakt (iig het bronartikel brengt niks meer dan wat hier op tweakers staat, en dat is wel erg summier).

Echter als je een optische computer maakt, die net zo werkt als nu een elektrische computer, dan zal het er iig niks kleiner op worden als het ook maar iets lijkt op de huidige technieken. Die hebben namelijk altijd resonantiestructuren, die in de ordegrootte van de golflengte van licht moet zijn (en UV krijg je niet door siliciium, dus je kan niet licht met hele kleine golflengte pakken). En die golflengte is nou eenmaal een stuk groter dan de afmetingen van een moderne transistor.

Oftewel je optische transistor zal gewoon veel groter zijn dan een elektrische transistor. Dan kan je nog hopen dat het wel veel sneller is, maar de techniek die tot nu toe altijd gebruikt is om optische 'transistoren' te maken is ook fundamenteel traag: opwarmen en koelen van resonantiestructuren.

Nu hebben ze het hier specifiek over quantumcomputers, wat een hele andere tak van sport is. In sommige dingen zijn die heel snel, maar in andere juist weer niet. Het is zeker geen kwestie van een quantumcomputer maken en alles gaat 100x zo snel. Jammer genoeg is er vanwege de zeer beperkte hoeveelheid informatie geen zinnig woord over te zeggen of ze nou iets baanbrekends hebben gedaan, of dat de PR afdeling in Bristol een beetje te enthousiast is geworden (ja dat gebeurd vaak, en niet alleen PR, ook de wetenschappers zelf willen nog weleens hun uitvinding wat revolutionairder voordoen dat hij daadwerkelijk is).
Klinkt interessant! Vraag me af wanneer de eerste prototype quantum computers komen...
Prototype bestaat al sinds 1999 http://web.mit.edu/newsoffice/1999/quantum.html

Verder interessant: Verdiep je 'ns in het werk van Seth Lloyd, een van de meest vooraantstaande en bekendste 'Quantum Engineers'. Hij houdt zich al jaren bezig met Quantum Computers http://en.wikipedia.org/wiki/Seth_Lloyd

*edit* Seth Lloyd met z'n 'basic quantum' computer http://www.youtube.com/watch?v=_KUMXe9gh7c

[Reactie gewijzigd door Hageltje op 4 september 2012 16:49]

Quantum computing kan al afgenomen worden in de vorm van een service.

http://www.dwavesys.com/en/products-services.html

DWave's quantum systemen worden gekoeld op 20 millikelvin. Zoiets zet je niet bij consumenten neer. Vandaar het service model.

Onlangs werd DWave's quantum computer gebruikt om een proteine vouwing probleem op te lossen.

http://blogs.nature.com/n...tein-folding-problem.html
DWave heeft een quantum optimizer, niet een volledig - bij definitie - werkende quantumcomputer. Leek me even relevant hierbij te zeggen. ;)
Het lijkt eerder "een beetje oplossen". Uit het artikel:
The D-Wave computer found the lowest configurations of amino acids and interactions, which corresponds to the most economical folding of the proteins. It worked, but not particularly well. According to the researchers, 10,000 measurements using an 81-qubit version of the experiment gave the correct answer just 13 times.
Klinkt meer als een test van de machine dan het daadwerkelijk toepassen voor het oplossen van het probleem. Je hebt dus een tweede berekening (naar ik aanneem op een conventionele computer) nodig om te weten of het resultaat ook klopt?
Fotonen gewoon direct naar je display/holografische opslag sturen, lekker makkelijk :p
...en dat holografische medium onthoudt ook gewoon de je polarisatie, flux, fock state en TOA?

[Reactie gewijzigd door mrlammers op 4 september 2012 17:58]

Nou bouw er eens een dan, laat maar eens zien dat die fantastische de hele wereld wordt anders voorspellingen uitkomen... :)

Het zou er leuk zijn om een quantumchip in het echt te zien maar op dit moment geloof ik er nog niet helemaal in. Er zijn nog te veel dingen die simpel weg gebaseerd zijn op theorie. Het is waarschijnlijk wel mogelijk om een echte quantumchip te bouwen als een bedrijfje als Intel er een paar jaar flinke zakken geld tegen aan zou smijten maar op dit moment zijn we voor zo ver ik kan inschatten zeker ngo wel een jaar of tien verwijderd van zo'n doorbraak.
Zelfs als het al iemand lukt binnen de komende 10 jaar dan nog zal het waarschijnlijk alleen een hele simpele chip zijn die erg basale berekeningen kan uitvoeren. Denk aan het verschil tussen de processor in een reken machine die je op de kermis wint en een moderne PC...

Het zou geweldig zijn als het ze wel lukt om zo'n ding te bouwen maar... eerst zien dan geloven.
Hou er rekening mee dat de huidige processor ook niet meer kan dan optellen en aftrekken. Er is een aparte (mini) processor die het vermenigvuldigen doet. Kortom, als je optellen en aftrekken kan met een processor op quantum niveau, dan kun je hetzelfde als met een huidige processor.

Ik denk zelfs dat je dan al snel een veel betere CPU hebt, omdat het gewoon erg snel gaat. Grootste stap die denk ik gezet moet worden is om het interpreteerbaar te maken.
Als je gewoon gaat optellen en aftrekken, kan je het beter op een normale computer houden. Een quantum computer heeft wat specifieke eigenschappen die sommige berekeningen heel veel sneller laat gaan, optellen en aftrekken horen daar niet bij.

En zover ik weet kan je huidige processor toch echt prima vermenigvuldigen hoor, zit gewoon een multiplier in de ALU daarvoor.
Ja er zit een multiplier in de ALU en ja officieel hoort hij tot de CPU, maar ik zelf vind het meer een apart proces dan daadwerkelijk onderdeel van de CPU, ookal is dat officieel anders. Principe van de CPU is namelijk dat hij heel generiek is. Vroeger werden er steeds meer dingen in de CPU gestopt, maar toen men er achter kwam dat dit niet zo handig was ivm compatibility, was het snel over.
Als je al vindt dat stukken van de ALU niet in bij CPU horen, war hoort er dan wel bij? Een CPU is in simpelste vorm iets met ALU, instruction counter, fetch en decode. Dat is echt wel extreem generiek; vermendigvuldigen met en ALU die alleen optellen en aftrekken kan is extreem moeizaam. Vermenigvuldigen, logische operaties, bitshiften en (bij voorkeur) delen horen bij vrijwel alle processoren.
Vroeger werden er steeds meer dingen in de CPU gestopt, maar toen men er achter kwam dat dit niet zo handig was ivm compatibility, was het snel over.
Begrijp ik niet echt. Krijgen CPUs nu minder functionaliteit dan? AMD en Intel hebben er toch net nog een GPU bij gepropt.
Denk eerder dat Nvidia er geld tegenaan gaat smijten (doen ze volgens mij al lang) aangezien ze vooral voor immense multitasking taken worden ingezet.
Als je het wikipedia artikel leest dan snap je de basics.

Zowieso werd 10 jaar geleden meneer gates voor gek versleten toen ie met een tablet kwam (hij was ook niet de eerste) en dat dat nooit aan zou slaan (who knew right?).

Dus wat voor het "gewone" publiek als idioot, over the top, gestoord enzenz is, is de realiteit (van morgen) voor een hele hoop mensen.
Uit het artiekel:
"De overstap van glazen naar silicium circuits voor fotonen zou de componenten voor een quantumcomputer ruim duizendmaal kleiner maken. "

Dit snap ik niet helemaal.
Voor chips wordt normaalgesproken siliciumoxide als substraat gebruikt.
Maar glas is ook silicium oxide.
Ligt het aan mij of is dit gewoon onhandig uitgelegd?
Glas is silica, amorf Siliciumdioxide
Silicium, waar ze chips van maken, is ultrazuiver, hoogkristallijn Silicium (het element). Dit wordt gecoat en behandeld (met zuurstof en metalen) om het halfgeleidende eigenschappen te geven. Maar de wafer zelf is gewoon een dunne plaat silicium.

[Reactie gewijzigd door Kasparov13 op 4 september 2012 16:29]

Maar als je hier kijkt:
http://upload.wikimedia.o...ure_in_2000s_%28en%29.svg

...dan zit er geen enkel actief component in dat van puur silicium is gemaakt.

Het is alleen de ondergrond die van silicium puur wordt gemaakt maar die vormt zelf geen actief component.
Dus de circuits zelf zijn van siliciumverbindingen.
Blijkbaar zijn ze gewoon van type siliciumverbinding gewisseld?
En dan vind ik het alsnog onduidelijk aangegeven...

[Reactie gewijzigd door koelpasta op 4 september 2012 16:50]

Ik zeg dus ook "Dit wordt gecoat en behandeld (met zuurstof en metalen) om het halfgeleidende eigenschappen te geven". Aan puur silicium heb je inderdaad niet veel, het glanst leuk maar als je er een paar volt op zet voert het inderdaad geen berekeningen uit. Dit staat echter los van het feit dat je wel met puur silicium wafers moet beginnen om een chip te maken. Als je nog een keer leest zul je zien dat ik nergens zeg dat de schakelende elementen ook van puur silicium zijn gemaakt, als substraat is het echter onmisbaar.

De tekst is idd niet helemaal duidelijk maar ik ga er in dit geval vanuit dat ze idd een laagje glas/silica (siliciumdioxide) coaten op een wafer van silicium. Dus als ik het goed begrijp zijn ze van substraat gewisseld van siliciumoxide naar silicium zodat ze de geikte lithografische technieken voor chips nu ook op optische chips kunnen toepassen. Helemaal duidelijk is het artikel naar mijn mening niet hier over.
Even los van het feit dat het kwantum computing mogelijk maakt.
Zou dit niet al een hele fijne stap zijn om oververhitting tegen te gaan en/of chips energie zuinger te maken?
Transport van fotonen gaat met minder/geen energie verlies (en dan maar hopen dat het maken van de fotonen efficient kan anders wordt dat weer heet).
Probleem is als je iets doet met een foton, hem meten, dat je het foton ook vernietigd en dus deze energie af moet voeren ipv electrische energie en warmte. Ook zul je deze fotonen moeten maken wat ook warmte en verliezen oplevert.
Hoe dit zich verhoudt ten opzichte van een klassieke electrische chip weet ik niet. Ik ga er wel vanuit dat de warmteproductie stukken lager is idd.
Precies, dat.
Daarnaast verlies je energie als je quantuminformatie overbrengt van het ene medium (foton) naar een ander medium (elektron, nucleus, junction, dot, etc.), of zelfs informatie.
Plus dat een qubit haar informatie verliest als je 'm leest, of informatie verloren gaat door de mixed state van het quantum systeem. Je hebt dan registers nodig.
Daarnaast moet je de qubits op kunnen slaan om er een beetje fatsoenlijk mee te kunnen werken.
Genoeg problemen naast het foton. ;)

De warmteproductie zal allicht lager uitvallen.
Tenzij er een complete revolutie komt op het gebied van optische elementen op silicium (dus helemaal opnieuw beginnen en niks meer doen met de richting waar ze nu mee bezig zijn), zal een optische computer nooit sneller/kleiner/efficienter zijn als een elektrische computer. Optische componenten integreren voor bijvoorbeeld je geheugenbus kan leuke voordelen bieden, maar je processor zal dan gewoon elektrisch blijven.

Simpelweg omdat een optische transistor nu op twee principes is gebaseerd: Je hebt een resonantie nodig, wat betekend voor de golflengtes van licht dat hij veel groter is dan een elektrische transistor. En dan pas je die resonantie aan dmv verwarming, wat weer gewoon trager is als een kleine lading op een transistor gooien.
"zal een optische computer nooit sneller/kleiner/efficienter zijn als een elektrische computer"
Kun je dit onderbouwen? Ik vind het eerlijk gezegd een erg naieve en kortzichtige uitspraak. Logisch verstand zegt mij dat het juist eerder omgekeerd zal zijn. Voor snelle circuits met hoge informatie dichtheid hebben fotonen veel betere eigenschappen als electronen.
-Lagere warmteproductie (naar alle waarschijnlijkheid)
-Geen noodzaak voor electrische isolate
-Geen quantum tunneling en andere soortgelijke effecten
-One-foton informatie bits die niet "af te luisteren" zijn zonder ze te vernietigen
-Geen lading en massa

De complete revolutie die jij beschrijft is dus eigenlijk alleen het ontwikkelen van een beter optische transistor, zo ongelooflijk moeilijk lijkt me dat niet, ookal is dit niet mijn vakgebied. Al helemaal als je ziet hoe enorm veel dingen we in de afgelopen 60 jaar met electrische transistors hebben gedaan, en hoe vaak hebben mensen daar niet het zelfde gezegd; "kan niet"

En "helemaal opnieuw beginnen en niks meer doen met de richting waar ze nu mee bezig zijn" vind ik ook een slechte uitspraak. Waarom moeten we die enorme ontwikkeling op gebeid van lithografie nu overboord gooien? Met een paar aanpassingen denk ik dat je deze technieken zo kunt hergebruiken, het artikel suggereert dit al: "Ook moet massaproductie mogelijk worden door lithografische standaardapparatuur"
En je hebt meteen een bijna 100% veilig systeem als je het goed doet aangezien een foton meten, een foton vernietigen betekend.
Ik zie het quantum processor gedeelte van een CPU als coprocessor, een volledige quantum pu unit bouwen is ook niet erg zinvol omat er genoeg dingen zijn die een normale cpu ook erg goed kan.

Met dit in gedachten zitten die britten goed want een relatief simpele quantum copro bij een cpu in bouwen is zeker haalbaar op korte termijn en zeker met een experimentele opstelling.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True