Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties

Wetenschappers hebben een methode gevonden om compressie toe te passen op informatie die is opgeslagen in qubits. De techniek zou exponentieel opgeschaald kunnen worden en daarmee moet kwantuminformatie efficiŽnter worden opgeslagen.

De compressiemethode is ontwikkeld door onderzoekers van het Canadian Institute for Advanced Research, die hun bevindingen in het wetenschappelijke tijdschrift Physical Review Letters hebben gepubliceerd. Volgens de onderzoekers is het mogelijk om compressie toe te passen op kwantuminformatie opgeslagen in qubits, zodat er minder van nodig zijn om dezelfde hoeveelheid informatie op te slaan.

In hun experimenten maakten de onderzoekers qubits door gebruik te maken van de spin van fotonen. Daarmee toonden de wetenschappers aan dat drie qubits gecomprimeerd kunnen worden tot twee qubits. Ook ontdekten zij dat hun compressiemethode exponentieel kan worden opgeschaald: dat betekent dat de informatie die is opgeslagen in 1000 qubits kan worden teruggebracht naar 10 qubits, en de informatie in een miljoen qubits verpakt kan worden in slechts 20 qubits.

Om compressie toe te passen is het noodzakelijk om alle qubits van dezelfde kwantumdeeltjes, in dit geval fotonen, te maken die ook op dezelfde wijze worden geprepareerd, aldus de onderzoekers. Het gaat vooralsnog om een experimentele techniek: de wetenschappers vermelden niet wanneer hun manier van kwantumcompressie in de praktijk kan worden toegepast.

Moderatie-faq Wijzig weergave

Reacties (52)

Zodra wij het potentieel van dit soort technologieen kunnen benutten zal het weer eens heel hard gaan met de ontwikkeling. Praktisch onbeperkte dataopslag, rekenkracht, bandbreedte etc.. Wij gaan nog mooie dingen meemaken de komende 50 jaar (altans, ik hoop nog 50+ jaar te leven ;))
Praktisch onbeperkte dataopslag, rekenkracht, bandbreedte etc..
Volgens mij snap jij niet hoe quantum informatie werkt.
Er zijn er maar weinig die het precies weten, het gaat me eigen pet ook te boven.

Ik was echter wťl op de hoogte dat de dingen die je gequote hebt niet gaan gebeuren. Zelfs de rekenkracht van quantum processoren is maar in (tot nu toe) bepaalde berekeningen vele male sneller dan huidige technieken.

Reken er maar op dat de quantum technology als eerste bij banken en andere beveiligings bedrijven gebruikt gaat worden
tl;dr versie: qubits moet je zien als 'kansberekeningen'.

Een BIT is een dualiteit, hij heeft 2 waarden. 1 of 0
je kunt dus 2 dingen in een BIT stoppen, en het noemen wat je wilt. (een 1tje in een JPG kan iets heel anders vertegenwoordigen dan een 1tje in een .RAR.. je gebruikt dus 'naamgeving' om een waarde te hechten aan een specifiek 1tje of 0tje)

Je kunt bits linken achter elkaar om dus zo combinaties van 1tjes en 0tjes te maken die vannalles kunnen beteken. Als je een 1tje in een bit stopt blijft dat een 1tje en kun je die uitlezen als 1tje. Zolang je iets complex kunt weergeven in een veelvoud van een dualiteit kun je het opslaan in (een veelvoud van) bits.
bits slaan dus data op en om iets met die data te doen moet je logische gates op die bits toepassen (NOT, OR, AND, XOR, etc)

qubits werken iets anders.
qubits werken met een 'gradatie' stand tussen '1' en '0'. Wat betekent dat in plaats van dat je er een 1 of een 0 in stop stop je er een waarde in die, wanneer uitgelezen, een bepaalde 'kans' heeft van OF een 1 OF een 0 terug te geven.
stel je wilt een kans van 48.999238314713548726% vermengvuldigen met een kans van 21.5823491312347143824529%. Om dat met bits te doen moet je elk significant cijfer uitdrukken in bits en vervolgens bitlogica toepassen om al die bits met elkaar te verrekenen om zo een antwoord te krijgen wat teveneens een grote verzameling bits is die een % met een bepaalde nauwkeurigheid uitdrukt.
Om hetzelfde met qubits te doen (ongeacht hoeveel significante cijfers achter de komma) heb je enkel -TWEE- qubits nodig. Je krijgt als antwoord echter niet het percentage maar je krijgt een antwoord (1 of 0) waar dat percentage van kans op is toegepast.

Dit klinkt vrij nutteloos voor mensen die niet ingelezen zijn in statistiek, computing of 'big data' maar geloof me dat een overheid, google, facebook of zo hier heel erg opgewonden van worden.

[Reactie gewijzigd door Ayporos op 27 september 2014 12:49]

Ik merk dat een hoop mensen het concept niet helemaal bevatten hier.
Ik beweer niet dat ik het wel allemaal weet, maar laat me het proberen te illustreren aan de hand van een voorbeeld:

Stel je wilt 3 qubits bij elkaar optellen en daarvoor gebruik je naar klassiek model 5 qubits, dan heb je de volgende mogelijkheden:

q1 + q2 + q3 = q4q5

0 + 0 + 0 = 00 (0)
0 + 0 + 1 = 01 (1)
0 + 1 + 0 = 01 (1)
0 + 1 + 1 = 10 (2)
1 + 0 + 0 = 01 (1)
1 + 0 + 1 = 10 (2)
1 + 1 + 0 = 10 (2)
1 + 1 + 1 = 11 (3)

Een normale computer moet 8x de optelsom uitvoeren om alle 8 de mogelijkheden uit te rekenen. Geef een quantumcomputer deze 'som' te berekenen en de qubits zullen na slechts 1 cyclus alle combinaties tegelijk representeren, in plaats van pas na 8.

Echter, volgens mij, kan de quantumcomputer nog iets wezenlijk anders. Namelijk vanuit het antwoord 'terugrekenen' naar de mogelijkheden die tot dat antwoord kunnen leiden.

Gegeven bovenstaand voorbeeld; stel je vertelt de quantumcomputer alleen hoe je som er uit ziet (de vorm: q1 + q2 + q3 = q4q5) en je geeft ook een bekend antwoord, bijvoorbeeld q4q5 = 2, dan geven q1, q2 en q3 na 1 cylcus alle waarden waarbij ze bij elkaar opgeteld q1 + q2 + q3 = 2 opleveren (of beter geformuleerd: zodra je q4q5 vastlegt op 2, dan nemen q1, q2 en q3 instantaan een superpositie van alle waarden aan waarbij de som q1 + q2 + q3 gelijk is aan 2).

Lastig punt in beide gevallen is echter: hoe lees je in 1 klap al die superposities uit?! Daar komt statistiek bij kijken. Herhaal je quantum-berekening vaak genoeg om alle oplossingen (je oplossingsruimte) met redelijk zekerheid te verzamelen!

Nu zijn bovengenoemde voorbeeldjes natuurlijk belachelijk simpel en ook snel genoeg door te rekenen met normale computers. Bovendien zou het aantal statistische herhalingen die nodig zijn om tot een duidelijk antwoord te komen in deze gevallen compleet het 'nut' van de quantumberekening teniet doen (je hebt dan immers vele cycli meer nodig dan een gewone computer nodig heeft om ze domweg allemaal door te rekenen). Maar zodra het over berekeningen met veel meer qubits gaat (bijvoorbeeld die gebruikt worden bij encryptie: 256, 512 bit en meer) dan wordt het ineens veel voordeliger om een quantumcomputer te gebruiken. Zeker aangezien het aantal mogelijkheden dat bij een gegeven sleutel tot een bepaalde encryptie heeft kunnen leiden vaak zeer beperkt, zoniet 1, is. En ziedaar: 'instant oplossingen' voor bepaalde problemen die ingewikkeld zijn op te lossen of door te rekenen met gewone computers.

Het maakt dus ook heel erg uit welk wiskundig vraagstuk je op wilt lossen.

Ben je op zoek naar een oplossingsruimte gegeven een bekend antwoord?dan zou een quantumcomputer wel eens je beste maatje kunnen zijn in de toekomst.

[Reactie gewijzigd door Doineann op 29 september 2014 14:01]

Wellicht de cilinder in een motor van een auto als voorbeeld? En dan de stand. En dan een actie koppellen aan 1 van de vele verschillende standen, helaas ik zie nog steeds geen toepassingen hiervoor....
Wellicht dat een vergelijking met muziek beter opgaat.

Als jij speakers hebt met 2 standen: AAN of UIT, dan kun je nooit met zo'n opstelling dingen met geluidsniveau doen.
Je kunt met geluidsniveau bepaalde instrumenten, zang of momenten extra nadruk geven of juist minder.

AAN/UIT speakers: bits
analoog instelbaar volume speakers (traploos): qubits

Je kunt in principe oneindig veel geluidsniveaus produceren tussen 'uit' en 'max'. Dit klinkt nog niet zo interessant tot je beseft dat 'max' in het geval van qubits niet echt bestaat en je in deze (ietwat kromme) analogie genoeg geluidsdruk zou kunnen produceren om bvb de aarde op en neer te doen trillen. Okee het is niet het soort doel wat je voor ogen zou hebben voor een speaker maar het is wel ťťn toepassing; zo moet je het ook met qubits zien.. Het is niet bedoelt om iemand naar een muziekstuk te doen luisteren maar in plaats zit de kracht hem in de 'grootschalige' toepassing. in plaats van conventionele computing moet je de kracht zien in het feit dat je snel en feilloos kansberekeningen kunt uitvoeren met prachtig schalende complexiteit van variabelen en met 100% nauwkeurigheid. (je zou bvb. het getal Pi, wat oneindig cijfers achter de komma heeft en dus niet perfect als integer is uit te drukken in bits, 100% accuraat in een enkele qubit kunnen stoppen.

[Reactie gewijzigd door Ayporos op 27 september 2014 14:03]

Sorry, wat jij over quantum computing schrijft is gewoon niet waar. Bij je eerste post dacht ik nog dat je gewoon heel erg onprecies was, maar hier schrijf je gewoon onzin. In een qubit pas precies zo veel informatie als in een bit. Je kan pi niet 100% nauwkeurig in ťťn qubit uitdrukken, sterker nog, je kan 0,5 niet 100% nauwkeurig in ťťn qubit uitdrukken.

Aan het einde speelt waarschijnlijkheid inderdaad een rol, als je de qubit uitleest en in een gewone bit vertaalt. Tijdens de berekening niet.

Het grote verschil tussen een qubit en een bit, dat een qubit tegelijkertijd zowel 0 als 1 kan zijn. Dit heet superpositie. Let wel: met natuurkundige experimenten kun je aantonen dat deeltjes zich in twee verschillende toestanden tegelijkertijd kunnen bevinden. Pas als je de qubit uitleest moet er voor een van de toestanden gekozen worden, en daar speelt waarschijnlijkheid een rol.

Het tweede belangrijke verschijnsel dat bij quantum computing gebruikt wordt is verstrengeling. Dat zorgt er voor dat je niet elke bit afzonderlijk moet bekijken, maar ze ook samen kunt voegen. Zo hebben twee verstrengelde qubits 4 mogelijke waarden, die ze tegelijkertijd aannemen kunnen.

Doordat qubits meerdere waardes tegelijkertijd aan kunnen nemen, kun je als het ware verschillende berekeningen tegelijkertijd uitvoeren, waar je bij een klassiek algoritme alles na elkaar moet doen. Dat zorgt ervoor dat in sommige gevallen het mogelijk is dat een quantum computer veel sneller is dan een klassieke computer. Een van die gevallen is ontbinden in factoren (Shor's algoritme). En een groot deel van de tegenwoordige encryptie is juist gebaseerd op de aanname dat ontbinden in factoren erg moeilijk is...
Hoopje je begrijpt mij verkeerd, plus ik ben er niet van gediend beledigd te worden als 'onzin' schrijvend wanneer wat je zelf zegt niet klopt.

Je kunt wel degelijk pi 100% nauwkeurig in een qubit stoppen.
Je kunt NIET 100% nauwkeurig met pi rekenen in een qubit.
Je krijgt WEL 100% nauwkeurig antwoord als je -ONEINDIG- veel dezelfde berekening uitvoert en het gemiddelde neemt van alle uitkomsten van deze berekening.

Je zegt dat waarschijnlijkheid pas een rol speelt bij het uitlezen maar volgens mij, in het geval van qubits, is juist die waarschijnlijkheid de 'data' die een qubit kan opslaan en, zoals je zelf meldt, kun je met behulp van verstrengeling 'oneindig' veel 'waarschijnlijkheids' waarden in een qubit stoppen. Of er een 1 of 0 uit een qubit rolt bij uitlezen is volstrekt oninteressant. wat er -gemiddeld- uit komt rollen na veelvuldig herhalen van dezelfde berekening is het 'antwoord'.


Stel: je geeft het een superpositie mee van pi/4 dat er een 1 uit komt (en 1-(pi/4) voor 0 dus). Als je vervolgens oneindig keer dat ding uit leest zal je precies pi/4*100 procent een 1 als antwoord krijgen.

Wat jij zegt over 'meerdere waardes tegelijk aannemen' is volgens mij fout. Je kunt in de qubit zelf (als daar al iets reeds in zit) uiteraard er een nieuwe vector tegenaan gooien maar dan modificeer je de superpositie naar het product van de reeds aanwezige superpositie en de nieuw geÔntroduceerde superpositie. i.e. 75% uitkomst 1 zit er in, je gooit daar 50% tegen aan en eindigt met 35% dus wanneer je uitleest heb je 35% kans dat er een 1 uit komt.

Correct me if I'm wrong maar dat is volgens mij hoe het werkt?

Om even Einstein te quoten:
"If you can't explain it simply, you don't understand it well enough"

Ik hoop dat je snapt dat mijn uitleg en analogieŽn illustratief zijn ter educatie. Schermen met jargon waar een leek sowieso nog nooit van gehoord heeft dient geen enkel nut naast zelfverheerlijking.

[Reactie gewijzigd door Ayporos op 28 september 2014 12:59]

Je kunt wel degelijk pi 100% nauwkeurig in een qubit stoppen.
Je kunt NIET 100% nauwkeurig met pi rekenen in een qubit.
Je krijgt WEL 100% nauwkeurig antwoord als je -ONEINDIG- veel dezelfde berekening uitvoert en het gemiddelde neemt van alle uitkomsten van deze berekening.
Er is een groot verschil tussen "pi / 4 kans op uitkomst 1" en "uitkomst pi / 4". De uitkomst van een enkele bit is altijd ofwel "0" ofwel "1".
Wat jij zegt over 'meerdere waardes tegelijk aannemen' is volgens mij fout. Je kunt in de qubit zelf (als daar al iets reeds in zit) uiteraard er een nieuwe vector tegenaan gooien maar dan modificeer je de superpositie naar het product van de reeds aanwezige superpositie en de nieuw geÔntroduceerde superpositie. i.e. 75% uitkomst 1 zit er in, je gooit daar 50% tegen aan en eindigt met 35% dus wanneer je uitleest heb je 35% kans dat er een 1 uit komt.
Dat is niet fout, sterker nog, superpositie is een van de basisbegrippen van quantum computing: een qubit bevindt zich *tegelijkertijd* in *twee verschillende* toestanden. Heel informeel (en eigenlijk fout, want er is eigenlijk geen sprake van percentages maar van vectoren met lengte 1, maar dat terzijde) kun je zeggen dat de waarde van een qubit in jouw voorbeeld 75% 1 *en tegelijkertijd* 25% 0 is. Dat is dus (tot het uitlezen) geen waarschijnlijkheid, want als je de berekening herhaalt weet je 100% zeker dat die qubit op dezelfde plek weer die waarde heeft.

En trouwens, dat voorbeeld van jou met dat vermenigvuldigen is natuurlijk niet hoe het werkt. Als je eerst een toestand hebt die voor 75% 1 en 25% 0 is, en dan beide multipliceert met 50%, krijg je een toestand die voor 35,5% 1 en 12,5% 0 is. Oeps, 35,5 + 12,5 != 100.
Om even Einstein te quoten:
"If you can't explain it simply, you don't understand it well enough"
Ik vraag me af of Einstein zelf zijn eigen relativiteitstheorie aan zijn moeder kon uitleggen. Maar goed, ik noem liever een andere quote, soms ook aan Einstein toegeschreven:
"Everything should be made as simple as possible, but not simpler".
Ik hoop dat je snapt dat mijn uitleg en analogieŽn illustratief zijn ter educatie. Schermen met jargon waar een leek sowieso nog nooit van gehoord heeft dient geen enkel nut naast zelfverheerlijking.
Fouten zijn nooit illustratief ter educatie. En als ik bij het uitleggen van quantum computing niet eens "jargon" als superpositie en verstrengeling mag gebruiken, grondbegrippen van quantum computing, tja... dan houdt het echt op. Quantum computing is nu eenmaal niet in Jip en Janneke-taal uit te leggen.
De simplistische voorstelling die vele media hebben gebruikt om superpositie te beschrijven "tegelijkertijd 1 & 0" is misleidend op zijn best. De beschrijving die Ayporos geeft, is in ieder geval minder misleidend en wellicht zelfs eenvoudigweg beter.

Dingen zijn niet tegelijkertijd 1 & 0, sterker nog dat gaat in tegen de basisprincipes van de natuurkunde. Een q-bit kun je het beste beschrijven met vector algebra, en in de taal die hoort bij vectoralgebra gebruik je de term superpositie. Hiermee geef je aan dat je de componenten van een vector kunt samenstellen uit een lineaire combinatie van basis vectoren (die je kunt meten en die we vervolgens associeren met de '1'en en de '0'en). Deze lineaire combinatie heeft wel complexe (in de zin van complexe getallen) factoren. De waarde die deze factoren aannemen is de feitelijke quantum informatie. Echter quantum informatie is niet waarneembaar, dus bij het meten vervalt het q-bit in een van de basis vectoren (1 of 0 dus). Door de bewerking herhaaldelijk uit te voeren, of door dezelfde bewerking met meerdere q-bits te doen, wordt je kennis over de waarde van de q-bit steeds nauwkeuriger.

[Reactie gewijzigd door thoravatahr op 30 september 2014 16:53]

Zoals ik in mijn vorige post al zei, is de vereenvoudigde uitleg inderdaad eigenlijk fout. Op dat punt zijn we het dus eens. (Dat het misleidend zou zijn vind ik trouwens niet, maar goed; het is wel een grove versimpeling.)

Maar dat waarschijnlijkheden een betere uitleg zou zijn, is gewoon niet waar. Over waarschijnlijkheden praten impliceert dat een qubit met een kans van x in een toestand A en met een kans van (1-x) niet in toestand A is (een van twee). En dat is niet wat er aan de hand is, zoals je zelf ook schrijft.
Nu ik Ayporos' post terug lees ben ik het wel eens dat zijn vereenvoudigde uitleg ook in zekere zin misleidend is. Het onderliggende mechanisme is juist niet alleen kansberekening.

Het quantummechanische karakter van q-bits gaat inderdaad echt verder dan alleen een stochastisch gedrag, zoals is aangetoond in experimenten met verstrengeling. (excuse my french)

Toch ben ik er niet voor om het begrip superpositie uit te leggen met woorden als 'tegelijkertijd'. Zoals uit vele discussiesfora als deze blijkt, wekt dit een verkeerd beeld op bij veel mensen. Dit zie je dan terug in de reacties waarin rekensommen tegelijkertijd worden uitgevoerd. In werkelijkheid zijn de operaties gewoon anders, namelijk vector operaties (en entanglement).
Ik begrijp er niet veel van, wat heb je er aan om Pi tot oneindig in 1 qubit te stoppen als je daarna enkel een 1 of een 0 terug krijgt?
Ik begrijp er niet veel van, wat heb je er aan om Pi tot oneindig in 1 qubit te stoppen als je daarna enkel een 1 of een 0 terug krijgt?
Het gaat ook niet om die 0 of 1, maar dat je kunt rekenen met veel hogere precisie.
Bijvoorbeeld encryptie werkt met sleutels die eigenlijk een product zijn van 2 hele grote getallen.
Dus het ontbinden van die getallen kost nu nog heel erg veel rekentijd en dat maakt het zo veilig. Het is namelijk niet waarschijnlijk dat het binnen afzienbare tijd ontsleuteld kan worden.
Echter als je binnen constante tijd een sleutel kunt berekenen waarmee je je kunt voordoen als iemand anders, dan kun je heel rijk worden.
Denk aan man-in-the-middle attacks en zo de communicatie onderscheppen. Zo zijn er vele andere manieren om kwantum-computing in te zetten.
Ik weet er niet veel van maar ik wil wel speculeren dat als je qubits verstrengeld je misschien wel iets aan het getal Pi hebt. Misschien wil je weten of een bepaald coŲrdinaat met oneindige precisie in een cirkel ligt?
je zou bvb. het getal Pi, wat oneindig cijfers achter de komma heeft en dus niet perfect als integer is uit te drukken in bits, 100% accuraat in een enkele qubit kunnen stoppen.
Maar hoe gaan we dan Pi in een qubit steken en weten dat dat getal exact is? Dat doen we toch nog altijd ergens vanuit onze normale bit-wereld?
Dat komt meer omdat auto analogieŽn eigenlijk nooit werken want het is een metafoor en geen model of zelfs maar een weergaven van hoe het in elektronica werkt. Het enige wat auto's en computers gemeen hebben is dat de meeste brokken worden veroorzaakt door de gebruiker.
Er zijn er maar weinig die het precies weten, het gaat me eigen pet ook te boven.
Correctie: er is niemand die het precies weet. Anders hadden we al werkende prototypes. :P
Incorrect. De theorie is er en deze is tot nog toe niet vals bewezen, echter het omzetten van deze theorie in een praktische toepassing is een ander verhaal.
Zoals met veel grote uitvindingen, de theorie is veel ouder.
van 1 miljoen qbits naar 20 qbits is een enorme compressie. Dat iets nu nog niet een concreet bruikbare oplossing is sluit niet uit dat het dat wordt. Als wij de mogelijkheid krijgen om -alle- quantum informatie van -1- atoom echt te benutten dan hebben wij wel degelijk praktisch onbeperkte dataopslag. Een qbit is niet hetzelfde als quantum informatie.
Praktisch onbeperkte dataopslag
Daar zou ik niet te hard op rekenen. Het is ontzettend lastig om qubits voor langere tijd op te slaan, de geringste interactie met hun omgeving zorgt er al voor dat de informatie verloren gaat. Een oplossing die werkt op kamertemperatuur zit er waarschijnlijk niet in, laat staan iets wat geen energie nodig heeft om de informatie te bewaren (zoals een traditionele hardeschijf)
Dit is nu, dat wordt anders. Vroeger was een megabyte al lastig. Niet denken in hedendaagse grenzen maar in toekomstige mogelijkheden.
Ja want we hebben immers ook al een 20GHz CPU, is het niet? Het is een vaststaand feit dat we tegen fysieke limieten aanlopen. Quantum computing is gewoon hťťl erg moeilijk. De theorie bestaat al zo'n 35 jaar, maar in de praktijk zijn we nog allesbehalve dichtbij.

Een megabyte is trouwens nooit lastig geweest - het was simpelweg gewoon heel duur en dus niet economisch rendabel, zeker gezien het feit dat niemand het in die tijd nog echt nodig had.
alsof ghz alles zegt ;) maar wij hebben wel degelijk betere processoren gekregen, en een megabyte was vroeger echt wel lastig. En nee, het idee dat we tegen fysieke limieten oplopen die wij niet kunnen overkomen is een beperkte gedachte die innovatie in de weg staat. Wij zullen andere oplossingen, methodes en technieken vinden. En de theorie voor heel veel oplossingen die nu gebruikt worden zijn er al >50 en zelfs >150 jaar. Dat houdt niet in dat het er niet gaat komen. Quantum computing is NU heel moeilijk. 65 jaar geleden was uberhaupt communiceren over afstanden nog erg moeilijk, nu kan iedereen in de wereld met een telefoon het.

Wij zijn niet bijzonder, onze tijd is niet bijzonder, in alle tijden dachten een hoop mensen verder dan dit kan echt niet. Wij hebben dat altijd doorbroken en zullen dat blijven doen. Als niet wij, dan onze AI die ontwikkeld wordt.
alsof ghz alles zegt
Nu leg je mij woorden in de mond. Maar als je het toch over die boeg wilt gooien: ja, ik heb liever een single core intel CPU van 3 jaar geleden op 20GHz, dan een hedendaagse i7 op 4GHz. Het schaalt namelijk een stuk beter met alle software.
en een megabyte was vroeger echt wel lastig
Heb je concrete voorbeelden? Want het is echt gewoon een kwestie van meer componenten toevoegen. Dat was vroeger al zo, en dat is nu nog steeds.
HDDs were introduced in 1956 as data storage for an IBM real-time transaction processing computer and were developed for use with general-purpose mainframe and minicomputers. The first IBM drive, the 350 RAMAC, was approximately the size of two refrigerators and stored 5 million 6-bit characters (3.75 megabytes)[9] on a stack of 50 disks.
En nee, het idee dat we tegen fysieke limieten oplopen die wij niet kunnen overkomen is een beperkte gedachte die innovatie in de weg staat.
Dat is kolder. Ik ben geen onderzoeker. Als iemand onder dit nieuwsbericht roept "praktisch onbeperkte opslag", dan zeg ik: "daar zou ik niet te hard op rekenen", inachtnemende onze huidige kennis van zaken. Dat impliceert geenszins dat er geen onderzoek naar gedaan moet worden, noch dat ik zeker weet gelijk te gaan krijgen (sterker nog, ik hoop dat ik ongelijk heb)

Maar denken dat fysieke limieten niet bestaan is behůůrlijk kortzichtig, met het clock rate plafond als perfecte voorbeeld. Denken dat ze wel bestaan heet realiteitszin, maar sluit verder onderzoek niet uit.

[Reactie gewijzigd door .oisyn op 21 oktober 2014 17:07]

Ik ga niet jouw icoon nadoen. In -absolute zin- bestaan er zover nu bekend enkel natuurkundige grenzen in het universum, in de zin waar wij het hier nu over hebben, nog absoluut niet. Het is juist kortzichtig om te denken dat wij nu al tegen deze grenzen aan zitten, iets wat duizenden generaties voor ons ook al dachten.

Je stukje van wikipedia zegt niets, maar dan ook echt niets over de moeite die het toen gekost heeft. Heb je ooit al eens in de techniek gewerkt? Iets wat nu moeilijk is, en veel tijd kost, vinden wij over 20 jaar harstikke normaal. Vroeger was een paardekar toch echt wel Wow, nu, meh. Dat is in absoluut alle gebieden het geval. Als je dat niet ziet, dan houdt het toch wel op :P

Juist het feit dat jij het over clock rate ceiling hebt zonder daarbij een materiaal te noemen geeft al aan dat je het niet zo goed snapt. In de huidige oplossing, de huidige toepassing, de huidige methode, lopen wij tegen grenzen aan omdat wij niet beter kunnen, en uiteindelijk, ver ver vooruit nog, tegen natuurkundige grenzen. En een deel daarvan, ook enkel omdat wij nog niet goed genoeg weten hoe wij er mee om moeten gaan.


Om maar even aan te geven wat voor ons, nu, praktisch onbeperkte computerkracht is (let op, ik heb dehele tijd PRAKTISCH ONBEPERKT gezegd):

Een I7 nu: Intel Core i7 4770k 127,273 MIPS at 3.9 GHz
Het natuurkundig theoretisch haalbare: 5.4258 x 1050

Dat is: 4.263 * 1039 maal zo veel rekenkracht. Dat is wel degelijk praktisch onbeperkt.

zie ook: http://arxiv.org/pdf/quant-ph/9908043v3.pdf

Je krijgt nu geen reactie meer, ga niet blijven discussieren.
https://www.youtube.com/watch?v=g_IaVepNDT4

Quantum computing zal waarschijnlijk niet jou binary computer vervangen
het word gebruikt voor totaal andere toepassingen zoals algoritmes berekenen en het verkenlijnen van de berekeningen die je moet doen bij dat soort algoritmes

het zal eerder je systeem vertragen dan sneller doen maken
Praktisch onbetaalbaar de komende 50 jaar, vermoed ik eerder. Al deze ontwikkelingen a.d.h.v. onderzoek kost al bakken geld - ongetwijfeld in verhouding zelfs meer dan vroeger - en dan het daadwerkelijk fabriceren hiervan. Het zal ongetwijfeld in de 10-tallen van miljoenen lopen.
Ik denk eerder in de miljarden. Onder andere universiteiten, Google en IBM zijn er druk mee bezig.

Op zich ook niet gek als je je realiseert hoeveel potentie het heeft. De eerste die dit massaal kan produceren en gebruiken zal een enorme voorsprong hebben op de concurrentie. Het gaat vele malen meer opbrengen dan er geÔnvesteerd wordt.
Ach als de ontwikkelingen exponentieel hard gaan (singularity), dan wordt het misschien ook wel exponentieel goedkoper :)
In 1997 kosten een super computer van twee cluster met elk 16 Pentium pro's 42.000 dollar, een i7 van 250 euro loopt daar gigantisch hard rondjes omheen.
Dat waren de 2.2GHz quadcore processoren met 3GB geheugen in formaat van een half sneedje brood 30 jaar geleden ook ;) Vandaag betaal je er 350 euro voor.
50 jaar is wel ver weg hoor.
50 jaar geleden, in 1964, kon ook niemand vermoeden dat we 50 jaar later allemaal met een telefoon in onze zak rondliepen die qua cpu capaciteit duizenden malen sneller was dan de computers die toen een complete zaal in beslag namen.
Time will tell.. Ik ben er zelf van overtuigd dat die echt wel gaat gebeuren. Mensen zien te vaak teveel beren op de weg terwijl wij in de realiteit een ongekende groei meemaken op o.a. wetenschappelijk gebied. Het is een kwestie van tijd totdat wij informatie echt op kwantum niveau opslaan of zelfs nog een nieuwe methode vinden.
Ik kan niks met jouw opmerking.

Zelf weet ik ook, dat vroeger alles duur was, maar die paar "miljoenen" van 20 jaar geleden dat een project of onderzoek kon kosten halen het in verhouding bij lange na niet wat veel huidige onderzoeken wel niet kunnen kosten. Kom.
Ik bedoel meer op de manier van, 50 jaar is extreem veel tijd, kijk eens naar wat er gebeurt is in de afgelopen 20 jaar, hoe de wereld is veranderd.

Het is inderdaad allemaal duurder, maar die onderzoeken en experimenten draaien desalniettemin flink door.

Daarom denk ik dat 50 jaar een veel te lange termijn is.
Off-topic

Jan Sloot had dit al in 1995 ^^ (http://nl.wikipedia.org/wiki/Jan_Sloot) :)
Ik weet niet wat ik van dit verhaal moet geloven, zou dit echt hebben gewerkt?.

Waarom zijn er dan geen bedrijven die hier onderzoek naar gedaan hebben en het op de markt hebben gebracht.

want helemaal niet op de markt brengen, of licentie kosten betalen en op de markt brengen is toch een acceptabel verschil lijkt mij.


en als de sourcecode kwijt is, dan stop je er opnieuw tijd in om dit te ontwikkelen.
vooral als je gezien hebt, dat deze techniek werkt.
Dit is een zeer merkwaardig verhaal. Wel interessant.
Heb hier een hele tijd geleden een documentaire over gezien en het scheen wel echt te werken. Wat me bij staat is dat het wel beperkingen had want het was schijnbaar niet toepasbaar op alle data. Het lijkt me alleen onwaarschijnlijk dat het hier om quantum computing ging.

/edit
Lees het net ook op wiki :

In veel verhalen over de vinding van Jan Sloot wordt vermeld dat hij films kon terugbrengen tot een vaste grootte van 1 kilobyte. Het is eenvoudig te bewijzen dat dit verliesvrij voor willekeurige films onmogelijk is. Er zijn dan namelijk meer films dan sleutels mogelijk. Er bestaat een wiskundig bewijs voor: de informatietheorie van Claude Shannon.
Wel moet je goed afspreken wat compressie precies betekent. Met slimme hulptabellen zou je sterkere compressie kunnen realiseren dan de wet van Shannon toelaat, waarmee dan echter niet elke willekeurige film zo kan worden verkleind. Daarom noemde Jan Sloot het ook 'codering'. Hij had er een hekel aan als iemand beweerde dat zijn uitvinding met compressie te maken had........

[Reactie gewijzigd door eddy1979 op 28 september 2014 20:17]

Ik las de wiki ook; weet jij misschien waar ik een docu kan vinden? Zou wel tof zijn om te kijken lijkt me...
Goed nieuws, hoop nog de implementatie mee te maken!
Quantum Zip nice!
Ik betwijfel dit verhaal.
Dan zou de gangbare informatie theorie ineens overboord gaan met quantum bits? Stel dat je 3 volstrekt willekeurige quantum bits kiest, dan kun je volgens de http://nl.wikipedia.org/wiki/Kolmogorov-complexiteit niet naar 2 quantum bits. Ze moeten data hebben gekozen wat in de oude normale bitsituatie ook comprimeerbaar zou zijn geweest. En er kan geen sprake zijn van gegarandeerde compressieverhoudingen.
Jongens eerst even deze lectures van grootheid David Deutsch bijwonen over quantum computing, dan verder praten.

http://www.quiprocone.org/Protected/DD_lectures.htm

P.s. voor degenen: David Deutsch is de theoretische grondlegger van quantum computing

http://en.m.wikipedia.org/wiki/David_Deutsch

[Reactie gewijzigd door morrowyn op 28 september 2014 14:13]

Net als het "coderingssysteem" van Jan Sloot klinkt dit als lariekoek. Meestal staan er ongelooflijke (en onmogelijke) claims in het persbericht, geschreven door een persafdeling. Als je vervolgens het paper leest, (dat ik overigens nog niet heb kunnen vinden) is 't allemaal een stuk minder spectaculair.

Maar ook in het persbericht staat:
"quantum information stored in a collection of identically prepared qubits"

Een niet-quantum voorbeeld (dus met klassieke bits) zou zijn: een string van alleen nullen (00...0) , of een string van alleen enen (11...1). Om die optimaal te comprimeren hoef je alleen de bitwaarde op te slaan en de lengte van de string :-)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True