Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 9 reacties
Bron: The Register

In tegenstelling tot wat er in dit artikel vermeld wordt, is Dan Bernstein's methode om sterkte encrypties te factoriseren van kleine invloed op nu veel voorkomende encrypties, zo meldt The Register. Voor algoritmes die extreem veel groter zijn dan de tot voor kort onkraakbaar geachte 2048bit encryptie is met de pas ontwikkelde methode ongeveer een drie keer langere code nodig om dezelfde veiligheid te garanderen, zegt Bernstein. Dit geldt echter niet voor kleinere encrypties.

De huidige factorisering van encryptie verloopt in twee stadia die Bernstein met zijn aanpak probeerde te verbeteren, maar Schneier denkt dat deze verbeteringen een vorm van misleiding zijn. Volgens de cryptografiedeskundige Bruce Schneier is Bernstein's aanpak zo moeilijk te realiseren dat er uiteindelijk sprake is van een achteruitgang. Desondanks is er ook nog positief nieuws te melden, Schneier complimenteert Bernstein voor al zijn research:

Encryptie - sleutel"Any practical implementation of these [Bernstein's] techniques depends heavily on complicated technological assumptions and trade-offs.

[...] Despite his criticisms, Schneier credits Bernstein with undertaking useful research, which "is likely to open up new research directions in the design of more efficient sorting networks and sparse matrix algorithms".

Bertil da Turtle danken wij hierbij voor de tip

Moderatie-faq Wijzig weergave

Reacties (9)

hmm, da's balen. Is die vent zo lang bezig geweest om dat te onderzoeken, blijkt 't prut te zijn. |:(
Tsja, zo gaat dat in de wetenschap, de een vernietigt in enkele uren iets wat een ander in jaren heeft ontwikkeld. Prachtig systeem en het werkt nog steeds. Alleen zo houdt je alle wetenschappers scherp en alert (en nog iets rond 4 uur). Zou dit namelijk niet bekend geworden zijn, dan had iedereen aangenomen dat het gebeurd was met RSA en meer van dat fraais en ik weet niet wat er dan allemaal zou gaan gebeuren.

Het komt er op neer dat het niet uitzonderlijk is dat dit gebeurt, alleen Bernstein is net voor het perfecte einddoel aangekomen en daar zag hij waarschijnlijk iets over het hoofd, wat Schneier wel herkende. Eerder balen dat hij ermee in de publiciteit is gestapt voor het voor 100% zeker te weten, dat maakt je niet geloofwaardiger.

Balen ook voor Einstein, die voor gek werd verklaard en nu blijken er toch ook steeds meer dingen waar te zijn of tenminste in beginsel waar...
lees goed. volgens mij zegt die sneier dat bernstein bij grote keys wel degelijk gelijk heeft, maar dat het zogenaamd gewoon 'te moeilijk', danwel 'te langzaam' is en daarom niet praktisch toepasbaar in algoritmes.

alleen bij kleine keys zou het geen zin hebben.

de wet van Moore leert echter dat computers over 100 of 200 jaar ontelbaar sneller zullen zijn.

een terecht compliment dus voor de wetenschappelijke waarde.

* 786562 niegoesnik
de wet van Moore leert echter dat computers over 100 of 200 jaar ontelbaar sneller zullen zijn.
De wet van Moore gaat niet over de verdubbeling van de snelheid elk jaar, maar gaat over het aantal transistoren.

Dus de wet van Moore leert ons iets over het aantal transistoren en uit alleen het aantal transistoren waaruit een CPU bestaat, kan je niet afleiden hoe snel/langzaam een CPU is.

De CPU's worden natuurlijk wel sneller, maar tegen de tijd dat die CPU's binnen een dag of twee een 2048 bit sleutel kunnen kraken, zullen er andere methode ontwikkeld zijn om de data veilig te houden, want de techniek staat niet stil.

Dus tegen de tijd dat de Bernstein techiek wel uitgevoerd kan worden, hebben we allang weer andere methode om onze data veilig te houden.
Vergeet niet dat de wet van Moore geld voor de huidige (al erg lang) gebruikte technologie. Zodra deze tegen zijn einde loopt (dat is als we op atoom niveau komen) dan is het gedaan met de wet van Moore.

Over enkele jaren zijn transistors zo klein dat je te maken krijgt met nanotehcnologie en bijbehorende effecten. Op dat moment zullen ook nieuwe wetten gaan gelden voor het tempo waarmee processoren sneller worden.
Ik ben trouwens best met jullie eens dat de wet van Moore wel eens eindig zou kunnen zijn, hij had zelf ook niet gedacht dat die nu al 50 jaar mee zou gaan.
met de nadruk op zou kunnen, je weet niet wat de techniek nog in petto heeft :)
maar tegen de tijd dat die CPU's binnen een dag of twee een 2048 bit sleutel kunnen kraken, zullen er andere methode ontwikkeld zijn om de data veilig te houden, want de techniek staat niet stil.
precies, en die bernstein doet dus nu al onderzoek. fundamentele wiskunde en algoritmes is toch wat anders dan processors.
Ooit er weleens aan gedacht dat de wet van Moore wellicht niet zozeer met de technologie te maken heeft, maar meer met marketing en geld?
Ze brengen niet steeds de snelste processor uit, en de ontwikkelingen worden ook daar redelijk op aangepast. Zie de Athlon XP 2800+ van een aantal dagen geleden. Zie Intel met hun 3Ghz P4. Het kan wel sneller, maar dat doen ze nog niet omdat het niet rendabel is.
Mooi, is mijn pgp toch nog veilig genoeg :+

Het was wel erg gaaf geweest als het echt in lineaire tijd kon worden opgelost. Zou een echte doorbraak zijn voor de wiskunde.
Voor geÔnteresseerden in Bruce Schneiers volledige uitleg; die staat in het maart-nummer van z'n gratis maandelijkse nieuwsbrief "Crypto-Gram".

http://www.counterpane.com/crypto-gram.html

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True