Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties

Materiaalkundigen hebben een nieuw wapen in handen om de eigenschappen van theoretische materialen te bepalen met een computer. Een algoritme kan de atomen, en daarmee de eigenschappen, van het materiaal simuleren.

Teneinde nieuwe materialen te ontwikkelen, trachten onderzoekers vaak het beoogde materiaal eerst te simuleren in een computermodel, voordat er tijd en geld gestoken wordt in de synthese. Bij de simulatie worden complexe algoritmes toegepast die van quantummechanische regels gebruik maken om de eigenschappen van moleculen of atomen te simuleren. De berekeningen die voor het oplossen van de vergelijkingen nodig zijn, vergden zoveel rekenkracht dat onderzoekers vaak slechts enkele honderden atomen konden simuleren. Dat is voldoende voor perfecte, foutloze materialen, maar vaak komen juist interessante eigenschappen naar boven wanneer fouten, bijvoorbeeld in kristalstructuren, optreden.

De simulaties waar Emily Carter en student Chen Huang van de Princeton-universiteit aan werken, zijn mogelijk dankzij het oplossen van een vergelijking die in de jaren twintig van de vorige eeuw werd opgesteld. Die vergelijking, die als de Thomas-Fermi-vergelijking bekend staat, bleek ruim tachtig jaar moeilijk te berekenen. De stelling van Thomas en Fermi, beide natuurkundigen, voorspelde dat de kinetische energie van elektronen berekend kan worden op basis van de distributie van de elektronen in het atoom: de materiaaleigenschappen houden daar direct verband mee. Zij gingen daarbij uit van een theoretisch gas, niet van echte, fysieke materialen.

Carter en Huang hebben een model voor echte materie op basis van de Thomas-Fermi-vergelijking ontwikkeld dat vrij eenvoudig door computers berekend kan worden. Daarmee kunnen processors de eigenschappen van een nieuw materiaal tot honderdduizend maal sneller berekenen dan wanneer de huidige methodes, die de energie van elk atoom afzonderlijk moeten berekenen, gebruikt worden. De vergelijking van Carter en Huang kan toegepast worden om tot een miljoen atomen van nieuwe nanomaterialen, zoals koolstof-nanobuisjes, te simuleren en te ontwikkelen. Ook halfgeleider-eigenschappen kunnen zo voorspeld worden.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (42)

Dit is toch wel een hele mooie stap voorwaarts!

Op dit moment hebben we nog de grootste moeite om de atoom-bewegingen in een enkele cel van het menselijk lichaam na te bootsen. in 2005 was pas de eerste simulatie waarbij meer dan een miljoen atomen werd weergegeven. Omdat dergelijke supercomputers constant geüpdatet worden is het lastig om de statistieken van deze PC te vermelden, maar rond die tijd zaten de supercomputers toch al rond de 250 teraflops. Overigens: De top capaciteit zit 4 jaar later al op 1.759 PFLOPS.

Als we daadwerkelijk 100.000 keer sneller kunnen simuleren is dit een grote stap voorwaarts. Analyses voor medicijnen kunnen eveneens met dergelijke methodes worden uitgevoerd, en als we steeds betere algoritmes en materieel hebben kunnen we op den duur heel snel de werking van een medicijn voorspellen voor een groot aantal mensen.

Als dit echt goed werkt is dit natuurlijk ook heel mooi voor projecten zoals het World Community Grid dat aan distributed computing doet. Als ze daar projecten op basis van atomen kunnen versnellen met deze techniek zal men of eerder klaar zijn met het geneesmiddelenonderzoek, of meer data kunnen verwerken.

Nu alleen hopen dat we geen patent op copyright geneuzel gaan krijgen. Het zou heel vervelend zijn als dergelijk nuttig onderzoek gepatenteerd zou worden en enkel door een selecte groep gebruikt kan worden - zie ook het concept Gene Patent.
Is dit nou ook geschikt om bijvoorbeeld medicijnen te maken tegen bijvoorbeeld kanker?
Of zit ik nu totaal verkeerd te denken?
Dit is momenteel al mogelijk. Bij Folding@Home en WorldCommunityGrid kan je je niet gebruikte computerkracht 'doneren' om onderzoek te doen naar een medicijn voor ziektes zoals aids, kanker, parkinson, malaria, etc maar ook betere manieren om rijst te kweken etc.
Maar dus met de huidige technologie is dit enorm traag. Als ik mijn 9600 GT een dag eiwitten laat vouwen met F@H dan zou hij iets van een 100 nanoseconden simuleren...
Honderdduizend keer sneller is nog steeds slechts 0,01 seconden simulatie voor een dag werk, maar als de huidige half miljoen CPUs op de nieuwe techniek, dan lijkt het met de nieuwe techniek alsof er 50 miljard (!) CPUs aan het werk zouden zijn met de oude techniek!

[Reactie gewijzigd door Malantur op 28 februari 2010 12:19]

Het idee is dat je helpt bij de ontwikkeling van medicijnen...

In de praktijk valt dat nogal tegen. Naar mijn weten is er nog geen enkel medicijn op weze manier ontdekt/ontwikkeld. Simpele brute-force methoden (miljoenen variaties uittesten op kweekjes) werken beter, simpelweg omdat we nog niet goed genoeg weten hoe alles werkt. (Maar dat was een paar jaar geleden dat dat op een biofysische conferentie besproken werd... wellicht dat het nu iets verbeterd is)

Maar Folding@Home levert in ieder geval nieuwe informatie op, zodat in de (verre) toekomst dit hopelijk wel mogelijk word.
Misschien dat er nog geen enkel medicijn ontwikkeld is door F@H, maar ze hebben al wel wat geleerd. De resultaten kan je bijvoorbeeld hier lezen.
Het idee is dat je helpt bij de ontwikkeling van medicijnen...

In de praktijk valt dat nogal tegen.
Nou nee, met folding ben je voornamelijk bezig met het elimineren van slechte opties (die dus niet pass) waardoor we met z'n allen een lijstje opleveren van goede combinaties die verder onderzoek waardig zijn.

Dat proces van eliminatie is met conventioneel onderzoek het meest verspillende en tijdrovende, dus door deze methode kunnen de beschikbare middelen (geld, tijd, wetenschappers, labs) veel efficienter en veel sneller ingezet worden op specifieke onderzoeks richtingen. Daar zullen nog genoeg richtingen in zitten die afvallen, maar het gros van het eliminatie werk is dan al gedaan door onze computers. Win win win zeg ik.
Dat is net even iets anders: Daarbij wordt gekeken naar variaties van de vorm van bepaalde eiwitten. Overigens wordt dat al heel lang gedaan (o.a. door de Dutch Power Cows, zie forum).

Hier is sprake van compleet nieuwe materialen. Overigens acht ik het niet uitgesloten, dat binnen afzienbare tijd hier ook 'distributed computing'-projecten voor zullen ontstaan.
Dat is inderdaad wel erg ver gezocht.
Hoezo vergezocht? Zie de post hierboven van Malantuur. Dit gebeurt namelijk al jaren.

@ Relief2009: Zeg je nu echt "iets kleins en simpels" over de hersenen? Enig idee hoe complex de werking van de hersenen is? De wetenschap is ver, maar weet nog geen 10% van de werking en functie van alle delen van het menselijk brein. Het is een samenspel tussen miljarden elektrische schakelingen en chemische reacties.

Als dit werkelijk zo simpel was, dan was men er al lang in geslaagd een robot te maken die niet van een mens te onderscheiden is, maar hiervoor is nog een lange weg te gaan.
grote stap voorwaards in technologie! Moet je voorstellen, betere kunststoffen voor constructie en prosteses etc, betere methodes voor staal productie, misschien zelfs recyclen van schrootplastic!
Het gaat hier om een model wat voorspelt hoe metalen en semi-conductor materialen met metaal / kristal roosters zich gedragen aan de hand van hun vrije en gebonden elektronen. Hun publicatie heet dan ook :
Jan. 26 in Physical Review B, "Non local orbital free kinetic energy density functional for semiconductors"
De publicatie:
http://www.princeton.edu/...aculty/carter/EAC-222.pdf

Uit de publicatie, blijkt dat het model bulk eigenschappen kan bepalen. Maar bij semi-conductors zijn de rand-oppervlakte eigenschappen veel interessanter, dus of het nu echt zo'n grote stap voorwaarts is ?
.However,for all tetrahedral-bonded semiconductors considered in this work a single pair of and in our KEDF, used within OF-DFT, is able to reproduce quite well KS-DFT predictions of basic bulk properties

[Reactie gewijzigd door djexplo op 28 februari 2010 12:19]

Wat ik uit dit artikel haal is dat ze met een algoritme alleen de eigenschappen van een materiaal kunnen berekenen en niet hoe ze die materialen kunnen maken.
Dit heeft als voordeel dat het ontwikkelen van een nieuw materiaal sneller kan gaan, omdat als men een nieuw materiaal heeft ontwikkeld kunnen ze aan de hand van dit algoritme sneller 'testen' wat de eigenschappen er van zijn.
Ik ben benieuwd of deze technieken ook gebruikt kunnen worden om bestaande materialen te simuleren, in bijvoorbeeld computer spellen. :)
Het leuke van animaties is nou juist dat je een materiaal iedere eigenschap kunt geven die je maar wilt. Je hoeft je niet te storen aan natuur- of kwantummechanische wetten. Die gelden in een fantasie-wereld namelijk niet.
Hangt er vanaf. Water is sowieso nog steeds moeilijk in games, da's nooit echt realistisch. En als ik in GTA met mijn auto over een krakkemikkige houten brug ga en die brug stort in, dan zou ik het heel mooi vinden als dat er een beetje realistisch uitziet. Nu krijg ik in GTA: San Andreas zo'n houten brug of een hutje op de hei zelfs met een RPG of een lading satchels niet plat, zelfs geen scheurtje in het hout. Of als ik tegen een lantaarnpaal knal, de plomp in, tegen een muur aan..

Als je in San Andreas met 200km/u tegen een tuinhekje knalt dan sta je bijna altijd in één klap stil, en dan breekt het tuinhekje pas. Onrealistisch èn vervelend, IRL zou je misschien tot 160-180 vertragen maar zou je verder gewoon recht doorheen gaan. Op zo'n moment mag er van mij wel wat meer respect zijn voor de natuur- en kwantummechanische wetten.

[Reactie gewijzigd door W3ird_N3rd op 1 maart 2010 01:31]

Denk het niet. Meestal zijn dat textures.
Grappig deze ontwikkeling, in Japan is men begonnen met de ontwikkeling van een ruimte lift terwijl de nanotechnologie nog niet ver genoeg is om een kabel te maken. Maar gezien de voorgaande verbeteringen voorspelde zij dit binnen 5 jaar het materiaal voor de kabel beschikbaar te hebben. Nu zie je zo'n ontwikkeling en dus gaan de ontwikkelingen weer door. Vooruitgang is gaaf! Wie weet waar we over 20 jaar zijn. We zullen zien.
Wat heeft jou verhaal in vredesnaam te maken met het artikel? Het gaat hier om simulaties, het enige wat ze zouden kunnen doen is een paar miljoen atomen simuleren. En hoeveel atomen hebben we nodig om naar de ruimte te komen? Dat is echt wel een klein beetje meer dan die paar miljoen die ze nu kunnen. Het blijft een leuk verhaal maar het is totaal niet te verbinden met elkaar.
Stel we zetten moors law door dan nog is het over 20 jaar niet mogelijk om een kabel van die lengte te simuleren op atomair niveau.

Tevens blijven dit natuurlijk DFT berekeningen. Niet dat die geen geweldige resultaten behalen, maar het is en blijft een benadering van de werkelijkheid. Voor kleine volumes zal dit nog steeds goede resultaten behalen, maar als we gaan praten over een volume van hier tot aan de ruimte, dan verwacht ik niet meer dat een DFT berekening nog zo geweldig is. Als je ziet dat er nu nog steeds enorm veel moeilijkheden zijn bij het berekenen van diatomen (denk aan H-S of O-H) waar nog steeds veel benadering nodig is in recente studies dan lijkt me een DFT over een aantal mol atomen nogal vergezocht binnen nu en 20 jaar.

Maar dat is natuurlijk alleen maar mijn mening
Dit zat er gewoon aan te komen. Het was het wachten waard. Dit is een enorm goede ontwikkeling. Voor sommigen is dit misschien niet iets bijzonders maar de mogelijkheden met dergelijk computers/algoritmes zijn eindeloos. Zo kan van te voren bepaald worden of het metaal de kracht of weerstand heeft om te implementeren.

Zo kom je niet voor verrassingen te staan en is dit een erg nauwkeurig middel om de eigenschappen te bepalen. Dit zou je erg goed kunnen gebruiken voor de luchtvaart, ruimtevaart waarin metalen verwerkt worden waarin precisie cruciaal is voor de gevolgen van het eindproduct.

De wetenschap heeft bij dergelijke algoritmen erg veel baat. Hiermee zou je in de verre toekomst onbevestigde theorieën kunnen berekenen.

[Reactie gewijzigd door Fjerpje op 28 februari 2010 15:25]

Moet je voorstellen wat er gebeurt als de rekenkracht nog veel meer toeneemt...
Je ziet wel dat slim denkwerk grotere stappen maakt dan gewoon wachten op meer 'computing power' ;)

Dus we kunnen nog veel, veel winnen door gewoon nog slimmer te worden :)
dan krijgen we gesimuleerde hersenen voor supercomputers! ^^
Dat is al gelukt in Chicago geloof ik (weet niet zeker), door middel van een supercomputer met een oppervlakte van het vaticaan
Geeft al aan hoeveel rekenkracht er nodig is om iets kleins en simpels als de hersenen te simuleren.
Nouja het wachten is op organische computers, een gewone computer moet gewoon veel meer moeite doen om bijvoorbeeld een elektrisch stroompje te simuleren. In je hersenen gaat dat stroompje automatisch (gratis) naar allerlei delen in je hersenen terwijl een computer bij elk vertakking een extra elektrisch stroompje moet simuleren, dan gaat het nogal snel erg zwaar worden voor een computer :).

Als we computers krijgen die ook van dit soort dingen kunnen simuleren zonder extra moeite dan kan het een stuk kleiner en sneller.
Hier maken ze computer chips die de hersenen simuleren. Dus je hoeft geen software te maken die de hersenen simuleren, alleen software maken die de parameters erin stoppen.
@roy-t Gratis??? Moet jij niet eten voor de energie die nodig is om dat stroompje aan te maken in je hersenen?
Is dat een grap? Er zijn weinig dingen zo complex als onze hersenen..
Het is in princiepe totaal niet complex, de berekeningen e.d. zijn heel simpel, alleen het van heel veel makkelijke dingen is nog steeds erg tijd rovend. En alleen maar omdat we nog niet weten hoe iets werkt betekend nog niet dat het dus ook complex is...
OT: Ik denk dat je de betekenis 't woordje 'complex' niet helemaal begrijpt. Complex zijn onze hersenen juist wel, de individuele componenten zijn misschien eenvoudig, maar door de samenhang onstaat een heel moeilijk te doorgronden geheel: een complex geheel.
Het probleem is dan ook dat onze hersenen zich constant bezig houden met zichzelf aan te passen. Nieuwe connecties maken andere connecties afbreken 't ene hersendeel dat meer connecties krijgt en een ander dat kleiner word.

Ik vraag mij hoe computers deze dynamiek kunnen implimenteren.
Iets dergelijks bestaat al lang in de vorm van neurale netwerken. Gaat terug tot Turing, of nog wel verder. Je komt ze wel tegen in zelflerende expertsystemen.
reactie op wallhugger:

Zal een probleem worden als je computer alzheimer krijgt 8)7

[Reactie gewijzigd door Lightmanone1984 op 28 februari 2010 20:15]

De "hardware", de neuronen zijn niet complex. De software daarentegen (verbindingen tussen neuronen) zijn dat wel. Dus onze hersenen zijn kwa hardware niet complex maar hoe ze werken wel, omdat ze enorm parallel werken en computers nog voor het grootste deel serieel.

Onze hersenen zijn in verhouding tot CPU's ook erg traag. CPU's doen nanoseconden over opdrachten terwijl onze hersenen daar tientallen milliseconden over doen. Alleen werken onze hersenencellen parallel, en doen we net zo lang over het optellen van 2+2 als over het herkennen van een bekende.
Nou, het principe van 'geheugen en processor in één' en neurale netwerken is wel degelijk enorm complex. En ook de (nog steeds onduidelijke) rol van hersengolven in het geheel, waarmee volgens nieuwe theorieën hersengebieden gesynct worden, is niet bepaald 'simpel' te noemen.

Een computerprocessor zit veel eenvoudiger in elkaar in ieder geval. In feite een domme kluwen vol transistors en wat daarop lijkende meuk...

Er is eigenlijk qua structuur niks complexers op de aarde dan de menselijke hersenen op dit moment, zou ik zelfs durven stellen.
offtopic&kutgrap: Zijn onze hersenen niet gewoon reëel?
Ik wil niet vervelend doen maar simpel zijn de hersenen van mensen niet, wel klein in vergelijking.
".. om iets kleins en simpels als de hersenen te simuleren."

Je kan zeggen wat je wilt, maar de hersenen zijn niet simpel. Dat is de rede waarom het moeilijk is om te simuleren. Simpele dingen worden al gesimuleerd.
Feitelijk is weinig nieuws onder de zon als je het artikel leest. Met een verkregen inzicht heeft men het voor elkaar gekregen een vergelijking efficienter op te lossen.

Het hele rekengebeuren is natuurlijk wel een leuke bezigheid maar haast hoef je er niet mee te hebben. Wat is de zin om enorm veel rekenkracht en dus energie te gebruiken als je over 5 - 10 jaar het klusje kan klaren in een veel kortere tijd.
.... als we nu niets doen, kunnen we het over 5 jaar ook niet in korte tijd... er is meer nodig dan alleen brute rekenkracht, goed ontwikkelde logaritmes is daar een voorbeeld van...

je gaat ervanuit dat vooruitgang automatisch gaat.

[Reactie gewijzigd door SEtechnology op 28 februari 2010 13:50]

Vooruitgang is al zover dat dit inderdaad kan (d.w.z. het automatiseren van vooruitgang), maar het zijn algoritmes en geen logaritmes. Tot zover je geloofwaardigheid.

[Reactie gewijzigd door gang-ster op 1 maart 2010 12:37]

offtopic: weet ik in ieder geval ook weer waar de naam Fermi toch vandaan komt ;)
Doet me denken aan de Star Trek film waarbij ze de formule voor transparant aluminium berekenen. :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True