Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties
Bron: ZDNet

Microsoft zal binnenkort zijn visie op de toekomst van de gebruikerinterface voor computers onthullen in de vorm van een concrete technologie. Het bedrijf zal namelijk binnenkort de PlayTable-technologie vrijgeven: een multi-touch interface die objecten automatisch herkent.

Microsoft heeft de laatste tijd op diverse bijeenkomsten en conferenties het publiek een blik gegund op onderdelen van de PlayTable-interface. Onder andere tijdens een demonstratie op de Consumer Electronics Show in 2006, waar een mobiele telefoon op een tafel met geÔntegreerd beeldscherm werd gelegd en deze automatisch werd herkend en de foto's op de telefoon werden weergegeven. Waar de aanstaande release van PlayTable precies uit zal bestaan is echter onduidelijk, waardoor het ook lastig is om in te schatten wat er met de nieuwe technologie mogelijk zal zijn. Duidelijk is dat het onderdelen zal bevatten die bedacht zijn door de onderzoeksafdeling van Microsoft als mogelijke toekomstige technologie voor de bedieningsinterface van desktopcomputers. PlayTable zal mogelijk sensoren gebruiken om allerlei invoermethoden mogelijk te maken. Onder andere multi-touch bedieningsinterfaces, waarbij dus beide handen of meerdere vingers onafhankelijk worden herkend, en zogenaamde gestures maken onderdeel uit van deze visie.

De onderzoekstak van Microsoft heeft in het verleden diverse projecten naar buiten gebracht die surface-computing en aanraaktechnologie gebruikten als invoermethoden. Surface-computing maakt het bijvoorbeeld mogelijk om apparaten die op een bureau met geÔntegreerde sensors worden gelegd, automatisch te herkennen. Voorbeelden van dergelijke projecten zijn Touchlight, dat in feite de gebruikersinterface is die in de film 'Minority Report' werd gebruikt en door Microsoft in licentie is gegeven aan derden, en PlayAnywhere. Dit laatste systeem werkt met een kleine projector en sensoren om op een willekeurig oppervlak een gebruiksinterface te projecteren die door bewegingen wordt bediend. Ook het project BumpTop is een demonstratie van een nieuwe gebruiksinterface die de eerder genoemde technologieŽn bevat. Het systeem geeft documenten en andere bestanden weer als objecten die met behulp van een touchscreen en gestures kunnen worden bewerkt. PlayTable zou een afgeleide zijn van deze onderzoeksprojecten en in een vorm zijn gegoten dat het ook daadwerkelijk gebruikt kan gaan worden. Het nieuwe product zal vallen onder dezelfde afdeling als de Xbox en de Zune, en vermoedelijk op dezelfde doelgroepen als deze andere producten van het bedrijf zijn gericht.

Bill Gates achter innovatief desktopsysteem

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (75)

GUI van de toekomst? aangezien microsoft voor een groot deel de softwaremarkt in handen heeft is het eigenlijk een beetje vanzelfsprekend dat de volgende microsoft gui de gui van de toekomst is.
als bestaat er natuurlijk ook een mogelijkheid dat er een ander concept, niet van microsoft afkomstig, zo spraakmakend is, dat het door microsoft word gejat en toegevoegd word aan de gui van de toekomst.

wat mij opvalt, is dat alle toekomstige technieken allemaal een beetje verwant met elkaar zijn, alsof alle "ideenmakers" worden beinvloed door wat ze bijvoorbeeld op televisie of in films zien.
Multi touch user interface is inderdaad al een tijdje 'hype'.
Jeff Han heeft begin 2006 een werkende gedemonstreerd.
Dus MS heeft dit niet bedacht ofzo.

Dat er op dit moment aan alle kanten aan nieuwe GUI's ontwikkeld wordt en alles een beetje richting multi-touch gaat is niet zo vreemd. De technologie is er, en de muis is ttoch wel een zeer beperkt invoer apparaat.
En jij denkt dat MS dit niet al veel langer heeft? dan zit je behoorlijk fout hoor..
Aannemen dat Microsoft er niet het eerste mee was, maar er gewoon een bedrijfje voor heeft opgekocht, is meestal de meest veilige aanname.

Sharepoint, Content Management Server, Expression, HALO... bla bla bla
@LolitaLapin et al.
Man, wat een speculatie (van jullie allemaal.)
Het zijn echt niet allemaal oncreatieve saaielingen bij MS hoor http://research.microsoft.com/
-1 standaard rant.

Misschien even kijken op de site, wat voor ideeen ze allemaal bedenken voordat je maar wat schreeuwt, het is voor bijna iedereen onmoglijk om origineel te zijn, maar de ideen en vooral uitwerkingen van ms zijn vaak erg goed.

(een van de redenen waarom 'iedereen' ms software gebruikt, tenminste dat en sterke marketing, en slimme truukjes)
Dus omdat de Auto uitgevonden is betekent volgens jou dat er geen anderen mogen komen om de Auto te verbeteren en hun eigen modellen op de markt mogen brengen?
En wat wil je zeggen met die URL....
Dat ze bij Microsoft aan onderzoek doen he ze een idee van een ander kunnen namaken?
Natuurlijk bestaat het al veel langer. meer dan 10 jaar met het systeem van lampjes en een camera. Ook in belgie is daar onderzoek naar gebeurt op de ku leuven.(http://www.groept.be/mast...er_in_emedia/?set-lang=en) Alhoewel het heel wat kan mag men besluiten
a) dat de vorderingen zeer traag gaan
b) dat deze invoer veel te vermoeiend is voor langdurig gebruik
c) dat het geschikt is voor speciale toepassingen, geen algemene invoer
Kid1988 zei:
wat mij opvalt, is dat alle toekomstige technieken allemaal een beetje verwant met elkaar zijn, alsof alle "ideenmakers" worden beinvloed door wat ze bijvoorbeeld op televisie of in films zien.
Dat is een wisselwerking wat al jaren plaats vindt. Film/series (startrek bijv) probeert op theorieŽn of al bewezen technieken verder door te denken op eventuele mogelijkheden in de toekomst. Andersom krijgen knappe koppen weer ideeŽn uit films/series om iets uit te vinden.
ik weet het niet, andere systemen die iets dergelijks doen lijken mij beter te inplementeren. O.a. het onderzoek van Dr Han aan NYU klinkt in mijn ogen veelbelovender, en is gebaseerd op een echte nieuwe techniek (de techniek die MS toepast hier is in feite niet nieuw, het is hetzelfde als wat gebruikt wordt om bv te meten op welk deel van het beeldscherm iemands ogen zijn gericht).

Voordelen van deze techniek is dat het vele malen platter is, en het ook druk kan meten. Daarnaast zou het redelijk goedkoop te produceren zijn (hier zijn zover ik weet echter nog geen concrete getallen genoemd).

Uiteraard biedt het MS systeem ook voordelen: 3d
Het zou dus in een VR omgeving prachtig dienst kunnen doen om de interactie tussen mens en de virtuele wereld te bewerkstelligen ipv handschoenen e.d. (je "pakt" de dingen die je ziet gewoon op, moet het systeem uiteraard worden aangepast op een grotere omgeving, maar het verhaal blijft hetzelfde)
een multi-touch interface die objecten automatisch herkent
Het is een leuk idee van Microsoft, maar natuurlijk niet origineel. Zie bijvoorbeeld dit filmpje van Jefferson Y Han. De jongen werd er wereldberoemd mee en is nu ook zijn eigen bedrijf begonnen met als uitganspunt deze technologie.

Multi-touch wordt ook gebruikt in de iPhone. Apple heeft er een goed aantal patenten op liggen, ze hebben er zelfs een heel bedrijf voor gekocht, dus de technologie kan Microsoft nog flink wat geld gaan kosten.
Mompelt iets: "Redmond, start your copiers!"

Het is al weer laat, :z truste!
Multi-touch bestond al tijden voordat Apple met de iPhone kwam. Prior art, dus.
Ik wil niet dat mijn computer doet wat hij 'denkt dat ik doe'. Ik wil dat de computer EXACT en ONDUBBELZINNIG doet wat ik DISCREET invoer op mijn interface. En daar is al dit gezeik bijzonder ongeschikt voor, en de muis+tobo zťťr geschikt.

Kijk naar dat filmpje van TED: alles wat die gast doet kan ik evengoed en evensnel met mijn twee scrollwielen en vier muisknoppen en toetsenbord bij mn linkerhand. Het is niks speciaals en niks nieuws. Laat staan iets goedkoops of makkelijks om te programmeren. Ik bedoel, wtf? Heeft Ūťmand bedacht hoe hoog je programmeeropleiding moet zijn om ook maar een screensaver voor multi-touch te programmeren :-S
wat een onzin, hoezo zou je daar nou meer programmeerervarging/kunde voor nodig hebben dan voor het programmeren van een normale mouse driven direct manipulation interface. Als je single touch kan implementeren qua code en je hebt hardware die multi touch aankan dan is dat programmeer technisch echt niet veel moeilijker.

Ik denk dat het produceren van voldoende gevoelige hardware momenteel een groter probleem is. Verder ben ik het wel met je eens dat het een leuke gadget is maar op de manier waarop het nu veelal geimplementeerd wordt niet echt veel meerwaarde heeft dan dat het er echt tof uit ziet in je conference zaal...
Sterker nog: dit valt al eenvoudig te implementeren. Stel dat je op een computer 2 muizen aansluit. Windows zal deze zien als twee afzondelijke apparaten, maar zal de bewegingen van de muiscursor als een resultaat van de bewegingen van beide muizen weergeven. Het is mogelijk om de bewegingen van deze muizen los bekijken. Ik ken iemand die dit heeft geimplementeerd en onderzoek heeft gedaan naar het besturen van een GUI met behulp van twee muizen (twee cursors te zien op het scherm). Volledig geimplementeerd in C#, terwijl de persoon in kwestie daarvoor nog geen letter C had geschreven. Zo lastig zal een multi-touch interface dus niet te implementeren zijn, zeker niet als er degelijke libraries voor komen.

Ik snap ook niet wat je bedoelt met de opmerking dat dit niet ondubbelzinnig zou zijn. Je raakt het scherm toch alleen maar aan op de punten die jij wil en de computer zal ook alleen op deze punten reageren. Waar zie je de dubbelzinnigheid? Het is een andere manier van gebruikersinteractie, maar anders is niet altijd slechter.
Wat me wel heel interessant lijkt: touch-drag etc. interface op een scherm zoals Minority Report, Star Wars (in die ondergrondse schuilplaats) e.v.a.
Dan wordt computeren echt een leuke, diverse bezigheid. Al is het voor het schrijven van teksten minder geschikt.

Gestures op een tafel lijkt me ook wel wat, persoonlijk ben ik al helemaal verslaafd aan mouse gestures (wat op een gesture loze pc heel irritant is :+ ).
Gestures op een touch/drag scherm lijkt me eerder onhandig trouwens.

Zo'n tafel waarop alles gelijk herkend word is een leuk speeltje, maar compatibiliteits en gezondheidsproblemen* voorzie ik ook.
Daarnaast heb je dan ook heel snel ongewenste koppelingen denk ik, een mobiel met auto-executable-virus wat per-ongeluk op die tafel terecht komt zou dan een ramp zijn.

*niet dat ik denk dat het ongezond is, maar het zal allemaal nog meer draadloos zijn; en je weet hoe snel mensen klagen en verkeerde verbanden leggen met een ziekte en EM-golven.
Ik ben dus wel bang dat je, met nog minder weerstand tijdens repeterende handelingen, nog sneller last krijgt van RSI verschijnselen. Maar volgens mij ben je voornamelijk vatbaar voor RSI als je veel stress ondergaat tijdens deze handelingen.
je beweegt juist veel meer met je armen en zit dus niet zo star achter een toetsenbordje, waardoor je RSI zou krijgen.

Ik ben overigens benieuwd of er dit soort grapjes in zullen komen (de multi-touch interface)

Of iets helio-display achtigs, waarbij het beeld letterlijk in de lucht zweeft.
De Apple iPhone heeft een multi-touch interface, het inzoomen op webpagina's gaat bijvoorbeeld door twee vingers naar elkaar toe te bewegen.
Bijna goed; inzoomen gaat door 2 vingers uit elkaar te bewegen. Als het ware rek je het plaatje op. Door 2 vingers naar elkaar toe te bewegen zoom je juist uit. Een heel intuÔtieve user-interface lijkt me.
dan beginnen moeders en overheidsinstellingen te roepen... kinderen zitten veel te kort achter de pc... ze bewegen nu bijna niet meer.

ik zie de eerste internet/sportscholen al geopend worden :z
Ik denk niet dat dit gaat werken op een desktop. Interactie kost dan teveel kracht. Je zal maar dag in dag uit met je handen tegen je monitor aan moeten zitten.

Dit is wel perfect voor tablet-pc's, maarja, dat is niet echt "toekomst", dat is "nu".
Tja, dan moeten we misschien het concept 'desktop' iets aanpassen. We zijn erg gewend geraakt aan de kast naast/op het buro, de monitor rechtop voor je en het toetsenbord+muis bij je handen. Alle buro's zijn ook daarvoor gemaakt.
Wellicht dat het in de toekomst beter werken is als je beeldscherm/toetsenbord combinatie (playtable) schuin voor je in het buro ligt. Heb je gelijk meer zicht op je handen, wat de coŲrdinatie ook verbeterd, zeker voor de niet-zo-computerfanaten, en het kan makkelijk aangepast worden in hoogte,hoek, etc.

Daarnaast heb je nog wellicht de mogelijkheid van dual-screen.. ditmaal alleen niet naast elkaar maar a-la Nintendo DS - boven elkaar.
Bijvoorbeeld windows die je niet/weinig gebruikt, of een redering window op het bovenste scherm, en je echte actieve applicaties/windows onderop.
Wellicht dat het in de toekomst beter werken is als je beeldscherm/toetsenbord combinatie (playtable) schuin voor je in het buro ligt.
Lijkt me niet erg makkelijk werken. Ik heb behalve mn toetsenbord en muis nog meer op het bureau liggen, pen, papier, paar cd's, rekenmachine, en noem de hele rommel maar op. Waar moet dat dan blijven als mn hele bureau in gebruik word genomen door een groot schuin geplaatst scherm?
Geprojecteerd (3D?) scherm, kan je m overal plaatsen waar je wil :P
pen, papier en rekenmachine hoeft in dat geval niet meer. Gewoon tekenen op je "scherm".
Onder andere multi-touch bedieningsinterfaces, waarbij dus beide handen of meerdere vingers onafhankelijk worden herkend, en zogenaamde gestures maken onderdeel uit van deze visie.
Volgens mij is dit lang niet zo 'handig' als het klinkt :-)
Ik 'praat' veel met mijn handen en dat gaat natuurlijk helemaal verkeerd. ;-)
jammer voor microsoft dat multi-touch een patent is van apple...
Inderdaad, hou de komende WWDC apple development conference in de gaten.... Ik denk dat dit erin gebakken zit.
Ik heb zelf een Tablet PC, voor in de keuken / woonkamer. Ik heb er wel eens een avond op ge-Sketchup-t. Klinkt goed, maar je krijgt er gigantische pijn van in je nek.
De beste plaats van een scherm en voor een "bedieningspaneel" (in welke vorm dan ook) vallen absoluut niet samen.
Voor langdurig gebruik (bijv. kantoor) dus geen optie.

Omgekeerd: als je een paar uur met je handen tegen een beeldscherm op ooghoogte aan moet vegen... Dat is niet vol te houden.
daarom wissel je dat met een tablet dan ook af :)

heerlijk :)
@DinX: Dat wilde ik net plaatsen, maar je was me voor ;)
Moet je eens kijken naar Sun en Gomonkey. MS loopt een beetje achter..
http://www.youtube.com/watch?v=BEGsUmNy3VA
MS heeft dit ook begin 2006 getoond (in 2005 al concepten). Waarom zou MS weer achterlopen? Omdat Sun filmpjes op YouTube staan, en MS filmpjes niet?
Zover ik weet is Sun al sinds 2002 met het Looking Glass project bezig..
waar een mobiele telefoon op een tafel met geÔntegreerd beeldscherm werd gelegd en deze automatisch werd herkend en de foto's op de telefoon werden weergegeven
... dan sta je ff voor paal als je intieme foto's van gisteren ff op de 42" plasma in de vergaderruimte getoond worden :+

maar goed, een hele mooie intuitive manier van besturing. Het zou eens tijd worden dat interactie eens losgekoppeld wordt van een mouse pointer.

Ik heb een dergelijk systeem alleen al een eerder gezien... waarbij men 2 handen op een touchscreen gebruikte en daarmee een globe kon draaien zoomen etc... iemand nog een linkje hiervan?

lol @
een mobiel met auto-executable-virus wat per-ongeluk op die tafel terecht komt zou dan een ramp zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True