Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 7 reacties
Bron: PC Magazine

PC Magazine doet verslag van een aantal presentaties, gehouden in IBM's Industry Solutions Lab, betreffende de visie van het bedrijf op mobiele apparaten in de nabije toekomst. De belangrijkste boodschap die de diverse medewerkers overbrachten, was dat Big Blue niet van plan is nieuwe mobiele apparaten te ontwikkelen. In plaats daarvan wil het bedrijf zich richten op software die de door anderen ontworpen hardware qua functionaliteit kan uitbreiden, en die vooral de apparaten beter kan laten samen werken met andere systemen. Centraal hierin staat al verkrijgbare middleware software die het bedrijf WebSphere Everyplace Access noemt. Deze software wordt geïnstalleerd op bedrijfsservers, waarna werknemers met hun Palms of PocketPC's bedrijfsgegevens of applicaties kunnen benaderen. Ook het ontvangen en versturen van e-mails of instant messages en klanteninformatie behoort hiermee tot de mogelijkheden.

Één van de volgens PC Magazine meest indrukwekkende elementen van WebSphere EA is de zogenaamde 'connection manager', die het naadloos overstappen tussen diverse netwerkverbindingen mogelijk maakt. Een gebruiker kan bijvoorbeeld wisselen van een WiFi- naar een Bluetooth-verbinding zonder een remote applicatie af te sluiten of een download te onderbreken. Daarnaast steekt het bedrijf veel moeite in het integreren van spraakbesturing in haar software. Belangrijk hierbij is dat IBM wil zorgen dat één applicatie desgewenst tegelijkertijd op de klassieke manier als met de stem bestuurd kan worden. Hiertoe probeert IBM Research XHTML, voor tekstgestuurde interfaces, samen te laten werken met voice XML (VXML) voor spraakgestuurde interfaces. Uiteindelijk is het de bedoeling beide talen te combineren in één flexibele standaard die beide systemen aankan. Grootschalige implementatie van dergelijke systemen zal echter nog minimaal een jaar of twee op zich laten wachten:

IBM logo (vrijstaand)As an example of this sort of audio-visual app, researchers showed off a prototype of an advanced telematics system. "We're trying to build a butler into the dashboard of your car," said researcher Mahesh Viswanathan. The system will not only respond to natural language voice commands as you drive down the road - providing driving directions and traffic updates, adjusting the air conditioning, and changing the radio station - it will also use a camera to track the movement of your head and eyelids, ready to wake you up if you should fall asleep.
Moderatie-faq Wijzig weergave

Reacties (7)

die blauwe reus is wel een pionier op het gebied van distributed computing (ff nie heel erg verwarren met enkele rekenprojectjes die ook deze term dragen).
een mainframe is makkelijker te onderhouden dan duizende losse werkstations, te meer daar ibm dankzij het samenwerken met lotus (eg. lotus notes) hun kennis heeft uitgebreid.
oh ja en spraak besturing zat standaard bij os/2 warp en werkte toen al ontieglijk goed.
Jammer dat de Win32 API niet in OS/2 zat, want dat maakte het voor concurentie met win95 knap waardeloos. Win95 had tenslotte de te ondersteunen progsels van derden...
Ik denk dat IBM geen slechte keuze maakt door hardware uit het pakket te schrappen voor wat betreft mobiele apparaten. De concurrentie is of wordt moordend op dit vlak, we zien het allang bij computerhardware waar op een cdrom speler echt heel weinig marge zit voor een fabrikant. In software zit veel meer muziek. Bijkomend voordeel is het onderhoud aan software, wat ook weer geld in het laatje brengt. Laat de Taiwanezen het hardware gedeelte maar pakken :)
Ik blijf me afvragen of het uberhaupt wel te doen is, een computer zich zo laten gedragen dat 'ie enkel reageert als die geroepen wordt.
Voor een mens is het bijna een koud kunstje, weten wanneer hij/zij aangesproken wordt, maar om al die ques (context, geluidsrichting en strekte) te programeren...'t zal me benieuwen.
Dalt valt behoorlijk mee zal ik je vertellen. Natuurlijk moet er nog een belachelijke berg werk verzet worden, maar het is zeer wel mogelijk.

Zo heb ik onlangs realize voice geïnstalleerd, hiermee kun je (delen van) je pc besturen d.m.v. je stem en je kunt er natuurlijk brieven mee dicteren. Als je in gedachten houdt dat Engels niet mijn 1e taal is, en dat ik er nog niet zoveel mee heb getrained werkt het toch al goed.

De computer zal bijvoorbeeld alleen reageren op je commando's als je eerst een bepaald woord/bepaalde zin zegt. ("Computer" lijkt me wel wat :) ). Toch zeker 90% procent van mijn input word al goed herkend, zonder veel training...

Het moeilijkste is om zoveel mogelijk commando's in te bouwen die allemaal hetzelfde doen. De een zegt namelijk "snelheid" terwijl iemand anders vraagt "hoe hard rijd ik", om maar een kronkel te noemen. Het lijkt me niet de bedoeling dat iedereen zich aan gaat passen aan zijn/haar boordcomputer, dat moet makkelijker kunnen.
Websphere Everyplace (zonder A) bestaat al
iets van 3.5 jaar naar mijn idee.

En is eigenlijk een cutdown versie van Websphere
MQSeries. Eigenlijk alleen de client versie zeg maar.

Nee IBM wou veel doen met pervasive, maar dat is
ook eigenlijk op zijn ruggetje gevallen
Hmz, IBM heeft ook z'n eigen .NET bedacht hoor...

Overigens had ik er al van gehoord en zag het er aardig goed uit :).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True