Allerlei tussenstappen zoals spraakbesturing zijn nodig om te komen tot de ’universele’ aansturing van devices: direct via onze hersenen.
Door: Richard de Jeu, partner bij IT-strategie-adviesorganisatie METRI
Lange tijd werd spraakbesturing gezien als dé technologie die de communicatiemogelijkheden tussen mens en device ingrijpend zou gaan veranderen. Maar net als tekst blijkt spraak zeer divers te zijn, niet alleen door taal en dialecten maar ook door de manier van uitspreken. Er zijn zoveel variaties dat het programmeren van spraakbesturing allerminst eenvoudig is.
Natuurlijk kunnen relatief simpele commando’s wel met spraakbesturing plaatsvinden. Google heeft hiervan gebruik gemaakt bij de introductie van Google Glass. Spreek de zin “Okay Glass, take a picture” uit, en er wordt een foto gemaakt. Tevens zien we in recente demo’s van bijvoorbeeld Microsoft dat computers in staat zijn om te luisteren en uitgesproken zinnen te vertalen op near-realtime basis.
Ook IBM maakte bij de introductie van supercomputer “Watson” in 2011 gebruik van bijvoorbeeld spraakherkenning om het populaire spel Jeopardy te kunnen spelen tegen de twee topspelers uit de VS – die overigens beiden prompt van de computer verloren. Ondertussen heeft IBM de technologie verder ontwikkeld om onder andere op het medische vlak stappen te kunnen maken en artsen te helpen bij het diagnosticeren van ziektes en vinden van behandelingen voor herstel.
Deze tussenstappen zijn nodig om uiteindelijk te komen tot een andere vorm van aansturing, die als “universeel” kan worden gezien: aansturing direct via onze hersenen. Op dit vlak worden momenteel grote stappen gezet, waarbij een sector als de game-industrie een belangrijke rol speelt. Het meespelen in virtual reality-omgevingen en het op afstand besturen van devices behoren nu al tot de mogelijkheden.
Een mooi voorbeeld van een bedrijf dat zich hier op richt is Emotiv, dat met een zeer betaalbare en goed draagbare device op de markt komt: de Emotiv Insight. Deze wearable kan naast emoties en stressniveau ook mentale opdrachten en gezichtsuitdrukkingen via de hersenen vertalen naar applicaties. De zelflerende standaard software maakt dit device geschikt voor zeer brede toepassingen. Ontwikkelaars worden uitgedaagd om met vernieuwde toepassingsgebieden te komen en de eerste dienen zich al aan.
Middels besturing via de hersenen geven we pas echt invulling aan het woord wearable: ”We are Able”.