Lidar gör det möjligt att samarbeta i AR

Tuesday 19 May, 2020

Bild: 2017-09/dsc01062.jpg

Ser en del rykten om vad som kommer att ersätta mobiltelefonen med tiden. Det logiska är förstås glasögon - som gör att AR (Augmented Reality) blir tillgängligt för gemene man. Problemet är att det inte finns något självklart sätt att mata in information med ett par glasögon. Man kan läsa av ögonrörelser, använda rösten eller något annat.

Jag tror det blir "något annat". Apple arbetar för närvarande med lidarscanning. Det är ett system för att med precision läsa av positionen för olika föremål. Det skulle göra det möjligt att exempelvis använda gester för att styra elektronik. Man kan enkelt förvandla ett vanligt bord till ett tangenbord - och även om bordet inte ger någon feedback (klick) när man trycker ner tangenterna lär det vara möjligt att använda ljud och syneffekter för att skapa illusionen av ett verkligt tangentbord.

Hur väl skulle virtuella tangenbord fungera? Det är svårt att veta, eftersom det inte finns några ännu så länge. Men får Apple till lidarmetoden går det att tänka sig lösningar som påminner om dagens tangentbord.

För att se om det skulle kunna fungera - håll händerna ovanför tangenterna och försök skriva utan att nudda tangenterna annat än vid själva nedtryckningen. Och visst fungerar det. Det räcker med den vägledning som synen ger. Blundar man med ena ögat fungerar det sämre, men ändå förvånansvärt bra.

Virtuella tangentbord är därför en möjlig lösning. Möjligen kan de virtuella tangenborden se något annorlunda ut än de fysiska, men en fördel med att låta dessa se ut som vanliga är att vi är vana vid querty-lösningen. Eventuella förändringar lär introduceras gradvis.

Men hur läser lidarsensorn av fingrarnas position? Det är rimligen en utmaning, då handlovarna ofta blockerar synfältet. Det är sällan man skriver på ett sätt som gör att fingrarna hela tiden är i synfältet. En möjlighet är att låta det virtuella tangentbordet ha en vinkel som är mer vinkelrät mot ögonen. Det går också att tänka sig att man märker ut fingertopparna - exempelvis med svart nagellack - för att undvika att lidarsystemet förväxlar fingertopparna med andra kroppsdelar eller föremål. 

En fördel med mekaniska tangentbord är att de ger tydlig feedback. Det kanske går att åstadkomma motsvarande med speciella handskar. Helst skulle man förstås koppla in sensorer direkt i det mänskliga nervsystemet, men det kan vara ytterligare en bit in i framtiden.

Det är ingen högoddsare att lidar kommer att bli länken mellan oss och AR-världen. Den vanligaste applikationen kommer med säkerhet vara att låta människor mötas virtuellt. När man ringer ett samtal kommer mottagaren inte bara att kunna besvara samtalet, utan även att framträda tredimensionellt framför uppringaren. AR-glasögonen lär med all sannolikhet också ha ögonsensorer. I kombination med att gesterna registreras lär det mötet i stor utsträckning därför likna ett verkligt fysiskt möte. Den primära skillnaden blir att man varken kan skaka hand eller kramas - i alla fall inte på traditionellt sätt.

Lidar och AR kommer att ställa mycket högre krav på webbdesigners. Programmerarna måste kunna förutse hur den virtuella världen ska knyta an till den verkliga världen. Lidar ger ramen för var virtuella föremål kan placeras, men det krävs en hel del fantasi och AI för att lista ut vad som är lämpligt. Att blockera synfältet med ett tangentbord är kanske lämpligt när man sitter på ett café, men mindre lämpligt när man just står i begrepp att passera ett övergångsställe.

I början lär tekniken säkert vara trevande och avläsningen av gesterna oprecis. Med tiden lär man dock ta fram allt mer sofistikerade lösningar, där det virtuella samtalet bara är en tillämpning av många. En sak är säker - om några år kommer den begränsning av fysiska möten som pandemier medför inte att utgöra något stort hinder för mänskligt samarbete. I alla fall så länge mötena inte bygger på att man rent fysiskt interagerar i den verkliga världen.