Čitajući i govor vašeg tela, Google želi da vam ponudi upravo ono što želite, i baš kada vam je potrebno.
Gledate omiljenu seriju na Netflix-u kasno uveče kada shvatite da želite kasnu užinu. Soba je mračna, pa pipate okolo ne bi li našli daljinski. Pronalazite ga, ali ste pritisnuli pogrešno dugme i umesto pauze, premotali emisiju unapred.
Sada zamislite nešto sasvim drugačije – kada ustanete sa kauča, film se sam pauzira, a kada ponovo sednete, film se nastavlja.
Kada bi računari svuda oko nas mogli automatski da razumeju našu implicitnu nameru, umesto naših eksplicitnih klikova mišem, dodirivanja ekrana, pa čak i glasovnih komandi, svet funkcionisao besprekorno. To je vizija kojoj tehnolozi teže decenijama i naziva se „sveprisutno računarstvo“, „ambijentalno računarstvo“ ili čak „tiho računarstvo“. Google sada pokušava da to ostvari, kreiranjem računara koji razumeju društvene norme u vezi sa ličnim prostorom.
„Zaista smo inspirisani načinom na koji ljudi razumeju jedni druge. Kao ljudi, mi se razumemo intuitivno često bez reči“, kaže Leonardo Đusti iz Guglove laboratorije za naprednu tehnologiju i projekte (ATAP).
U ATAP-u, istraživači dizajna koriste svoj radarski senzor Soli kako bi razumeli društvene nijanse koje su ugrađene u naše svakodnevne pokrete. Soli vidi telo kao jednu običnu mrlju. Ali kroz pravo sočivo, ova mrlja ima inerciju, držanje i pogled – sve stvari koje stalno procenjujemo kada komuniciramo sa drugim ljudima. Soli je već stigao i na Pixel telefone i omogućava vam da radite stvari kao što je air swiping prolazak kroz pesme – intrigantno tehnološki, ali besmisleno u praktičnom smislu.
Zatim je Google integrisao Soli u svoj Nest Hub, gde je mogao da prati vaš san tako što će osetiti kada ste legli, kako ste spavali, pa čak i u kom ritmu ste disali.
ATAP-ove nove demonstracije guraju Solijeve mogućnosti do novih ekstrema. Solijeve prve iteracije skenirale su nekoliko stopa. Sada može da skenira malu sobu. Korišćenjem gomile algoritama, može da dozvoli Google telefonu, termostatu ili pametnom ekranu da čita vaš govor tela slično kao što bi to uradila druga osoba, te predvidi šta želite sledeće.
Google je obučio Soli da razume nešto ključno. „Zamislili smo da ljudi i uređaji mogu da imaju lični prostor, a preklapanje između ovih prostora može nam dati dobro razumevanje vrste angažmana i društvenih odnosa između njih, u bilo kom trenutku“, kaže Đusti.
Kad bi dve osobe stale jedna naspram druge na maloj udaljenosti, i uspostavile kontakt očima, znali bismo da žele da razgovaraju. Soli to može da razume. ATAP-ov tim smatra da bi Guglov Hab budućnosti mogao da prikaže u koje vreme ste stajali blizu, kao i da pripremi sve vaše mejlove dok mu se približavate kako biste obratili pažnju na njih, piše FastCompany.
ATAP kodifikuje ovo istraživanje u sopstveni softver sa nekoliko specifičnih pokreta. Može da razume kako se „približavate“, povlačeći elemente korisničkog interfejsa koji su možda ranije bili van ekrana. Oni su obučili svoj sistem da razume da ako, hodate blizu ekrana bez pogleda u njegovom pravcu, niste zainteresovani za više od toga.
Takođe su obučili Soli da čita u kom pravcu ste okrenuti, čak i ako stojite blizu. „Recimo da kuvate u kuhinji i gledate YouTube tutorijal za novi recept. U ovom slučaju, može se pauzirati video kada uzmete sastojak, a zatim nastaviti kada se vratite“, kaže Loren Bedal, design lead u ATAP-u.
Konačno, sistem može reći ako „pogledate“. Sada, iPhone već prati vaše lice da vidi da li ga gledate, otključava ekran ili automatski prikazuje poruke kao odgovor. Ovo se apsolutno računa kao pogled, ali ATAP razmatra taj gest u većoj meri, kao što je pogled u nekoga sa druge strane sobe. Ako razgovarate telefonom i pogledate preko sobe u svoj tablet, vaš tablet bi mogao automatski da prikaže opciju za video poziv.
Dok većina tehnoloških kompanija pokušava da preuzme Metaverse, Google izgleda zadovoljan osvajanjem našeg univerzuma.
Pročitaj i: Metaverzum postaje stvarnost: Koliko biste platili jedan tvit, digitalnu životinju ili virtuelne patike?
Foto: Julian O’hayon on Unsplash