Par jau sasniegto un to, kas vēl jāizdara, Latvijas Radio raidījumā “Zināmais nezināmajā” stāstīja Elektronikas un datorzinātņu institūta vadošais pētnieks un direktors Modris Greitāns un Latvijas Universitātes Eksakto zinātņu un tehnoloģiju fakultātes Matemātikas un informātikas institūta Mākslīgā intelekta laboratorijas vadošais pētnieks Guntis Bārzdiņš.
Solis tuvāk cilvēku uztverei
Robotu attīstības plašās iespējas vismaz pagaidām šķiet kā nebeidzams stāsts, atzina Greitāns, skaidrojot, ka tāpat, kā, pateicoties tehnoloģijām, attīstās cilvēku spējas uztvert un izprast apkārtējo vidi, tā arī soli pa solim zinātnieki attīsta robotu uztveri.
Jaunizveidotā robota gadījumā tā ir gan vizuālās informācijas uztvere, gan audio informācijas jeb cilvēku valodas uztvere, kas padarīta par vēl vienu soli labāka jeb līdzīgāka tam, ko spēj cilvēks.
“Svarīgi uzsvērt, ka šajā gadījumā informāciju robots apstrādā savās “smadzenēs”, kas tam ir uz vietas – ja mēs tā sauksim to robota skaitļošanas daļu, nevis aizsūta kaut kur bildi uz datu centru, tur tā tiek apstrādāta un atsūtīta atpakaļ – nē, to viņš dara uz vietas – tātad uz pasauli skatās kā uz trīs dimensiju telpu, kur katrā telpas punktā sev piekārto jēdzienu vektoru, kas nozīmē, ka tajā telpas punktā ir vai nu galds, vai krēsls, vai kāda lieta,” skaidroja Greitāns.
Pēc tam, kad dabiskā valodā robotam tiek pateikta kāda komanda, piemēram, “paņem ābolu” vai “uzliec ābolu uz galda”, robots savās “smadzenēs”, kurās viņam ir šī trīsdimensiju telpa, meklē konkrētos punktus un spēj attiecīgi rīkoties.
Lielie valodu modeļi paplašina robota redzesloku
Vienlaikus Bārzdiņš uzsvēra, ka robotika pilnīgi noteikti nav atrisināts jautājums. Lai gan pasaulē robotikas jomā šobrīd notiek milzīga attīstība, darāmā vēl ir daudz.
“Robotus fiziski jau mēs protam uztaisīt dažnedažādus, bet viņiem iedod šo saprašanu par pasauli, kas ir valoda, savienota ar redzi, tas vēl īsti nav atrisināts. Ar šiem jēdzienu vektoriem mūsu projektā labi izdevās savienot to, ko mēs tekstā runājām – ābols, galds un tamlīdzīgi – ar 3D telpas pikseļiem jeb vokseļiem, proti, piekārtot šos jēdzienu vektorus, kurš pikselis vai vokselis ir ābols, kurš ir galds. Tas ir kaut kas varbūt ja ne unikāls Latvijai, tad katrā ziņā mēs esam tālu tikuši,” pauda Bārzdiņš.
Lai arī iemācīt paņemt noteiktus objektus no iepriekš definētām klasēm un izpildīt konkrētas darbības ar tām nav nekas jauns, tomēr tas, kas šim projektam ir unikāls, ir tā dēvētās atvērtās kopas segmentācija.
“Vienkāršiem vārdiem runājot, tas nozīmē, ka mēs izmantojam lielos valodas modeļus, vizuālos valodas modeļus, kurus ir apmācījušas lielas firmas uz ļoti daudziem datiem. Tas nozīmē, ka mums iepriekš nav jāzina, kāds priekšmets robotam pēkšņi parādīsies redzes laukā. Ja vien kādreiz tas kaut kur internetā ir bijis, kāds to ir klasificējis, kas tas ir, robots attiecīgi to spēs saprast,” skaidroja Greitāns.
Līdzīgi tas darbojas arī ar izrunātajiem vārdiem jeb komandām, ko pasaka cilvēks. Cilvēkam šajā gadījumā nav jāizmanto konkrēti vārdi konkrētos locījumos un salikumos. Robotam var dot komandas visdažādākajos veidos, un tas gandrīz vienmēr spēs tās saprast.
“Viens ir pateikt – “uzliec zilo klucīti uz sarkanā klucīša”. Tas ir pats vienkāršākais. Bet tikpat labi mēs sakām – “savieno abus klucīšus vienu virs otra”. Respektīvi var runāt pilnīgi brīvi, kā cilvēks savā valodā kaut ko pasaka, un tad mēs skatāmies, cik tālu robots to saprot vai nesaprot. Jā, gadās, ka tas klucīti sajauc ar kādu kastīti, bet tieši tāpat arī cilvēks to varētu sajaukt,” skaidroja Greitāns.
Tāpat var, piemēram, teikt “paņem zaļo ābolu” vai “paņem zaļo augli”, un robots sapratīs, kurš objekts tam ir jāpaņem.
Pētnieku radītais robots. Foto: Sintija Ambote
Vēl ir kur augt darbības vārdos
Vēl viens svarīgs aspekts slēpjas tajā, cik labi robots spēj izprast darbības vārdus. Arī šajā jomā jaunā tehnoloģija ir spērusi soli attīstības virzienā.
“Viens ir saprast un uztvert līdzīgi kā cilvēks, bet pēc tam ir jāspēj arī izpildīt tās darbības. Lai šīs darbības izpildītu, mēs esam izveidojuši tādu, kā mēs to saucam, darbību primitīvu kopu,” skaidroja Greitāns, norādot, ka tad, ja pētnieki, piemēram, pasaka: “Paņemt”, robots jau saprot, ka ir jāskatās un jāatrod objekts, kā arī punkts, aiz kā to paņemt.
Vienlaikus viņš atzina, ka šis jautājums gan vēl nav līdz galam noslīpēts. Tik, cik šo darbību robotam ir iedots, tik ir.
“Tie ir noteiktā skaitā. Tas nav kā ar atvērto kopu, kad pēkšņi mēs viņam pateiksim – ķer. Ja viņam tāds ķeršanas primitīvs nebūs apmācīts, tad viņš nezinās, ko darīt. Bet tas ir tas, uz ko mēs skatāmies tālāk un ceram, ka pēc pāris gadiem atkal nāksim ar kaut kādu jaunu sasniegumu,” pauda Greitāns.
Tāpat zinātnieki cer saziņu ar robotu nākotnē padarīt interaktīvu. Respektīvi, ja tam tiek dota komanda “ķer”, kuru tas nesaprot, tas pajautā – ko tas nozīmē, un cilvēks pretī ar vienkāršiem jēdzieniem to var paskaidrot, un robots šādā veidā komandu iemācās un atceras.
“Līdz tam brīdim, lai robots domātu, dzirdētu un redzētu tikpat efektīvi kā cilvēks, ir vēl diezgan tāls ceļš ejams, kaut vai tāpēc vien, ka enerģijas daudzums, ko patērē cilvēks, to visu izdarot, un enerģijas daudzums, ko šobrīd vēl patērē robots ar savu mākslīgo intelektu, desmitiem tūkstošu reižu atšķiras. Ir, kur kļūt efektīvākiem,” pauda Greitāns.