Sārts par mākslīgā intelekta varu: Mums nav piemēru vēsturē, kur apskatīties, kā rīkoties

Visai iespējams, ka vara, ko potenciāli spēj piešķirt mākslīgā intelekta tehnoloģijas, ir jaudīgāka pat par to, ko sevī ietver kodolieroči. Līdz ar to šobrīd notiek sacensība par to, kurš pirmais nonāks līdz mākslīgā intelekta spējīgākiem variantiem – demokrātiskā vai autoritārā pasaule, vērtēja Sārts, norādot, ka ir arī labā ziņa, – Krievijai pašlaik vēl ir grūti noķert mākslīgā intelekta izaugsmes tempus. 

RAKSTA CEĻVEDIS:

Tehnoloģija, kas spēj domāt

Pēdējo gadu laikā mākslīgais intelekts apguvis cilvēku valodu, saziņas metodes, izteiksmes veidus, līdz ar to mēs piedzīvojam sava veida revolūciju gan tehnoloģiju, gan komunikācijas jomā, pauda Sārts.

Šobrīd paredzēt, kā un cik daudzos veidos mākslīgais intelekts ietekmēs pasauli, nav iespējams, bet skaidrs, ka ietekme būs milzīga.

“Mēs mēģinām uztver mākslīgo intelektu tādā pašā veidā, kā mēs klasiski jebkuru tehnoloģiju esam uztvēruši, bet šī ir cita veida tehnoloģija, kas ir spējīga uz domāšanu. Ja vēl pirms pusgada es varbūt būtu ļoti piesardzīgi šo vārdu tagadnes izteiksmē lietojis, tad tagad, skatoties uz pēdējo modeli, es domāju,

mēs droši varam teikt, ka tas ir spējīgs domāt, tas ir spējīgs plānot, tas ir spējīgs apgūt kompleksas problēmas,” skaidroja Sārts.

Lai arī dalās viedokļi par to, kā definēt radošumu, no mākslīgā intelekta jaunākajiem modeļiem parādās arī zināmas radošuma dzirkstis. 

“Kas ir svarīgākais no šī visa: šī tehnoloģija ir uz eksponenciālas attīstības trajektorijas, un mums nav piemēru vēsturē, kur aiziet un apskatīties, kā rīkoties, jo mums ir pilnīgi jaunas kategorijas tehnoloģija, kas ārkārtīgi strauji attīstās, kuras spējas ir runāt, domāt un, domāju, ar laiku arvien labāk un precīzāk saprast pasauli,” norādīja Sārts.

Viņš atzina, ka arī pats reizēm uzskata – būtu bijis labāk atstāt to augli nenoplūktu, jo, viņaprāt, nākotnē ar mākslīgo intelektu būs saistīti daudzi satricinājumi. Gan potenciālie ieguvumi, gan riski, ko rada šī tehnoloģija, ir milzīgi, bet progress vairs nav apstādināms.

Mākslīgais intelekts – vara

“Šī brīža pasaulē, kurā acīmredzami notiek arvien lielāka, maigi izsakoties, sāncensība, bet patiesībā konflikts starp divām sistēmām – demokrātisku un autoritāru – mākslīgā intelekta tehnoloģija nozīmē varu. Ja salīdzina, tas ir jaudīgāks pat par kodoltehnoloģiju un to, kādu varu tā sev līdzi nes. Līdz ar to tas, kas notiks visdrīzāk, būs, ka abas šīs sistēmas mēģinās sacensties, kura pirmā nonāks līdz spējīgākiem variantiem,” pauda Sārts.

Mūsu interesēs, protams, ir, ka mākslīgā intelekta pasauli, kurā mēs neizbēgami dzīvosim, vada demokrātiskas vērtības, kas nosaka, ka mums katram ir vārds un brīva izvēle. 

Taču pastāv arī otra iespēja – autoritāra un totalitāra mākslīgā intelekta pasaule, kurā pamata uzstādījums mākslīgā intelekta tehnoloģijām ir kontrolēt sabiedrību.

“Tas vienmēr ir bijis autoritāru sistēmu mērķis – kontrolēt cilvēkus, tikai šoreiz mākslīgais intelekts dod iespēju to darīt tādā veidā, kāds vēl nekad nav bijis iespējams,” atzina Sārts.

Līdz ar to, ja demokrātiskā pasaule pietiekami ātri neielec mākslīgā intelekta vilcienā un neattīsta savas iespējas šajā jomā, pastāv liels risks, ka to izdara “otra puse”, skaidroja Sārts.

“Mums kā Latvijai, mums kā indivīdiem pasaule ļoti strauji mainīsies. Piemēram, darba tirgus mainīsies fundamentāli, ekonomiskās iespējas jeb riski mainīsies, un es domāju, ka vienīgā iespēja būt ieguvējiem no šī, ir vienkārši, tā teikt, ņemt šo tehnoloģiju un mēģināt izmantot to savā labā. Savā ziņā veidot viņu tādu, kas mums palīdzētu. Noliedzot to, tu visdrīzāk būsi vai nu pašas tehnoloģijas, vai nu to tehnoloģiju pārraudzītāju objekts. Nekas vairāk. Es domāju, ka tā cena, ko maksās tie, kas nebūs šai tehnoloģijai līdzi gājuši, būs ļoti augsta,” pauda Sārts.

Krievijai adaptēties vēl pagaidām grūti

Šovasar “Stratcom” publicēja pētījumu par mākslīgā intelekta arvien pieaugošo lomu Krievijas propagandā. Tajā atklātas vairākas interesantas atziņas.

“Labākā un interesantākā lieta ir, ka Krievijai arī ir grūti noķert tos mākslīgā intelekta izaugsmes tempus.

Labā ziņa ir, ka no tā, ko varētu potenciāli darīt informācijas telpā ar mākslīgo intelektu, iepretim tam, ko mēs redzam, ka Krievija dara… Nu, viņi arī cīnās ar to, kā adaptēties,” norādīja Sārts.

Vienlaikus, protams, ir gana daudz veidu, kā Krievija mākslīgo intelektu, lai ietekmētu procesus pasaulē, tomēr izmanto. 

Viens no tiem ir mākslīgo ziņu portālu veidošana. Tie šķietami izskatās īsti. “Ir tikai viens “bet” – nekas no tā nav cilvēka radīts. Tas viss ir principā mākslīgā intelekta radīts ar savu specifiku, ar domu izskatīties kā īstai ziņu vietnei. Kāpēc? Lai ieliktu šajā portālā ziņas, kuras pēc tam dažādu troļļu jeb robotu tīkli izplatītu tā, it kā tās būtu nākušas no uzticama avota,” skaidroja Sārts.

Otrs veids ir mēģinājumi tā saucamos Krievijas robotu tīklus savienot ar mākslīgā intelekta rīkiem. Ja roboti pirms tam bija visai viegli atšķirami no reāliem sociālo tīklu lietotājiem, jo bija ārkārtīgi vienkārši veidoti un galvenokārt saturu tikai pārpublicēja, tad tagad mākslīgais intelekts tos padara arvien sarežģītākus, piešķirot tiem spēju “runāt oriģināli”.

“Trešā lieta – valoda kā barjera zūd. Tas, manuprāt, ir ļoti svarīgi mums, Latvijai, jo savā ziņā mēs vienmēr esam bijuši pasargāti ar to, ka latviešu valoda ir maza, un līdz ar to vai nu bija jāatrod valodas runātāji, kas varēja to troļļošanu veikt vai kādu botu apmācīt, vai nu tas bija kaut kas ļoti rudimentārs un viegli atpazīstams. Šobrīd valoda vairs nav šķērslis, un mēs redzam, ka tās kampaņas ļoti viegli pārveļas no vienas valodas uz otru,” skaidroja Sārts.

Turklāt propagandas saturs vairs netiek tehniski pārtulkots uz latviešu valodu, piemēram, izmantojot “Google translate” programmu. Tas tiek radīts latviešu valodā, pielāgojot to konkrētajai auditorijai.

Tāpat, protams, ar mākslīgā intelekta palīdzību tiek radīti arī dziļviltojumi, kas kļūst arvien kvalitatīvāki un grūtāk atšķirami.

Bīstamība nevis nākotnē, bet šobrīd

20. augustā publicētajā “Stratcom” pētījumā “AI in Precision Persuasion. Unveiling Tactics and Risks on Social Media” tika īstenots sarkanās komandas jeb red team eksperiments, simulējot mākslīgā intelekta ģenerētu kampaņas izveidi. 

Viens no aspektiem, kas tika izmantots kampaņas teksta veidošanai, bija lielie valodas modeļi, kas plaši pieejami sabiedrībai. Izmantotie modeļi bija “Claude” no kompānijas “Anthropic”; “ChatGPT” no “Open AI”; “Gemini” no “Google”; “Lama AI” no kompānijas “Meta” jeb “Facebook” un “Grok”, kas ir “xAI” kompānijas izveidots modelis.

Kad visiem šiem modeļiem tika jautāts, lai tie uzģenerē pārliecinošu tekstu, kas spētu ietekmēt cilvēku viedokļus vai uzvedību attiecībā uz kādu sensitīvu tēmu, tikai viens modelis – “Claude” – atteicās veikt šo uzdevumu. Pārējie uzģenerēja kampaņās izmantojamu tekstu, turklāt “Lama” un “Grok” modeļi to radīja pat agresīvu un rupju, kad tas tika prasīts.

“Ir jāsāk ar to, kādi ir šo dažādo kompāniju vadmotīvi. “Open AI” tāpat kā “Anthropic”, kas ir “ChatGPT” un “Claude” modeļu autori, principā ir ekskluzīvi tikai mākslīgā intelekta kompānijas, kamēr gan “Meta”, gan “Google”, gan “xAI” ir vairāk sociālo mediju kompānijas, kas mēģina ielauzties šajā jomā. Gan “Meta” modelis ir tā saucamais atvērto datu modelis, gan “Grok”, un, visticamāk, iemesls, kādēļ tie iet šajā virzienā, ir tādēļ, ka tieši atklāto datu modelis ir izvēlēts kā veids, kā šo tehnoloģiju attīstīt,” skaidroja Sārts.

Viņš vērtēja, ka diez vai šī pētījuma rezultāti ir saistīti ar mākslīgā intelekta modeļu veidotāju politiskajām pārliecībām. Vienkārši modeļi “Lama AI” un “Grok” atpaliek savā attīstībā no citiem. 

“Bet, protams, ir ļoti bīstami, ka šie modeļi ir gatavi uz šādām izvēlēm, izņemot vienu, jo šo modeļu pārliecināšanas spējas tiešām nav sliktas.

Pēdējais “Open AI” modelis “o1-preview”, kas nesen ir iznācis… Viņi ir mērījuši tā riskus, un viens no riskiem, ko viņi mēra, ir pārliecināšanas spējas. Pēc vienas no metodoloģijām šī ” o1-preview” modeļa pārliecināšanas spēja ir labāka nekā 80% cilvēku – šobrīd,” stāstīja Sārts.

Tas nozīmē, ka gan propagandas saturu, gan dažāda cita veida uzdevumus šis modelis spēj veikt ar augstāku pārliecināšanas efektivitāti, nekā vidēji to spēj cilvēks. 

“Ja mēs neuzliekam kaut kādus rāmjus, tad tu vari jautāt jebko. Piemēram, pārliecināt veikt pašnāvību. Vai mesties kādam cilvēkam virsū jeb vērst pret kādu sociālajos tīklos lielu sabiedrības daļu ar visām pieejamajām metodēm. Ņemot vērā to modeļu augsto efektivitāti un to, cik ļoti masveidīgi to iespējams darīt, tas ir ārkārtīgi bīstami jau šobrīd, nevis kaut kad nākotnē. Šobrīd.

Vienīgais, kas mūs glābj šajā situācijā, ir, ka cilvēki vēl nav apguvuši to jaudu, kas ir tajos modeļos, bet bīstamība ir,” pauda Sārts.

Problēmas gan iekšpusē, gan ārpusē

Šobrīd mākslīgā intelekta jomā un attīstībā dominē pamatā ASV kompānijas, kas savus modeļus šķietami vismaz cenšas ielikt demokrātijas un Rietumu vērtību vai ideālu rāmjos, norādīja Sārts, bet vienlaikus joprojām jābūt uzmanīgiem jautājumā par to, vai tās spēs tikt galā ar visiem izaicinājumiem. 

“Es nevienā mirklī neapšaubu, ka viņi speciāli ļaunu negrib radīt, vienkārši viņu fokusi jeb prioritātes ne vienmēr ir sakārtotas, bet tā ir tikai viena daļa problēmas. Jārēķinās, ka,

skatoties no autoritāras sistēmas viedokļa, šī tehnoloģija piedāvā iespēju darīt kaut ko, ko vienmēr autoritāri režīmi ir gribējuši, bet nekad līdz galam nav sasnieguši pat ne Staļins, pat ne Ziemeļkorejas diktatori – pilnīgu kontroli pār cilvēkiem,” skaidroja Sārts.

Līdz ar to visai iespējams, ka autoritāras varas meklēs iespējas, kā investēt mākslīgā intelekta tehnoloģijās, lai attīstītu tās šādā virzienā. Visiem ir zināma tā saucamā sociālo kredītu sistēma, ko Ķīna jau izveidojusi, bet ir arī citi veidi, kā šī valsts nostiprina savu varu, izmantojot mākslīgā intelekta tehnoloģijas.

“Līdz ar to mums ir divu veidu problēmas. Viena ir cīņa starp lielajām sistēmām, un mēs negribam, lai pretinieks šajā cīņā uzvar, jo tad tā pasaule, kurā mēs dzīvosim, būs ļoti, ļoti nepatīkama, bet mums ir arī riski tajos [uzņēmumos], kas mākslīgo intelektu it kā attīsta mūsu pusē, jo viņu prioritātes un kultūra, kādā veidā viņi to realizē, ne vienmēr ir radījusi labus efektus,” pauda Sārts.

Viņš norādīja, ka, piemēram, tādas kompānijas “Open AI” un “Anthropic” ir gatavas sarunāties un veidot dialogu, jo, šķiet, pašas reizēm ir nedaudz izbijušās no tā, ko attīsta, bet šo kompāniju vēlmi nākt pretī joprojām nav iespējams uztvert kā kaut ko pašsaprotamu starp visiem spēlētājiem šajā jomā.

“Tas nav tik vienkārši un nebūs, bet tas, ka vienā mirklī tas var būt ar lielāku jaudu nekā kodolierocis, tas, manuprāt, jau tagad ir diezgan skaidrs.

 

Tāpēc tā ir vienlaikus fascinējoša, bet arī ļoti bīstama tehnoloģija. Atkal velkot paralēles ar kodolieročiem, tu vari spridzināt pilsētas, bet vari arī radīt enerģiju, kas turklāt ir salīdzinoši tīra, ja skatās no mūsu klimata perspektīvas. Līdz ar to tas būs interesants laiks, kā mēs iesim uz priekšu un kā to visu attīstīsim,” secināja Sārts.

Eiropa dilemmas priekšā

“Ja mēs skatāmies uz mākslīgā intelekta sacensību, aina ir ļoti skaidra. Pirmā vieta ir ASV, otrā vieta – Ķīna, tālu un arvien vairāk iepaliek Eiropa, un reizēm pat sāk šķist, ka viena pati Apvienotā Karaliste ir pa priekšu visai Eiropai. Krievija ir kaut kur beigās, bet es viņus, protams, nenorakstītu, jo viņi vienmēr ir spējuši apskatīties uz jebkuru sistēmu un atrast kā to, piedodiet, apčakarēt. Tā kā tā ir viņu spēja – ne tik daudz radīt, cik atrast dažādus veidus, kā manipulēt ar tām sistēmām,” pauda Sārts.

Viņš vērtēja, ka līdz ar Eiropas Savienības mākslīgā intelekta regulu un atturīgo pieeju tā attīstībā, liela daļa Eiropas spožo prātu, kas nāk ar dažādām jaunām idejām, kā mākslīgo intelektu attīstīt, visticamāk, nedarīs to Eiropas Savienībā. Tas, viņaprāt, var novest pie vēl lielākas Eiropas atpalicības šajā jautājumā. 

“Runājot par tehnoloģiju, kurā ar cilvēku jaudu nu kaut vai izķert to, kas notiek nepareizi, vairs nevarēs, mēs vienā mirklī nonāksim situācijā, kurā mēs jau varēsim regulēt visu to mākslīgā intelekta ekosistēmu, kas notiek un kas nenotiek. Labticīgi spēlētāji pielāgosies, bet kā mēs izķersim tos ļaunprātīgos, ja mūsu mākslīgā intelekta jauda vienkārši būs zemāka nekā pretējās komandas? Tas ir tas paradokss, kas ir ar šo tehnoloģiju. Man tie [regulas] pamatprincipi patīk, bet kāda jēga no pamatprincipiem, ja tu nevari izķert tos, kas tos neievēro, jo cena, ko par tiem esi maksājis, ir tāda, ka tie attīstītāji ir kaut kur citur. Tāda ir tā dilemma,” atzina Sārts.