Tehisintellekti (AI) kui teadusdistsipliini juured lähevad eelmise sajandi viiekümnendatesse aastatesse. Järgneval paaril kümnendil sai AI-suunaline teadustöö kõikjal maailmas palju tähelepanu, kaasa arvatud Eestis.
TalTechi IT-teaduskonna dekaan professor Gert Jervan toob näiteks Tehnikaülikoolis ja Küberneetika Instituudis töötanud Enn Tõugu ja tema kolleegide töö, kes tegelesid edukalt ekspertsüsteemide loomisega, mis on tehisintellekti üks rakendusi ning lahkab teemat artiklis lähemalt.
Loe lisaks SIIT ka TalTechi küberkriminalistika ja küberjulgeoleku keskuse teaduri Birgy Lorenzi artiklit, kus ta avab tehisintellekti nii tehnilise, eetilise kui ka kõrghariduse poolelt vaadates.
Tehisintellekti talved
Erinevatel põhjustel on tehisintellekti arendamine mitmel korral sisuliselt seiskunud. Neid perioode nimetatakse tehisintellekti talvedeks. Põhjuseks on olnud nii tehisintellekti keerukuse alahindamine kui ka arvutustehnika vähene jõudlus. Kuid viimasel kümnekonnal aastal on tehisintellekti algoritmid jõudnud väga paljudesse valdkondadesse ning rakendustesse. Miks siis just viimasel ajal on tehisintellekt saanud ootamatult nii peadpööritavalt palju tähelepanu?
Siin peame rääkima terminoloogiast, sest tavalises meediapildis valitseb paras segadus. Klassikalise definitsiooni järgi on tehisintellekti näol tegemist süsteemiga, mis suudab lahendada suvalisi inimintellekti nõudvaid ülesandeid ja inimestest edukamalt. Tänapäeval kasutatakse sellise süsteemi kirjeldamiseks ka terminit „tehislik tavamõistus“ (artificial general intelligence – AGI).
AGI loomist üritati 70. ja 80. aastatel korduvalt ja paljude gruppide poolt, mis aga järjepidevalt ebaõnnestus ning see viis omakorda tehisintellekti talvedeni. Käesoleva sajandi alguses saadi aga aru, et kui AI algoritme kasutada kitsamate ja spetsiifilisemate probleemide lahendamiseks, siis ei ole see mitte ainult jõukohane, vaid annab ka väga häid tulemusi.
Näitena võib tuua tehislikud närvivõrgud või statistilise masinõppe. Selliseid algoritme kasutatakse optimeerimiseks, pildituvastuseks, teekondade planeerimiseks isesõitvates sõidukites ja paljudes teistes valdkondades. Tegemist on n-ö kitsa AI-ga, millel väga vähe puutumust AGI-ga (või tehisintellektiga selle klassikalises tähenduses).
Kui kümmekond aastat tagasi muutusid kättesaadavaks suuremad arvutusjõudlused ja suured andmemassiivid ning arendati edasi AI algoritme, hakkasid domineerima süvaõppel põhinevad meetodid. Vaatamata nende meetodite võimekusele on aga endiselt tegemist statistiliste meetoditega, mis annavad vastuse lähtudes eelnevalt selgeks õpitud minevikuteadmistest, omamata igasugust (ise)teadvust, emotsionaalsust ja mõtlemisvõimet. Siia kategooriasse kuulub ka loomuliku keele töötlemine (natural language processing – NLP) ning suured loomuliku keele mudelid, nagu ChatGPT, mis just viimasel ajal on saanud suurt tähelepanu.
Kuidas on see võimalik?
Kõikide nende mudelite ühine joon on see, et nad suudavad loomulikku keelt töödelda, aga nad ei saa selle sisust midagi aru. ChatGPT suudab läbi töötada kolossaalse koguse internetis leiduvat informatsiooni, luua selle põhjal meile väga terviklikku ning sujuvat teksti, samas mõistmata selle sisust mitte midagi.
Iga uus suur keelemudel tekitab meis aga üha suurema küsimuse – kuidas on see võimalik? Kuidas on võimalik statistiliste meetoditega saavutada sellist tulemust? Kas tõesti ei ole seal peidus midagi intelligentsemat?
See omadus on suurte keelemudelite üks suuremaid nõrkusi, sest vaatamata mudelite keerukuse eksponentsiaalsele kasvule ei muutu nad rohkem usaldusväärseks. GPT-3 mudel sisaldas 175 miljardit parameetrit, GPT-4 aga juba 1 triljon ja seda tahetakse kasvatada 100 triljonini. On hinnatud, et praegu kahekordistuvad mudelite keerukused iga 3,5 kuuga, samas täheldab arvutustehnika keerukust kirjeldav Moore’i seadus, et arvutite keerukus kahekordistub ainult 18 kuuga. Kuid endiselt lähtuvad need mudelid ainult sellest informatsioonist, mis on neile kättesaadav, saamata aru selle sisust. Nad ei õpi eristama tõde valest. Nad lihtsalt muutuvad enesekindlamaks (loomulikumaks) ja tekitavad üha jõulisemalt mulje, et genereeritud tekst on igal juhul tõene.
Kuna suurtele keelemudelitele on väga palju võimalikke rakendusi (mida viimasel ajal tekib nagu seeni pärast vihma), siis on ülioluline, et me arvestaksime tehisintellekti rakenduste loomisel (aga ka õppimise juures) selliste teemadega, nagu hallutsineerimine, kallutatus, joondumine ja mitmete teiste nii eetiliste kui ka tehnoloogiliste väljakutsetega. Kui me parandame ChatGPTd, andes talle korrektset informatsiooni, siis samal ajal saab analoogiliselt keegi talle ka väärat või kallutatud informatsiooni ette sööta. Mida rohkem te annate talle oma eraelulist informatsiooni, seda rohkem õpib ta teid tundma. Aga seda infot enam tagasi küsida ei ole võimalik.
Järjekordne samm tehisliku tavamõistuse suunas?
Kas GPT-4 on järjekordne samm tehisliku tavamõistuse suunas? Jah, kindlasti.
GPT-4 suudab nii mitmeidki ülesandeid lahendada tavainimesega samaväärsel tasemel või isegi paremini. Kuid ta on endiselt väga piiratud ja täisväärtusliku tehisintellektini on veel pikk maa minna. Samas annavad erinevad tehisintellekti algoritmid meile hüppelise võimekuse igapäevaste probleemide lahendamiseks, sest nagu tabavalt on öeldud – tehisintellekti tulek omab ühiskonnale samasugust mõju nagu omal ajal trükipressi leiutamine.
Kasutagem meie käsutuses olevaid vahendeid. Aga säilitagem kaine mõistus ja ärgem tormakem pimesi edasi.
* Selle teksti loomisel ei ole kordagi kasutatud ChatGPT abi.
Artikkel ilmus esmakordselt Tallinna Tehnikaülikooli ajakirjas Mente et Manu juunis 2023