Sõrmkübaramäng tehnoloogiaga: AI, regulatsioonid, vastutus ja väärtused
Professor Ryan Calo, õigusteadlane ning Washingtoni Ülikooli autoriteetse tehnoloogiapoliitika labori (Tech Policy Lab) kaasasutaja, vaidleb vastu valitsevale narratiivile, et tehisaru on tulemuslikuks reguleerimiseks liiga kiiresti arenev ja keerukas. Tema kinnitusel leidub teisigi mudeleid peale selle, et tehnoloogia muutumist paratamatuks pidada ja tagajärgedega kohaneda.

Oma uues raamatus “Õigus ja tehnoloogia: metoodiline lähenemine” (“Law and Technology: a Methodical Approach”) nendite, kui levinud on arvamus, et muutuste tempo jõuab sageli ette sellest, kui kiiresti seadused jõuavad neid reguleerida. Te tõstate esile vastuolu õiguse ja tehisaru (AI) vahel, rõhutades seda, kui paljud peavad AI-d nii kiireks ja keeruliseks, et õigus ei jaksa sammu pidada. Kui rääkida laiast maailmast, kas rahvusvaheline õigus jõuab järele?
Raamatu eesmärk on näidata, kuidas õigus saab käsitleda tehnoloogiat kui ühiskondlikku tegelikkust, mida teatud omaduste tõttu on väga tülikas analüüsida ja reguleerida, näiteks arusaama tõttu, et see teiseneb ülikiiresti või on ülearu keerukas.
Ühes raamatu osas tuuakse selle aimduse vastu põhjendusi. Raamatus „Ühiskondlik kontroll tehnoloogia üle” („The Social Control of Technology”) arutles David Collingridge, et tehnoloogia seab kõiki õpetlasi, ametnikke ja poliitikuid dilemma ette. Kõigepealt teave: raske on oletada, kuidas tehnoloogia hakkab ühiskonda mõjutama. Näiteks: milliseid mõjusid AI avaldab, kes seda kasutab, kuidas seda kasutatakse või millise kuju see viimaks võtab. Prognoose küll tehakse, ent need osutuvad väga tihti valeks. Kui me sekkuksime ilma asja tundmata, teeksime vigu või meie regulatsioonid vananeksid kiiresti.
Tehnoloogia üksnes paistab ülearu keeruka ja tormiliselt arenevana ning paljud inimesed väidavad seda üksnes pöörasest kasumijanust.
Teine võimalus on mitte midagi teha ja tehnoloogiale vabad käed anda. Selleks ajaks, kui asute tehnoloogiat reguleerima, selgub, et see on omandanud rajasõltuvuse. Inimesed on sellega ära harjunud ning ettevõtted on teeninud palju raha, mille abil palgata lobiste ja avaldada poliitilist survet. Tehnoloogia juurdub ning isegi, kui teile on juba selge, mida teha tahate, on vastupanust tülikas jagu saada. Euroopa seisabki Collingridge’i dilemmaga silmitsi. Eriti Ühendriikides püsib inimestel meeles dilemma esimene osa – ajastuse küsimus, nimelt liigub tehnoloogia edasi liiga kiiresti, et seadused järele jõuaksid –, aga unustatakse teine pool: võimuküsimus.
Kiputakse tegutsema, nagu tehnoloogia oleks ainus asi, mille kohta teavet ei jätku või mis liigub ülearu kiiresti. See on tõest üpris kaugel. Ühendriikides oli ajavahemik, mil alkoholijoomine oli sedavõrd häiriv, et me tegime põhiseadusse paranduse, ehkki see ei läinud lihtsalt. Tosinajagu aastaid hiljem osutusid keelu tagajärjed sedavõrd häirivaks, et me parandasime põhiseadust uuesti. Aeg-ajalt tegutsetakse isegi USA-s ülikiiresti. Kui me astusime Teise maailmasõtta, tekkis järsku meessoost töötajate puudus. Kõik seadused tehti selleks ringi, et naised saaksid võimalikult ruttu tööle minna. Kui sõda läbi sai ja sõjaväelased teenistusest vabastati, muudeti seadusi uuesti. Vajaduse korral oleme kiireks tegutsemiseks võimelised.

Professor Ryan Calo on Ameerika ekspert õigusteaduse, tehisaru, privaatsuse, robootika ja eksiteabe alal. Ta on Washingtoni ülikooli tehnoloogiapoliitika labori ja Informeeritud Avalikkuse Keskuse (Center for an Informed Public) kaasasutaja, kus keskendutakse eksiteabe vastu sekkumisele ja demokraatliku debati tugevdamisele. Professor Calo on USA senatile andnud AI ja privaatsuspoliitika alal selgitusi ning kirjutab sageli suurtes meediaväljaannetes, nagu The New York Times, Wired, Reuters ja NPR. Ta kuulub mitmetesse nõuandvatesse kogudesse, nagu Elektrooniliste Rajamaade Sihtasutus (Electronic Frontier Foundation), Privaatsuse Tuleviku Foorum (Future of Privacy Forum) ja Maailmapanga privaatsuskohus.
Millisena paistavad teile AI reguleerimise väljavaated? Kas midagi saaks teisiti teha?
Inimesed, kes tehisaru loovad ja müüvad, on iseäranis USA-s suutnud otsustajatele augu pähe rääkida, et AI on nii keerukas ja liigub sedavõrd kiiresti, et targem on sellele anda vaba tee. Minu raamat algabki seepärast looga amišitest, kes võtavad mõne tehnoloogia omaks vaid siis, kui see sobib nende väärtustega. Ameerikas ei tulda enam selle peale, et olemas on valikuvabadus, kas võtta mõni tehnoloogia tarvitusele või mitte, või siis eelistada tehnoloogia kasutusele võtmisel just säärast varianti, mis soosib inimeste heaolu. Tehisaru ettevõtjad on ametnikke ja poliitikuid veennud, et AI peab olema just selline, nagu nemad tahavad, ning sekkuda ei tohi. See, et kujunenud on seisak, polnud minu arvates vältimatu.
Minu seisukoht on, et tehnoloogia üksnes paistab ülearu keeruka ja tormiliselt arenevana ning paljud inimesed väidavad seda üksnes pöörasest kasumijanust, nagu sedagi, et kui meie asume reguleerimise teele, saab Hiina kõige võimsamaks ning Euroopa ja USA ei tohi endast halba muljet jätta.
Vaid paari aasta eest peeti AI-d kõigest vahendiks, aga nüüd on sellest saanud keskkond.
Tabavalt öeldud. Olen täiesti nõus. Kunagi oli mõistlik öelda, et tehnika aitab meil midagi teha: juhime autot, lendame lennukiga, lööme naela haamriga seina sisse jne.
Üha enam tuleb tunnistada, et me teeme asju tehnoloogia kaudu või vahendusel. See väljendusviis piirab tugevasti seda, mida me näeme, sest keskkonnale ei saa esitada igasuguseid nõudeid. Arutleme AI ja selle üle, kas seda peaks reguleerima, platvormidel, mida haldab seesama AI… Meid ei peaks sugugi üllatama, kui meile sisendatakse, et seda ei saagi reguleerida.
Millist mõju avaldavad need arutelud ülemaailmsetele võimuvahekordadele?
Kõigepealt liialdatakse drastiliselt seda, milline on AI osatähtsus riikide võimsuses. Selles, kuidas riigid ennast teostavad, on oluline vägivalla rakendamine, mille juures AI-st on ainult mõnevõrra kasu. Ameerika Ühendriikidel ja Hiinal on olemas nii palju tehisaru, kui nad vajavad. Kui Ameerika jääb Hiinast ja ülejäänud maailmast maha, siis seepärast, et oleme loobunud oma diplomaatide osavusest, hävitanud oma usaldusväärsuse ning meie majandust kahjustab see, et oleme end lõhki laenanud.
Ärritav on kuulda ameeriklasi ütlemas, et parem oleks AI-d mitte reguleerida, kuna sellega me kärbiksime oma šansse olla ülemaailmsed liidrid.
AI on midagi marginaalset praeguste ülemaailmsete muutuste kõrval, mis on tingitud sellest, et USA pole enam juhtimiseks võimeline. Ärritav on kuulda ameeriklasi ütlemas, et parem oleks AI-d mitte reguleerida, kuna sellega me kärbiksime oma šansse olla ülemaailmsed liidrid. Kõigile peaks selge olema, et me kahjustame oma liidrirolli tegelikult hoopis nii, et me ei investeeri infrastruktuuri ega hari oma inimesi. Nii pole võimalik oma hegemooniat säilitada. Millalgi vaatame praegusele ajajärgule uskumatult tagasi.
Samuti on põnev, et iga kord, kui tehnoloogia ei õigusta ootusi, läheb see inimestel lihtsalt meelest või hakatakse õigustusi otsima. Morgan Ames kirjutas toreda raamatu „Karismaga masin” („The Charisma Machine”), milles ta kõneleb algatusest „sülearvuti igale lapsele” – ideest, et kolmanda maailma lastele on võimalik haridust anda, kui kinkida igaühele sülearvuti, mis on õppetundidega täidetud. TED-i meenutavatele videotele kulutati palju raha ja taipu, aga kasu neist polnud. Morgan Ames kirjeldab, kuidas kõik olid võlutud sellest karismaatilisest tehnoloogiast, mis siiski osutus tohutuks nurjumiseks.
Kui globaalsete jõuvahekordade juurde tagasi tulla, siis Eestis kui Venemaa naaberriigis on küberjulgeoleku ja eksiteabe küsimused üliolulised. Meie investeerime vastavatesse meetmetesse palju raha, aga kas USA talitab samamoodi?
Ameerika Ühendriikides on küberturvalisuse tähtsus leidnud laialdast mõistmist. Samuti see, et oleme haavatavad, kuna rahvusriigid ja kuritegelikud ühendused teevad lakkamatult katseid intellektuaalse teabe varastamiseks meie süsteemidesse murda ning konfliktide ajal ähvardavad meie infrastruktuuri katsed seda eemalt välja lülitada. Esinenud on veepuhastusrajatiste või elektrivõrkude kahjustamise juhtumeid, millega ilmselt on tahetud välja selgitada, kuidas oleks võimalik meie infrastruktuuri suures ulatuses rünnata. Avalikul ja erasektoril tuleb koostööd teha: Microsoft peab suhtlema luureringkondadega ja vastupidi.
USA-l pole eriti tugevat isikuandmete kaitse korda. See on üks põhjuseid, miks Euroopa ei luba eurooplaste andmeid vabalt Ameerika ettevõtetele edastada. Meil puudub andmekaitseorgan ning Euroopa Liit pole meid kunagi vastavalt isikuandmete kaitse üldmäärusele (GDPR) tunnistanud pädevaks eurooplaste andmeid töötlema. Euroopa Liidus tuleb GDPR-le alluda. Näiteks on Iisrael tunnistatud pädevaks, nii et eurooplaste andmeid saab Iisraelis töödelda.
Küberjulgeoleku olemus on tehisaru tõttu teisenenud, kuna AI-süsteeme ei saa üksnes häkkida, vaid ka üle kavaldada.
Oleme andmete jagamiseks raamistikke loonud: kõigepealt Safe Harbori, siis Privacy Shieldi. Kui ettevõte, nagu Microsoft, täidaks kõiki nõudeid, tunnistataks ta pädevaks eurooplaste andmeid töötlema. See väljavaade on siiski kahtlane: Euroopa Liidu Kohus ütleb, et USA valitsuse ja Ameerika tehnoloogiaettevõtete läbisaamine on liiga tihe ja puuduvad garantiid, et Google ei edasta eurooplaste andmeid USA Riiklikule Julgeolekuagentuurile (NSA). Meie luureasutustele on välismaalaste andmete suhtes antud täiesti vabad käed. Kui välismaalaste andmed asuvad USA-s, siis ei kehti NSA-le nende pruukimiseks peaaegu mingeid piiranguid.
Minus äratab huvi see, kuidas küberjulgeoleku olemus on tehisaru tõttu teisenenud. Häkkimine on USA-s tähendanud sissemurdmist mõnda arvutisüsteemi. Arvutipettuste ja kuritarvituste seaduse vastav paragrahv pärineb 1980. aastaist ning selles kirjutatakse „volitamata ligipääsust”. Ebapiisav turvalisus tähendab samamoodi, et inimesi pole suudetud eemal hoida – tagauksed on lahti ununenud või töötajaid pole õpetatud, et õngitsuskirju ei tohi avada. See kõik on muutumises, kuna AI-süsteeme ei saa üksnes häkkida, vaid ka üle kavaldada.
Näiteks saab näotuvastust alt vedada, kui end jumestada. Isejuhtivat autot saab veenda, et stoppmärk tähendab hoopis kiirusepiirangut, kui seda kleebistega katta. Juturobotit saab kallutada rassistlikku juttu ajama. Kõigi nende trikkidega pannakse AI-d soovimatult käituma, ilma et süsteemi oleks sisse murtud. Vastavalt võimaldavuste (affordances) muutumisele peame revideerima oma ootusi seadustele ja eeskirjadele. Neil puhkudel on tehnoloogia tõesti muutnud näiteks seda, mida meie peame häkkimiseks ja küllaldaseks turvalisuseks. Ameerika ettevõtted ja meie luureringkonnad alles otsivad piisavaid standardeid: näiteks mis oleks suhtlusrünnete vastase väljaõppe või otspunktkrüpteerimise ekvivalent maailmas, kus kõik on AI?
Te mainisite avaliku ja erasektori partnerlust. Puutume üha enam kokku tendentsiga, kuidas hajuvad selged piirid sõjalisel või luureotstarbel loodud vahendite ja nende riigisisese kasutuse vahel, näiteks varjatud jälgimises ja küberkaitses. Kui hästi eristatakse USA õiguses AI-tehnoloogiate sõjalist ja riigisisest kasutust?
Kõige ilmekam näide on seotud ekspordikontrolliga. USA valitsusel on voli piirata teatud tehnoloogiate väljavedu teistesse riikidesse, kui see ohustab riiklikku julgeolekut. Varem oli see lihtne, näiteks oli Iraani keelatud saata tulirelvi ja rakette. Nüüd on asi arvutusvõimsuses või isegi tarkvaraalgoritmides. Paari aasta eest tehti katset kehtestada masinõppe ekspordile eritingimusi, ent see kukkus läbi. Tehnoloogiaalaseid ideid pole eriti võimalik luku taga hoida.
Teine põhjus seisneb selles, et teadmised tehnoloogiast on tihti avalikult saadaval. Teadusasutused ja ettevõtted, isegi Hiina firmad, nagu Tencent, avaldavad eelretsenseeritud ajakirjades artikleid. Üks murrang suurte keelemudelite (LLM) vallas sai muuhulgas alguse Google’i inseneride kirjutisest „Tähelepanu on kõik, mida teil vaja” („Attention is all you need”). AI kasulikkus tuleneb eeskätt teie osavusest selle ellurakendamisel. See ei sarnane aatomienergeetikaga, kus läheb vaja teataval hulgal rikastatud uraani ja rohkesti oskusteavet, mida leidub vaid vähestel inimestel. Tehisaru on midagi muud. Üks Hiina ettevõte saavutas OpenAI ja Meta värskeimatest LLM-dest mõnevõrra paremaid tulemusi, ehkki temal kulus selleks arvutusvõimsust palju vähem. Siit ilmneb, et maailmas leidub nii palju teadmisi, et kui te suudate kokku koguda piisavalt nutikaid inimesi, kes on veidigi innovatsiooniks võimelised, oskavad nad olemasolevate tohutute mudelite alusel midagi uut luua.
Sõdu ei võideta ega kaotata seepärast, kellel on parem AI, kuna kõigil on ligipääs olemas. Sedasama võib täheldada droonidega.
See on väga teistsugune paradigma – kahesuguse kasutuse loogiline jätk. Sõjalise või tsiviilse otstarbega tehnikatel pole enam tõelist vahet. See ongi põhjus, miks Amazon, Meta ja Microsoft võistlevad parimate AI-inseneride pärast, nagu tegu oleks profisportlastega, ning maksavad lepingu sõlmimisel preemiaid 100 miljoni dollari väärtuses. Esirinnas püsimiseks vajavad nad kõige innovatiivsemaid ja targemaid inimesi.
Hiina näitest selgub, et sammhaaval võib teha ka väikseid edusamme. Sõdu ei võideta ega kaotata seepärast, kellel on parem AI, kuna kõigil on ligipääs olemas. Sedasama võib täheldada droonidega. Esimesena töötati droonid välja USA-s ning me lülitasime nad oma relvastusse. Peter Singer kirjutas 20 aastat tagasi raamatu „Sõdimiseks programmeeritud” („Wired for War”) sellest, kuidas USA sõjavägi investeeris automaatikasse. Ajutiseks omandasime strateegilise eelise, aga nüüd kasutavad droone kõik riigid. Droonid on tarvitusel Iisraeli-Gaza konfliktis, Iraan rakendab neid Iisraeli vastu, Ukrainas on nad tarvitusel Venemaa vastu ja vastupidi. Droonid on isegi Mehhiko narkokartellide käsutuses.
Nüüd lähevad asjad sõjalisest kontekstist tsiviilsesse kiiremini üle. Otsekohe, kui miski saab tsiviilotstarbeliseks, on seda kõigil teistel võimalik sõjaliseks otstarbeks kopeerida. Maailmas, kus domineeris kineetiline jõud, luges see, kellel olid kõige kiiremad reaktiivlennukid ja kõige suuremad pommid. Need on endiselt olulised, aga siis polnud alust oletuseks, et sõjaline leiutis annab selle riigi sõjaväele kõigest lühiajalise eelise ning võetakse viivitamata terves ühiskonnas tarvitusele.
Lisaks innovatsiooni kiirenemisele seisneb teine suur erinevus tõigas, et enam ei algata uuendusi sõjavägi. Kõige värskemate leiutiste pärast on sõjaväel vaja erasektori poole pöörduda.
Milline on valitsusväliste osalejate roll, kes tingimata ei kuuletu rahvusvahelisele õigusele, ja kuidas nad AI tööriistu rakendavad?
Rahvusvaheline õigus kehtib riikidele. See puutub ettevõtetesse kas seepärast, et neil on peakorter konkreetses riigis või nad on seotud mõne riigi seadustega. Leidub üksikuid organisatsioone, nagu Maailmapank või ÜRO, mis on oma põhikirja tõttu erandlikud. Maailmapank ei allu rahvusvahelisele õigusele ning väidab, et teda ei kohusta ühegi riigi jurisdiktsioon. Ma juhin komisjoni, mille poole pöördutakse, kui kardetakse, et Maailmapank on kellegi eraelu puutumatust rikkunud; Maailmapangal peavad olema omaenda aruandlusstruktuurid, sest väljaspool oma põhikirja ei vastuta ta kellegi ees. Kui AI-d kasutavad tõeliselt hargmaised valitsusvälised osalejad, tuleb teatud reegleile ikkagi alluda. Ent kui Microsoft kasutab AI-d Aafrikas, peab ta järgima Aafrikas kehtivaid reegleid. Kui USA kasutab AI-d sõdimiseks, peab ta täitma sõjaõigust, milles riigid on omavahel kokku leppinud.
Kellel tuleb vastutada, kui AI-süsteem teeb otsuse, mis põhjustab inimese hukkumise? Kas vastutab üksik arendaja, terve ettevõte või riik?
See on mäng kolme sõrmkübaraga. Tehnoloogia varjab vastutust. Kui midagi tehnoloogia abil teha, siis on – isegi praegusel hetkel – asjasse segatud teisedki isikud: inimesed, kes projekteerisid telefoni, mis meie juttu salvestab, inimesed, kes kavandasid teie sülearvuti jne. Nende maailmavaade ja eelistused mõjutavad meidki.
Väga hea näide on Arizona osariigis juhtunud õnnetus, kus Uberi isejuhtiv auto sõitis öösel naisele otsa, nii et ta sai surma. Uber oli palganud inimese, kes istuks juhiistmel ja jälgiks teed. Juurdlusega selgitati välja, et hukkunu oli teed ületanud vales kohas. USA transpordiministeerium viis Uberi inseneriosakonnas läbi hoolika kontrolli: selgus, et ohutuskultuur jättis soovida ning nad olid teinud ilmseid vigu. Näiteks olid nad välja lülitanud Volvo autode ohutusabinõusid, nagu kokkupõrkeohu tuvastamine, ning määrasid valesti läviväärtusi, mille järgi tuvastada takistusi, mida peab vältima. Niisiis olid insenerid projekteerinud vigase süsteemi.
Hukkunu omaksed valisid kohtuasja asemel kokkuleppe Uberiga. Ent isikule, kelle Uber oli palganud autot juhiistmelt jälgima, esitati süüdistus surma põhjustamises ettevaatamatusest. Ainsad tagajärjed Uberile olid ebasoodus pressikajastus ja kahjutasu ohvri perekonnale.
Ameerika õiguses hoidutakse süüdistuse esitamisest isikule, kes mitte üksnes ei näinud ette, vaid ka poleks suutnud ette näha, et midagi võiks valesti minna.
Sääraste juhtumite korral on kohtutel olnud väga raske vastutust määrata. David Vladecki kirjutisest selgub, et automaatikaga seotud juhtumite korral otsivad kohtud inimest, keda süüdistada, aga üldiselt ei süüdistata isikut, kes süsteemi kavandas.
Kohtute töö on veelgi raskem juhtudel, kui AI ise õpib. Kujutlegem nutikat AI-ga varustatud hübriidautot, mis on kavandatud oma siseolekuga katsetama, et aku- ja bensiinitoite vahel energiatõhusust maksimeerida. Oletagem, et süsteem taipab, et tema päev on tervikuna efektiivsem, kui ta alustab hommikul täis akuga. Ühel õhtul viib omanik auto garaaži, aga ei pane seda laadima. Auto lülitab bensiinimootori sisse, et ise akut laadida, ning kõik inimesed majas surevad vingugaasimürgitusse. Sellisel juhul on inseneridel hea šanss veenda vandekohut, et nad mitte üksnes ei tahtnud, et seda juhtuks, vaid ei osanud midagi säärast isegi ette kujutada.
Jurisprudentsil on suuri kogemusi, kuidas leida inimest, keda süüdistada. Aeg-ajalt tuleb siiski ette seda, mida keegi ei osanud ette näha ning insenerid ei saanud tõepoolest taibata, et just nii võiks minna. See on ränk probleem, kuna kriminaalõigus ei suuda leida mens rea’d, tahtlusega mõistust, kellele saaks kriminaalvastutust määrata. Ameerika õiguses hoidutakse süüdistuse esitamisest isikule, kes mitte üksnes ei näinud ette, vaid ka poleks suutnud ette näha, et midagi võiks valesti minna.
Kuidas nende raskuste keskel edasi minna?
Minu arvates on eriti Ameerikas kõige tähtsam võtta amišitest eeskuju ja tunnistada, et meil pole vaja tarvitusse võtta tehnoloogiat, mis ei sobi meie väärtustega. Me ei pea tehnoloogiat vastu võtma täpselt sellisel kujul, nagu seda meile müüakse. Võime öelda, et me ei taha seda, või seda, et me küll tahame, aga teistsugusel kujul.
Tehnoloogia pole midagi paratamatut, vaid on sattumuslik. Tähtis on mõista, et ühiskonda saab ka teisiti häälestada. Seepärast ma alustan ja lõpetan raamatut amišite või juutidega sabati ajal, kes vaidlevad selle üle, millist tehnoloogiat tohib kasutada ja millist mitte. Või siis New Yorki neoludiitlike teismelistega, kes eelistavad nutitelefonidele klapiga telefone. Nende näidete varal demonstreerin, et kuigi me kipume võtma tehnoloogilisi muutusi paratamatusena, mille tagajärgedega on vaja kohaneda, pole see ainus võimalik mudel.