Dirbtinis intelektas
Atsakingas dirbtinis intelektas: kas tai ir kodėl tai svarbu?
Paskelbta
5 val prieš-
By
LukasKą reiškia sąvoka „atsakingas dirbtinis intelektas“? Prieš pamėgindami ją apibrėžti bei aptarti jos sudedamąsias dalis, žvilgtelkime į vieną istoriją, kuri gali padėti suvokti šio reiškinio svarbą.
Parmy Olson neseniai pasirodžiusioje knygoje „Supremacy: AI, ChatGPT and the Race That Will Change the World“ aprašo OpenAI ir Deepmind (šiuo metu – Google Deepmind) – dviejų lyderiaujančių pasaulyje dirbtinio intelekto kompanijų – istoriją bei karštligiška tapusią konkurencinę kovą. Viena jos aprašomos istorijos dalis ypač priverčia susimąstyti. Visi žinome, kad OpenAI 2022 m. lapkričio mėn. pirmą kartą viešai pristatė savo produktą ChatGPT ir akimirksniu tapo dirbtinio intelekto rinkos lydere bei paskatino iki tol neregėtą susidomėjimą dirbtiniu intelektu.
Galbūt kiek mažiau žinoma, kad transformerio (angl. transformer, taip pat – transformerio neuroninio tinklo) technologiją, kuri įgalino tokių didžiųjų kalbos modelių kaip ChatGPT veikimą, dar 2017 m. buvo sukūrusi „Google“. Šios technologijos pagrindu „Google“ taip pat sukūrė tuo metu pasaulyje pažangiausią didįjį kalbos modelį BERT. Tačiau BERT taip niekada ir nebuvo pristatytas vartotojams. Kodėl taip nutiko?
Atsakymas, ar bent reikšminga jo dalis, slypi ankstesniuose „Google“ mėginimuose į rinką pateikti pažangiausius dirbtinio intelekto sprendimus. 2015 m. „Google“ į rinką išleido programėlę „Photos“, kuri, be kitų funkcijų, galėjo klasifikuoti, t. y. atpažinti, nuotraukose esančius objektus. Netrukus paaiškėjo, kad naujoji „Google“ dirbtinio intelekto programėlė nuotraukose pavaizduotus juodaodžius asmenis klasifikuoja kaip „gorilas“. „Google“ reputacijai tai buvo toks smūgis, kad ši kompanija ilgą laiką neberizikavo pirmoji į rinką išleisti naujausių dirbtinio intelekto produktų.
Dabar galima tik įsivaizduoti, kaip būtų atrodęs dabartinis dirbtinio intelekto industrijos kraštovaizdis, jei „Google“ nebūtų patyrusi „Photos“ programėlės skandalo ir būtų pirmoji vartotojams pristačiusi savo didįjį kalbos modelį. Galbūt didžioji visuomenės dalis apie OpenAI taip ir nebūtų nieko sužinojusi.
Ar „Google“ galėjo išvengti 2015 m. ją ištikusio skandalo? Greičiausiai taip. Jei dirbtiniu intelektu grįstą „Photos“ programėlę būtų sukūrusi ir ištestavusi atsakingiau arba, kitais žodžiais tariant, šį produktą sukūrusi, vadovaudamasi atsakingo dirbtinio intelekto (angl. responsible AI) principais.
Taigi, kas yra atsakingas dirbtinis intelektas?
Sąvoką atsakingas dirbtinis intelektas būtų galima apibrėžti kaip priemonių, skirtų užtikrinti, kad dirbtinio intelekto sistemos būtų kuriamos bei naudojamos taip, kad dirbtinis intelektas būtų naudingas asmenims, jų grupėms bei visai visuomenei, minimizuojant neigiamų pasekmių riziką, visuma.
Atsakingas dirbtinis intelektas taip pat vadinamas etišku dirbtiniu intelektu (angl. ethical AI), patikimu dirbtiniu intelektu (angl. trustworthy AI) ar vertybėmis grįstu dirbtiniu intelektu (angl. values-driven AI).
Visų šių priemonių visuma, nepriklausomai nuo konkrečiame kontekste vartojamo jų pavadinimo, iš esmės gali būti suvokiama kaip dirbtinio intelekto etikos principų įgyvendinimo užtikrinimas, t. y. priemonių, padedančių užtikrinti, kad šie etikos principai bus įgyvendinti praktinėje įmonės veikloje, visumos sukūrimas.
Pastaraisiais metais pasirodė daugybė dirbtinio intelekto etikos principų rinkinių. Vieni geriausiai žinomų, greičiausiai, yra Ekonominio bendradarbiavimo ir plėtros organizacijos (OECD) dirbtinio intelekto principai. OECD nurodo tokius principus: įtraukus augimas, tvari plėtra ir gerovė; žmogaus teisės ir demokratinės vertybės, įskaitant sąžiningumą ir privatumą; skaidrumas ir paaiškinamumas; atsparumas ir saugumas; atskaitomybė.
Žinoma, pats dirbtinis intelektas tėra programinė įranga, kuri pati negali prisiimi jokios atsakomybės. Šią atsakomybę turėtų prisiimti dirbtinio intelekto sistemas kuriantys bei naudojantys asmenys. Tam, kad taikytini etikos principai būtų iš tiesų įgyvendinti, šiame procese turėtų dalyvauti visa organizacija, pradedant nuo programinės įrangos kūrėjų ir baigiant įmonės vadovybe.
Į atsakingo dirbtinio intelekto priemonių visumą galima žvelgti iš kelių perspektyvų:
- Produkto perspektyva: dirbtinio intelekto sistema jau kuriant dizainą turėtų būti suplanuojama taip, kad pasirinkti sprendimai ne tik galėtų išspręsti identifikuotą verslo problemą (tinkamai atlikti numatytas funkcijas), bet ir leistų užtikrinti taikytinų teisinių bei etikos reikalavimų įgyvendinimą.
- Proceso perspektyva: dirbtinio intelekto sistemas kuriančioje ar naudojančioje organizacijoje turėtų būti sukurtas procesas, kuris leistų užtikrinti, kad taikytini etikos reikalavimai būtų įgyvendinami visose dirbtinio intelekto sistemos kūrimo stadijose, t. y. ją kuriant, testuojant bei pradedant naudoti.
- Valdysenos perspektyva: dirbtinio intelekto sistemas kurianti ar naudojanti organizacija turėtų pasirūpinti, kad atitinkama sistema (jos naudojimas) ne tik atitiktų taikytinus teisės aktų reikalavimus, pavyzdžiui, numatytus Europos Sąjungos DI akte, bet ir tai, kad organizacijoje būtų įdiegta reikiama dirbtinio intelekto valdysenos sistema nuo dirbtinio intelekto naudojimo gairių iki rizikų identifikavimo bei suvaldymo priemonių.
Kam tai turėtų rūpėti?
Atsakymas į šį klausimą paprastas iš esmės kiekvienai įmonei, kuriančiai ar naudojančiai dirbtinio intelekto sistemas.
Gali pasirodyti, kad aptartas „Google“ pavyzdys yra kiek nutolęs nuo realybės. Atrodytų, tai technologijų milžinė, turinti unikalų poveikį žmonių gyvenimams ir susidurianti su tik tokio dydžio kompanijoms būdingomis problemomis. Bet nėra visiškai taip. Pavyzdžių, kai nekokybiškas dirbtinio intelekto produkto veikimas jį į rinką skubotai bei neapdairiai išleidusiai įmonei sukėlė problemų, būtų galima nesunkiai rasti ir daugiau, ir ne tik tarp didžiųjų technologijų kompanijų. Todėl aptartame pavyzdyje slypi pamoka, aktuali kiekvienai dirbtinio intelekto sistemas kuriančiai (bei naudojančiai) įmonei. Pasidavus konkurenciniam spaudimui (ar dėl kitų, dažnai suprantamų priežasčių) ir į rinką skubotai išleidus dirbtinio intelekto produktą, kuris vienu ar kitu būdu netikėtai pažeidžia vartotojų teises, gali kilti ne tik teisinių pasekmių, bet ir reputacinė žala (o ji tam tikrais atvejais, galbūt, net ir reikšmingesnė), po kurios atsitiesti vartotojų akyse gali būti itin sudėtinga. Todėl kiekviena dirbtinio intelekto sistemas kurianti bei naudojanti įmonė turėtų įdiegti tiek technines, tiek valdysenos priemones, kad jų dirbtinio intelekto sistema būtų atsakinga ir atitiktų tiek taikytinus teisės aktų reikalavimus, tiek keliamus bendresnius etikos reikalavimus.
Parengė advokatų kontoros „Glimstedt“ teisininkas, advokatas Ovidijus Speičys
Taip pat skaitykite
-
Proveržis magnetų tyrimuose: ištisas savaites tarnaujanti telefono baterija ir 1000 kartų didesnė jo sparta
-
5 technologijos, be kurių šiandien neišsiverstų Kalėdų Senelis
-
Mokinių komanda iš Vilniaus nuskynė pergalę tarptautiniame technologinių idėjų konkurse
-
Ar esame pasirengę išsaugoti didžiausias kriptobiržas Lietuvoje?
-
Išmanus Kalėdų senelis: 9 iš 10 vertina DI pagalbą renkantis dovanas
-
Tarptautinės sankcijos: kokią įtaką jos daro Lietuvos verslui ir gyventojams?
-
Dirbtinis intelektas: kokios taisyklės taikomos atsakomybės už dirbtinio intelekto sukeltą žalą atveju?
-
Išmani vaikystė: ekspertė apžvelgia, kokius įgūdžius ugdo programavimas, robotika ir dirbtinio intelekto naudojimas
-
Nuo idėjos iki grąžos: ko reikia, kad DI sprendimai atsipirktų?