Čeprav se včasih zdi, da so na tehnologijah umetne inteligence zasnovane informacijske rešitve še daleč, jih poleti 2025 v resnici že srečujemo v praksi. V mnogih državah te tehnologije postopoma, a hitro vstopajo v upravne postopke ter v delovanje občin, sodstva, zdravstva in prometa. Pogosto se uvajajo v obliki pilotnih projektov, ki pa že vplivajo na organizacijo dela in sprejemanje odločitev. Ti projekti kažejo na številno možno praktično uporabo, a hkrati prinašajo tudi pomembna tveganja.
Izzivi, ki jih prinašajo tehnologije umetne inteligence, niso povsem novi. Organizacije javnega sektorja že desetletja uporabljajo na algoritmih zasnovane informacijske rešitve za podporo odločanju - v Sloveniji med drugim na področju izvršb, zemljiškoknjižnega poslovanja in odločanja o socialnih pravicah. V tujini podobne rešitve podpirajo odkrivanje socialnih goljufij, določanje višine varščin v kazenskih postopkih ali odločanje o pomilostitvah.
Čeprav so te rešitve pogosto pripomogle k večji učinkovitosti, so bile nekatere povezane tudi z resnimi zlorabami, javnimi kritikami in izgubo zaupanja.
Prispevek analizira ključne primere iz preteklosti in izpostavlja lekcije, pomembne za presojo in uvajanje sodobnih, na umetni inteligenci temeljě̌ih informacijskih rešitev.
Izraz umetna inteligenca zajema širok nabor tehnologij, od katerih ima vsaka svoje prednosti in tveganja. Za revizorje in druge nadzorne funkcije je ključno, da te razlike razumejo, saj zahtevajo različne pristope k presoji.
Opisana orodja se med seboj zelo razlikujejo. Zato mora biti prvo vprašanje vsake presoje preprosto, a ključno: S katero vrsto umetne inteligence imamo opravka in katera tveganja prinaša?
Informacijske rešitve, ki temeljijo na tehnologijah umetne inteligence, se že pojavljajo v številnih praktičnih primerih.
V Indiji umetna inteligenca podpira delovanje nadzornih kamer v mestu Pune. Sistem samodejno zaznava prometne prekrške in sproži izdajo digitalne kazni (TNN, 2024).
V Avstraliji umetna inteligenca nadzira, ali vozniki med vožnjo uporabljajo mobilne telefone ali imajo pripet varnostni pas. Take kamere so danes nameščene v več zveznih državah in vsako leto nadzorujejo milijone voznikov. To odpira vprašanja o zasebnosti, natančnosti in nadzoru (Baker, 2024; TechnologyOne, 2024).
Na Tajskem umetna inteligenca pomaga občinskim službam obravnavati prijave prebivalcev o težavah v mestni infrastrukturi - na primer luknje na cesti, pokvarjene ulične svetilke ali smeti. Sistem samodejno razvršča prijave in jih posreduje pristojnim službam, kar omogoča hitrejši odziv in boljše komuniciranje z občani (The Nation, 2024).
V Združenih državah Amerike sistem mestnega javnega prevoza v New Yorku uporablja pametne telefone Google Pixel, nameščene na vzdrževalne vlake. Telefoni z umetno inteligenco zaznavajo tresljaje in javljajo v nadzorni center (Simonite, 2024).
Katera merila lahko revizorji uporabimo pri presoji informacijskih rešitev, ki temeljijo na umetni inteligenci? Na voljo je vrsta domačih in mednarodnih virov. Nacionalni inštitut za standarde in tehnologijo ZDA (angl. National Institute of Standards and Technology, kratica NIST) je na primer pripravil izredno uporabnen dokument Okvir za upravljanje tveganj umetne inteligence (angl. Artificial Intelligence Risk Management Framework, NIST, 2023), ki celostno opredeljuje strukturo za obvladovanje tveganj, povezanih z umetno inteligenco, vključno z zanesljivostjo, robustnostjo in varnostjo sistemov. Naslednji NIST-ov dokument Okvir za upravljanje tveganj umetne inteligence: Profil generativne umetne inteligence (angl. Artificial Intelligence
Risk Management Framework: Generative Artificial Intelligence Profile, NIST, 2024) posebej obravnava tveganja in nadzor pri tehnologijah generativne umetne inteligence, med drugim halucinacije, vsebinsko integriteto generiranih vsebin, sledljivost in nadzorovano učenje. V evropskem prostoru so morda najboljše izhodisče temeljni dokumenti s področja etike in vrednot umetne inteligence, ki jih je pripravila Evropska komisija - med njimi Etična navodila za zaupanja vredno umetno inteligenco (angl. Ethics Guidelines for Trustworthy AI, Evropska komisija, 2019). Ta dokument izpostavlja štiri ključna etična načela, ki jih je treba upoštevati pri razvoju in presoji informacijskih rešitev, temelječih na umetni inteligenci:
Sistemi umetne inteligence morajo omogočati obveščene odločitve uporabnikov, preprečevati manipulacijo in spoštovati temeljne pravice, kot sta zasebnost in svoboda izražanja.
Rešitve naj ne povzročajo telesne, duševne ali družbene škode. To vključuje zagotavljanje varnosti, robustnosti in načrtovanje sistemov z vgrajeno odpornostjo na napake ali zlorabe.
Umetna inteligenca mora prispevati k pravični obravnavi vseh, kar vključuje preprečevanje diskriminacije, zagotavljanje pravičnega dostopa in spodbujanje enakosti v korist celotne družbe.
Pomembno je, da so postopki in rezultati sistemov razumljivi, sledljivi in razložljivi za vse deležnike, kar omogoča odgovornost in zaupanje.
Ta načela predstavljajo pomembno osnovo tudi za oblikovanje meril in pričakovanj pri presoji informacijskih rešitev z umetno inteligenco, zlasti z vidika etičnosti, družbene odgovornosti in skladnosti s temeljnimi pravicami.
Združeno kraljestvo velja za eno vodilnih držav pri uvajanju digitalnih rešitev v javni sektor. Že desetletja ne izstopa le po razvoju informacijskih sistemov, temveč tudi po oblikovanju standardov za transparentnost, odgovornost in upravljanje sprememb.
V letu 2025 britanska vlada izvaja več pilotnih projektov, s katerimi preizkuša uporabo orodij, ki temeljijo na umetni inteligenci, pri vsakodnevnem upravnem delu.
Eden izmed odmevnejših pilotnih projektov je bila uvedba orodja Microsoft Copilot, ki temelji na generativni umetni inteligenci, v upravno poslovanje. Več kot 20.000 javnih uslužbencev ga je uporabljalo za pripravo osnutkov dokumentov, povzetkov sestankov in poročil. Copilot je uslužbencem v povprečju prihranil 26 minut na dan - kar ustreza približno dvema delovnima tednoma na leto (Department for Science, Innovation and Technology, 2024; Bounds, 2024).
Hkrati je britanska vlada razvila tudi lastno orodje z imenom Humphrey, poimenovano po fiktivnem uradniku iz humoristične serije Yes, Minister. Humphrey vključuje dve funkcionalnosti:
Ti primeri so del strateškega pristopa k modernizaciji javnih storitev z uporabo UI-ja. Z vidika notranje revizije pa se ob njih pojavljajo pomembna vprašanja:
Prav ta vprašanja bodo ključna tudi pri presoji skladnosti z zahtevami Uredbe (EU) o določitvi harmoniziranih pravil o umetni inteligenci (Akt o umetni inteligenci, kratica EU AI Act) za sisteme z visokim tveganjem.
Evropska unija se pri uvajanju tehnologij umetne inteligence v javni sektor zavzema za previdnejši pristop. Številne uporabe informacijskih rešitev, ki temeljijo na tehnologijah umetne inteligence skladno z Aktom o umetni inteligenci, spadajo med sisteme z visokim tveganjem (angl. high-risk AI systems). Take so na primer rešitve na področju socialne varnosti, zdravstva, izobraževanja, pravosodja in policije. Večina evropskih projektov umetne inteligence je tako še vedno v fazi pilotov ali raziskav.
Kljub temu EU prek programov Horizon Europe in Mehanizma za okrevanje in odpornost (RRF) veliko vlaga v razvoj javnosektorskih rešitev na področju umetne inteligence (Evropska komisija, 2024). Nekatere zanimive projekte opisujemo v nadaljevanju:
Za revizorje so ti projekti pomemben signal: naložbe v tehnologije umetne inteligence so v porastu, s tem pa tudi odgovornost nadzornih funkcij, da presojajo o rabi teh orodij, zlasti če gre za poglavitne storitve ali obdelavo osebnih podatkov.
Primer MIA (angl. Mammography Intelligent Assessment) ponazarja, kako lahko tehnologije umetne inteligence odgovorno dopolnjujejo klinično odločanje. Sistem je razvilo britansko podjetje Kheiron Medical Technologies in deluje kot t. i. drugi bralec mamogramov - opozarja na morebitne znake raka dojk ter podpira doslednost in zmanjšuje tveganje napak.
MIA je v klinični praksi že obdelala več kot 500.000 mamogramov, med drugim na Madžarskem in v Združenem kraljestvu. Ima oznako CE za uporabo v EU-ju ter dovoljenje za uporabo v Avstraliji in na Novi Zelandiji (Kheiron Medical, 2020, 2021).
Z vidika upravljanja tehnologij gre za primer dobre prakse, kjer na umetni inteligenci temelječa informacijska rešitev podpira zdravstvene strokovnjake in jih ne nadomešča. A tudi v tem primeru se postavljajo pomembna vprašanja:
Ta vprašanja odražajo bistvene zahteve Akta o umetni inteligenci za sisteme z visokim tveganjem v zdravstvu - in revizorjem lahko pomagajo presoditi, ali so taka orodja ne le pametna, temveč tudi varna, pravična in odgovorna.
Še pred razmahom umetne inteligence so številne organizacije že uvedle na algoritmih zasnovane informacijske rešitve - na primer na področjih socialnih transferjev, policije in pravosodja, v zasebnem sektorju pa v sektorjih bančništva in zavarovalništva.
Te informacijske rešitve temeljijo na avtomatizaciji, točkovanju in obdelavi velikih količin podatkov ter enako kot rešitve, ki temeljijo na umetni inteligenci, sprožajo pomisleke glede transparentnosti, pravičnosti, odgovornosti in nadzora. Revizije teh informacijskih rešitev ponujajo dragocena spoznanja za ocenjevanje tveganj, bodočih rešitev, ki bodo temeljile na tehnologijah umetne inteligence.
SyRI (Systeem Risico Indicatie) je bila nizozemska informacijska rešitev, ki naj bi zaznala domnevne zlorabe socialnih transferjev. Temeljila je na povezovanju podatkov iz različnih zbirk (davki, zaposlitev, stanovanja, socialne pravice), psevdonimizaciji in algoritmičnem označevanju posameznikov kot »tvegane«.
Označeni posamezniki o svoji »tvegani« označbi niso bili obveščeni, merila za označbo posameznika kot »tveganega« niso bila razkrita, pritožba v postopku same označbe pa ni bila mogoča. Posledice so vključevale pogoste inšpekcijske preglede na domu, ukinitev pomoči in družbeno stigmatizacijo - zlasti v okoljih z več priseljenci ali socialno ogroženimi prebivalci.
Leta 2020 je okrožno sodišče v Haagu odločilo, da je rešitev kršila pravico do zasebnosti po 8. členu Evropske konvencije o človekovih pravicah (Rechtbank Den Haag, 2020). Sodba je opozorila na netransparentnost, pomanjkanje varoval in nevarnost diskriminacije. Rešitev je bila po sodbi ukinjena.
Informacijska rešitev SyRI ni temeljila na umetni inteligenci, kot jo razumemo danes. Kljub temu je njena uporaba povzročila učinke, ki jih čeprav v povezavi z rešitvami, ki temeljijo na umetni inteligenci - izrecno obravnava Akt o umetni inteligenci (Uredba (EU) 2024/1689) kot rešitve z visokim tveganjem. Med njimi so:
SyRI danes velja za zgodnji opozorilni primer, ki jasno pokaže, kaj se lahko zgodi, če se avtomatizirane informacijske rešitve uvajajo nepregledno, neodgovorno in brez ustreznih pravnih varoval.
A zakaj so avtomatizirani sistemi za podporo odločanju lahko tako nezanesljivi in zavajajoči?
Tveganja na algoritmih temelječih informacijskih rešitev lahko nazorno prikažemo na primeru uporabe enega samega odločevalnega algoritma ob razvpitem primeru algoritemskega določanja maturitetnih ocen dijakov v Veliki Britaniji med pandemijo.
Tax-Fin-Lex d.o.o.
pravno-poslovni portal,
založništvo in
izobraževanja
Tax-Fin-Lex d.o.o.
Železna cesta 18
1000 Ljubljana
Slovenija
T: +386 1 4324 243
E: info@tax-fin-lex.si
PONUDBA
Predstavitev portala
Zakonodaja
Sodna praksa
Strokovne publikacije
Komentarji zakonov
Zgledi knjiženj
Priročniki
Obveščanja o zakonodajnih novostih
TFL AI
TFL IZOBRAŽEVANJA
TFL SVETOVANJE
TFL BREZPLAČNO
Brezplačne storitve
Preizkusite portal TFL
E-dnevnik Lex-Novice
E-tednik TFL Glasnik
Dodatni članki