Trīs iemesli, kāpēc jūsu organizācijai būs nepieciešami ārējie algoritmu vērtētāji

Autors Satta Sarmah-Haitoers

Uzņēmumu vadītāji no mākslīgā intelekta (AI) izspiež visu iespējamo. 2021. gada KPMG pētījums atklāj vairums valdības, rūpnieciskās ražošanas, finanšu pakalpojumu, mazumtirdzniecības, dzīvības zinātnes un veselības aprūpes uzņēmumu vadītāju uzskata, ka viņu organizācijās AI darbojas vismaz vidēji. Pētījumā arī atklāts, ka puse respondentu saka, ka viņu organizācija ir paātrinājusi mākslīgā intelekta ieviešanu, reaģējot uz Covid-19 pandēmiju. Organizācijās, kurās AI ir pieņemts, vismaz puse apgalvo, ka tehnoloģija ir pārsniegusi cerības.

AI algoritmi arvien vairāk ir atbildīgi par dažādām mūsdienu mijiedarbībām un jauninājumiem, sākot no personalizētiem produkta ieteikumi un Augstākās kvalitātes klientu apkalpošana pieredze bankās lēmumus par kreditēšanu un pat policijas atbilde.

Taču, neraugoties uz visām priekšrocībām, ko tie piedāvā, AI algoritmi ir saistīti ar lieliem riskiem, ja tie netiek efektīvi uzraudzīti un novērtēti attiecībā uz izturību, godīgumu, izskaidrojamību un integritāti. Lai palīdzētu uzņēmumu vadītājiem uzraudzīt un novērtēt AI, iepriekš minētais pētījums parāda, ka a arvien vairāk uzņēmumu vadītāju vēlas, lai valdība regulētu AI, lai ļautu organizācijām ieguldīt pareizajās tehnoloģijās un biznesa procesos. Lai nodrošinātu nepieciešamo atbalstu un pārraudzību, ir prātīgi apsvērt ārējos novērtējumus, ko piedāvā pakalpojumu sniedzējs ar pieredzi šādu pakalpojumu sniegšanā. Šeit ir trīs iemesli, kāpēc.

1. Algoritmi ir “melnās kastes”

AI algoritmi, kas mācās no datiem, lai atrisinātu problēmas un optimizētu uzdevumus, padara sistēmas viedākas, ļaujot tām apkopot un ģenerēt ieskatus daudz ātrāk, nekā cilvēki jebkad varētu.

Tomēr dažas ieinteresētās personas uzskata, ka šie algoritmi ir “melnās kastes”, skaidro Drū Rozens, vadošā profesionālo pakalpojumu uzņēmuma KPMG revīzijas rīkotājdirektors. Konkrēti, noteiktas ieinteresētās personas var nesaprast, kā algoritms nonāca pie noteikta lēmuma, un tāpēc var nebūt pārliecinātas par šī lēmuma godīgumu vai precizitāti.

"No algoritma iegūtie rezultāti var būt pakļauti neobjektivitātei un rezultātu nepareizai interpretācijai," saka Rozens. "Tas var arī radīt zināmus riskus uzņēmumam, jo ​​viņi izmanto šos rezultātus un dalās [tos] ar sabiedrību un ieinteresētajām personām."

Piemēram, algoritms, kas izmanto kļūdainus datus, labākajā gadījumā ir neefektīvs, bet sliktākajā – kaitīgs. Kā tas varētu izskatīties praksē? Apsveriet iespēju izmantot AI balstītu tērzēšanas robotu, kas lietotājiem sniedz nepareizu konta informāciju, vai automātisku valodu tulkošanas rīku, kas neprecīzi tulko tekstu. Abos gadījumos valdības struktūrām vai uzņēmumiem, kā arī komponentiem un klientiem, kuri paļaujas uz šo algoritmu pieņemtajiem lēmumiem, var rasties nopietnas kļūdas vai nepareizas interpretācijas.

Vēl viens melnās kastes problēmas veicinātājs ir tas, ka mākslīgā intelekta modeļu izstrādē iekļūst neobjektivitāte, kas var izraisīt neobjektīvu lēmumu pieņemšanu. Piemēram, kredīta aizdevēji arvien vairāk izmanto AI, lai prognozētu potenciālo aizņēmēju kredītspēju, lai pieņemtu lēmumus par kreditēšanu. Tomēr risks var rasties, ja AI ievada galvenos datus, piemēram, potenciālā aizņēmēja kredītreitingu, ir būtiska kļūda, kā rezultātā šīm personām tiek atteikts aizdevums.

Tas izceļ nepieciešamību pēc ārēja vērtētāja, kas varētu kalpot kā objektīvs vērtētājs un sniegt mērķtiecīgu novērtējumu, pamatojoties uz pieņemtiem kritērijiem, par vēsturisko datu un pieņēmumu atbilstību un ticamību, kas nosaka algoritmu.

2. Ieinteresētās personas un regulatori pieprasa pārredzamību

2022. gadā nebija pašreizējo ziņošanas prasību atbildīgajam AI. Tomēr Rozens saka: "tāpat kā pārvaldes iestādes ieviesa ESG [vides, sociālo un pārvaldības] regulējumu ziņojumu par noteiktiem ESG rādītājiem, tas ir tikai laika jautājums, kad mēs redzēsim papildu regulas ziņošanas prasības atbildīgam AI.

Faktiski no 1. gada 2023. janvāra Ņujorkā Vietējais likums 144 pieprasa, lai pirms automatizēta nodarbinātības lēmumu rīka izmantošanas būtu jāveic neobjektivitātes audits.

Un federālā līmenī, Valsts mākslīgā intelekta iniciatīvas akts 2020. gadā— kas balstās uz a 2019. gada izpildrīkojums— koncentrējas uz AI tehniskajiem standartiem un norādījumiem. Turklāt, Algoritmiskās atbildības likums varētu būt nepieciešami automatizētu lēmumu sistēmu un paplašinātu kritisko lēmumu pieņemšanas procesu ietekmes novērtējumi. Un ārzemēs, Mākslīgā intelekta likums ir ierosināts, piedāvājot visaptverošu tiesisko regulējumu ar konkrētiem mērķiem attiecībā uz AI drošību, atbilstību, pārvaldību un uzticamību.

Ar šīm pārmaiņām organizācijas tiek pakļautas pārvaldības mikroskopam. Algoritmu vērtētājs var sniegt tādus ziņojumus, kas atbilst normatīvajām prasībām un uzlabo ieinteresēto personu pārredzamību, vienlaikus izvairoties no riska, ka ieinteresētās personas nepareizi interpretēs vai maldināts pēc novērtējuma rezultātiem.

3. Uzņēmumi gūst labumu no ilgtermiņa riska pārvaldības

Stīvs Kamara, KPMG tehnoloģiju nodrošināšanas prakses partneris, prognozē, ka mākslīgā intelekta investīcijas turpinās pieaugt, uzņēmumiem automatizējot procesus, izstrādājot inovācijas, kas uzlabo klientu pieredzi un sadalot AI attīstību starp biznesa funkcijām. Lai saglabātu konkurētspēju un peļņu, organizācijām būs nepieciešama efektīva kontrole, kas ne tikai novērš tūlītējus mākslīgā intelekta trūkumus, bet arī samazina visus ilgtermiņa riskus, kas saistīti ar AI balstītu uzņēmējdarbību.

Šeit ārējie vērtētāji iesaistās kā uzticams, gudrs resurss. Tā kā organizācijas arvien vairāk pieņem AI integritāti kā uzņēmējdarbības veicinātāju, partnerība var kļūt mazāk par ad hoc pakalpojumu un vairāk kļūt par konsekventu sadarbību, skaidro Camara.

"Mēs redzam ceļu uz priekšu, kur būs nepieciešamas pastāvīgas attiecības starp organizācijām, kas pastāvīgi izstrādā un ievieš AI, un objektīvu ārējo vērtētāju," viņš saka.

Skats uz nākamo

Nākotnē organizācijas varētu izmantot ārējos novērtējumus vairāk cikliskā veidā, piemēram, izstrādājot jaunus modeļus, uzņemot jaunus datu avotus, integrējot trešo pušu piegādātāju risinājumus vai virzoties uz jaunām atbilstības prasībām.

Ja ir noteiktas papildu regulējuma un atbilstības prasības, ārējie vērtētāji var sniegt pakalpojumus, lai tieši novērtētu, cik labi organizācija ir ieviesusi vai izmantojusi AI saistībā ar šīm prasībām. Šie vērtētāji būtu vislabākajā situācijā, lai skaidrā un konsekventā veidā dalītos ar novērtējuma rezultātiem.

Lai gūtu labumu no tehnoloģijām, vienlaikus aizsargājot pret tās ierobežojumiem, organizācijai ir jāmeklē ārējie vērtētāji, lai sniegtu ziņojumus, uz kuriem tā pēc tam var paļauties, lai parādītu lielāku pārredzamību, izvietojot algoritmus. No turienes gan organizācija, gan ieinteresētās personas var labāk izprast AI spēku un tā ierobežojumus.

Avots: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/