Kripto un AI: jurista lomas nākotne

Viens no tiem ir tas, ka cilvēki var atrast citu lomu un stāvokli, nekā mēs esam pieraduši šodien.

Tātad, ja argumentācijas labad tiktu izveidota mašīna, kas varētu sniegt neizbēgami precīzu atbildi uz juridisko jautājumu un tādējādi sniegt praktiski neizbēgamu atbildi uz iespējamo strīda iznākumu, teorētiski advokāta loma varētu kļūt par strīda iznākumu. kas nav atbildes uz jautājumu izstrāde. Varbūt tas, ka zina, kā uzdot pareizo jautājumu iekārtai, kas pēc tam sniegs atbildi. Tādējādi viņš būtu nobažījies, lai iekārtai tiktu doti visi vispiemērotākie elementi un parametri, lai radītu gaidīto atbildi.

Vai arī viņš var pāriet uz šo juridiskās iekārtas “apmācības” sfēru un pēc tam nodrošināt vai parūpēties, lai visi juridiskie dati un informācija, kas nepieciešama tās novērtējuma veikšanai, tiktu nodrošināta iekārtai.

Un, tā kā šī iekārta, ievērojot šo hipotēzi, spēs nodrošināt nenovēršamu precizitāti, lai pieņemtu spriedumu, kuru mēs uzskatām par “taisnīgu”, tiesneša loma, iespējams, varētu kļūt par to, lai nodrošinātu, ka puses nekrāpjas, sniedzot iekārta ar nepieciešamajiem elementiem, lai pasludinātu spriedumu, un vai iekārtas ievadītie un piemērotie sprieduma kritēriji atbilst godīgumam, saprātīgumam, samērīgumam, nediskriminācijai utt.

Tas viss, starp citu, šķiet, atbilst slavenajiem pieciem noteiktajiem principiem CEPEJ – Eiropas Komisija tieslietu efektivitātei (ti, Eiropas Padomes Tieslietu efektivitātes komisija, Eiropas Padomes struktūra, kas pārstāv 47 valstis un kuras mērķis ir pārbaudīt un uzraudzīt Eiropas tieslietu sistēmu efektivitāti un darbību) ētikas jomā. Harta par mākslīgā intelekta izmantošanu tieslietu sistēmās: i) pamattiesību ievērošanas princips; (ii) nediskriminācijas princips (iii) kvalitātes un drošības princips; (iv) pārredzamības, objektivitātes un godīguma princips (v) lietotāju kontroles princips.

Tagad, pat pieņemot domu, ka nākotnē, kad mākslīgais intelekts juridiskajā jomā plaši izmantos cilvēku lomu, var pāriet tikai uz uzraudzības jomu, ir jāņem vērā arī citi apsvērumi. Galvenokārt tāpēc, ka, iedomājoties tieslietu sistēmu, kas tiek pārvaldīta ar šiem šķietami neitrālajiem un nekļūdīgajiem instrumentiem, mēs uzskatām par aparātu, kas tikai īsteno likumus un noteikumus. Vienkārši priekšrakstu izpildītājs.

Tomēr šī taisnīguma reprezentācija praktiskajā realitātē nepastāv, jo, par spīti jebkuram principam un varas dalīšanas principam, tie, kas pasludina spriedumu, bieži vien zināmā mērā veicina likumu un mainīt tā struktūru. Tas nozīmē, ka tiesu funkcija bieži vien īpaši sakrīt noteikumu izveidē un konsolidācijā.

Protams, šis apjoms dažādās likumdošanas un konstitucionālajās sistēmās ir atšķirīgs. Tas noteikti ir lielāks parasto tiesību valstīs, kur tiesības tiek veidotas ar precedentu lēmumiem.

Tomēr tas attiecas arī uz valstīm ar kodificētiem tiesību aktiem, piemēram, Itālijā, Francijā, Vācijā utt. Šajās sistēmās faktiski interpretācija, kas sniegta ar tiesas nolēmumu palīdzību, dažkārt piespiež vai pat sagroza formālo likumu, papildina to, kad tiek atrastas nepilnības un tās trūkumus, neievēro to un ievieto tukšumā, ja pastāv apstākļi, kas to nostāda pretrunā ar augstāka līmeņa principiem.

Tas nozīmē, ka tiesu funkcija tieši vai netieši bieži vien beidzas ar regulatīvās funkcijas jomu, un tas var notikt dažādos līmeņos.

Piezīme: tas neizslēdz iespēju, ka, abstrakti runājot, mašīna, kas aicināta izstrādāt noteikumus, nevar to izdarīt pat labāk nekā cilvēks. Ja nu vienīgi par to, ka vēsture ir pilna ar sliktiem cilvēku regulatoriem. Lai ņemtu ekstrēmu piemēru, apsveriet šausminošo holokausta un etniskās tīrīšanas pieredzi: tās bija šausmas, kuras juridiski atbalstīja likumdošanas sistēmas, kas balstītas uz makroskopiski necilvēcīgiem principiem, taču tās radīja un uzspieda paši cilvēki.

Normatīvās ražošanas un mākslīgā intelekta sastapšanās

Izšķirošais jautājums ir vēl viens: vai mēs tiešām vēlamies nodrošināt mašīnām piekļuvi normatīvās ražošanas procesam? Un cik lielā mērā? Un mums ir jāpatur prātā, ka šī iekļūšana var notikt arī “rāpojošā” veidā, caur šīm pusatvērtajām jurisdikcijas funkcijas durvīm.

Ideja, ka funkcijas, ko var veikt ar mašīnām, var palikt tikai izpildvaras vai, augstākais, palīgfunkcijas ziņā attiecībā uz cilvēka darbu un gribu, ņemot vērā cilvēka uzliktos ētiskos un formālos ierobežojumus (piemēram, robotikas likumi, Asimova vai, patiesi, Eiropas kontekstā izstrādātie principi par mākslīgā intelekta izmantošanu tiesu sistēmās), var būt nomierinoši.

Tie šajā gadījumā ir noteikumi, ko tieši diktē no Cilvēka mašīnai un tie plašā nozīmē atbild uz paša cilvēka eksistenciālā aicinājuma apmierināšanu. Tas ir, tie visi ir kaut kādā veidā konservatīvi un funkcionāli cilvēces pastāvēšanas attīstībai un saglabāšanai.

Un tieši šeit rodas zināmā mērā filozofiskā dilemma, ja vēlaties: ja mēs kādreiz ļautu būtnei, kas nav cilvēks, pilnībā iesaistīties normatīvās veidošanas procesā, ņemot vērā, ka tā tieši kā vienība ir imanenti apveltīta ar savu savu eksistenciālo aicinājumu, kas tai neļautu rakstīt noteikumus, kas neatbilst cilvēka eksistenciālajam aicinājumam?

Piemēram, ja mēs izvirzītu pārapdzīvotības un pārtikas un enerģijas resursu trūkuma problēmu, globāli, kā cilvēki, pakļauti noteiktām patoloģiskām ideoloģiskajām novirzēm, ētiskā līmenī mēs atteiktos kā līdzeklis problēmas risināšanai. risinājumi, kas postulē masveida iznīcināšanu vai cilvēku slepkavības.

Tā pati problēma, skatoties ar necilvēciskas būtnes acīm, kas varētu neatzīt identiskus ētikas principus, varētu novest pie masveida iznīcināšanas risinājuma, iespējams, pamatojoties uz selektīviem kritērijiem, kuru mērķis ir likvidēt vājākos subjektus (tādus, kas cilvēka ētikas diktāts jāsaglabā kā prioritāte) kā saprātīgākais risinājums stingri un auksti loģiskā līmenī.

Masimo Chiriatti, starp vadošajiem ekspertiem par mākslīgais intelekts Itālijā, kurš daudzos savos rakstos ir skaidrojis savus uzskatus par mākslīgā intelekta robežām un uzraudzības lomu, kas cilvēkiem ir jātur dzelžaini, izmantojot šīs tehnoloģijas, savos “Mākslīgās bezsamaņas” stāvokļos:

"Ir ļoti svarīgs punkts, kas jāņem vērā: katra AI prognoze ir kvantitatīvs novērtējums, nekad nav kvalitatīvs, turpretim mums, cilvēkiem, izvēle gandrīz nekad nav vienkāršs aprēķins. Mēs pieņemam lēmumus, pamatojoties uz neizmērāmām un līdz ar to neaprēķināmām vērtībām. Mēs esam mašīnu skolotāji. Mēs netieši esam tādi, kad viņi asimilē mūsu izveidotos datus, veido modeli un sniedz mums atbildes. 

Mēs tieši tā rīkojamies, dodot viņiem norādījumus par to, kā veikt darbu. Šo iemeslu dēļ mums jāpievērš uzmanība tam, kā viņi mācās, jo, to darot, viņi attīstīsies.

Neraugoties uz tikko sniegto ekstrēmo piemēru, lai gan ir veltīgi un iluzori iebilst pret tehnoloģiju attīstību, šāda veida process ir jāvada ar vislielāko apziņu.

Šodien mēs runājam par mākslīgā intelekta ietekmi uz juridiskajām profesijām, attiecībā uz kurām situācijas un vērtības ir ārkārtīgi smalkas un īpatnības, kas saistītas ar intelektuālo izsmalcinātību, radošumu un visām tām sastāvdaļām, kuras mums patīk izsekot cilvēka nemateriālajā būtībā.

Tomēr tas pats jautājums noteikti radīs liela mēroga ietekmi uz simtiem darbu, ko mašīnas ļoti īsā laikā spēs veikt tikpat labi un labāk nekā cilvēki par bezgalīgi zemākām izmaksām.

Vai mums vajadzētu justies apdraudētiem no kriptovalūtas un mākslīgā intelekta (AI)?

Problēmas lielajām proporcijām vajadzētu likt mums pārdomāt nokrišņus, kas ietekmēs reālo pasauli un mūsu spēju lasīt realitāti, jo tiks mainīts sociālais un politiskais skatījums uz darba pasauli un ekonomiku.

Ja ir likumīgi uzdot vairākus jautājumus attiecībā uz juridisko profesiju pasauli, jāņem vērā, ka līdzīgi jautājumi būs jāuzdod par lielāko daļu darba pasaules.

Mums tiešākie ir šādi: “Kas notiks ar cilvēkiem, tiesnešiem un juristiem, kuri šodien pilda to lomu un funkcijas, kuras rīt varētu veikt mašīnas? Kā viņi nopelnīs iztiku?"

Bet kolektīvo interešu līmenī ir daudz vairāk: "Kas maksās sociālās apdrošināšanas iemaksas un kas nodrošinās sabiedrībai nodokļu ieņēmumus, ko radīs visu to cilvēku ienākumi, kurus aizstāj ar mašīnām?" Un atkal, "kas notiks ar visiem tiem skaitļiem, kas veicina šo operatoru darbību (asistenti, līdzstrādnieki, praktiķi utt.) un kas notiks, kad tiks zaudēti arī viņu iemaksas un nodokļu ieņēmumi?"

Šie jautājumi rodas arī attiecībā uz visām pārējām darba kategorijām, kuras var skart robotu un digitālā revolūcija pat īsākā laika posmā, nekā tas, kas varētu ietekmēt juridiskos darbiniekus.

Rodas scenāriji, kuru dēļ mūsdienās zināmie socioloģiskie, ekonomiskie, antropoloģiskie un politiskie uzskati varētu kļūt novecojuši: sociālisms, liberālisms, libertārisms, suverenisms un tā tālāk, zaudētu savus konceptuālos pamatus.

Daudz kas, ja ne viss, būtu jāpārdomā no nulles.

Bet, atgriežoties pie AI tēmas juridiskajā jomā, mans personīgais viedoklis ir tāds, ka jurista (pēc aicinājuma ne tikai normu, bet arī faktu un zināmā mērā arī cilvēku tulka) loma nebūs spējīga. aprobežoties ar migrāciju uz citu juridisko pakalpojumu ražošanas cikla reģionu.

Mana ideja ir tāda, ka juristam un praktizējošiem juristiem kopumā varētu piešķirt lielāku lomu, proti, rūpēties par to, lai izpratne par tehnoloģiju attīstības pārvaldību vienmēr būtu proporcionāla cilvēces patiesajiem labklājības mērķiem, pareizi virzīta un nepieciešamības gadījumā arī apzināti un saprātīgi ierobežots.

Ir slavens ķīniešu teiciens: "Kad pūš pārmaiņu vējš, daži uzliek barjeras, citi būvē vējdzirnavas."

Tagad, lai gan man patīk domāt, ka varu sevi pieskaitīt pie tiem, kas “kad pūš pārmaiņu vējš” entuziastiski metas būvēt vējdzirnavas, es negribētu nonākt līdz vietai, kur vējdzirnavām vairs nav vajadzīgi cilvēki, jo tās pastāv. ir veltīta citu vējdzirnavu nepieciešamībai.

Un, ja runa būtu par to, vai tādas vējdzirnavas cilvēkam būtu vajadzīgas?

Tagad advokāts pēc definīcijas ir tas, kurš ir aicināts (ad vocatum) aizstāvēt un aizstāvēt kādu lietu. Lūk, viņa lieta: viņam būs jāraugās, lai cilvēki stingri ievērotu noteikumus un lai mašīnas paliktu noenkurotas lomai, kurai tās tika radītas: strādāt cilvēces labā.

Un, kad vajadzēs, viņam būs jāstāv kājās un jācīnās, lai tā ir un tā arī paliek.

Cīnīties cilvēces labā. Tāpat kā Mazinga Zeta, slavenajā japāņu multfilmā, tiem, kas to atceras.

Izklausās labi, bet Mazinga Zeta, vai viņš arī nebija robots?

 

Avots: https://en.cryptonomist.ch/2023/03/11/crypto-ai-future-lawyers-role/