IMIGRATIA CANADIANA IN ERA INTELIGENTEI ARTIFICIALE: VOR LUA COMPUTERELE LOCUL OMULUI IN ADOPTAREA DECIZIILOR?

IMIGRATIA CANADIANA IN ERA INTELIGENTEI ARTIFICIALE: VOR LUA COMPUTERELE LOCUL OMULUI IN ADOPTAREA DECIZIILOR?

Aflat la București în urmă cu câteva zile, dl. Brad Smith, Presedintele Microsoft definea Inteligența artificială drept  „un sistem computerizat care poate învăţa din experienţe (ale unor jocuri, spre exemplu) sau din date, prin indentificarea unor tipare în datele cu care este alimentată şi astfel să ia decizii.”  Domnia sa a subliniat că ultimul deceniu a marcat un salt calitativ important, respectiv înzestrarea computerelor cu capacitatea de a înțelege lumea și, ca atare, de a o transforma.

Acest progres a devenit posibil prin  creșterea masivă a puterii de calcul, prin apariția „cloud-ului” care a făcut posibilă gestionarea acestei puteri de calcul (eliminând astfel necesitatea pentru fiecare din noi de a ne constitui, cu cheltuieli considerabile, propriul server și centru de date), precum și prin explozia de date digitale care se traduce prin aceea că vom inaugura anul 2020 cu de 25 de ori mai multe date decât în 2010.

Se vorbește în zilele noastre despre revoluția pe care o va reprezenta apropiata trecere la G5, care va crea o lume în care frigiderul nostru comunică cu cuptorul și spălătorul de vase, dar și cu biblioteca, pentru a transmite informațiile către „Alexa” lui Amazon sau către Siri, de unde sunt direcționate spre băcănie, sau librărie, precum și spre bancă pentru efectuarea plăților, cu consecința că întreaga noastră gospodărie devine accesibilă furnizorilor, orientându-le politica de marketing, dar expunându-ne în același timp unei ingerințe masive în viața noastră personală, chiar dacă pornește de la cele mai bune intenții, cum ar fi transmiterea unor mesaje menite sa ne raționalizeze dieta. 

Aceasta nu este science fiction, ci imaginea unor transformări radicale care se vor produce în viitorul imediat.  Iar inteligența artificială (AI, de la Artificial Intelligence) a pătruns deja, adeseori pe nesimțite, nu numai în sectorul privat, dar și în structura și activitatea oficialităților din diferite domenii.  Unele țări sunt foarte avansate sub acest aspect, cum ar fi Estonia, care a implementat un program informatic care înlocuiește judecătorul în dosarele ce se pretează la standardizare (în opinia autorităților din acea țară), în speță litigiile care privesc pretenții sub șapte mii de euro.  Tot Estonia este țara care, potrivit unui articol semnat de Veronica Dobozi de la firma de avocatură STOICA & Asociatii din București, a computerizat integral eliberarea actelor de identitate, sistemul de vot și domeniul impozitelor, reducând astfel cu 80% personalul necesar în trecut pentru aceste operații, ba chiar proiectând să acorde inteligenței artificiale un statut intermediar între bunuri și persoane, deci conferindu-i drepturi și atribuindu-i obligații.

Desigur, nici Canada nu putea să rămână mai prejos.  In prezentarea sa la recenta Conferință națională a CAPIC (Canadian Association of Professional Immigration Consultants) dl. avocat Mario Bellissimo din Toronto a conturat cu profund spirit analitic nu numai cadrul transformărilor introduse de IRCC (Immigration, Refugee and Citizenship Canada) începând din 2014, dar și consecințele lor de ordin juridic și general uman, dând glas unor îngrijorări legitime și oferind soluții posibile pentru evitarea despersonalizării sistemului de Imigrație.  Cu amabila autorizare a autorului, voi reda în continuare, în limitele spațiului disponibil, ideile principale ale acestei prezentări, cu referire specială la efectele AI asupra unor aspecte fundamentale ale procesului de selecție, cum sunt încurajarea capacitatății  de apreciere (discretion) a funcționarului, principiul corectitudinii procedurale (procedural fairness), cerința transparenței în procesul decizional și eliminarea oricăror  discriminări în evaluarea aplicanților.

O primă observație pe care o face autorul este că majoritatea canadienilor nu au decât o ideie vagă privind rolul AI în propria lor existență. Astfel, deși telefoanele celulare actuale utilizează masiv inteligența artificială (într-o proporție de cinci trilioane de operații pe secundă), și deși aceste telefoane sunt folosite de peste trei sferturi din canadieni, o treime dintre cei chestionați într-un sondaj recent au declarat că nu au recurs niciodată la tehnologia AI.  In aceste condiții nu este de mirare că foarte puțini dintre noi suntem conștienți de faptul că ultimii ani au marcat transferul masiv al competenței decizionale în materie de imigrație de la om la mașină.  Acest lucru a fost posibil datorită progreselor menționate la începutul acestui articol, care au permis dezvoltarea unei alte componente a inteligenței artificiale:  „machine learning” (ML), respectiv capacitatea computerelor de a face predicții din ce în ce mai precise bazate pe rezultatele învățate din seturi mari de date la care au fost expuse. Cu cât sunt furnizate mai multe date, cu atât sunt mai bune rezultatele predictive.

Avantajele introducerii AI in selecția imigranților sunt de necontestat dacă ne gândim la procesarea în timpi reali a dosarelor și la economia de personal pe care o realizează IRCC.  Dar mecanismul intim al funcționării acestui nou sistem este încă departe de a fi accesibil publicului.  Ceeace specialiștii din afara IRCC au putut reconstitui în această privință se bazeaza pe declarații publice, prezentări fragmentare la diferite conferințe și pe datele obținute prin procedura accesului la informații.  Deși este greu de înțeles, nu există până în prezent nici o declarație oficială din partea IRCC care să menționeze expres utilizarea inteligenței artificiale, ceeace pune sub semnul întrebării maniera în care Guvernul înțelege să respecte principiul constituțional al statului de drept.  Deși IRCC anunțase încă din 2014 intenția de a folosi analize predictive pentru a sorta dosarele după gradul de risc sau complexitate pe care îl prezintă și a simplifica finalizarea în special a celor cu risc redus, abia în 2018 s-a produs prima aplicare masivă a inteligenței artificiale în soluționarea dosarelor de rezidență temporară depuse on-line de solicitanții din China, iar mai apoi și a celor din India. Potrivit unei prezentări a IRCC din aprilie 2019,  pentru aceasta s-a recurs la ML (vezi mai sus) în sensul că s-a folosit un „set de reguli derivate din mii de decizii trecute ale funcționarilor de imigrație”,  pentru a „tria” aplicațiile de  complexitate medie și joasă și a le finaliza fără intervenția omului.

Tot în 2018 IRCC a extins aplicarea inteligenței artificiale în procesarea aplicațiilor de rezidență permanentă depuse în cadrul sistemului Express Entry, iar potrivit unor comunicate recente, se intenționeaza extinderea acestei tehnologii la evaluarea altor categorii de dosare, cum ar fi aplicațiile bazate pe motive umanitare, precum și a celor din cadrul procedurii PRRA (Pre-removal Risk Assessment).  Se intenționeaza de asemenea utilizarea tehnologiilor AI/ML pentru obținetrea de predicții privind soluțiile ce se vor putea pronunța pe viitor în litigiile din domeniul imigrației supuse curților de justiție, pentru a se lua măsuri din timp pentru evitarea unor asemenea litigii.

Este așadar neîndoelnic că introducerea inteligenței artificiale reduce masiv timpul și cheltuielile necesitate de soluționarea unor aspecte cu complexitate redusă și a celor legate de  activități repetitive, permițând astfel funcționarilor să se dedice problemelor care reclamă interpretări și evaluări complexe.  Lucrurile se complică însă atunci când AI/ML se amestecă în însăși soluționarea acestor probleme eliminând astfel prezența factorului uman.  Intr-un raport publicat în  2018 de  „Citizen Lab” și de Programul pentru drepturile omului al Facultății de Drept a Universității din Toronto, se afirmă că „. .. utilizarea tehnologiilor algoritmice și automate pentru a înlocui sau spori procesul decizional administrativ în contextul imigrației amenință să creeze un laborator pentru experimente cu risc ridicat în cadrul unui sistem deja foarte discreționar. ”  În cele ce urmează vom examina pe scurt modul în care introducerea AI/ML în domeniul imigrației poate conduce la: 1) pierderea capacității de apreciere nuanțată a cazurilor individuale; 2) subminarea principiului „procedural fairness”; 3) perpetuarea potențială a unor prejudecăți și discriminări din trecut și 4) lipsa de transparență.

(1) Riscul de a elimina intervenția factorului uman în aprecierea situațiilor individuale a fost evidențiat de dr.  Vic Satzewich  de la Universitatea McMaster, în unicul studiu academic conscrat procesului decizional din  IRCC care  a relevat importanța majoră a intervenției omului în  „punerea în aplicare a politicii guvernamentale” care  presupune nu numai respectarea unor norme generale, dar și luarea în considerare a circumstanțelor individuale ale fiecărui caz în parte.  Dezvoltând această ideie, dl. Bellissimo se întreabă până unde este acceptabil să facem loc inteligenței artificiale: să-i încredințăm un rol de susținere, sau unul de triere a informației, sau să-i permitem însăși adoptarea deciziilor?  Pentru a da un răsăpuns, domnia sa recurge la un exemplu din domeniul sponsorizării soților sau soțiilor, argumentând că o decizie negativă luată de AI pe baza datelor culese anterior în situația unor candidați cu multiple divorțuri la activ, poate să fie incorectă în lumina circumstanțelor individuale ale unui caz în care toate acele divorțuri sunt rezultatul unor comportări abuzive ale foștilor soți.  In acest sens însăși Curtea Supremă a Canadei a statuat de pildă că nu poate fi declarată inadmisibilă medical o persoană care suferă de o condiție ce ar impune cheltuieli ridicate cu îngrijirea medicală, dacă nu se iau în considerare toate împrejurările idividuale care definesc situația sa.  Intrebarea este: poate AI să se conformeze acestei directive, oricât de bogată ar fi cantitatea de date anterioare cu care a fost alimentată? 

Aș adăuga o altă situație care mi se pare semnificativă: Legea Imigrației (IRPA) prevede posibilitatea pentru funcționarii însărcinați cu selecția imigranților economici de a aproba un solicitant chiar dacă acesta nu acumulează punctajul minim necesar, în cazul în care consideră că totuși are șanse reale de a se stabili cu succes în Canada.  In trecut această prevedere a fost aplicată în mod frecvent de funcționarii care conduceau interviurile de selecție, ca rezultat al studierii dosrului, dar și al contactului direct cu aplicantul.  De când sistemul Express Entry a inițiat introducerea tehnologiei AI, nu am mai auzit de asemenea cazuri, deși sunt convins că mulți candidați ar fi meritat-o.


(2) Riscul ca analiza predictivă să afecteze echitatea procedurală este evident dacă ținem seama de faptul ca principiul „procedural fairness”, aflat la baza tuturor sistemelor de common-law (inclusiv cel canadian) impun ca fiecare individ care formeaza obiectul unei proceduri administrative (inclusiv selecția imigranților)  să aibă posibilitatea de a-și prezenta cazul complet și corect, iar deciziile care-l afectează să fie rezultatul unui proces de evaluare corect, imparțial și deschis.

Intrebarea care se pune este dacă introducerea inteligenței artificiale poate suplini, de pildă, obligația funcționarului de imigrație de a-i informa pe candidați nu numai cu privire la îndoelile care-l frământă, dar și cu privire la mecanismul care a generat aceste îndoeli.  Este greu de crezut că analiza predictivă bazată pe date și experiențe anterioare, care sunt părtinitoare prin însăși modul cum au fost constituite,  poate satisface aceste cerințe care continuă să fie absolut obligatorii în lumina practicii constante a Curții Supreme a Canadei.   Invocând celebrua decizie în cazul Baker, dl. Bellissiomo subliniază că întregul proces decizional va fi afectat de acest substart părtinitor, chiar dacă decizia finală este luată de un funcționar și nu de o mașină.

Cu atât mai greu este de crezut că AI va putea satiface cerința de a explica celui în cauză motivația care a stat la baza deciziei, ceeace afectează și posibilitatea candidatului de a ataca o asemenea decizie și, în ultimă instanță, golește cu totul de conținut cerința ca solicitantul să participe el însiși la procesul decizional, astfel cum a stabilit Curtea Federală în speța El Maghraoui.  In opinia d-lui Bellissimo, această carență va reprezenta în viitor argumentul principal al celor ce vor ataca deciziile luate de, sau cu ajutorul inteligenței artificiale.

(3) Ricul de perpetuare a prejudecăților trecutului este o altă consecință posibilă a introducerii AI în selecția imigranților, câtă vreme prin chiar mărturisirea autorităților setul de instrumente tehnologice introduse de IRCC se  bazează  pe tehnica de învățare automată având ca obiect analiza rezultatelor  a „mii de aplicații trecute”.  Cu alte cuvinte, în măsura în care aceste rezultate anterioare încorporează prejudecăți sau discriminări contrare standardelor morale și legale actuale, există riscul reproducerii lor în deciziile viitoare, dacă nu intervin corecțiile pe care numai factorul uman le poate opera, ceeace nu este deloc ușor câtă vreme procesul decizional rămâne opac. 

Curțile canadiene au fost confruntate cu asemenea situații în alte domenii decât cel al imigrației (cum ar fi justiția penală), dar riscul potențial de a perpetua discriminări din trecut nu poate fi neglijat nici în materie de imigrație ținând seama de maniera în care sunt construite instrumentele utilizate de IRCC.   Cu titlu de exemplu, dacă IRCC se bazează pe 1000 de decizii trecute  în materie de cereri de viză temporară, se pune întrebarea dacă baza de date astfel constituită nu conține cumva și acele decizii care au fost mai apoi revizuite tocmai datorită discriminărilor pe care le conțineau.  De asemenea, cum poate corecta AI baza de date eliminănd deciziile care chiar dacă nu au fost contestae, conțin soluții discriminatorii?

Dl. Bellissimo sugerează pe drept cuvânt că este în avantajul autorităților de imigrație să renunțe la secretul cu care au înconjurat introducerea AI/ML și să coopteze în această acțiune și pe practicienii care pot identifica poate chiar mai bine factorii de risc în această privință.

(4) Cum rezultă și din cele de mai sus, lipsa de transparență constituie o altă preocupare majoră cât privește utilizarea tehnologiei AI/ML.  Se cunoaște prea puțin încă în privința  selecției informațiilor pe care IRCC le introduce ca parte a procesului de „învățare” a mașinilor, sau cu privire la maniera și limitele în care aceste informații sunt împărtășite și altor entități.  Or, asemenea aspecte ar trebui să devină de domeniul public dacă se intenționeaza cu adevărat ca  să se asigure tratarea  echitabilă a solicitanților.  În opinia d-lui Bellissimo, pentru a se asigura protecția  intereselor tuturor participanților la procesul de imigrație,  detaliile implementării AI ar trebui să fie supuse aprobării Parlamentului.  

Concluzia care se impune este că introducerea inteligenței artificiale este aici pentru a rămâne, dar și că acest proces nu trebuie să conducă la eliminarea factorului uman din procesul decizional și nici la încălcarea principiilor statului de drept la care ne-am referit mai sus.  Pentru aceasta este necesară colaborarea tuturor factorilor interesați, începând cu autoritățile de imigrație, dar fără a exclude comunitatea practicienilor, organizațiile socio-culturale și pe fiecare dintre noi, cetățenii și rezidenții canadieni care suntem sau ne tragem din imigranți.

Share