Articol realizat de Cristiana Fernbach, partener KPMG Legal, și Cătălina Fînaru, associate KPMG Legal, pentru secțiunea Experții Future Banking, un spațiu virtual de dezbatere în care poți citi analize și opinii ale specialiștilor din diferite industrii și arii de practică.

Cu toate că AI este din ce în ce mai prezentă în viața noastră, implementarea într-un business a unui sistem bazat pe AI nu este o sarcină ușoară, iar înainte de a lua această decizie, este necesar să fie făcută o evaluare riguroasă cu privire la implementarea efectivă în modelul de afaceri.

În acest context, la nivelul Comisiei Europene, au fost adoptate o serie de Orientări în materie de etică pentru o inteligență artificială fiabilă, elaborate de Grupul independent de experți la nivel înalt privind inteligența artificială. În primul rând, potrivit acestui document,proiectarea, dezvoltarea și utilizarea inteligenței artificiale trebuie să fie legale, etice și robuste, ceea ce înseamnă că sistemul AI trebuie să fie de încredere.

În ciuda faptului că inteligența artificială aduce beneficii întregii societăți, sistemele AI pot avea un impact negativ și este responsabilitatea celor implicați în proiectarea, dezvoltarea și utilizarea sistemelor AI să implementeze măsuri adecvate pentru a diminua acest posibil impact negativ. Astfel, în momentul în care se implementează un sistem AI, este necesar ca acesta să fie de încredere. Acest aspect ce presupune, printre altele, respectarea a patru principii etice: respectarea autonomiei umane; prevenirea daunelor; echitatea; și explicabilitatea. Fiecare dintre acestea se bazează pe drepturile fundamentale ale omului. Cu toate acestea, uneori, în funcție de caz, principiile etice fi în conflict, iar în această situație tensiunile dintre acestea trebuie tratate cu atenție și în mod rațional.Compromisurile, dacă este necesar să fie realizate, ar trebui să fie motivate și bazate pe dovezi concrete, mai degrabă decât pe intuiție sau experiențele trecute. În cazul în care nu pot fi identificate compromisuri etice acceptabile, dezvoltarea, implementarea și utilizarea sistemului AI nu ar trebui să continue în această formă, întrucât anumite drepturi și principii fundamentale sunt absolute și nu pot fi echilibrate prin identificarea unor compromisuri acceptabile din punct de vedere etic.

Asigurarea că sistemul AI este de încredere este un proces continuu, iar dezvoltatorii și utilizatorii sistemelor AI ar trebui să gândească și să adopte o listă de evaluare adaptată cazurilor specifice în care vor fi aplicate sistemele AI. Trebuie menționat că acest proces de evaluare constantă ar trebui să vizeze identificarea și implementarea unor măsuri specifice, ceea ce necesită implicarea în acest proces atât a nivelului operațional, cât și a management-ului companiilor care dezvoltă și implementează sisteme AI.

De asemenea, ținând cont de faptul că sistemele AI sunt dezvoltate și utilizate într-o lume guvernată de legislație, cadrul juridic general aplicabil sistemelor AI include Tratatele Uniunii Europene, dreptul secundar al Uniunii Europene, precum regulamente sau directive, precum și legislația statelor membre ale Uniunii Europene. În plus, trebuie să se țină cont de faptul că, pe lângă legislația generală a Uniunii Europene și a statelor membre, în funcție de domeniul particular în care sunt integrate sistemele AI, trebuie respectate și regulile specifice care reglementează domeniul în cauză.

Pornind de la cadrul legislativ existent în prezent și care guvernează implicit și dezvoltarea și utilizarea sistemelor AI, răspunderea juridică rămâne unul dintre cele mai sensibile subiecte referitoare la sistemele AI și ridică multe preocupări și întrebări. Una dintre diferențele majore dintre utilizarea unui sistem AI pentru luarea unei decizii și luarea aceleași decizii de către o ființă umană este referitoare la modul în care ființa umană poate răspunde pentru decizia luată sau cu privire la aceasta. În situația în care decizia este luată direct de către o ființă umană este clar cine va fi în măsură să ofere explicații despre elementele care au stat la baza deciziei și despre modul în care s-a ajuns la aceasta. În cazul în care pe același flux decizional este implicat un sistem AI, identificarea și atribuirea răspunderii pentru decizia luată poate fi mai puțin evidentă.

În măsura în care pe fluxul luării unei decizii este implicat un sistem AI, dezideratul în materie de răspundere juridică este cel de a nu exista riscul de pierdere a răspunderii juridice sau de neclaritate asupra modului în care decizia este luată cu ajutorul sau de către un sistem AI. Pornind de la ipoteza în care decizia este luată exclusiv de către o ființă umană caz în care există așteptarea de a obține o explicație asupra modului în care decizia a fost luată, în același fel trebuie să existe așteptarea de a primi același tip de informație din partea celor responsabili pentru un sistem AI în măsura în care decizia a fost luată de către un sistem AI sau cu ajutorul acestuia.

Prin utilizarea unui mod eficient de informare a persoanelor afectate de decizia luată de către sau cu ajutorul sistemului AI ca element principal al întregului flux decizional, se va observa o creștere a conștientizării modului în care s-a ajuns la aceasta. În acest fel, se asigură un grad mai ridicat de înțelegere a riscurilor și a beneficiilor asociate utilizării sistemelor AI.

Dezvoltatorii și utilizatori de sisteme AI trebuie să aibă în vedere că transparența în privința deciziilor luate de către un sistem AI sau cu ajutorul acestuia are un impact pozitiv asupra persoanelor afectate de decizia luată și, implicit, asupra afacerii. În acest fel, persoanele afectate de decizie vor înțelege mai bine procesul, iar transferul către acestea a unui anumit grad de control poate contribui la creșterea încrederii în companie.

Sursa foto: maxuser_Shutterstock