Ghidul de etică pentru inteligența artificială de încredere și cerințele cu privire la încredere impuse Inteligenței artificiale (AI)

Ghidul de etică pentru intelingența artificială de încredere [The Ethics Guidelines for Trustworthy Artificial Intelligence (AI)] este un document pregătit de Grupul de experți la nivel înalt pentru inteligența artificială [High-Level Expert Group on Artificial Intelligence (AI HLEG)]. Acest grup de experí la nivel înalt independenți a fost înființat de Comisia Europeană în anul 2018, ca parte a strategiei privind inteligența artificială.

Cei interesați să dezvolte sisteme AI ar trebui să cunoască care sunt aceste cerințe cheie pe care tehnologiile AI ar trebui sa le îndeplinească. Aceste cerințe au fost enunțate pe baza drepturilor fundamentale și a principiilor etice și sunt aplicate diferitelor părți interesate care participă la ciclul de viața al sistemelor AI, și anume – dezvoltatori (cei care cercetează, proiectează și/sau dezvoltă sisteme AI), implementatori (organizațiile publice sau private care utilizează sisteme AI în cadrul proceselor lor de afaceri și pentru a oferi produse și servicii altora) și utilizatori finali (cei ce se implică cu sistemul AI direct sau indirect), precum și societatea în general (cuprinde toate celelalte părți ce sunt direct sau indirect afectate de sistemele AI).
Fiecare din aceste părți amintite în cele de mai sus au obligații cu privire la asigurarea îndeplinirii cerințelor, după cum urmează:

  • dezvoltatorii – trebuie să implementeze și să aplice cerințele proceselor de proiectare și dezvoltare;
  • implementatorii – trebuie să se asigure că sistemele pe care le folosesc și produsele și serviciile pe care le oferă îndeplinesc cerințele;
  • utilizatorii finali și societatea în general – ar trebui să fie informați cu privire la aceste cerințe și să poată solicita ca acestea să fie respectate.
    Lista cerințelor publicate în Ghid nu este una exhaustivă si mai mult include aspecte sistemice, individuale și sociale:
  1. agenție umană și supraveghere – sistemele AI ar trebui să sprijine autonomia umană și luarea deciziilor, așa cum este prescris de principiul respectării autonomiei umane. Acest lucru necesită ca sistemele de inteligență artificială să acționeze ca niște factori favorizanți pentru societate, sprijinind agenția utilizatorului și promovând drepturile fundamentale și să permită supravegherea umană;
  2. robustețe tehnică și siguranță (inclusiv rezistența la atac și securitate, planul de retragere și siguranța general, acuratețea, fiabilitatea și reproductibilitatea) – această cerință este o componentă crucială a realizării unei AI de încredere, și este strâns legată de principiul prevenirii vătămării. Robustețea tehnică necesită ca sistemele AI să fie dezvoltate cu o abordare preventivă a riscurilor și într-o manieră care să se comporte în mod fiabil conform intenției, reducând în același timp daunele neintenționate și neașteptate și prevenind daunele inacceptabile. Acest lucru ar trebui să se aplice și eventualelor schimbări în mediul lor de operare sau prezenței altor agenți (umani și artificiali) care pot interacționa cu sistemul într-o manieră contradictorie. În plus, trebuie asigurată prin norme legale integritatea fizică și psihică a oamenilor;
  3. confidențialitate și guvernare a datelor (inclusiv respectul pentru confidențialitate, calitatea și integritatea datelor și accesul la date) strâns legat de principiul prevenirii vătămării este confidențialitatea, un drept fundamental afectat în special de sistemele AI. Prevenirea vătămării vieții private necesită, de asemenea, o guvernanță adecvată a datelor, care să acopere calitatea și integritatea datelor utilizate, relevanța acestora în lumina domeniului în care vor fi implementate sistemele AI, protocoalele de acces și capacitatea de a procesa datele într-un mod care protejează intimitatea;
  4. transparența (inclusiv trasabilitate, explicabilitate și comunicare) – această cerință este strâns legată de principiul explicabilității și cuprinde transparența elementelor relvante pentru un sistem AI: datele, sistemul și modelele de afaceri;
  5. diversitate, nediscriminare și corectitudine (inclusiv evitarea părtinirii neloiale, accesabilitatea și designul universal și participarea părților interesate) – pentru a obține o AI e încredere, trebuie să permitem incluziunea și diversitatea pe parcursul întregului ciclu de viață al sistemului Ai. Pe lângă luarea în considerare și implicarea tuturor părților interesate afectate pe tot parcursul procesului aceasta implică și asigurarea accesului egal prin procese de proiectare incluzive, precum și tratament egal. Această cerință este strâns legată de principiul echității;
  6. bunăstarea societății și a mediului (inclusiv durabilitatea și respectarea mediului, impactul social, scietatea și democrația) – în conformitate cu principiile echității și prevenirii vătămării, societatea în general, alte persoane și mediul ar trebui să fie, de asemenea , considerate părți interesate pe tot parcursul ciclului de viață al sistemului AI. Sustenabilitatea și responsabilitatea ecologică a sistemelor de inteligență artificială ar trebui încurajate, iar cercetarea ar trebui încurajată în soluțiile de inteligență artificială care abordează domenii de interes global, cum ar fi, de exemplu, obiectivele de dezvoltare durabilă. În mod ideal, sistemele de inteligență artificială ar trebui să fie folosite pentru a beneficia toate ființele umane, inclusiv generațiile viitoare;
  7. responsabilitate (inclusiv auditabilitate, minimizarea și raportarea impactului negativ, compromisuri și reparații) – cerința de responsabilitate completează cerințele de mai sus și este strâns legată de principiul echității. Necesită instituirea unor mecanisme legale care să asigure responsabilitatea și responsabilitatea pentru sistemele AI și rezultatele acestora, atât înainte, cât și după dezvoltarea, implementarea și utilizarea lor.

Toate aceste cerințe de mai sus sunt în egală măsură importante, se sprijină reciproc și trebuie implementate și evaluate pe tot parcursul ciclului de viață al sistemului AI.
Implementarea acestor cerințe ar trebui să aibă loc pe parcursul întregului ciclu de viață al unui sistem AI. În timp ce majoritatea cerințelor se aplică tuturor sistemelor AI, se acordă o atenție specială celor care afectează direct sau indirect indivizii. Prin urmare, pentru unele aplicații cum sunt cele din mediile industriale, acestea pot avea o relvanță mai mica.
Cerințele de mai sus includ elementele care în unele cazuri sunt deja reflectate în legile existente. În conformitate cu prima componentă a Trustworthy AI – este responsabilitatea practicienilor AI să se asigure că își respectă obligațiile legale, atât în ceea ce privește regulile aplicabile orizontal, cât și reglementările specifice domeniului.