Faceți căutări pe acest blog

Consiliul Europei și Inteligența Artificială: Dosar tematic

Inteligența artificială (IA) va schimba lumea noastră mai mult decât ne putem imagina acum. Deja există programe care pot alege cei mai potriviți candidați pentru un loc de muncă, pot ajuta medicii să pună diagnostice sau pot sprijini avocații în sala de judecată. De fapt, ideea nu e chiar nouă – încă din anii 1980 existau sisteme inteligente care ofereau sfaturi experților. Ce este diferit astăzi este că tehnologia a evoluat foarte mult: calculatoarele pot face acum lucruri foarte complicate singure. Problema este că, uneori, nici măcar cei care le-au creat nu mai înțeleg exact cum iau aceste decizii – totul se întâmplă într-un fel de „cutie neagră” a învățării automate.


Inteligența artificială (IA) prezintă atât beneficii importante, cât și riscuri semnificative. Este rolul Consiliului Europei să se asigure că drepturile omului, democrația și statul de drept sunt respectate, protejate și promovate în mediul digital.

Convenția-cadru a Consiliului Europei privind Inteligența Artificială și Drepturile Omului, Democrația și Statul de Drept este primul instrument juridic global cu caracter obligatoriu, creat pentru a garanta că IA respectă standardele comune în materie de drepturi ale omului, democrație și stat de drept, și pentru a reduce riscul ca aceste drepturi și principii să fie afectate de utilizarea inteligenței artificiale.

Convenția-cadru este completată de activități specifice fiecărui domeniu în cadrul Consiliului Europei.

Publicatii:

Mai multe publicatii:
HUDERIA – evaluarea riscurilor și a impactului sistemelor de inteligență artificială


Ce este HUDERIA?

HUDERIA este un ghid care ajută la evaluarea riscurilor și impactului pe care îl pot avea sistemele de inteligență artificială (IA) asupra drepturilor omului, democrației și statului de drept.

Scopul său este să ofere o metodă clară și structurată pentru ca instituțiile publice și private să poată analiza și gestiona mai bine riscurile legate de IA.

Este un document neobligatoriu din punct de vedere legal, dar care oferă un sprijin important pentru cei care vor să aplice standardele internaționale în materie de drepturi ale omului în domeniul IA.

Statele care adoptă Convenția-cadru privind IA pot folosi HUDERIA așa cum este sau adaptată la nevoile și legile proprii, dar sunt obligate să respecte cerințele de bază prevăzute în Convenție.

Obiective

HUDERIA se bazează pe concepte și termeni deja consacrați pentru evaluarea riscurilor legate de drepturile omului, inclusiv dimensiunea, amploarea, probabilitatea și reversibilitatea acestora, oferind o orientare adaptată complexității ciclului de viață al inteligenței artificiale. Obiectivele sale sunt de a ghida eforturile de gestionare a riscurilor legate de drepturile omului, democrație și statul de drept și de a oferi o metodologie flexibilă pentru identificarea, evaluarea și reducerea riscurilor în diverse aplicații ale inteligenței artificiale.

Ghidare generală și specifică

HUDERIA combină o ghidare generală (Metodologia HUDERIA) cu flexibilitate pentru adaptare, prezentând concepte de nivel înalt, procese și elemente pentru evaluarea riscurilor și impactului sistemelor de inteligență artificială asupra drepturilor omului, democrației și statului de drept. La un nivel mai specific (Modelul HUDERIA), oferă materiale de sprijin, cum ar fi instrumente și recomandări graduale, menite să sprijine implementarea și să servească drept resursă pentru abordări mai largi de gestionare a riscurilor.

La 28 noiembrie 2024, CAI a adoptat Metodologia HUDERIA și are în plan dezvoltarea Modelului HUDERIA în 2025.

Abordare flexibilă și adaptabilă

Atât Metodologia HUDERIA, cât și Modelul HUDERIA oferă flexibilitate pentru adaptare la contexte, nevoi și capacități diverse. Acestea stabilesc scopuri, principii și obiective, permițând în același timp libertatea de a alege modalitățile prin care acestea pot fi atinse, oferind o varietate de opțiuni de politici și guvernanță care pot fi adaptate în funcție de circumstanțele specifice.

Cele patru componente ale HUDERIA

  1. COBRA – Analiza riscurilor în funcție de context
    Analizează în ce context este folosit un sistem de IA (la ce servește, cum a fost creat, unde este utilizat). Identifică acele situații în care există un risc mai mare ca IA să afecteze drepturile omului sau alte principii fundamentale. Pe baza acestei analize, se decide dacă sistemul este cu risc mare și dacă trebuie evaluat mai detaliat.

  2. SEP – Consultarea părților interesate
    Se implică persoane sau grupuri care ar putea fi afectate de acel sistem de IA. Aceștia pot oferi informații utile pentru înțelegerea mai clară a riscurilor. Procesul ajută la creșterea transparenței, încrederii și performanței sistemului.

  3. RIA – Evaluarea riscurilor și impactului
    O analiză detaliată a efectelor posibile sau reale ale sistemului de IA asupra drepturilor omului, democrației și statului de drept. Sunt evaluate variabile precum: cât de grav este riscul, cât de larg este impactul, cât de probabil este să se întâmple și dacă efectele pot fi reparate.

  4. MP – Planul de măsuri
    Se stabilesc măsuri concrete pentru a reduce sau elimina efectele negative identificate. Acolo unde este necesar, se pot crea și mecanisme prin care persoanele afectate să primească ajutor sau compensații.

Niciun comentariu:

Trimiteți un comentariu

Cautare in

Traduceti