Faceți căutări pe acest blog

Se afișează postările cu eticheta Convenția-cadru privind inteligența artificială. Afișați toate postările
Se afișează postările cu eticheta Convenția-cadru privind inteligența artificială. Afișați toate postările

Inteligența artificială și educația: Contribuția Consiliului Europei: Dosar tematic

Într-o lume transformată rapid de tehnologie, educația rămâne în centrul progresului, iar Consiliul Europei este dedicat promovării unei înțelegeri nuanțate și incluzive a relației complexe dintre Inteligența Artificială (IA) și educație, ghidat de principiile drepturilor omului, democrației și incluziunii care definesc misiunea Consiliului Europei.

Consiliul Europei consideră că educația ar trebui să fie accesibilă, incluzivă și echitabilă pentru toți.

Sistemele de IA au potențialul de a juca un rol transformator în atingerea acestor obiective. Prin trasee de învățare personalizate, mecanisme de feedback în timp real și metodologii de predare inovatoare, IA poate răspunde nevoilor diverse de învățare și poate asigura că nimeni nu este lăsat în urmă.

În același timp, Consiliul Europei recunoaște importanța abordării aspectelor legate de confidențialitatea datelor, transparența algoritmică și reducerea prejudecăților în contextul utilizării IA în educație și își propune să se asigure că adoptarea sistemelor de IA este în conformitate cu valorile drepturilor omului și respectă demnitatea fiecărui elev.

Publicații:

Documente:
Articole:
Evenimente:

A doua Conferință de Lucru „Reglementarea utilizării sistemelor de IA în educație” (octombrie 2024) = 2nd Working Conference "Regulating the use of AI systems in education" (October 2024)

Vezi înregistrările conferinței online:

Descarcă prezentările raportorilor principali:

Ben Williamson, „Perspective critice asupra inteligenței artificiale în educație” = Ben Williamson, "Critical perspectives on AI in education"

Prof. Dr. Dagmar Monett, „IA și educația: mitul, provocările și calea de urmat” = Prof. Dr. Dagmar Monett, "AI and Education: The myth, the challenges, and the path forward
"

Și Rezumatul post-conferință = and the Post-Conference Summary.


*    *     *

Prima Conferință de Lucru „Inteligența Artificială și educația – O perspectivă critică prin prisma drepturilor omului, democrației și statului de drept” (octombrie 2022) = 1st Working Conference "Artificial Intelligence and education - A critical view through the lens of human rights, democracy and the rule of law" (October 2022)

Consiliul Europei și Inteligența Artificială: Dosar tematic

Consiliul Europei și Inteligența Artificială: Dosar tematic

Inteligența artificială (IA) va schimba lumea noastră mai mult decât ne putem imagina acum. Deja există programe care pot alege cei mai potriviți candidați pentru un loc de muncă, pot ajuta medicii să pună diagnostice sau pot sprijini avocații în sala de judecată. De fapt, ideea nu e chiar nouă – încă din anii 1980 existau sisteme inteligente care ofereau sfaturi experților. Ce este diferit astăzi este că tehnologia a evoluat foarte mult: calculatoarele pot face acum lucruri foarte complicate singure. Problema este că, uneori, nici măcar cei care le-au creat nu mai înțeleg exact cum iau aceste decizii – totul se întâmplă într-un fel de „cutie neagră” a învățării automate.


Inteligența artificială (IA) prezintă atât beneficii importante, cât și riscuri semnificative. Este rolul Consiliului Europei să se asigure că drepturile omului, democrația și statul de drept sunt respectate, protejate și promovate în mediul digital.

Convenția-cadru a Consiliului Europei privind Inteligența Artificială și Drepturile Omului, Democrația și Statul de Drept este primul instrument juridic global cu caracter obligatoriu, creat pentru a garanta că IA respectă standardele comune în materie de drepturi ale omului, democrație și stat de drept, și pentru a reduce riscul ca aceste drepturi și principii să fie afectate de utilizarea inteligenței artificiale.

Convenția-cadru este completată de activități specifice fiecărui domeniu în cadrul Consiliului Europei.

Publicatii:

Mai multe publicatii:
HUDERIA – evaluarea riscurilor și a impactului sistemelor de inteligență artificială


Ce este HUDERIA?

HUDERIA este un ghid care ajută la evaluarea riscurilor și impactului pe care îl pot avea sistemele de inteligență artificială (IA) asupra drepturilor omului, democrației și statului de drept.

Scopul său este să ofere o metodă clară și structurată pentru ca instituțiile publice și private să poată analiza și gestiona mai bine riscurile legate de IA.

Este un document neobligatoriu din punct de vedere legal, dar care oferă un sprijin important pentru cei care vor să aplice standardele internaționale în materie de drepturi ale omului în domeniul IA.

Statele care adoptă Convenția-cadru privind IA pot folosi HUDERIA așa cum este sau adaptată la nevoile și legile proprii, dar sunt obligate să respecte cerințele de bază prevăzute în Convenție.

Obiective

HUDERIA se bazează pe concepte și termeni deja consacrați pentru evaluarea riscurilor legate de drepturile omului, inclusiv dimensiunea, amploarea, probabilitatea și reversibilitatea acestora, oferind o orientare adaptată complexității ciclului de viață al inteligenței artificiale. Obiectivele sale sunt de a ghida eforturile de gestionare a riscurilor legate de drepturile omului, democrație și statul de drept și de a oferi o metodologie flexibilă pentru identificarea, evaluarea și reducerea riscurilor în diverse aplicații ale inteligenței artificiale.

Ghidare generală și specifică

HUDERIA combină o ghidare generală (Metodologia HUDERIA) cu flexibilitate pentru adaptare, prezentând concepte de nivel înalt, procese și elemente pentru evaluarea riscurilor și impactului sistemelor de inteligență artificială asupra drepturilor omului, democrației și statului de drept. La un nivel mai specific (Modelul HUDERIA), oferă materiale de sprijin, cum ar fi instrumente și recomandări graduale, menite să sprijine implementarea și să servească drept resursă pentru abordări mai largi de gestionare a riscurilor.

La 28 noiembrie 2024, CAI a adoptat Metodologia HUDERIA și are în plan dezvoltarea Modelului HUDERIA în 2025.

Abordare flexibilă și adaptabilă

Atât Metodologia HUDERIA, cât și Modelul HUDERIA oferă flexibilitate pentru adaptare la contexte, nevoi și capacități diverse. Acestea stabilesc scopuri, principii și obiective, permițând în același timp libertatea de a alege modalitățile prin care acestea pot fi atinse, oferind o varietate de opțiuni de politici și guvernanță care pot fi adaptate în funcție de circumstanțele specifice.

Cele patru componente ale HUDERIA

  1. COBRA – Analiza riscurilor în funcție de context
    Analizează în ce context este folosit un sistem de IA (la ce servește, cum a fost creat, unde este utilizat). Identifică acele situații în care există un risc mai mare ca IA să afecteze drepturile omului sau alte principii fundamentale. Pe baza acestei analize, se decide dacă sistemul este cu risc mare și dacă trebuie evaluat mai detaliat.

  2. SEP – Consultarea părților interesate
    Se implică persoane sau grupuri care ar putea fi afectate de acel sistem de IA. Aceștia pot oferi informații utile pentru înțelegerea mai clară a riscurilor. Procesul ajută la creșterea transparenței, încrederii și performanței sistemului.

  3. RIA – Evaluarea riscurilor și impactului
    O analiză detaliată a efectelor posibile sau reale ale sistemului de IA asupra drepturilor omului, democrației și statului de drept. Sunt evaluate variabile precum: cât de grav este riscul, cât de larg este impactul, cât de probabil este să se întâmple și dacă efectele pot fi reparate.

  4. MP – Planul de măsuri
    Se stabilesc măsuri concrete pentru a reduce sau elimina efectele negative identificate. Acolo unde este necesar, se pot crea și mecanisme prin care persoanele afectate să primească ajutor sau compensații.

Convenția-cadru privind inteligența artificială

tradaptare BNRM.md

Consiliul Europei a adoptat, la 17 mai 2024, în cadrul celei de-a 133 Reuniuni a Comitetului de Miniștri, primul tratat internațional obligatoriu din punct de vedere juridic destinat să asigure respectarea drepturilor omului, a statului de drept și a standardelor democratice în utilizarea sistemelor de inteligență artificială (IA). Tratatul, deschis și țărilor non-europene, stabilește un cadru juridic care acoperă întregul ciclu de viață al sistemelor de IA și abordează riscurile pe care acestea le pot prezenta, promovând totodată inovația responsabilă. Convenția adoptă o abordare bazată pe riscuri în proiectarea, dezvoltarea, utilizarea și dezafectarea sistemelor de IA, cerând luarea în considerare atentă a oricăror consecințe negative potențiale.

Secretarul General al Consiliului Europei, Marija Pejčinović Burić, a declarat: „Convenția-cadru privind inteligența artificială este un tratat global, primul de acest fel, care va asigura că Inteligența Artificială respectă drepturile oamenilor. Este un răspuns la necesitatea unui standard juridic internațional susținut de state din diferite continente care împărtășesc aceleași valori, pentru a valorifica beneficiile inteligenței artificiale, în timp ce se atenuează riscurile. Cu acest nou tratat, ne propunem să asigurăm o utilizare responsabilă a IA, care respectă drepturile omului, statul de drept și democrația.”

Convenția este rezultatul a doi ani de muncă a unui organism interguvernamental, Comitetul pentru Inteligență Artificială (CAI), care a reunit pentru redactarea tratatului cele 46 de state membre ale Consiliului Europei, Uniunea Europeană și 11 state non-membre (Argentina, Australia, Canada, Costa Rica, Sfântul Scaun, Israel, Japonia, Mexic, Peru, Statele Unite ale Americii și Uruguay), precum și reprezentanți ai sectorului privat, societății civile și mediului academic, care au participat ca observatori.

Tratatul acoperă utilizarea sistemelor de IA în sectorul public – inclusiv companiile care acționează în numele său – și în sectorul privat. Convenția oferă părților două modalități de a respecta principiile și obligațiile sale atunci când reglementează sectorul privat: părțile pot opta să fie obligate direct de prevederile relevante ale convenției sau, alternativ, să ia alte măsuri pentru a respecta prevederile tratatului, respectând pe deplin obligațiile lor internaționale privind drepturile omului, democrația și statul de drept. Această abordare este necesară din cauza diferențelor în sistemele juridice din întreaga lume.

Convenția stabilește cerințe de transparență și supraveghere adaptate la contexte și riscuri specifice, inclusiv identificarea conținutului generat de sistemele de IA. Părțile vor trebui să adopte măsuri pentru a identifica, evalua, preveni și atenua posibilele riscuri și să evalueze necesitatea unui moratoriu, a unei interdicții sau a altor măsuri adecvate în ceea ce privește utilizările sistemelor de IA atunci când riscurile lor pot fi incompatibile cu standardele drepturilor omului.

Ele vor trebui, de asemenea, să asigure responsabilitatea și răspunderea pentru impacturile negative și ca sistemele de IA să respecte egalitatea, inclusiv egalitatea de gen, interzicerea discriminării și drepturile la confidențialitate. Mai mult, părțile la tratat vor trebui să asigure disponibilitatea remediilor legale pentru victimele încălcărilor drepturilor omului legate de utilizarea sistemelor de IA și garanțiilor procedurale, inclusiv notificarea oricărei persoane care interacționează cu sisteme de IA că interacționează cu astfel de sisteme.

În ceea ce privește riscurile pentru democrație, tratatul cere părților să adopte măsuri pentru a asigura că sistemele de IA nu sunt utilizate pentru a submina instituțiile și procesele democratice, inclusiv principiul separației puterilor, respectarea independenței judiciare și accesul la justiție.

Părțile la convenție nu vor fi obligate să aplice prevederile tratatului pentru activitățile legate de protecția intereselor de securitate națională, dar vor fi obligate să asigure că aceste activități respectă dreptul internațional și instituțiile și procesele democratice. Convenția nu se va aplica chestiunilor de apărare națională și nici activităților de cercetare și dezvoltare, cu excepția cazurilor în care testarea sistemelor de IA poate interfera cu drepturile omului, democrația sau statul de drept.

Pentru a asigura implementarea efectivă, convenția stabilește un mecanism de urmărire sub forma unei Conferințe a Părților.

În final, convenția cere ca fiecare parte să stabilească un mecanism de supraveghere independent pentru a monitoriza conformitatea cu convenția, pentru a crește gradul de conștientizare, a stimula o dezbatere publică informată și a desfășura consultări cu multiple părți interesate despre modul în care tehnologia IA ar trebui utilizată. Convenția-cadru va fi deschisă pentru semnare la Vilnius (Lituania) pe 5 septembrie 2024 , cu ocazia unei conferințe a miniștrilor justiției.

Detalii:



Cautare in

Traduceti