Faceți căutări pe acest blog

Se afișează postările cu eticheta inteligență artificială. Afișați toate postările
Se afișează postările cu eticheta inteligență artificială. Afișați toate postările

UE: e-publicații - Inteligența artificială și educația

Bollmann, Ulrike. Artificial intelligence and education –a teacher-centred approach to safety and health / Ulrike Bollmann; European Agency for Safety and Health at Work . - Luxembourg: Publications Office of the European Union, 2024. - 59 p.- ISBN 978-92-9402-333-9; Idem [Resursă electronică].URL: https://data.europa.eu/doi/10.2802/80935


Inteligența artificială și educația. O abordare centrată pe profesori privind siguranța și sănătatea

Acest raport analizează oportunitățile și riscurile asociate cu integrarea noilor tehnologii digitale asupra sănătății, siguranței și bunăstării profesorilor în școli. Această analiză este realizată atât din perspectiva securității și sănătății în muncă (SSM), cât și dintr-o perspectivă pedagogică. O prezentare cuprinzătoare a posibilelor riscuri și oportunități pentru profesori rezultate din integrarea tehnologiilor, în special a celor bazate pe inteligență artificială (IA), este oferită pe baza unei analize sistematice. De asemenea, sunt sugerate măsuri posibile pentru îmbunătățirea sănătății, siguranței și bunăstării profesorilor în era digitală.

Raportul începe cu o scurtă descriere a situației actuale privind utilizarea tehnologiilor digitale în sectorul educațional din Europa (UE-27) (Capitolul 2).

 În continuare, este realizată o analiză mai detaliată a factorilor care au declanșat creșterea globală a digitalizării în sectorul educației, a pandemiei de COVID-19 ca o perturbare fără precedent a sistemului educațional și a impactului acesteia asupra sănătății, siguranței și bunăstării cadrelor didactice. (Capitolul 3). 

Se face referire la modele teoretice esențiale, precum și la conceptele de „stres digital” și „bunăstare digitală” a profesorilor (Capitolul 4).

 Potențialul și riscurile pentru profesori asociate utilizării tehnologiilor digitale bazate pe IA sunt analizate prin prisma a 6 factori. Datorită naturii dinamice a dezvoltării tehnologice, în special în domeniul IA, această descriere rămâne parțial incompletă (Capitolul 5). 

Capitolul 6 oferă recomandări pentru o abordare centrată pe profesori în ceea ce privește integrarea tehnologiilor bazate pe IA în școli.


AI report by the European Digital Education Hub’s Squad on artificial intelligence in education/European Commission: European Education and Culture Executive Agency. - Luxembourg: Publications Office of the European Union.- 2023. - 112 p. - ISBN 978-92-9488-587-6; Idem [Resursă electronică].URL:

Raport privind inteligența artificială, elaborat de Echipa Hub-ului European pentru Educație Digitală privind inteligența artificială în educație

Inteligența artificială (AI) are un potențial considerabil de a sprijini educația, oferind beneficii precum:
  • feedback formativ,
  • asistență în elaborarea planurilor de lecție
  • sprijin administrativ pentru școli.
Cu toate acestea, pe măsură ce AI este utilizată dincolo de un simplu rol de suport, apar riscuri tot mai mari. De exemplu, utilizarea analizei învățării poate fi utilă, dar poate deveni problematică dacă nu este însoțită de supraveghere umană adecvată, afectând negativ elevii aflați în situații dificile.
Când AI începe să influențeze decizii esențiale pentru viitorul elevilor, riscurile devin ridicate sau chiar inacceptabile. Astfel, riscul nu derivă doar din instrumentul AI, ci mai ales din contextul aplicării sale. Deși supravegherea umană reduce riscurile, există pericolul ca utilizatorii să devină dependenți de AI în luarea deciziilor, fenomen cunoscut sub denumirea de „dependență blocată”.

Pentru o utilizare responsabilă a AI în educație, este esențial să se mențină un echilibru între beneficiile oferite și evaluarea riscurilor, promovând în același timp AI explicabilă, supravegherea umană și respectarea valorilor umane.

Din cuprins:
  1. Competențele cadrelor didactice
  2. Modalități de sprijinire a cadrelor didactice în utilizarea inteligenței artificiale în procesul educațional
  3. Scenarii de utilizare și exemple practice privind aplicarea inteligenței artificiale în educație
  4. Educația privind inteligența artificială
  5. Impactul inteligenței artificiale asupra guvernanței în domeniul educației
  6. Inteligența artificială în contextul eticii, drepturilor omului, cadrului legal și al datelor educaționale
  7. Predarea asistată de inteligență artificială – evaluare, feedback și personalizare

Vezi de asemenea
Abordarea europeană privind inteligența artificială:
European Digital Education Hub - O comunitate colaborativă online dedicată promovării educației digitale în Europa și dincolo de granițele ei:

Expoziție tematică: Educație pentru CetățenieDigitală:  https://cpescmdlib.blogspot.com/2025/01/educatie-pentru-cetatenie-digitala.html


Inteligență artificială pentru predare și învățare:   

Orientările în materie de etică privind utilizarea inteligenței artificiale și a datelor în procesul de predare și învățare pentru cadrele didactice:

Inteligența artificială și educația: Contribuția Consiliului Europei: Dosar tematic

Într-o lume transformată rapid de tehnologie, educația rămâne în centrul progresului, iar Consiliul Europei este dedicat promovării unei înțelegeri nuanțate și incluzive a relației complexe dintre Inteligența Artificială (IA) și educație, ghidat de principiile drepturilor omului, democrației și incluziunii care definesc misiunea Consiliului Europei.

Consiliul Europei consideră că educația ar trebui să fie accesibilă, incluzivă și echitabilă pentru toți.

Sistemele de IA au potențialul de a juca un rol transformator în atingerea acestor obiective. Prin trasee de învățare personalizate, mecanisme de feedback în timp real și metodologii de predare inovatoare, IA poate răspunde nevoilor diverse de învățare și poate asigura că nimeni nu este lăsat în urmă.

În același timp, Consiliul Europei recunoaște importanța abordării aspectelor legate de confidențialitatea datelor, transparența algoritmică și reducerea prejudecăților în contextul utilizării IA în educație și își propune să se asigure că adoptarea sistemelor de IA este în conformitate cu valorile drepturilor omului și respectă demnitatea fiecărui elev.

Publicații:

Documente:
Articole:
Evenimente:

A doua Conferință de Lucru „Reglementarea utilizării sistemelor de IA în educație” (octombrie 2024) = 2nd Working Conference "Regulating the use of AI systems in education" (October 2024)

Vezi înregistrările conferinței online:

Descarcă prezentările raportorilor principali:

Ben Williamson, „Perspective critice asupra inteligenței artificiale în educație” = Ben Williamson, "Critical perspectives on AI in education"

Prof. Dr. Dagmar Monett, „IA și educația: mitul, provocările și calea de urmat” = Prof. Dr. Dagmar Monett, "AI and Education: The myth, the challenges, and the path forward
"

Și Rezumatul post-conferință = and the Post-Conference Summary.


*    *     *

Prima Conferință de Lucru „Inteligența Artificială și educația – O perspectivă critică prin prisma drepturilor omului, democrației și statului de drept” (octombrie 2022) = 1st Working Conference "Artificial Intelligence and education - A critical view through the lens of human rights, democracy and the rule of law" (October 2022)

Consiliul Europei și Inteligența Artificială: Dosar tematic

Consiliul Europei și Inteligența Artificială: Dosar tematic

Inteligența artificială (IA) va schimba lumea noastră mai mult decât ne putem imagina acum. Deja există programe care pot alege cei mai potriviți candidați pentru un loc de muncă, pot ajuta medicii să pună diagnostice sau pot sprijini avocații în sala de judecată. De fapt, ideea nu e chiar nouă – încă din anii 1980 existau sisteme inteligente care ofereau sfaturi experților. Ce este diferit astăzi este că tehnologia a evoluat foarte mult: calculatoarele pot face acum lucruri foarte complicate singure. Problema este că, uneori, nici măcar cei care le-au creat nu mai înțeleg exact cum iau aceste decizii – totul se întâmplă într-un fel de „cutie neagră” a învățării automate.


Inteligența artificială (IA) prezintă atât beneficii importante, cât și riscuri semnificative. Este rolul Consiliului Europei să se asigure că drepturile omului, democrația și statul de drept sunt respectate, protejate și promovate în mediul digital.

Convenția-cadru a Consiliului Europei privind Inteligența Artificială și Drepturile Omului, Democrația și Statul de Drept este primul instrument juridic global cu caracter obligatoriu, creat pentru a garanta că IA respectă standardele comune în materie de drepturi ale omului, democrație și stat de drept, și pentru a reduce riscul ca aceste drepturi și principii să fie afectate de utilizarea inteligenței artificiale.

Convenția-cadru este completată de activități specifice fiecărui domeniu în cadrul Consiliului Europei.

Publicatii:

Mai multe publicatii:
HUDERIA – evaluarea riscurilor și a impactului sistemelor de inteligență artificială


Ce este HUDERIA?

HUDERIA este un ghid care ajută la evaluarea riscurilor și impactului pe care îl pot avea sistemele de inteligență artificială (IA) asupra drepturilor omului, democrației și statului de drept.

Scopul său este să ofere o metodă clară și structurată pentru ca instituțiile publice și private să poată analiza și gestiona mai bine riscurile legate de IA.

Este un document neobligatoriu din punct de vedere legal, dar care oferă un sprijin important pentru cei care vor să aplice standardele internaționale în materie de drepturi ale omului în domeniul IA.

Statele care adoptă Convenția-cadru privind IA pot folosi HUDERIA așa cum este sau adaptată la nevoile și legile proprii, dar sunt obligate să respecte cerințele de bază prevăzute în Convenție.

Obiective

HUDERIA se bazează pe concepte și termeni deja consacrați pentru evaluarea riscurilor legate de drepturile omului, inclusiv dimensiunea, amploarea, probabilitatea și reversibilitatea acestora, oferind o orientare adaptată complexității ciclului de viață al inteligenței artificiale. Obiectivele sale sunt de a ghida eforturile de gestionare a riscurilor legate de drepturile omului, democrație și statul de drept și de a oferi o metodologie flexibilă pentru identificarea, evaluarea și reducerea riscurilor în diverse aplicații ale inteligenței artificiale.

Ghidare generală și specifică

HUDERIA combină o ghidare generală (Metodologia HUDERIA) cu flexibilitate pentru adaptare, prezentând concepte de nivel înalt, procese și elemente pentru evaluarea riscurilor și impactului sistemelor de inteligență artificială asupra drepturilor omului, democrației și statului de drept. La un nivel mai specific (Modelul HUDERIA), oferă materiale de sprijin, cum ar fi instrumente și recomandări graduale, menite să sprijine implementarea și să servească drept resursă pentru abordări mai largi de gestionare a riscurilor.

La 28 noiembrie 2024, CAI a adoptat Metodologia HUDERIA și are în plan dezvoltarea Modelului HUDERIA în 2025.

Abordare flexibilă și adaptabilă

Atât Metodologia HUDERIA, cât și Modelul HUDERIA oferă flexibilitate pentru adaptare la contexte, nevoi și capacități diverse. Acestea stabilesc scopuri, principii și obiective, permițând în același timp libertatea de a alege modalitățile prin care acestea pot fi atinse, oferind o varietate de opțiuni de politici și guvernanță care pot fi adaptate în funcție de circumstanțele specifice.

Cele patru componente ale HUDERIA

  1. COBRA – Analiza riscurilor în funcție de context
    Analizează în ce context este folosit un sistem de IA (la ce servește, cum a fost creat, unde este utilizat). Identifică acele situații în care există un risc mai mare ca IA să afecteze drepturile omului sau alte principii fundamentale. Pe baza acestei analize, se decide dacă sistemul este cu risc mare și dacă trebuie evaluat mai detaliat.

  2. SEP – Consultarea părților interesate
    Se implică persoane sau grupuri care ar putea fi afectate de acel sistem de IA. Aceștia pot oferi informații utile pentru înțelegerea mai clară a riscurilor. Procesul ajută la creșterea transparenței, încrederii și performanței sistemului.

  3. RIA – Evaluarea riscurilor și impactului
    O analiză detaliată a efectelor posibile sau reale ale sistemului de IA asupra drepturilor omului, democrației și statului de drept. Sunt evaluate variabile precum: cât de grav este riscul, cât de larg este impactul, cât de probabil este să se întâmple și dacă efectele pot fi reparate.

  4. MP – Planul de măsuri
    Se stabilesc măsuri concrete pentru a reduce sau elimina efectele negative identificate. Acolo unde este necesar, se pot crea și mecanisme prin care persoanele afectate să primească ajutor sau compensații.

Zilele Siguranței pe Internet 2025 la BNRM



Biblioteca Națională a Republicii Moldova marchează Zilele Siguranței pe Internet și Anul European al Educației pentru Cetățenie Digitală 2025

În fiecare an, în luna februarie, se desfășoară Ziua Siguranței pe Internet, o inițiativă menită să promoveze un mediu digital sigur și responsabil pentru toți utilizatorii, în special pentru copii și tineri. 

Sloganul campaniei, „Împreună pentru un internet mai sigur”, subliniază importanța colaborării între instituții, experți și comunități pentru crearea unui spațiu online sigur și prietenos.

Biblioteca Națională a Republicii Moldova (BNRM) și Centrul Pro-European de Servicii și Comunicare, se alătură acestei inițiative și organizează anual sesiuni educaționale dedicate siguranței digitale, alături de parteneri naționali și internaționali din domeniul educației media și securității cibernetice.

Evenimente speciale în 2025

Anul acesta, marcarea Zilei Siguranței pe Internet, la 11 februarie, capătă o dimensiune specială, fiind organizată în contextul Anului European al Educației pentru Cetățenie Digitală, lansat de Consiliul Europei.

Cu această ocazie, CPESC al BNRM a vernisat expoziția 
Educație pentru Cetățenie Digitală" și va organiza o serie de sesiuni interactive destinate elevilor, studenților și profesorilor, axate pe teme esențiale ale securității online și educației digitale

FOTO

11 februarie 2025 Relațiile în mediul online - între încredere, provocări și pericole reale .

 Sesiune pentru elevi privind Siguranța online – organizată în colaborare cu expertul din cadrul La Strada Moldova, reprezentant oficial al Zilei Siguranței pe Internet în Republica Moldova.


Prima sesiune a unei serii de activități educative dedicate siguranței online,s-a desfășurat la 11 februarie, în ziua celebrării Zilei Siguranței pe Internet in 2025.




Sesiunea cu genericul "Relațiile în mediul online - între încredere, provocări și pericole reale". a fost moderată de expertul Victoria GRIBINEȚ, coordonatoare activități educaționale în cadrul Centrului Internațional „La Strada”, care este reprezentantul oficial al Zilei Siguranței pe Internet în Republica Moldova


Scopul activității a fost să ajute participanții tinerii să conștientizeze riscurile inerente relațiilor în mediul online și să învețe modalități eficiente de protecție, astfel încât experiențele lor digitale să fie sigure și pozitive.

În cadrul sesiunii,tinerii din Școala Internațională Heritage împreună cu profesoara Tatiana Popa  au fost implicați în discuții interactive despre modul în care se construiesc relațiile online, provocările ce pot apărea și riscurile asociate. De asemenea,eleviii au fost invitați să analizeze situații reale și să identifice pericolele potențiale din interacțiunile virtuale.





Activitatea a inclus studii de caz, exerciții practice și scenarii de simulare care au permis participanților să înțeleagă mai bine mecanismele manipulării online, strategiile de evitare a capcanelor digitale și importanța discernământului în comunicarea online.



În cadrul evenimentului au fost desfășurate mai multe activități interactive
  • Offline și online:
  • Triunghiul relației
  • Riscurile unei relații online
  • Studiu de caz
Un aspect esențial al sesiunii a fost sublinierea importanței setării limitelor clare, comunicării deschise și respectului reciproc în orice relație, indiferent dacă aceasta se desfășoară în spațiul digital sau în viața reală. De asemenea, s-au oferit recomandări practice privind gestionarea informațiilor personale, evitarea comportamentelor toxice și raportarea incidentelor suspecte din mediul online.





Prin această activitate, Centrul Pro-european al BNRM , La Strada Moldova și Școala Internațională Heritage și-a reafirmat angajamentul în promovarea unui internet sigur și responsabil, oferind tinerilor instrumentele necesare pentru a naviga în mediul digital într-un mod conștient și protejat.


Totodată, elevii au avut ocazia să viziteze expozițiia CPESC „Educație pentru Cetățenie Digitală”


Album foto -   https://shorturl.at/AhfkC


*     *      *

14 februarie 2025 – „Etică utilizării inteligenței artificiale în procesul educațional” Sesiune pentru profesori privind Inteligența artificială și educația




Biblioteca Națională a Republicii Moldova, în parteneriat cu META Moldova și "AI SKILLS", au organizat sesiunea interactivă pentru profesori "Etica utilizării inteligenței artificiale în procesul educațional". Evenimentul a avut loc într-un cadru dinamic, fiind parte a Zilelor Siguranței pe Internet 2025 la BNRM și desfășurat în contextul Anului European al Educației pentru Cetățenie Digitală.

Sesiunea a fost susținută de Denis Zacon, expert în inteligență artificială și fondator al "AI SKILLS", care a oferit perspective actuale asupra impactului AI în procesul educațional, evidențiind metode de integrare a noilor tehnologii în activitatea didactică. 



Profesorii participanți au explorat modalități concrete de utilizare a AI pentru optimizarea muncii lor, 





exersând tehnici de redactare a prompturilor eficiente și descoperind aplicații utile pentru îmbunătățirea procesului de predare- învățare.

  • Evenimentul a fost interactiv, punând accent pe schimbul de experiență în domeniul educației digitale și al utilizării AI în învățământ. Printre subiectele abordate s-au numărat:
  • Cum pot fi formulate sarcinile didactice pentru a transforma AI într-un mijloc de cunoaștere și stimulare a creativității elevilor.
  • Exemple practice de utilizare a AI pentru crearea de materiale didactice, teste, prezentări interactive și jocuri educaționale.
  • Rolul AI în simplificarea sarcinilor administrative ale profesorilor.
  • Modalități etice și eficiente de utilizare a AI în evaluarea elevilor și prevenirea plagiatului.

Această sesiune a consolidat angajamentul BNRM, META Moldova și "AI SKILLS" în sprijinirea cadrelor didactice pentru o integrare eficientă și responsabilă a inteligenței artificiale în educație.



Album foto - https://www.facebook.com/media/set/?vanity=cpescmdbnrm&set=a.922087630135406

Reportaj Radio Moldova -  https://www.facebook.com/cpescmdbnrm/posts/pfbid07Z8WMoyvBhRqp9LiuMUPesZ1Rvmd2ZfDaFtVaegqvXyyDZAuCiCTtDMNJZToHoJFl

Vezi de asemenea 

Lecția publică "Inteligența artificială pe înțelesul tuturor" cu experta Veronica Crețu


Februarie

Siguranța online : bullying și cyberbullying online . Sesiune privind cyberbullying-ul – susținută de un formator de educație media, având scopul de a sensibiliza tinerii asupra riscurilor agresiunii online și măsurilor de prevenire.


18.02.2025

Pe 18 februarie, în contextul Zilei Siguranței pe Internet, a avut loc activitatea „Siguranța online : bullying și cyberbullying online” la care au participat elevi de la Școala Waldorf. Evenimentul, susținut de formatorul în educație media Natalia Ghimpu,  a oferit elevilor o incursiune captivantă în dezvoltarea tehnologiilor digitale și impactul acestora asupra societății moderne.


În cadrul activității, tinerii au explorat etapele-cheie ale evoluției Internetului:



  • Conceptul de „rețea de calculatoare interconectate” 
  • Dezvoltarea protocoalelor de comunicare
  • Lansarea World Wide Web 
  • Era broadband, social media și mobilitatea Internetului 
O componentă esențială a evenimentului a fost educația privind protecția în mediul online.


Elevii au învățat măsuri esențiale pentru securizarea datelor și prevenirea amenințărilor cibernetice
  • Setarea confidențialității pe rețelele sociale; 
  • Evitarea partajării informațiilor personale cu persoane necunoscute; 
  • Recunoașterea și raportarea amenințărilor online; 
  • Blocarea agresorilor virtuali și conștientizarea riscurilor digitale.

Pe lângă discuțiile teoretice, elevii au participat activ la exerciții practice menite să îi ajute să identifice și să combată riscurile din mediul digital.





 În plus, au explorat expoziția dedicată Educației pentru Cetățenie Digitală, care oferă o perspectivă amplă asupra educației pentru cetățenie digitală și a importanței utilizării responsabile a tehnologiilor.






Prin această activitate, sperăm că tinerii vor deveni mai conștienți de provocările din spațiul online, își vor consolida cunoștințele despre securitatea digitală și vor transmite aceste informații prietenilor și familiei.

Reportaj Radio Moldova - https://shorturl.at/J8LHo

28.02.2025




Pe 28 februarie 2025, Centrul Pro-European pentru Servicii și Comunicare (CPESC) a organizat o lecție interactivă cu genericul „Securitatea digitală și Inteligența Artificială”  adresată elevilor din Liceul Teoretic „Spiru Haret”, ghidati de profesoara Inga Gurmeza.  Evenimentul s-a desfășurat în cadrul Zilelor Siguranței pe Internet și a avut scopul de a sensibiliza tinerii cu privire la provocările și riscurile utilizării tehnologiilor digitale moderne.

Lecția a fost moderată de doamna Natalia Spînu, expert în domeniul securității cibernetice e-GA, Director al Institutului European de Studii Politice din Moldova, Guvernator pentru Inteligență Artificială Responsabilă a Moldovei în cadrul Consiliului Global pentru Inteligență Artificială Responsabilă.  care a ghidat participanții printr-o serie de discuții interactive, studii de caz și exemple practice.


Elevii au avut ocazia să exploreze subiecte esențiale precum protejarea datelor personale, recunoașterea amenințărilor cibernetice și impactul inteligenței artificiale asupra vieții digitale cotidiene.
  • phishing și inginerie socială,
  • parole puternice și unice si autentificarea în doi pași (2FA) pe conturile importante,
  • confidențialitatea datelor,
  • setările de confidențialitate pe rețelele de socializare,
  • Deep Fake-uri și dezinformare,
  • folosirea responsabilă a inteligenței artificiale (AI),
  • verificarea și corectarea informațiilor obținute de la AI
  • bunele practici și adoptarea unei atitudini critice.
Unul dintre aspectele cheie ale activității a fost analiza modului în care inteligența artificială influențează securitatea digitală, atât prin beneficii, cât și prin riscuri. Participanții au discutat despre importanța gândirii critice în mediul online și despre strategiile prin care pot evita manipularea digitală și atacurile cibernetice.


La finalul sesiunii, participanții au consolidat cunoștințele acumulate pe parcursul lecției printr-un exercițiu practic.





Lecția s-a încheiat cu o sesiune de întrebări și răspunsuri, în care elevii au avut posibilitatea să își exprime curiozitățile și să primească recomandări practice pentru navigarea în siguranță pe internet. Evenimentul a subliniat importanța educației digitale continue și a unui comportament responsabil în mediul online.


Tinerii  au  vizitat ;i  expozițiia CPESC „Educație pentru Cetățenie Digitală”



Împreună, construim un internet mai sigur https://www.saferinternetday.org





Activitățile noastre interactive anterioare








CoE: e-publicații: Studiu de cartografiere privind drepturile copilului și inteligența artificială

Mapping Study on the Rights of the Child and Artificial Intelligence: Legal Frameworks that Address AI in the Context of Children’s Rights / The Alan Turing Institute; A, Dr Mhairi Aitken, Sabeehah Mahomed, Morgan Briggs and Ayca Atabey. -  Strasbourg: Council of Europe, 2024. - 34 p. - (Accesat la 21.11.2024).

Disponibil: https://rm.coe.int/cdenf-2024-04-mapping-study-children-and-artificial-intelligence-/1680b212f8

Studiu de cartografiere privind drepturile copilului și inteligența artificială: Cadre juridice care abordează IA în contextul drepturilor copilului


Constatările din studiul de cartografiere ilustrează clar că majoritatea statelor membre respondente nu au un cadru legal care să abordeze inteligența artificială (IA) în contextul drepturilor copilului și nici nu se află în procesul de a crea unul. Totuși, așa cum se menționează în rezultatele studiului, diverse țări fie nu consideră, fie nu sunt sigure dacă cadrele existente, precum Convenția ONU privind Drepturile Copilului (UNCRC), sunt suficiente pentru a proteja și susține drepturile copilului în raport cu sistemele IA. Se face apel la statele membre să ia măsuri proactive pentru a-și revizui cadrele legale, asigurându-se că acestea sunt adecvate pentru a aborda sistemele IA, în conformitate cu obligațiile pozitive prevăzute de Articolul 8 din Convenția Europeană a Drepturilor Omului (CEDO). 

În cazurile în care cadrele legale existente sunt inadecvate, se recomandă statelor membre să le reformeze de urgență, astfel încât copiii să nu rămână fără protecție. Deși respondenții au menționat atât stimulente, cât și bariere, un comentariu recurent a fost că un cadru legal național nu va fi stabilit până când Actul IA al UE (pentru statele membre ale UE) și Convenția-cadru privind IA nu vor fi finalizate. Studiul a indicat, de asemenea, că mai multe state non-UE sunt interesate să urmeze exemplul Actului IA al UE, demonstrând importanța acestui instrument. În acest sens, Convenția-cadru privind IA include o recunoaștere explicită a drepturilor copilului. Articolul 18 prevede: „Fiecare parte va lua în considerare, în conformitate cu legislația sa națională și obligațiile internaționale relevante, orice nevoi și vulnerabilități specifice în ceea ce privește respectarea drepturilor persoanelor cu dizabilități și ale copiilor.”

Deși rezultatele sondajului nu au oferit un consens clar cu privire la necesitatea percepută de a dezvolta cadre legale naționale privind IA în contextul drepturilor copilului, eforturile viitoare de armonizare – între cadrele naționale și cele interguvernamentale – ar putea lăsa lacune în ceea ce privește prejudiciile cauzate de IA în raport cu drepturile copilului.

Așa cum este evidențiat în secțiunea introductivă, copiii și tinerii interacționează cu sistemele IA atât intenționat, cât și neintenționat, iar aceștia nu sunt întotdeauna conștienți de modul în care interacționează cu IA, de capacitatea lor de a face alegeri informate privind utilizarea tehnologiei sau de modul în care IA ar putea fi folosită în moduri care îi afectează. Drepturile copilului, precum nediscriminarea, dreptul la joacă și dreptul la viață privată, sunt printre drepturile și libertățile aflate în joc atunci când sistemele IA sunt dezvoltate fără o implicare semnificativă a copiilor și tinerilor și fără o prioritate acordată drepturilor copilului în designul, dezvoltarea și utilizarea sistemelor IA. Interesant este că „înțelegerea conceptului de IA în relație cu drepturile copilului” a fost unul dintre cele mai frecvent citate răspunsuri la întrebarea privind obstacolele percepute în dezvoltarea unor linii directoare neobligatorii sau a unui cadru legal care să abordeze IA în contextul drepturilor copilului. Acest lucru semnalează o nevoie critică de a se angaja cu cadrele privind drepturile copilului și de a implica semnificativ copiii și tinerii pe această temă.

Având în vedere majoritatea răspunsurilor care au indicat că nu va fi stabilit un cadru legal până la publicarea standardelor viitoare, este subliniat[ și mai mult importanța considerării drepturilor copilului și a mecanismelor de a face acest lucru în absența unui astfel de cadru legal sau a documentelor de orientare.

Recomandările sunt următoarele:

  • Evaluări de impact și riscuri asupra drepturilor copilului:
    Constatările acestui studiu de cartografiere susțin concluzia că există o nevoie critică pentru evaluări de impact și riscuri asupra drepturilor copilului, care să nu ia în considerare doar gama drepturilor și principiilor copilului, ci și să asigure că sistemele de inteligență artificială respectă drepturile copilului și demonstrează acest lucru pe parcursul evaluării. Aceste evaluări nu doar minimizează riscurile, ci generează simultan dovezi care identifică soluții și permit copiilor să își maximizeze oportunitățile în lumea digitală, ca cetățeni digitali. Mai specific, evaluările impactului și riscurilor asupra drepturilor copilului ar trebui să includă o analiză aprofundată a beneficiilor și limitărilor sistemului de IA, cu atenție la principii precum echitatea, nediscriminarea, administrarea datelor, transparența, explicabilitatea, responsabilitatea, siguranța și sustenabilitatea. După completarea acestor evaluări, echipele care proiectează, dezvoltă și implementează sisteme de IA ar trebui să identifice moduri de a atenua eventualele impacturi negative. Evaluarea ar trebui să includă, de asemenea, o delimitare clară a rolurilor și responsabilităților, astfel încât impactul sistemului asupra drepturilor copilului să fie reevaluat și monitorizat în mod constant. În plus, ar trebui să fie disponibil un raport accesibil pentru copii, care să ofere un rezumat non-tehnic al metodologiei sistemului.
  • Completarea evaluărilor de risc și impact:
    Evaluările de impact și riscuri asupra drepturilor copilului ar putea completa evaluarea riscurilor și impactului IA, informată de drepturile omului, democrație și statul de drept (HUDERIA), dezvoltată de Comitetul privind Inteligența Artificială pentru a sprijini implementarea Convenției-cadru privind IA. Instrumente precum evaluările impactului și riscurilor asupra drepturilor copilului ar trebui să fie disponibile și direcționate către industrie și furnizorii de servicii.
  • Adoptarea unui cadru bazat pe drepturile copilului:
    Deși este pozitiv faptul că UNCRC și Observația Generală nr. 25 a Comitetului ONU pentru Drepturile Copilului au fost cele mai citate cadre de către respondenți, este important să se sublinieze din nou necesitatea unei abordări bazate pe drepturile copilului pentru cadrele legale naționale viitoare privind IA. Această abordare bazată pe drepturile copilului necesită, de asemenea, o delimitare clară a rolurilor și responsabilităților între grupurile relevante de părți interesate (adulți, îngrijitori, dezvoltatori, controlori de date și companii).
  • Implicarea semnificativă a copiilor:
    Pentru a adopta pe deplin o abordare centrată pe copil, este esențial ca statele membre să implice în mod semnificativ copiii și tinerii în crearea cadrului legal care abordează IA în contextul drepturilor copilului și să continue să găsească modalități de a-i implica în aceste conversații odată ce cadrul a fost dezvoltat. Aceste implicări semnificative vor sprijini construirea capacității copiilor de a acționa în acest context.
  • Transferarea responsabilității către autorități și companii:
    Este esențial să se sublinieze că responsabilitatea de a asigura că sistemele online sunt proiectate în moduri care să protejeze drepturile copilului nu trebuie să cadă asupra copiilor și tinerilor, ci asupra autorităților publice și companiilor. Deși este important ca copiii și tinerii să fie conștienți de drepturile lor și să își exprime perspectivele către dezvoltatori și factorii de decizie, responsabilitatea de a proteja și de a împuternici copiii să își exercite drepturile și de a fi conștienți de riscurile generate de sistemele IA revine autorităților publice și companiilor. Aceste părți interesate trebuie, de asemenea, să fie conștiente de mecanismele disponibile în stat pentru a aborda riscurile generate de sistemele IA.
  • Campanii de sensibilizare și educație:
    Campaniile de conștientizare și traseele educaționale pentru copii, tineri și alte părți interesate relevante sunt critice în acest domeniu. Aceste resurse educaționale ar trebui să sensibilizeze publicul cu privire la provocările etice pe care le poate genera utilizarea IA (de exemplu, provocări evidente precum profilarea copiilor, discriminarea algoritmică și potențialele încălcări ale drepturilor, cum ar fi viața privată). Aceste deficiențe și provocări ale IA ar trebui predate părților interesate relevante, inclusiv prin includerea educației despre IA responsabilă și etică în școli și în instituțiile de învățământ superior, având în vedere că responsabilitatea principală pentru proiectarea sistemelor online centrate pe copil nu revine copiilor, ci autorităților publice și companiilor.

Cautare in

Traduceti