Dezvoltarea rapidă a inteligenței artificiale aduce provocări semnificative legate de etică, responsabilitate și protecția drepturilor omului. Utilizarea acestor tehnologii trebuie să fie însoțită de reguli clare și principii morale, pentru a garanta siguranța și respectarea valorilor umane.

7.1. Etica în dezvoltarea IA

Etica reprezintă baza utilizării corecte a inteligenței artificiale. Fiecare specialist în informatică are responsabilitatea de a crea tehnologii care respectă principiile morale: transparență, echitate, empatie și respect față de utilizator. Scopul IA este să extindă gândirea umană, nu să o înlocuiască.

O IA etică trebuie să fie transparentă în modul de funcționare, să folosească date corecte și diverse și să ofere utilizatorilor posibilitatea de a verifica și controla rezultatele.

7.2. Reglementările europene – AI Act

Pentru a asigura o utilizare responsabilă a IA, Uniunea Europeană a adoptat în 2024 AI Act, primul cadru legislativ complet dedicat acestei tehnologii. Acesta se bazează pe patru principii fundamentale:

  1. Transparență – utilizatorii trebuie informați când interacționează cu un sistem AI.
  2. Control uman – deciziile importante trebuie verificate și aprobate de o persoană.
  3. Securitate și protecția datelor – colectarea informațiilor trebuie să respecte normele GDPR.
  4. Interzicerea aplicațiilor cu risc ridicat, precum supravegherea biometrică abuzivă.

În România, Autoritatea pentru Digitalizare colaborează cu universitățile tehnice pentru aplicarea acestor norme și formarea specialiștilor capabili să dezvolte o inteligență artificială sigură, echitabilă și orientată spre binele social.