Dezvoltarea rapidă a inteligenței artificiale aduce provocări semnificative legate de etică, responsabilitate și protecția drepturilor omului. Utilizarea acestor tehnologii trebuie să fie însoțită de reguli clare și principii morale, pentru a garanta siguranța și respectarea valorilor umane.
Etica reprezintă baza utilizării corecte a inteligenței artificiale. Fiecare specialist în informatică are responsabilitatea de a crea tehnologii care respectă principiile morale: transparență, echitate, empatie și respect față de utilizator. Scopul IA este să extindă gândirea umană, nu să o înlocuiască.
O IA etică trebuie să fie transparentă în modul de funcționare, să folosească date corecte și diverse și să ofere utilizatorilor posibilitatea de a verifica și controla rezultatele.
Pentru a asigura o utilizare responsabilă a IA, Uniunea Europeană a adoptat în 2024 AI Act, primul cadru legislativ complet dedicat acestei tehnologii. Acesta se bazează pe patru principii fundamentale:
În România, Autoritatea pentru Digitalizare colaborează cu universitățile tehnice pentru aplicarea acestor norme și formarea specialiștilor capabili să dezvolte o inteligență artificială sigură, echitabilă și orientată spre binele social.