Cum se construieste increderea in aplicatiile de inteligenta artificiala (AI) – a fost emisa o “carte alba” si vor fi certificate

De la telecomunicații la traficul rutier, de la asistență medicală, la locul de muncă – tehnologia digitală este acum o parte intrinsecă aproape pentru fiecare zona a vietii. Cu toate acestea, cum putem să ne asigurăm că evoluțiile din acest domeniu, în special cele care se bazează pe inteligența artificială (AI), răspund tuturor preocupărilor noastre etice, legale și tehnologice? Într-un proiect condus de Institutul Fraunhofer pentru analiza inteligentă și sisteme informaționale IAIS, și cu participarea Oficiului Federal al Germaniei pentru Securitatea Informatiei (BSI), o echipa interdisciplinara de oameni de stiinta de la Universitatile din Bonn si Koln au elaborat un catalog de control pentru certificarea aplicațiilor AI. Ei au publicat  o “carte albă” care prezintă problemele filosofice, etice, legale și tehnologice implicate.

Inteligența artificială va schimbă societatea, economia și viețile noastre de zi cu zi în mod fundamental. Va crea câteva oportunități interesante în modul în care trăim și lucrăm împreună. De exemplu, AI va ajută deja medicii să evalueze mai bine razele X, ceea ce duce adesea la un diagnostic mai precis. Prognozele curente indică faptul că numărul de aplicații AI va crește exponențial în următorii ani. McKinsey, de exemplu, proiectează o creștere globală suplimentară de la AI de până la 13 miliarde de dolari SUA până în 2030.

În același timp, este clar că trebuie să ne asigurăm că utilizarea inteligentei artificiale este în armonie cu punctele de vedere și valorile societății noastre. Acționând sub egida Kompetenzplattform KI.NRW, o platformă de competență AI, o echipă interdisciplinară dezvolta un proces de certificare pentru aplicații AI care urmează să fie efectuate de către examinatori acreditați. Acest lucru va confirma respectarea unui standard de calitate certificat care, la rândul său, va permite companiilor din domeniul tehnologiei să proiecteze în mod verificabil aplicații AI care sunt fiabile din punct de vedere tehnic și acceptabile din punct de vedere etic.

“Scopul certificării este de a contribui la stabilirea standardelor de calitate pentru IA din Europa, pentru a asigura o abordare responsabilă a acestei tehnologii și pentru a promova concurența loială între diferiți actori”, spune Prof. Dr. Stefan Wrobel, directorul Fraunhofer IAIS și profesor de informatică la Universitatea din Bonn.

Concentrarea pe aspectul uman

Inteligența artificială are potențialul de a mări capabilitatile noastre și de a ne oferi noi cunoștințe. Cu toate acestea, odată ce începem să ne bazăm deciziile pe machine learning,  ne vom confrunta cu o serie de noi provocări. În primul rând, însă, trebuie să rezolvăm problemele fundamentale filosofice, etice și juridice. Pentru a se asigura că nevoile oamenilor sunt încorporate ferm în centrul dezvoltării acestei tehnologii, este necesar un dialog strâns între domeniile tehnologiei informației, filosofiei și legii.

Echipa de experți a publicat acum o carte albă în care detaliază abordarea interdisciplinară în procesul de certificare. De exemplu, se explică principiile etice implicate. “Orice persoană care utilizează AI ar trebui să poată acționa în mod corespunzător în conformitate cu convingerile morale și nimeni nu ar trebui să fie redus în drepturile, libertatea sau autonomia lor”, spune prof. Dr. Markus Gabriel, profesor de filozofie la Universitatea din Bonn. Au fost abordate și întrebări juridice. “De exemplu, trebuie să determinăm modul în care pot fi făcute cererile de AI pentru a se conforma valorilor și principiilor de bază ale unui stat de drept și care sunt supuse principiilor libertății”, explică Prof. Frauke Rostalski, profesor de drept la Universitatea din Köln.

Priorități pentru construirea încrederii în utilizarea AI

Această abordare interdisciplinară a identificat o serie de aspecte etice, legale și tehnologice relevante pentru utilizarea AI. Toate acestea sunt examinate în cartea albă. Criteriile utilizate într-un proces de certificare ar trebui să includă corectitudinea, transparența, autonomia, controlul, protecția datelor, siguranța, securitatea și fiabilitatea. Recomandările UE servesc astfel și ca orientare pentru proiectul de certificare KI.NRW.

Procesul de certificare se va referi la întrebări precum: Aplicația AI respectă legile și valorile societății? Utilizatorul își păstrează autonomia completă și eficientă asupra aplicației? Aplicația tratează toți participanții într-o manieră echitabilă? Aplicația funcționează și ia decizii într-un mod transparent și inteligibil? Aplicația este fiabilă și robustă? Este protejata împotriva atacurilor, accidentelor și erorilor? Aplicația protejează domeniul privat și alte informații sensibile?

Construirea controalelor și a controalelor in cadrul etapei de proiectare

În conformitate cu Cartea albă, trebuie să se determine în timpul procesului inițial de proiectare dacă aplicația este permisă din punct de vedere etic și legal – și, dacă da, care sunt controalele care trebuie formulate pentru a guverna acest proces. Un criteriu necesar este să se asigure că utilizarea aplicației nu compromite pe nimeni care o folosește în capacitatea sa de a lua o decizie morală – ca și cum opțiunea ar exista pentru a refuza utilizarea AI – și că drepturile și libertățile nu sunt reduse în nici un fel.

Transparența este un alt criteriu important: experții subliniază faptul că informațiile privind utilizarea corectă a aplicației ar trebui să fie ușor disponibile, iar rezultatele determinate prin utilizarea AI în aplicație trebuie să fie pe deplin interpretabile, trasabile și reproductibile de către utilizator.

Planul este de a publica o versiune inițială a catalogului de inspecție până la începutul anului 2020 și apoi să înceapă cu certificarea aplicațiilor AI. Acest proiect implică, de asemenea, participarea Biroului Federal German pentru Securitatea Informației (BSI), care are o vastă experiență în dezvoltarea standardelor IT sigure. Acest know-how va contribui la procesul de certificare. Având în vedere că AI evoluează în mod constant, catalogul de inspecție în sine va fi un “document viu” care necesită o actualizare continuă.