Ce rol poate juca (sau nu) inteligența artificială în audit
Evoluția continuă a tehnologiei, hiper-automatizarea, învățarea automată (machine learning) sau cea aprofundată (deep learning) și inteligența artificială (artificial intelligence) schimbă din ce în ce mai multe domenii de activitate.
Acum, cu aceste tehnologii, pot fi analizate volume enorme de date pentru a descoperi anomalii și pentru a identifica tendințe, modele și relații care ar putea scăpa detectării umane. În ciuda acestui fapt, înțelegerea și experiența umană rămân cruciale pentru priceperea rezultatelor, determinarea autenticității anomaliilor și interpretarea implicațiilor acestora într-un context mai larg.
Colaborarea dintre inteligența artificială și auditorii umani reprezintă însă o soluție cu multiple avantaje. În primul rând, inteligența artificială poate să preia sarcinile repetitive și laborioase, permițând auditorilor umani să se concentreze asupra aspectelor mai complexe și analitice ale auditului. Aceasta duce la creșterea eficienței și la reducerea timpului necesar pentru finalizarea procesului de audit.
Accesibilitatea la AI schimbă rolul auditorului
Deși nu toți auditorii și nici toate firmele au în prezent acces la specialiști pentru a dezvolta instrumente personalizate bazate pe inteligența artificială, numeroasele soluții software disponibile au făcut adoptarea acesteia mai accesibilă. Auditorii au de unde alege cea mai bună opțiune în funcție de cerințele, resursele și programul lor.
Pe măsură ce tehnologiile bazate pe inteligență artificială avansează, accesul va crește și mai mult, permițând mai multor auditori și firme să ofere o valoare sporită clienților și încurajând standardizarea. Integrarea AI în audit eficientizează sarcinile de procesare a datelor, permițând auditorilor să se concentreze pe analiză și evaluare.
Această schimbare reduce timpul petrecut cu strângerea, corelarea, formatarea și sinteza informațiilor. Auditorii pot acum să aprofundeze date, să obțină informații valoroase la începutul procesului de audit și să aibă o abordare de audit mai eficientă.
Totuși, schimbarea adusă de accesibilitatea la AI necesită și o adaptare a competențelor auditorilor. Aceștia trebuie să înțeleagă tehnologiile emergente, să poată interpreta rezultatele furnizate de algoritmi și să navigheze într-un mediu în continuă schimbare.
Provocările folosirii inteligenței artificiale în audit
Folosirea inteligenței artificiale în audit aduce cu sine numeroase provocări, deși aduce beneficii semnificative în eficiența și precizia procesului. Una dintre provocările majore este lipsa de transparență a algoritmilor, în special în cazul rețelelor neuronale profunde. Aceste „cutii negre” pot complica înțelegerea modului în care inteligența artificială ajunge la anumite concluzii, aspect esențial în auditul financiar unde capacitatea de a explica deciziile este crucială.
O altă provocare este riscul de bias, adică prejudecățile sau asocierile nedorite introduse în modelele de date utilizate pentru antrenarea algoritmilor de inteligență artificială. Datele utilizate pentru antrenarea acestor algoritmi pot reflecta inconștient anumite prejudecăți existente în societate. Dacă aceste bias-uri nu sunt identificate și corectate, pot afecta obiectivitatea procesului de audit, generând rezultate incorecte sau discriminatoare.
Securitatea cibernetică reprezintă, de asemenea, o provocare majoră. Datele financiare extrem de sensibile și confidențiale sunt supuse unui risc crescut de acces neautorizat sau manipulare atunci când sunt gestionate de algoritmi de IA. Implementarea unor măsuri robuste de securitate devine crucială pentru protejarea integrității informațiilor.
Încrederea în ceea ce ”lucrează” inteligența artificială
Instrumentele avansate de inteligență artificială, cum ar fi rețelele neuronale, reprezintă o forță incontestabilă în analiza și interpretarea volumelor mari de date. Capacitatea acestor algoritmi de a învăța modele complexe și de a extrage informații semnificative din seturi de date extinse aduce beneficii semnificative în diverse domenii, de la medicină la finanțe și până la cercetare științifică.
Cu toate acestea, pe măsură ce utilizarea acestor instrumente crește, îngrijorările legate de lipsa de transparență devin tot mai pronunțate. Rețelele neuronale profunde, în special, sunt adesea percepute ca „cutii negre” în care procesele de luare a deciziilor sunt dificil de înțeles și interpretat. Acest aspect ridică probleme importante în ceea ce privește etica, responsabilitatea și încrederea în sistemele de inteligență artificială.
Lipsa de transparență poate genera dificultăți în explicarea modului în care un algoritm a ajuns la o anumită concluzie sau decizie. Acest aspect este crucial, mai ales în domenii precum sănătatea sau finanțele, unde înțelegerea clară a procesului de luare a deciziilor este esențială pentru a justifica și valida rezultatele.
Soluționarea acestei probleme de transparență este esențială pentru a promova încrederea în utilizarea inteligenței artificiale. Îmbunătățirea proceselor de luare a deciziilor, precum și adoptarea unor standarde etice și de responsabilitate în dezvoltarea și implementarea acestor tehnologii, pot contribui la gestionarea preocupărilor legate de lipsa de transparență în domeniul inteligenței artificiale. Aceasta ar permite beneficierea deplină a capacităților acestor tehnologii fără a compromite integritatea și încrederea în procesul decizional.
Prin urmare, inteligența artificială poate face predicții părtinitoare sau inexacte dacă este instruită pe date cu un coeficient de părtinire ridicat sau pe date inadecvate. Abordarea acestei provocări necesită ca managementul și auditorii să implementeze controale adecvate, asigurând acuratețea și corectitudinea rezultatelor ”muncii” inteligenței artificiale.
Încrederea în acuratețea inteligenței artificiale rămâne un obstacol important în calea adoptării acesteia pe scară largă, subliniind nevoia de transparență și trasabilitate în aplicațiile bazate pe această tehnologie.
Considerații pentru management și auditori
Pentru a asigura eficacitatea instrumentelor bazate pe inteligență artificială în audit, managementul și auditorii ar trebui să ia în considerare următoarele aspecte:
- Poate managementul să explice și să evalueze rezultatele instrumentelor AI, garantând integralitatea, acuratețea și eficacitatea controalelor interne?
- Pot auditorii să explice și să evalueze rezultatele instrumentelor de audit AI, asigurându-se că au obținut suficiente probe de audit adecvate pentru a-și forma o opinie?
- Care sunt cerințele de bază pentru înțelegerea programării, controalelor și proceselor originare în jurul întreținerii instrumentelor AI?
Pe măsură ce inteligența artificială continuă să transforme profesia de audit, auditorii și firmele trebuie să facă față provocărilor, să dea încredere și să se adapteze continuu la schimbare. Prin adoptarea transparenței, implementarea unor controale eficiente și îmbunătățirea înțelegerii instrumentelor bazate pe inteligență artificială, auditorii pot valorifica întregul potențial al tehnologiei pentru a oferi valoare mai mare în era digitală.
Alina Făniță este CEO și Partener al PKF Finconta. A lucrat cu companii multinaționale sau firme antreprenoriale din domenii diverse de activitate, pentru a le oferi servicii de audit financiar, due diligence, restructurări de grupuri, audit intern și alte servicii conexe activității de control intern. Este membră a celor mai prestigioase asociații profesionale din domeniu: ACCA (Association of Chartered Certified Accountants), CECCAR (Corpul Experților Contabili și Contabililior Autorizați din România), CAFR (Camera Auditorilor Financiari) și IIA (Institute of Internal Auditors). A absolvit EMBA Asebuss la Kennesaw State University, a fost trainer pentru cursuri IFRS și este invitată ca expert la numeroase conferințe de business. alina.fanita@pkffinconta.ro