Rewolucja w audycie: czy sztuczna inteligencja zmieni pracę audytorów?

Wbrew obawom, że inteligentne technologie zabiorą pracę księgowym czy audytorom, należałoby raczej zapytać czy za jakiś czas nie będziemy rozróżniać tylko pomiędzy tymi, którzy z AI korzystają a tymi, którzy jej nie wykorzystują – komentuje w Rzeczpospolitej Krzysztof Maksymik, Regionalny Partner Zarządzający Działem Rewizji Finansowej biegły rewident

I prawdopodobnie to ta pierwsza grupa będzie miała przewagę. Zaczynając choćby od postępującej automatyzacji procesów księgowych – biegły rewident badając efekt pracy „sztucznych” księgowych, będzie zmuszony do oceny możliwości polegania na takim systemie, jeszcze przed rozpoczęciem odpowiednich szczegółowych procedur. Co więcej, przeciwstawienie systemu opartego o AI przez audytora systemowi badanego klienta może być skuteczniejszą strategią badania.

Już teraz audytorzy wykorzystują narzędzia, które potrafią maszynowo się uczyć, rozumieć tekst/mowę, właściwie odczytywać obrazy i na tej podstawie analizować szybko dane, następnie przedstawiać je w atrakcyjnej i przejrzystej graficznie formie – praca tak wykonana nie traci na jakości, a zyskuje na efektywności i zostawia więcej czasu biegłemu na analizę wyników. Cyfryzacja księgowości połączona z jej standaryzacją (JPK, digitalizacja sprawozdań finansowych czy wreszcie KSEF) wręcz zachęca do tworzenia narzędzi, które pozwolą na szybką obróbkę danych i ich analizę.

Co z etyką?
Jednym z niezbadanych jeszcze w pełni aspektów są etyczne aspekty wykorzystania AI w rewizji finansowej. Na pewno jednym z kluczowych wyzwań jest określenie, kto ponosi odpowiedzialność za decyzje podjęte z pomocą AI. W przypadku błędów lub nieprawidłowości, ważne jest, aby jasno zdefiniować, czy odpowiedzialność spoczywa na twórcach algorytmów, użytkownikach systemów AI, czy też na samych algorytmach. Algorytmy AI powinny być przejrzyste, co oznacza, że ich działanie jest zrozumiałe dla zarówno dla użytkowników, jak i audytorów. To wymaga od twórców AI zapewnienia, że procesy decyzyjne są wyjaśnione i – przede wszystkim - dokumentowane, co pozwala na ich weryfikację i prześledzenie sposobu działania. Sztuczna inteligencja powinna być też wolna od uprzedzeń, które mogłyby prowadzić do dyskryminacji, a to wymaga starannego doboru danych, na których się uczy oraz regularnego testowania algorytmów pod kątem potencjalnej stronniczości.

Cały artykuł można przeczytać wydaniu Rzeczpospolitej z dnia 7 czerwca 2024, str. E3