Strategiczne podejście do zarządzania ryzykiem związanym ze sztuczną inteligencją

Sztuczna inteligencja (AI) zmienia oblicze biznesu w niespotykanym dotąd tempie. W szczególności generatywna sztuczna inteligencja rozwija się znacznie szybciej niż przewidywali eksperci, skracając dziesięciolecia oczekiwanego postępu do zaledwie kilku lat. Do 2028 r. 62% liderów biznesowych spodziewa się, że sztuczna inteligencja zostanie wdrożona we wszystkich obszarach ich organizacji.  Jednak podczas gdy 45% postrzega sztuczną inteligencję jako znaczącą szansę, 56% obawia się zagrożeń dla cyberbezpieczeństwa i prywatności, które towarzyszą tak szybkiemu wdrażaniu tej technologii.

„Znajdujemy się w przełomowym momencie, w którym sztuczna inteligencja nie jest już tylko teorią. Jest dostępna dla każdego. Ta dostępność napędza innowacje, ale tworzy również martwe punkty”.
— Kirstie Tiernan, lider ds. sztucznej inteligencji, BDO USA

 

Zrozumienie zagrożeń i wyzwań związanych ze sztuczną inteligencją

Generatywna sztuczna inteligencja potęguje wiele zagrożeń dla cyberbezpieczeństwa, z którymi organizacje borykają się od lat, w tym socjotechnikę, wyciek danych i luki w zarządzaniu. Prawie połowa ankietowanych liderów twierdzi, że obawy dotyczące bezpieczeństwa danych hamują dalsze inwestycje w sztuczną inteligencję[1] . Zagrożenia są namacalne. Na przykład skandal związany z zasiłkami na opiekę nad dziećmi w Holandii, spowodowany przez wczesny algorytm uczenia maszynowego, doprowadził do tego, że tysiące niewinnych rodzin zostało niesłusznie uznanych za oszustów. Konsekwencjami tego były trudności finansowe, oburzenie opinii publicznej, a nawet utrata życia. Przypadek ten podkreśla ryzyko reputacyjne, prawne i etyczne, które może powstać, gdy systemy sztucznej inteligencji nie są odpowiednio nadzorowane.
Szersze wyzwania obejmują rozszerzanie powierzchni ataku, kwestie etyczne, takie jak stronniczość i nadmierna automatyzacja, oraz niewystarczające zarządzanie. Wraz z rozwojem technologii AI, często wyprzedzającym regulacje prawne, coraz większego znaczenia nabierają przepisy takie jak unijna ustawa o sztucznej inteligencji.

„Chociaż ryzyko związane z danymi, prywatnością i stronniczością modeli jest realne, musimy również wziąć pod uwagę szerszy wpływ na dynamikę siły roboczej, wdrażanie i potencjalną nadmierną zależność od sztucznej inteligencji. Przemyślane planowanie, które integruje technologię z kapitałem ludzkim i zarządzaniem zmianą, może znacznie przyspieszyć zwrot z inwestycji w sztuczną inteligencję”.
— Rocco Galletto, krajowy i globalny lider ds. cyberbezpieczeństwa, BDO Canada

 

Budowanie spójnej strategii zarządzania sztuczną inteligencją

Aby nadążyć za zmianami technologicznymi i ewoluującym prawodawstwem, organizacje powinny powołać komitety ds. zarządzania sztuczną inteligencją, w których reprezentowane będą różne działy. Spójna strategia zarządzania obejmuje:
  • Mapowanie globalnych przepisów i standardów w celu zachowania zgodności w różnych jurysdykcjach (takich jak ustawa UE o sztucznej inteligencji, NIST AI 100-2 i ISO/IEC 42005:2025).
  • Dostosowanie inicjatyw AI do priorytetów organizacyjnych, takich jak doświadczenia klientów, wydajność operacyjna i innowacyjność.
  • Zrozumienie możliwości strategicznego dostosowania w całej firmie. Organizacje, które włączają sztuczną inteligencję do strategii obejmujących całe przedsiębiorstwo, zazwyczaj osiągają lepszy zwrot z inwestycji.

Sztuczna inteligencja powinna być zintegrowana z istniejącymi ramami ryzyka, zgodności i zarządzania, z zabezpieczeniami stosowanymi w całym cyklu życia.

„Zalecamy posiadanie strategii AI, osoby odpowiedzialnej za AI oraz komitetu ds. zarządzania AI składającego się z wielu interesariuszy. Dzięki temu nie będzie to pojedynczy punkt awarii”.
— Jason Gottschalk, partner ds. cyberbezpieczeństwa, BDO UK

 

Praktyczne kroki, które należy podjąć już dziś

Ryzyko często wynika z braku zrozumienia. Poprzez promowanie kultury świadomości organizacje mogą przekształcić nieznane ryzyka w możliwe do opanowania wyzwania. Prawie połowa organizacji już zapewnia pracownikom szkolenia w zakresie bezpiecznego i etycznego wykorzystania sztucznej inteligencji, a 46% wdraża narzędzia bezpieczeństwa przeznaczone specjalnie dla sztucznej inteligencji[2] .
Aby sprostać dzisiejszym zagrożeniom, organizacje powinny:
  • Budować świadomość i umiejętności pracowników w zakresie bezpiecznego i etycznego wykorzystania sztucznej inteligencji.
  • Inwestować w zaawansowane narzędzia do wykrywania i ograniczania zagrożeń związanych ze sztuczną inteligencją, takich jak wyciek danych i nieautoryzowany dostęp.
  • Ograniczyć dostęp do poufnych informacji poprzez bardziej rygorystyczne kontrole dostępu i polityki.
  • Przeprowadzać oceny wpływu sztucznej inteligencji w celu identyfikacji i eliminacji potencjalnych zagrożeń.
Oczekuje się, że sztuczna inteligencja będzie miała największy wpływ na cyberbezpieczeństwo (55%), monitorowanie zgodności (52%) i zarządzanie łańcuchem dostaw (50%)[3] . Czas działać jest teraz.
 

Wdrożenie sztucznej inteligencji z myślą o przyszłości

Organizacje, które przyjmują podejście „szybko popełniaj błędy, szybciej się ucz”, mają większe szanse na pomyślną integrację sztucznej inteligencji. Wdrożenie sztucznej inteligencji to nie tylko innowacja — to budowanie odporności i elastyczności w dynamicznym środowisku biznesowym. Wraz z rozwojem technologii konieczne jest wyznaczenie jasnych celów, ciągłe monitorowanie wydajności AI, aktualizowanie kluczowych wskaźników ryzyka i promowanie zmian regulacyjnych. Takie podejście umożliwia organizacjom budowanie odpornych struktur zarządzania, które ewoluują wraz z AI, zamiast opierać się zmianom i narażać się na nowe zagrożenia.