piątek, 25 październik 2024 05:53

Akt o Sztucznej Inteligencji (AI) w kontekście procedur prawnych w działalności spółki

Rozwój technologii, szczególnie sztucznej inteligencji (AI), wprowadza nowe możliwości, ale również stawia przed przedsiębiorstwami wiele wyzwań prawnych. Z perspektywy europejskiej, Akt o Sztucznej Inteligencji, zaproponowany przez Komisję Europejską, ma na celu regulację korzystania z AI w sposób bezpieczny, etyczny i odpowiedzialny. Właściwe zrozumienie i wdrożenie przepisów zawartych w akcie są kluczowe dla funkcjonowania spółek, które chcą wykorzystać AI w swojej działalności.

AI

Akt o Sztucznej Inteligencji wprowadza nowy wymiar regulacji prawnych dotyczących wykorzystania AI w działalności gospodarczej. Spółki, aby mogły skutecznie wdrożyć rozwiązania oparte na AI, będą zmuszone do dostosowania swoich procedur prawnych, zainwestowania w szkolenia pracowników, a także do stworzenia strategii zarządzania ryzykiem. Kluczowe będzie także monitorowanie zmian w regulacjach oraz ich wpływ na działalność przedsiębiorstw.

Podstawowe założenia Aktu o Sztucznej Inteligencji

Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (dalej: akt AI) wprowadza ramy prawne, które mają za zadanie zapewnienie:

  1. Ochrony praw podstawowych - Głównym celem aktu jest ochrona praw obywateli, w tym ich prywatności, oraz zapobieganie dyskryminacji wynikającej z użycia algorytmów AI.
  2. Bezpieczeństwa - Zasady dotyczące bezpieczeństwa i przejrzystości użycia AI, które mają na celu minimalizację ryzyka związanego z technologią.
  3. Etyki - Promowanie odpowiedzialnych praktyk przy użyciu AI, które będą zgodne z wartościami społecznymi i etycznymi.

W Polsce niektóre przepisy aktu AI nabiorą mocy już w lutym 2025 r. Dotyczyć będą zakazów stosowania w całej Unii szczególnie niebezpiecznych systemów AI. Następnie, w sierpniu 2025 r. w życie wejdą  przepisy kluczowe dla nadzoru nad sztuczną inteligencją dotyczące m.in. określenia organu nadzoru rynku i organu notyfikującego, modeli AI ogólnego przeznaczenia, jak również te dotyczące kar za naruszenia Aktu. 

Jako ostatnie zaczną obowiązywać przepisy, które odnoszą się do systemów AI wysokiego ryzyka  oraz związanych z nimi obowiązków. Ich wejście w życie nastąpi w sierpniu 2026 r. oraz, w przypadku niektórych systemów wysokiego ryzyka będących elementem produktów podlegających osobnym normom, w sierpniu 2027 r. 

Wpływ Aktu AI na procedury prawne w spółkach

Dla wielu spółek, które chcą zaimplementować AI w swoje operacje, istotne będzie dostosowanie procedur prawnych i operacyjnych do wymogów aktu. Oto kluczowe obszary, które mogą ulec zmianie:

  1. Ocena ryzyka - Spółki zobowiązane będą do przeprowadzania regularnych ocen ryzyka, zwłaszcza w przypadku rozwiązań AI klasyfikowanych jako wysokiego ryzyka. Proces ten powinien uwzględniać wszystkie potencjalne skutki użycia AI na działalność firmy oraz prawa i wolności osób trzecich.
  2. Przejrzystość algorytmów - Firmy będą musiały zapewnić przejrzystość działania algorytmów. Oznacza to nie tylko informowanie użytkowników o tym, że korzystają z AI, ale także o zasadach jego działania, a także o danych, które są wykorzystywane do jego trenowania.
  3. Odpowiedzialność prawna - W przypadku, gdy zastosowanie AI skutkuje szkodą, spółki muszą być świadome potencjalnych konsekwencji prawnych. Odpowiedzialność za działanie algorytmów, ich błędy czy dyskryminacyjne decyzje może spoczywać zarówno na producentach, jak i na operatorach technologii.
  4. Szkolenie pracowników - Wdrożenie AI wymaga odpowiedniego przeszkolenia pracowników w zakresie nowych przepisów i procedur. Spółki powinny inwestować w rozwój kompetencji swoich pracowników, aby umieli skutecznie zarządzać technologią AI zgodnie z obowiązującym prawem.

Korzystanie z systemów AI w spółce – procedury i dokumenty 

Pierwszym krokiem do efektywnego korzystania z systemów AI w przedsiębiorstwie jest stworzenie spójnej polityki AI. Taka polityka powinna określać zasady użytkowania systemów AI przez wszystkich pracowników oraz wskazywać cele, jakie spółka chce osiągnąć dzięki ich implementacji. Polityka ta powinna również uwzględniać obowiązki wynikające z Rozporządzenia o Sztucznej Inteligencji, które nakładają na przedsiębiorstwa zobowiązania związane z odpowiedzialnością oraz przejrzystością w stosowaniu AI.

Kolejnym kluczowym elementem jest edukacja członków personelu w zakresie sztucznej inteligencji. Wprowadzenie programów szkoleniowych, które podniosą poziom wiedzy na temat AI, jest niezbędne, aby pracownicy mogli świadomie i efektywnie korzystać z nowych technologii.

Stosowanie systemów AI w procesach decyzyjnych oraz operacyjnych wpływa na sposób pracy całej organizacji. Warto zdefiniować zasady, które regulują, w jaki sposób pracownicy mogą używać systemów AI oraz jak te systemy będą wpływać na ich pracę. W szczególności należy zadbać o to, aby narzędzia AI wspierały, a nie zastępowały pracowników, by zminimalizować obawy związane z automatyzacją pracy.

Wreszcie, niezwykle istotne jest regularne monitorowanie oraz weryfikacja zgodności regulaminów dostawców usług korzystających z systemów AI z wewnętrznymi regulacjami przedsiębiorstwa. W tym przypadku nie tylko należy zaangażować dział prawny, ale także stworzyć procedury audytowe, które umożliwią każdej spółce zapewnienie, że współprace z kontrahentami są zgodne z przyjętymi normami.

Umowy dotyczące systemów AI

Dla wielu przedsiębiorstw kluczowym krokiem w implementacji AI jest zawieranie odpowiednich umów z wykonawcami tych systemów. Zbyt często są one traktowane jako standardowe dokumenty, jednak w przypadku systemów AI, wymagają szczególnej uwagi i przemyślenia.

Powinny zawierać szczegółowe postanowienia dotyczące zakresu usług, odpowiedzialności, a także – z asady dotyczące bezpieczeństwa danych. Ważne jest, aby umowa jasno definiowała, kto odpowiada za wspieranie systemu w przypadku wystąpienia problemów oraz jak będą rozwiązywane ewentualne konflikty.

Implementacja systemów AI wymaga również zawarcia klauzul dotyczących obowiązków wynikających z Rozporządzenia AI. Warto w umowach nawiązać do aspektów etycznych i zabezpieczeń związanych z przetwarzaniem danych, co pozwoli uniknąć potencjalnych problemów prawnych w przyszłości.

Kolejnym istotnym aspektem jest nawiązanie współpracy z producentami baz danych, które będą wspierały działanie systemów AI. Tego rodzaju umowy powinny również zawierać zapisy dotyczące ochrony danych oraz licencji, aby zapewnić, że dostęp do danych jest zgodny z przepisami prawa.

strzalka

Poznaj najbliższe szkolenia z zakresu podatków