Sztuczna inteligencja coraz częściej towarzyszy nam na co dzień. Wspiera działanie urządzeń medycznych, pojazdów mechanicznych czy urządzeń wykorzystywanych w przemyśle. Jej wykorzystanie wydaje się naturalną konsekwencją rozwoju technologii i sięgania po nowoczesne osiągnięcia informatyki. Co jednak w sytuacji, kiedy działanie sztucznej inteligencji doprowadzi do powstania szkody? Kto odpowiada za szkody wyrządzone przez AI?
Czy sztuczna inteligencja posiada osobowość prawną?
Kwestie związane z odpowiedzialnością AI przez lata budziły wiele wątpliwości i dopiero stosunkowo niedawno Parlament Europejski zdecydował się na zajęcie się tą kwestią oraz zaproponowanie zharmonizowanych rozwiązań. Zostały one ujęte w dyrektywie Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (tzw. dyrektywa AILD). Ten akt prawny niejako uzupełnia rozporządzenie AI Act, ponieważ w wielu miejscach się do niego odwołuje.
Już na wstępie warto jednak zaznaczyć, że nie zdecydowano się na przypisanie sztucznej inteligencji osobowości prawnej. Oznacza to, że nie występuje ona jako odrębny podmiot w obrocie gospodarczym. Niemniej jednak łatwo wyobrazić sobie sytuację, kiedy korzystanie z niej prowadzi do powstania szkody po stronie użytkownika.
Przez pojęcie sztucznej inteligencji należy rozumieć system, który ma postać oprogramowania lub został wbudowany w urządzenie, jeżeli jego działanie symuluje funkcjonowanie inteligencji poprzez gromadzenie i przetwarzanie danych oraz wyciąganie wniosków dotyczących otoczenia oraz działa częściowo autonomicznie.
Zamów wzory umów IT!
-
Promocja!
Pakiet wzorów umów dla software house’u/firmy IT [PL/EN]
1199,00 zł – 1999,00 zł (z VAT)Ostatnia najniższa cena przed zastosowaniem obniżki ceny: 1199,00 zł.
Kto ponosi odpowiedzialność za szkody wyrządzone przez sztuczną inteligencję?
Za szkody wyrządzone przez AI odpowiedzialność ponosi osoba fizyczna lub prawna, która ma wpływ na jej funkcjonowanie. Rozporządzenie posługuje się w tym kontekście pojęciem operatora, który może występować jako:
- operator front-end;
- operator back-end.
Poprzez operatora front-end należy rozumieć podmiot, który kontroluje ryzyko związane z działaniem systemu AI oraz czerpie z niego korzyść. Z kolei operator back-end to podmiot, który dostarcza dane, support oraz technologię niezbędną, aby dane rozwiązanie działało.
Wyobraźmy sobie robota medycznego, który popełnił błąd podczas operacji, doprowadzając tym samym do poważnej szkody na osobie pacjenta. Operatorem front-end będzie w takiej sytuacji zwykle placówka medyczna, która posługuje się danym urządzeniem, operatorem back-endowym zaś producent technologii AI.
Kontrola sztucznej inteligencji powinna być rozumiana szeroko, jako dostarczanie danych wejściowych oraz wyjściowych, przetworzenie wyników czy konfigurację urządzenia.
Sprawdź również: Jak tworzyć narzędzia oparte o sztuczną inteligencję zgodnie z prawem?
Zakres odpowiedzialności za szkody wyrządzone przez AI
Przepisy unijne przewidują odpowiedzialność za działanie sztucznej inteligencji w sytuacji, kiedy prowadzi ona do naruszenia życia, zdrowia lub integralności fizycznej osoby fizycznej albo wywrze ona negatywny wpływ na sytuację ekonomiczną poszkodowanego. Oczywiście istnieje możliwość wysuwania roszczeń odszkodowawczych uzupełniających.
W jaki sposób dyrektywa AILD ułatwia dochodzenie roszczeń przed sądem?
Unijna dyrektywa AILD przewiduje cały szereg ułatwień natury procesowej odnoszących się do szkód wyrządzonych przez AI wysokiego ryzyka. Pod tym pojęciem rozporządzenie AI Act rozumie systemy:
- związanych z bezpieczeństwem produktów objętych prawodawstwem harmonizacyjnym UE;
- wymienionych wprost w załączniku nr III do rozporządzenia AI Act.
Dodatkowo rozporządzenie przewiduje możliwość rozszerzenia pojęcia High-Risk AI na inne systemy, nie ujęte wprost w AI Act.
Główne ułatwienie natury procesowej polega na tym, że pozwany może żądać od pozwanego dostarczenia informacji na temat prawidłowości działania systemu sztucznej inteligencji. Jeżeli pozwany nie uczyni tego w ustalonym przez sąd terminie uznaje się, że nie dochował należytej staranności w zakresie projektowania AI. Z ostrożności procesowej powód może wnioskować również o zabezpieczenie dowodów. Oczywiście nie chodzi o ujawnienie wszystkich informacji na temat AI, w końcu wiele spośród nich jest objęte tajemnicą przedsiębiorstwa. Pozwany musi jednak dostarczyć informacji niezbędnych i proporcjonalnych do tego, aby dało się ocenić zasadność roszczenia.
Dodatkowo trzeba wspomnieć, że dyrektywa przewiduje w określonych sytuacjach domniemanie odpowiedzialności pozwanego za wyrządzoną szkodę. W tym celu muszą zostać spełnione następujące przesłanki:
- powód wykazał winę pozwanego lub też osoby za którą ponosi on odpowiedzialność, a także fakt, że szkoda powstała w związku z działaniem lub niedziałaniem AI;
- okoliczności sprawy wskazują, że wina pozwanego wpłynęła na wynik AI, który jest przyczyną szkody.
Oczywiście powód nie musi wykazywać winy pozwanego w klasycznym rozumieniu tego sformułowania. Byłoby to zresztą w zasadzie niemożliwe, ponieważ pokrzywdzonym często będzie konsument, który nie dysponuje wiedzą na temat działania algorytmów sztucznej inteligencji. Dostrzegł to również unijny ustawodawca, który wymaga, aby powód jedynie wykazał m.in. brak transparentności AI, zaprojektowanie AI tak, że nie jest możliwe sprawowanie nad nią nadzoru czy też niespełnienie przez pozwanego innych wymagań zasadniczych względem algorytmu, np. w zakresie bezpieczeństwa czy niezawodności.
W zasadzie można więc powiedzieć, że to pozwany będzie wykazywał, że nie ponosi odpowiedzialności za powstałą szkodę. W wielu przypadkach jego odpowiedzialność będzie kształtowała się na zasadzie ryzyka.
Kancelaria Linke Kulicki – procesy z tytułu odpowiedzialności za szkodę wyrządzoną przez AI
Obecnie przepisy kształtujące odpowiedzialność za szkodę wyrządzoną przez sztuczną inteligencję nadal nie weszły w życie. Obowiązuje jedynie AI Act i to nie w całości, dlatego na zmaterializowanie się koncepcji unijnego ustawodawcy trzeba jeszcze zaczekać. Niemniej jednak na etapie projektowania narzędzi wykorzystujących nowoczesne technologie trzeba brać pod uwagę postanowienia zarówno rozporządzenia AI Act, jak i dyrektywy AILD i budować narzędzia sztucznej inteligencji tak, aby czyniły zadość koncepcji explainable AI.
Kancelaria Linke Kulicki świadczy kompleksowe wsparcie prawne w zakresie nowoczesnych technologii. Nasi specjaliści pomogą zaprojektować niezbędną dokumentację techniczną zgodną z wymaganiami formalnymi. Wspieramy także naszych klientów w razie sporów związanych ze szkodami wyrządzonymi przez AI.
Potrzebujesz wsparcia prawnika AI? Napisz do mnie!
Administratorem danych osobowych jest Linke Kulicki Education sp. z o.o. z siedzibą w Warszawie, ul. Ogrodowa 31 / lok. 54, 00-893 Warszawa, NIP 1182211564, KRS 0000852943 („Administrator”). Pana/Pani dane będą przetwarzane w celach marketingowych oraz w celu przekazywania Pani/Panu informacji handlowych drogą elektroniczną. Pana/Pani dane zostaną usunięte po odwołaniu zgody lub po zakończeniu prowadzenia działań marketingowych lub wysyłki informacji handlowych przez Administratora. Pana/Pani dane będą powierzane podmiotom trzecim na podstawie stosownych umów powierzenia przetwarzania danych osobowych w celu przechowywania danych osobowych na serwerze, skrzynce pocztowej oraz korzystania z usług wsparcia IT. Podstawą przetwarzania danych jest zgoda. W związku z przetwarzaniem danych osobowych ma Pan/Pani prawo do dostępu do swoich danych, sprostowania danych osobowych, usunięcia danych osobowych, wniesienia sprzeciwu, przenoszenia danych, ograniczenia przetwarzania, odwołania zgody, dostępu do informacji jakie dane Administrator przetwarza, złożenia skargi do Prezesa Urzędu Ochrony Danych Osobowych. Przedmiotowe uprawnienia można zrealizować poprzez kontakt z Administratorem na adres e-mail: biuro@linkekulicki.pl. Pani/Pana dane będą przekazywane poza UE oraz nie będą wykorzystywane do zautomatyzowanego podejmowania decyzji ani profilowania. Administrator potrzebuje Pana/Pani Danych Osobowych aby zrealizować wskazany cel przetwarzania, podanie danych osobowych jest dobrowolne jednak w przeciwnym wypadku podane cele nie będą mogły być zrealizowane.