Koszyk

Sztuczna inteligencja coraz częściej towarzyszy nam na co dzień. Wspiera działanie urządzeń medycznych, pojazdów mechanicznych czy urządzeń wykorzystywanych w przemyśle. Jej wykorzystanie wydaje się naturalną konsekwencją rozwoju technologii i sięgania po nowoczesne osiągnięcia informatyki. Co jednak w sytuacji, kiedy działanie sztucznej inteligencji doprowadzi do powstania szkody? Kto odpowiada za szkody wyrządzone przez AI?

Jakie oprogramowanie AI jest regulowane przez prawo?

Komisja Europejska wyodrębnia kilka klas AI, przy czym kryterium podziału jest tutaj potencjalne ryzyko, jakie oprogramowanie niesie ze sobą dla użytkowników. Wyróżnia się:

  • Limited to No Risk AI;
  • High Risk AI;
  • Unacceptable Risk AI.

Nowe regulacje w zakresie sztucznej inteligencji, tj. rozporządzenie AI Act czy dyrektywa AILD, dotyczą w przeważającej mierze dwóch ostatnich grup, przy czym projektowanie oprogramowania, dla którego generowane ryzyko jest niedopuszczalne, pozostaje zabronione. Sztuczną inteligencję wysokiego ryzyka zaś można tworzyć pod warunkiem, że twórcy spełnią cały szereg wymagań.

Pierwszym testem przy tworzeniu AI jest więc to, czy nie kwalifikuje się ono do ostatniej, najbardziej newralgicznej grupy. Zakazane praktyki w zakresie projektowania dotyczą m.in. stosowania technik podprogowych lub wykorzystywania słabości określonej grupy społecznej albo bazowanie na algorytmach w celu oceny lub klasyfikacji wiarygodności osób fizycznych.

Na drugim biegunie leży Limited to No risk AI, z którego korzystanie praktycznie nie rodzi żadnego ryzyka, więc musi ono spełnić wyłącznie wymagania ogólne dotyczące np. świadczenia usług drogą elektroniczną czy ochrony konsumentów.

Sprawdź również: Szkody wyrządzone przez sztuczną inteligencję – kto ponosi za nie odpowiedzialność?

Najwięcej uwagi unijny ustawodawca poświęcił sztucznej inteligencji wysokiego ryzyka. Uznaje się za nią algorytmy operujące w obszarach, gdzie występuje prawodawstwo zharmonizowane albo działające w zakresie wskazanym w załączniku III do AI Act, jak np. identyfikacja i kategoryzacja biometryczna osób fizycznych czy zarządzanie infrastrukturą krytyczną. Rozporządzenie dopuszcza także możliwość zakwalifikowania jako High Risk AI również innego oprogramowania, niewskazanego wprost w treści aktu prawnego.

Zamów wzory umów IT!

  • Promocja!

    Pakiet wzorów umów dla software house’u/firmy IT [PL/EN]

    1199,00 1999,00  (z VAT)

    Ostatnia najniższa cena przed zastosowaniem obniżki ceny: 1199,00 .

Jakie wymagania nakłada na twórców sztucznej inteligencji AI Act?

Przy ocenie warunków zgodności warto skupić się przede wszystkim na High Risk AI, ponieważ to jej znaczenie w największym stopniu będzie wpływało na sytuację odbiorców, np. w sektorze medycznym, zarządzania zasobami ludzkimi czy dostępie do świadczeń publicznych. Przyjrzyjmy się poszczególnym wymaganiom stawianym przez przepisy unijne nowoczesnym rozwiązaniom.

Zarządzanie ryzykiem

System sztucznej inteligencji wysokiego ryzyka musi być powiązany z procesami pozwalającymi na ciągłą ocenę ryzyka i zarządzanie nim. Należy dążyć do tego, aby ryzyko dało się wyeliminować całkowicie, a przynajmniej zminimalizować i kontrolować. Konieczne jest też wdrożenie procedur testowych z wykorzystaniem danych adekwatnych do celów dla jakich jest projektowane oprogramowanie.

Zarządzanie danymi

Aby sztuczna inteligencja mogła generować rezultat w odpowiedzi na zapytanie, niezbędne jest zapewnienie jej dostępu do danych treningowych, walidacyjnych i testowych zarządzanych zgodnie z kodeksem dobrych praktyk. Obejmują one przede wszystkim:

  • decyzje projektowe;
  • gromadzenie danych;
  • przetwarzanie danych;
  • określanie wad lub braków;
  • badań pod kątem tendencyjności.

Ustawodawca wymaga, aby wszystkie wykorzystywane zbiory danych były adekwatne, reprezentatywne, wolne od błędów i kompletne.

Zaprojektowanie dokumentacji technicznej

Dla sztucznej inteligencji wysokiego ryzyka należy sporządzić dokumentację techniczną według szablonu określonego w załączniku do rozporządzenia. Powinna być ona cyklicznie aktualizowana w miarę rozwoju cyfrowego produktu.

Transparentność i rejestrowanie zdarzeń

Ważne jest również stworzenie mechanizmów, które pozwolą na rejestrowanie zdarzeń i wprowadzanych zmian w oprogramowaniu, okresu korzystania z systemu czy danych, jakie zostały wykorzystane w celu wygenerowania rezultatu.

Wszystkie dane wyjściowe powinny być podane użytkownikowi tak, aby nawet osoba nieposiadająca wiedzy lub doświadczenia w zakresie korzystania z AI była w stanie wydedukować, dlaczego rezultat jest taki, a nie inny. Transparentność obejmuje również dane dostawcy, cechy, możliwości i ograniczenia sztucznej inteligencji.

Zapewnienie nadzoru nad sztuczną inteligencją

Interfejs człowiek-maszyna musi uwzględniać możliwość kontrolowania algorytmu tak, aby to zawsze operator podejmował ostateczną decyzję o działaniach, które mogą wpłynąć na zdrowie, bezpieczeństwo lub prawa podstawowe. Mechanizmy nadzoru powinny umożliwić jak najszybsze rozpoznanie nieprawidłowości, anomalii i ich usunięcie, a także rozpoznanie automation bias, czyli sytuacji, w której operator w nadmiernym stopniu polegałby na rezultacie sztucznej inteligencji.

Wymagania względem dokładności i cyberbezpieczeństwa

Systemy sztucznej inteligencji wysokiego ryzyka powinny gwarantować odpowiednio wysoki poziom dokładności, solidności i bezpieczeństwa cyfrowego i te poziomy należy wskazać w załączonej instrukcji. Producent powinien uwzględnić w nich odporność na błędy i niespójności będące wynikiem interakcji z innymi systemami lub osobami fizycznymi. Ważne jest zaimplementowanie mechanizmów pozwalających na przejście maszyny w stan bezpieczny oraz ograniczających ryzyko nauki na zafałszowanych wynikach.

Zgodnie z przepisami przed oddaniem High-Risk AI do użytku twórca powinien uzyskać odpowiednią certyfikację w tym zakresie, dlatego o spełnienie wszystkich wymagań należy zadbać z wyprzedzeniem.

Pamiętaj, że AI Act to nie jedyny akt prawny, którego trzeba przestrzegać tworząc sztuczną inteligencję. Tworząc oprogramowanie dla konsumentów pamiętaj o chroniących i normach, a także doktrynie privacy by default. Przy generatywnej AI występuje też ryzyko naruszenia praw autorskich. Nie zapominaj o konieczności regularnego testowania oraz usprawnianiu poszczególnych elementów oprogramowania.

Kancelaria Linke Kulicki – zaprojektuj AI zgodne z prawem

Jeśli zajmujesz się projektowaniem systemów sztucznej inteligencji i chcesz mieć pewność, że produkt cyfrowy spełnia wymagania formalne, możemy Ci pomóc. Nasi specjaliści przeprowadzą audyt zgodności nie tylko w zakresie AI Act, ale również rozporządzenia RODO czy prawa autorskiego. Zaprojektujemy niezbędną dokumentację i pomożemy na etapie ubiegania się o certyfikację. Zespół Kancelarii Linke Kulicki (https://linkekulicki.pl) specjalizuje się w obsłudze podmiotów z obszaru new-tech. Od lat łączymy doskonałą znajomość przepisów prawa z głębokim zrozumieniem nowoczesnych technologii.

Potrzebujesz wsparcia prawnika AI? Napisz do mnie!



    Administratorem danych osobowych jest Linke Kulicki Education sp. z o.o. z siedzibą w Warszawie, ul. Ogrodowa 31 / lok. 54, 00-893 Warszawa, NIP 1182211564, KRS 0000852943 („Administrator”). Pana/Pani dane będą przetwarzane w celach marketingowych oraz w celu przekazywania Pani/Panu informacji handlowych drogą elektroniczną. Pana/Pani dane zostaną usunięte po odwołaniu zgody lub po zakończeniu prowadzenia działań marketingowych lub wysyłki informacji handlowych przez Administratora. Pana/Pani dane będą powierzane podmiotom trzecim na podstawie stosownych umów powierzenia przetwarzania danych osobowych w celu przechowywania danych osobowych na serwerze, skrzynce pocztowej oraz korzystania z usług wsparcia IT. Podstawą przetwarzania danych jest zgoda. W związku z przetwarzaniem danych osobowych ma Pan/Pani prawo do dostępu do swoich danych, sprostowania danych osobowych, usunięcia danych osobowych, wniesienia sprzeciwu, przenoszenia danych, ograniczenia przetwarzania, odwołania zgody, dostępu do informacji jakie dane Administrator przetwarza, złożenia skargi do Prezesa Urzędu Ochrony Danych Osobowych. Przedmiotowe uprawnienia można zrealizować poprzez kontakt z Administratorem na adres e-mail: biuro@linkekulicki.pl. Pani/Pana dane będą przekazywane poza UE oraz nie będą wykorzystywane do zautomatyzowanego podejmowania decyzji ani profilowania. Administrator potrzebuje Pana/Pani Danych Osobowych aby zrealizować wskazany cel przetwarzania, podanie danych osobowych jest dobrowolne jednak w przeciwnym wypadku podane cele nie będą mogły być zrealizowane.

    Łukasz Kulicki

    Autor: Łukasz Kulicki

    Radca prawny, Partner w Kancelarii Linke Kulicki specjalizującej się w obsłudze prawnej firm z sektora IT, nowych technologii i branży internetowej, a także podmiotów przechodzących transformację cyfrową. Specjalizuje się w negocjowaniu umów IT, w szczególności umów wdrożeniowych, umów na usługi IT (w tym chmurowych) i umów body leasingowych. Zajmuje się także doradztwem prawnym z zakresu ochrony danych osobowych (RODO), prawa e-commerce i własności intelektualnej.

    0
      0
      Koszyk
      Twój koszyk jest pustyWróć do sklepu