Odpowiedzialność za działanie sztucznej inteligencji (AI)

Sztuczna inteligencja to nader złożone pojęcie, o dwóch aspektach znaczeniowych – technicznym – uczenia maszynowego oraz marketingowego. Próbę stworzenia definicji legalnej AI podjął komitet ds. prawnych dla Komisji Europejskiej. W ramach zakończenia prac, opublikowano rekomendację w dniu 4 maja 2020 r.

Komitet ds. Prawnych dla KE, przyjął definicję, w ramach której wyszczególnił poniższe pojęcia. Celem takiego zabiegu, była możliwość uwzględniania dalszego postępu technologicznego, w ramach szerokiej, dość ogólnikowej definicji:

  • System AI oznacza system, który wykazuje inteligentne zachowanie poprzez analizę pewnych danych wejściowych i podejmowanie działań, z pewną dozą autonomii, w celu osiągnięcia określonych celów. Systemy AI mogą być oparte wyłącznie na oprogramowaniu, działając w wirtualnym świecie, lub mogą być osadzone w urządzeniach sprzętowych.
  • Autonomiczny oznacza system AI, który działa poprzez postrzeganie określonych danych wejściowych i bez konieczności postępowania zgodnie z zestawem wcześniej ustalonych instrukcji, pomimo swojego zachowania będąc ograniczonym przez cel, który został wyznaczony, i inne istotne wybory projektowe dokonane przez dewelopera sztucznej inteligencji.
  • Wysokie ryzyko oznacza znaczny potencjał w autonomicznie działającym systemie AI do wyrządzenia krzywdy lub szkody jednej osobie lub większej liczbie osób w sposób losowy i niemożliwy do przewidzenia z góry; znaczny potencjał zależy od wzajemnego oddziaływania między skalą możliwej krzywdy lub szkody, prawdopodobieństwem, że ryzyko dojdzie do skutku i sposobem użycia systemu AI. 

Więcej o genezie pojęcia, przyczynie konieczności stworzenia definicji i wysokim ryzyku przeczytacie w dostępnym na naszej stronie artykule [tutaj hiperłącze do mojego poprzedniego]. Głównym celem stworzenia regulacji była konieczność dostosowania istniejących oraz stworzenia nowych regulacji, które w sposób klarowny odniosą się do odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję – celem tego zabiegu było spełnienie jednocześnie dwóch ról: 

  • gwarancji możliwości rekompensaty za poniesione szkody i krzywdy, 
  • czynnika motywacyjny przestrzegania zasad przez przedsiębiorców. 

Według pomysłodawców podziału odpowiedzialności na dwie – na zasadzie ryzyka i winy, tylko w przypadku niewielkiego odsetka systemów AI możemy mówić o realnym, rzeczywistym zagrożeniu – większość z systemów jest odpowiedzialna za wykonywanie nieinwazyjnych czynności, nieniosących zagrożenia. Celem unormowania kwestii odpowiedzialności za działanie AI była stabilność gospodarki – istnienie regulacji prawnej daje bowiem poczucie pewności w zakresie podejmowanych decyzji biznesowych przez przedsiębiorców. W rekomendacji przedstawiono podział systemów sztucznej inteligencji na:

  • system wysokiego ryzyka,
  • pozostałe systemy AI. 

Zakres przedmiotowy i podmiotowy pojęcia

Zakres przedmiotowy regulacji odnosi się wyłącznie do krzywd i szkód związanych ze zdrowiem i życiem ludzkim oraz własnością. W pozostałych dziedzinach obowiązujące regulacje są na tyle wystarczające, że pomysłodawca pozostawił je w obecnym brzmieniu, wynikającym każdorazowo z przepisów danej dziedziny. Zakres podmiotowy natomiast dotyczy jedynie tzw. osób wdrażających (deployer), natomiast zakres odpowiedzialności producentów, wytwórców (manufacturer), operatorów końcowych (backend operator) i programistów (developer) tworzących sztuczną inteligencję ma zostać uregulowany odrębnie w dyrektywie o produktach wadliwych. W związku z faktem, że to wdrażający ma bezpośredni kontakt z osobą poszkodowaną, powstała legalna definicja, która określa go mianem osoby, która decyduje o użyciu systemu AI, sprawując kontrolę nad powiązanym ryzykiem i czerpie korzyści z jego działania. W zrozumieli zastosowania definicji, pomocny jest motyw 9, wg którego „jeżeli użytkownik, a mianowicie osoba korzystająca z systemu AI, bierze udział w zdarzeniu szkodliwym, powinna ona ponosić odpowiedzialność na podstawie niniejszego rozporządzenia tylko wtedy, gdy użytkownik kwalifikuje się również jako wdrażający”. Zgodnie z tym, zwykły użytkownik co do zasady nie będzie ponosić odpowiedzialności za działanie AI, jednak poniosą ją producenci. 

Zasady odpowiedzialności 

W regulacji przyjęto dwa modele odpowiedzialności:

  • pierwszy oparty został na zasadzie ryzyka – dotyczy wdrażających systemy AI wysokiego ryzyka;
  • drugi oparto na zasadzie winy – dotyczy wdrażających pozostałe systemy AI.

Odpowiedzialność na zasadzie ryzyka

Pierwszy z nich odnosi się do systemów wysokiego ryzyka, wymienionych z załączniku do projektu rozporządzenia:

System AISektor krytyczny
Bezzałogowe statki powietrznetransport
Pojazdy autonomiczne o poziomach 4 i 5transport
Autonomiczne systemy zarządzania ruchemtransport
Roboty autonomicznewsparcie
Autonomiczne urządzenia do czyszczenia miejsc publicznychwsparcie

Rekomendacja zakłada obowiązek wdrażającego systemy AI posiadania ubezpieczenia OC w zakresie kwot wskazanych w art. 5: 10 mln euro w wypadku krzywdy w postaci śmierci i naruszenia stanu zdrowia oraz 2 mln euro w wypadku szkody dla przedmiotu własności. W doktrynie powstaje dylemat, kim jest podmiot wdrażający – przyjęło się że mimo, że z brzmienia definicji wdrażającego nie można ustalić, kim dokładnie jest ten podmiot, z obowiązku posiadania ubezpieczenia będą wyłączone podmioty korzystające z systemów AI wysokiego ryzyka, bowiem nie mają one wpływu na ich działanie. Jedyną przesłanką wyłączającą odpowiedzialność wdrażającego jest udowodnienie siły wyższej. Okresy przedawnienia wynoszą 30 lat od dnia wystąpienia szkody w wypadku śmierci lub naruszenia zdrowia oraz 10 lat od dnia wystąpienia szkody dla przedmiotu własności, z zastrzeżeniem alternatywnego terminu 30 lat od dnia uruchomienia systemu AI.

Odpowiedzialność na zasadzie winy

W zakresie tej odpowiedzialności mieszczą się pozostałe systemy AI – UE uznało, że w razie wyrządzenia szkody, nie będą one na tyle dotkliwe, aby ustanowić obowiązek posiadania ubezpieczeń od odpowiedzialności cywilnej. 

Propozycje dla tego rodzaju odpowiedzialności zakładają domniemanie winy, które może zostać obalone poprzez udowodnienie, że:

  • system AI został aktywowany bez wiedzy wdrażającego, a równocześnie podjęto wszystkie uzasadnione i niezbędne środki, aby uniknąć takiej aktywacji,
  • zachowano należytą staranność, wybierając odpowiedni system AI dla właściwego zadania i wymaganych umiejętności, system AI został uruchomiony prawidłowo, monitorowano aktywność AI i utrzymanie niezawodności działania poprzez regularne instalowanie wszystkich dostępnych aktualizacji.

Wdrażający, w razie chęci uniknięcia odpowiedzialności, może powołać się na działanie siły wyższej, którą musi uprzednio udowodnić. Wyłączony spod odpowiedzialności będzie również wdrażający, jeśli miała miejsce ingerencja osoby trzeciej.. W takiej sytuacji osoba ta będzie ponosić pełną odpowiedzialność za wyrządzone szkody lub krzywdy, z wyjątkiem sytuacji, w której nie można jej odnaleźć lub nie dysponuje ona wystarczającymi środkami na pokrycie powstałej szkody – wtedy odpowiedzialność ponosić będzie podmiot wdrażający. Celem takiej regulacji jest nadanie największego znaczenia ochronie pokrzywdzonego, nawet kosztem wdrażającego – w momencie kolizji interesu poszkodowanego i braku winy wdrażającego będzie on odpowiedzialny za ryzyko wywołane wdrożeniem systemu AI. W interesie producentów systemów AI jest zatem skrupulatne i dokładne implementowanie systemów oraz współpraca z wdrażającym.

Autorka: Weronika Panek

Źródła:

  1. Dyrektywa Rady z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących odpowiedzialności za produkty wadliwe.
  2. K. Wołk, Czy współczesna SI to tylko marketingowy bełkot? Cała prawda o sztucznej inteligencji, PC Lab, 4.08.2018, [online] https://pclab.pl/art78416-3.html (3.06.2020).
  3. Deployer means the person who decides on the use of the AI-system, exercises control over the associated risk and benefits from its operation.
  4. If a user, namely the person that utilises the AI-system, is involved in the harmful event, he or she should only be liable under this Regulation if the user also qualifies as a deployer.
  5. The AI-system was activated without his or her knowledge while all reasonable and necessary measures to avoid such activation were taken.
  6. due diligence was observed by selecting a suitable AI-system for the right task and skills, putting the AI-system duly into operation, monitoring the activities and maintaining the operational reliability by regularly installing all available updates.
- Advertisement -

Więcej artykułów

Zostaw odpowiedź

Please enter your comment!
Please enter your name here