Pod koniec ubiegłego roku, 56 proc. firm korzystało ze sztucznej inteligencji (AI), wynika z badania przeprowadzonego przez McKinsey (1). To o 6 punktów procentowych więcej niż rok wcześniej. Najczęściej AI angażowana jest do optymalizacji działań serwisowych (27 proc.), udoskonalenia produktów (22 proc.), automatyzacji contact center (22 proc.), optymalizacji produktów (20 proc.) oraz zapobiegania awariom i ułatwiania interwencji (18 proc.).
Na dalszych miejscach wskazano także działania z obszaru wsparcia sprzedaży i marketingu oraz zarządzania ryzykiem. Jak widać, sztuczna inteligencja wspomaga firmy w różnych czynnościach, choć na czoło wysuwają się procesy związane z bezpieczeństwem fizycznym, zabezpieczeniem mienia.
Dlatego ubezpieczyciele, którzy sami także korzystają z AI w swoich działaniach, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii. W końcu współczesne samochody mają wiele funkcji autonomicznych. Systemy monitorujące wilgotność, przepływ wody, czy też temperaturę w budynkach to także elementy naszej codzienności. Ponadto, sami ubezpieczyciele coraz częściej oferują klientom wsparcie w postaci systemów monitorujących i predykcyjnych, pozwalających zminimalizować ryzyko awarii.
Kto jest odpowiedzialny za sztuczną inteligencję?
Mimo że funkcjonują już na rynku umowy ubezpieczenia, uwzględniające udział AI w minimalizacji ryzyka, to istnieje jeszcze sporo wątpliwości co do odpowiedzialności za ewentualne szkody – za działanie bądź niezadziałanie konkretnych urządzeń. Czy odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca?
Obowiązuje co prawda reżim odpowiedzialności producenta za produkt, ale co w sytuacji, w której samo urządzenie działa poprawnie. A może brak informacji zwrotnej wynikał z błędów strony trzeciej, np. ubezpieczyciela, który je udostępnił ubezpieczonemu?
Co więcej, samo urządzenie bazujące na AI może być elementem wprowadzającym dodatkowe ryzyko cybernetyczne, więc awaria i szkody materialne mogą być też wynikiem ataku hakerskiego. To tylko część pytań, które na razie pozostają bez jasnej odpowiedzi, więc każdy przypadek rozpatrywany jest indywidualnie.
Dylematy nie tylko techniczne
Oprócz kwestii technicznych musimy też zmierzyć się z problemami etycznymi. Najlepszym przykładem są pojazdy autonomiczne. Jak ma być oceniane ryzyko i co powinien zrobić pojazd w razie zagrożenia? Czy powinien chronić przede wszystkim pasażerów i „samego siebie”? Czy AI powinna również ocenić potencjalne szkody w otoczeniu?
Przykładowo, co jeśli pojedynczy pieszy wyjdzie na jezdnię tuż przed pojazdem, którym podróżuje kilka osób? W przypadku zdarzeń przemysłowych z kolei, czy ważniejsze jest bezpieczeństwo i zdrowie pracowników, czy minimalizacja rozmiaru szkód w linii produkcyjnej? To trudne kwestie i nie zazdroszczę dylematów, przed którymi staną prawodawcy i twórcy oprogramowania.
Obowiązkowe OC dla sztucznej inteligencji
Nowe rodzaje ubezpieczeń wydają się więc koniecznością. Już jakiś czas temu UE postanowiła skodyfikować problem za pomocą Artificial Inteligence Act, który m.in. dokonuje m.in. podziału systemów. Kryterium jest stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne.
Wyróżniono więc systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne, systemy wyborcze. Co więcej, w 2020 r. przyjęto rezolucję Parlamentu Europejskiego dotyczącego reżimu odpowiedzialności (2020/2014(INL)) (2021/C 404/05).
W odniesieniu do systemów wysokiego ryzyka zaprojektowano nawet obowiązkowe ubezpieczenie odpowiedzialności użytkowników końcowych (operatorów) lub producentów, w zakresie, w jakim odpowiedzialność nie mieściłaby się, lub wykraczała, poza regulacje dotyczące odpowiedzialności za produkt. Ustalono też, na wzór regulacji dotyczących OC samochodowego, sugerowane sumy gwarancyjne tych ubezpieczeń. Są to kwoty w wysokości 2 mln euro na zdarzenie w przypadku szkód na osobie oraz 1 mln euro w przypadku szkód rzeczowych.
Wydaje się, że zaproponowane rozwiązanie jest dobre, jednak nadal nie mamy konkretnych propozycji. Jedną z barier jest przyjęcie jednolitych definicji. Sądzę jednak, że już w niedalekiej przyszłości pojawią się już pierwsze „standardowe” polisy. Na razie ubezpieczenia uwzględniające lub chroniące AI to produkty szyte na miarę. Patrząc jednak na rozwój technologii i jej roli w naszym życiu, to musi się szybko zmienić.
Autor: radca prawny, Z-ca Dyrektora Oddziału Kraków EIB SA