Pracownik, który korzysta z ChatGPT do napisania oferty, zlecenia, maila do klienta czy ogłoszenia rekrutacyjnego, często działa z dobrą intencją – chce szybciej i lepiej wykonać swoje zadanie. Problem pojawia się wtedy, gdy firma nie kontroluje, co trafia do tych narzędzi i jaki jest rzeczywisty wpływ AI na działania biznesowe.
Dla zarządów małych firm to ważna chwila: AI to szansa, ale też nowe ryzyko. I – co istotne – nie da się go zignorować, nawet jeśli „oficjalnie” nie ma w firmie AI.
Przepisy związane z AI
Od sierpnia 2024 r. w Unii Europejskiej obowiązuje AI Act – pierwsze ogólnoeuropejskie rozporządzenie regulujące stosowanie sztucznej inteligencji. Wprowadza ono konkretne zakazy, obowiązki i standardy zgodności, które będą wdrażane stopniowo do 2027 r.
Szczególnie istotne daty to:
- 2 lutego 2025 r. – zakaz tzw. systemów AI „o nieakceptowalnym ryzyku” (np. manipulacja emocjami, scoring społeczny),
- sierpień 2025 r. – obowiązki dotyczące modeli ogólnego przeznaczenia (np. ChatGPT), kar oraz rejestru AI,
- sierpień 2026 r. – obowiązki dla systemów wysokiego ryzyka (np. AI w rekrutacji, decyzjach personalnych).
Dodatkowo, każde użycie AI musi być zgodne z RODO, zwłaszcza gdy systemy przetwarzają dane osobowe – kandydatów, klientów, pracowników.
Obowiązki firmy związane z AI
Nawet mała firma ma obowiązki wynikające z przepisów, jeśli korzysta (świadomie lub nie) z AI.
Do najważniejszych należą:
- Zidentyfikowanie użycia AI – np. narzędzia do pisania tekstów, filtrowania CV, automatyzacji zadań.
- Ocena ryzyka – klasyfikacja czy dane narzędzie jest niskiego, ograniczonego czy wysokiego ryzyka.
- Zapewnienie nadzoru człowieka – pracownik nie może bezrefleksyjnie kopiować wyników AI do klientów czy dokumentów formalnych.
- Szkolenie pracowników – tzw. AI literacy – czyli edukacja w zakresie odpowiedzialnego korzystania z AI.
- Dokumentacja – rejestr narzędzi AI, opis ich zastosowania, celu i danych wejściowych.
Te obowiązki nie są zarezerwowane dla korporacji. Dotyczą także małych firm, które wykorzystują AI choćby w podstawowym zakresie – np. do pisania tekstów marketingowych.
Jeśli firma „oficjalnie nie stosuje AI”, ale pracownicy korzystają np. z ChatGPT – jakie są ryzyka?
Brak oficjalnego wdrożenia AI nie chroni przed odpowiedzialnością. Jeśli pracownik wpisze do ChatGPT dane osobowe kandydatów czy klientów, lub wygeneruje dokument, który okaże się błędny albo dyskryminujący – odpowiedzialność ponosi firma.
Najważniejsze ryzyka:
- Naruszenie RODO – np. poprzez przetwarzanie danych w niezabezpieczonych narzędziach AI.
- Błędy w dokumentach – AI może wygenerować nieprawdziwe dane, które trafią do klienta lub urzędu.
- Brak transparentności – np. publikowanie ofert, które wyglądają jak napisane przez pracownika, a powstały w AI bez weryfikacji.
- Brak nadzoru ludzkiego – co jest wymagane przez AI Act.
W przypadku inspekcji lub incydentu, tłumaczenie: „nie wiedzieliśmy, że pracownicy korzystają z AI” nie wystarczy.
Jak outsourcing HR wspiera zarząd we wdrożeniu zasad używania narzędzi AI
Zarząd małej firmy często nie ma czasu ani zasobów, by samodzielnie przeprowadzić analizę użycia AI, stworzyć politykę, przeprowadzić szkolenie czy monitorować zgodność z przepisami. Tu z pomocą przychodzi outsourcing HR.
Dobrze przygotowany partner HR:
- przeprowadzi miniaudyt narzędzi AI w firmie,
- pomoże opracować prostą i dostosowaną do wielkości firmy politykę AI,
- przygotuje szkolenie dla pracowników i managerów z zasad bezpiecznego korzystania z AI,
- zapewni wsparcie w dokumentacji wymaganej przez prawo (np. do rejestru systemów AI),
- pomoże zintegrować zasady AI z istniejącym regulaminem pracy czy polityką bezpieczeństwa danych.
Dzięki temu Zarząd może skupić się na rozwoju firmy, mając pewność, że wykorzystanie AI nie narazi organizacji na sankcje ani reputacyjne wpadki.
Przykład prostego wdrożenia polityki AI
Wdrożenie zasad AI nie musi być skomplikowane. Wystarczy krótki dokument (np. 1-2 strony), który powinien zawierać m.in.:
- Dopuszczalne użycie AI – np. do tworzenia roboczych tekstów, pod warunkiem weryfikacji przez człowieka.
- Zakazy – np. brak zgody na wprowadzanie danych osobowych, danych poufnych do AI.
- Odpowiedzialność pracownika – każdy odpowiada za wynik wykorzystania AI.
- Zasady transparentności – wygenerowane treści muszą być oznaczane, jeśli są kierowane na zewnątrz.
- Zgłaszanie narzędzi AI – każde nowe narzędzie powinno być zgłoszone do odpowiedniej osoby w firmie.
- Obowiązek udziału w szkolenie – firma zapewnia krótkie szkolenie i informację o ryzykach.
Taką politykę można wdrożyć w tydzień – a jej brak może narazić firmę na kary finansowe, utrudnienia w rekrutacjach czy utratę zaufania klientów.
AI to ogromna szansa dla małych i średnich firm – jeśli korzystamy z niej świadomie i odpowiedzialnie. Nie trzeba być technologiczną firmą ani zatrudniać zespołu compliance, by działać zgodnie z przepisami.
Wystarczy:
- poznać ryzyka,
- stworzyć prostą politykę AI,
- przeszkolić pracowników,
- zadbać o nadzór nad wykorzystaniem tej technologii.
W tym procesie warto mieć partnera – np. zewnętrzny HR – który przejmie obowiązki i wesprze Zarząd w przygotowaniu firmy na przyszłość.
Ten artykuł został przygotowany przy pomocy ChatGPT do wyszukania informacji o przepisach dotyczących AI oraz przygotowania punktów wdrożenia polityki używania AI w firmie, wszystkie treści zostały zweryfikowane przez człowieka.
Autorka: ekspertka ds. HR w małych i średnich organizacjach. Buduje zdrowe i efektywne środowiska pracy. Wraz z zespołem konsultantów w Lu-Bi Outsourcing HR www.lu-bi.pl wspieramy właścicieli i zarządy w planowaniu i realizacji polityki zarządzania ludźmi. Układamy procesy HR do potrzeb MŚP