Biuro Porad Prawnych
Oskar Zacharski

ul. Żwirki i Wigury 33/43
26-600 Radom

NIP: 7962987711

600 784 526

o.zacharski@bppz.pl

7 pytań, które musi zadać sobie firma korzystająca z AI

AI wchodzi do firm jak burza – chatboty na stronach, analiza CV w rekrutacji, rekomendacje produktów. Super! Ale co z danymi osobowymi? AI Act (od 2025) i RODO idą ręka w rękę: nowe regulacje klasyfikują AI na ryzyko niskie/wysokie/zakazane, a RODO wymaga podstaw prawnych, DPIA i privacy by design. Nie musisz być gigantem tech – wystarczy ChatGPT na stronie. Odpowiadamy na 7 kluczowych pytań, żebyś nie dostał kary od UODO.

1. Czy mój chatbot to „wysokie ryzyko” pod AI Act?

Chatbot na stronie pytający „w czym mogę pomóc?” to zazwyczaj niskie ryzyko – odpowiada na proste pytania, nie analizuje ani nie podejmuje decyzji. Ale jeśli Twój bot profiluje klientów (np. „kupisz ten produkt?”), analizuje rozmowy pod sprzedażą, nastroje czy dane wrażliwe – wskakuje na wysokie ryzyko i wymaga DPIA (Ocena Skutków dla Ochrony Danych).​

Jak sprawdzić ryzyko Twojego chatbota?

AI Act klasyfikuje systemy (obowiązuje od 2025):

  • Niskie ryzyko (większość chatbotów): proste FAQ, obsługa zapytań → tylko transparentność („ten bot używa AI”).
  • Wysokie ryzyko: HR screening (analiza CV), scoring kredytowy, biometria, systemy decyzyjne → DPIA + rejestr + testy.
  • Zakazane: scoring socjalny, manipulacja (np. deepfakes w reklamie).

Przykłady z życia:

  • Chatbot sprzedażowy analizujący historię zakupów → wysokie ryzyko (profilowanie).
  • Bot medyczny pytający o objawy → bardzo wysokie (dane zdrowotne = wrażliwe).
  • ChatGPT na stronie (OpenAI) → zgłoś jako procesor, sprawdź, czy dane idą do USA.

Co zrobić krok po kroku?

  • Sprawdź funkcje: Czy bot decyduje (np. „odrzucam kredyt”), profiluje czy przetwarza dane wrażliwe?
  • DPIA (jeśli wysokie ryzyko): ryzyka → środki (pseudonimizacja zapytań) → konsultacja IOD.
  • Umowa powierzenia z dostawcą (OpenAI, Tidio): art. 28 RODO + SCC dla USA.
  • Informacja dla użytkownika: „Chatbot przetwarza pytania do pomocy (art. 6.1f RODO)”.
  • Logi: Zachowaj 30 dni na wypadek incydentu.

Prawda: 90% chatbotów to niskie ryzyko, ale zawsze zgłoś dostawcę jako procesor. Zrób szybki test – niskie czy wysokie?

Zapraszamy do współpracy

Szczegółowe informacje o ofercie i warunkach współpracy można uzyskać telefonicznie lub wysyłając zapytanie za pomocą formularza kontaktowego.

2. Jaka podstawa prawna dla danych w AI?

Nie zgoda! Użyj umowy (art. 6.1b RODO) lub uzasadnionego interesu (art. 6.1f). Np. analiza zachowań klientów do personalizacji – interes firmy, z prawem sprzeciwu. Dokumentuj w RCP: „AI przetwarza dane do rekomendacji, podstawa art. 6.1f”.

3. Czy dane do trenowania AI muszą być zanonimizowane?

Dane używane do trenowania AI powinny być maksymalnie odpersonalizowane, tak aby nie dało się z nich rozpoznać konkretnej osoby. Jeśli jednak da się „cofnąć” ten proces (np. masz klucz, którym po numerze ID wracasz do nazwiska), to nie jest to anonimizacja, tylko pseudonimizacja – a wtedy RODO nadal obowiązuje.

Pseudonimizacja polega np. na zamianie imienia i nazwiska na identyfikator klienta, ale gdzieś w systemie wciąż istnieje tabela, która pozwala powiązać ten identyfikator z konkretną osobą. W takim scenariuszu trzeba mieć podstawę prawną, zadbać o prawa osób (sprzeciw, dostęp, usunięcie) i uwzględnić ten proces w rejestrze czynności.

Najbezpieczniej jest trenować modele na danych syntetycznych (sztucznie wygenerowanych) lub na danych zagregowanych (np. zbiory statystyczne, bez pojedynczych rekordów). Organy nadzorcze zwracają uwagę, że jeśli z kombinacji informacji (np. lokalizacja, czas, historia zachowań) AI w praktyce może „domyślić się”, o kogo chodzi, to nadal mamy do czynienia z danymi osobowymi i trzeba stosować zasady RODO.

4. DPIA – kiedy obowiązkowe przy AI?

DPIA to Ocena Skutków dla Ochrony Danych – obowiązkowy dokument, w którym opisujesz ryzyka dla danych osobowych w projekcie i pokazujesz, jak je zminimalizujesz. Przy AI nie zawsze trzeba, ale w wielu przypadkach koniec świata bez DPIA – UODO sprawdza pierwsze. Robi się go przed startem projektu, jak biznesplan dla danych.​

Kiedy DPIA jest obowiązkowe przy AI? Jedna prosta lista przypadków:

  • Profilowanie klientów – AI analizuje zakupy/nastroje, by polecać produkty lub dawać zniżki („Kupisz? Jesteś naszym VIP-em!”).
  • Rekrutacja automatyczna – bot ocenia CV, odrzuca kandydatów lub proponuje pensję na podstawie danych.
  • Dane wrażliwe – AI medyczne (objawy, diagnozy), HR (zdrowie, orientacja seksualna z social mediów).
  • Biometria – rozpoznawanie twarzy w kontroli dostępu, odciski palców w punktach sprzedaży.
  • Duża skala – AI przetwarza dane tysięcy osób (np. analiza ruchu na e-sklepie z ID użytkowników).
  • Wysokie ryzyko z AI Act – scoring kredytowy, systemy decyzyjne w służbie zdrowia, manipulacja zachowaniami.
  • Transfer poza EOG – dane do USA (OpenAI, Google) bez SCC lub zgody.

Jak zrobić DPIA? 4 proste kroki (szablon w 1h):

  • Opisz projekt: Co robi AI? Jakie dane bierze? (np. „Chatbot analizuje zapytania klientów”).
  • Zidentyfikuj ryzyka: Co się stanie przy wycieku? (profilowanie → dyskryminacja, wyciek → kradzież tożsamości).
  • Środki ochronne: Pseudonimizacja, szyfrowanie, minimalizacja danych, prawo sprzeciwu.
  • Konsultacja IOD: „OK?” → dokument gotowy, dołącz do RCP.

Szablon DPIA:

RyzykoPrawdopodobieństwoŚrodkiPozostałe ryzyko
Wyciek zapytańŚrednieSzyfrowanie + DPANiskie

5. Co z danymi poza EOG (USA, Indie)?

AI dostawcy jak Google/OpenAI trzymają dane w USA. Potrzebujesz standardowych klauzul umownych (SCC) lub adequacy decision. Umowa powierzenia + zapis: „Dane nie do trenowania modeli bez zgody”.

firma korzystająca z AI

6. Jak dokumentować proces trenowania modeli?

W rejestrze przetwarzania danych (RCP) po prostu dodaj opis, np.: „Model AI 'Rekomendacje’ trenowany na zanonimizowanych danych zakupowych klientów, data: 15.10.2025, podstawa prawna: uzasadniony interes”. Zapisz też decyzje: dlaczego wybrałeś akurat te dane i jak zmniejszyłeś ryzyka (np. usunąłeś imiona, użyłeś syntetycznych rekordów).

Jeśli AI Act uzna Twój model za wysokie ryzyko, dołącz dodatkowo rejestr systemu i wyniki testów (czy działa poprawnie, bez błędów). Wszystko przejrzyste i gotowe do sprawdzenia.

7. Co jeśli AI popełni błąd z danymi?

Wyobraź sobie chatbot na stronie odpowiada klientowi, ale przez błąd w konfiguracji podaje dane innej osoby. Albo AI w rekrutacji źle oceni CV i odrzuci kandydata z powodu błędu w profilowaniu. To nie science-fiction – to incydent z danymi osobowymi, traktowany jak każdy wyciek czy naruszenie. Musisz zareagować w 72 godziny: zgłoś do UODO (jeśli wysokie ryzyko dla praw osób), poinformuj poszkodowanych i udokumentuj w rejestrze incydentów.​

W praktyce wygląda to tak: najpierw zatrzymaj proces (wyłącz AI, zmień konfigurację), potem sprawdź skalę – ile osób dotkniętych? Jakie dane? (np. imiona, adresy, historia zakupów). Jeśli ryzyko wysokie (np. dyskryminacja w HR, wyciek wrażliwych danych), pisz do UODO z opisem: co się stało, dlaczego, co robisz. Klienci? List/mail z przeprosinami i instrukcją (np. „usuń dane z bazy”). Przechowuj logi 6 miesięcy na wypadek kontroli.

Przykład z życia: Meta w 2025 dostała 91 mln euro kary za błędne profilowanie w reklamach – AI „pomyliło” dane użytkowników, co UODO uznał za naruszenie art. 5 RODO (dokładność danych).

Jak się przygotować? Testuj od startu:

Testuj od początku: Uruchom symulacje – np. „co jeśli AI wyśle dane Kowalskiemu zamiast Nowaka?”. Sprawdź, czy system reaguje poprawnie.
W umowie z dostawcą (OpenAI, Google): Zapisz jasno – biorą odpowiedzialność za błędy, dają logi przez 30 dni i natychmiast Cię powiadamiają o problemie.

Twój playbook (prosty, 3 kroki):

  • Wyłącz AI – natychmiast zatrzymaj problematyczną funkcję.
  • Sprawdź bazę – zobacz, ile osób dotkniętych, jakie dane.
  • Zgłoś UODO online (mają na to 72 godziny formularz).

Prawda: Błędy AI zdarzają się każdemu, ale z gotowym planem reagujesz błyskawicznie. Raz w roku zrób próbny test – dużo lepiej niż niespodziewany telefon z UODO.