Czym jest unijne rozporządzenie AI (EU AI Act)?

Pierwsza regulacja AI z realnymi konsekwencjami. Opublikowana w lipcu 2024 r., stopniowo egzekwowana do 2027 r. — i dotyczy każdej firmy obsługującej klientów w UE, niezależnie od miejsca siedziby.

Co to konkretnie oznacza dla Twojej firmy.

Czy to dotyczy mojej firmy?

Jeśli korzystasz z AI i obsługujesz klientów w UE — tak. Ale „dotyczy" nie oznacza tego, co myślisz.

Większość MŚP mieści się w jednej z dwóch kategorii:

Obowiązki przejrzystości

Klienci wchodzą w interakcję z Twoją AI — chatboty, treści generowane przez AI, media syntetyczne. Musisz im powiedzieć, że to AI. To zadanie związane z ujawnieniem, nie projekt dokumentacyjny.

Ogólne korzystanie z AI

Narzędzia wewnętrzne, analityka, rekomendacje, które nie podejmują decyzji dotyczących ludzi. Od lutego 2025 r. obowiązuje jedna zasada: Twój zespół musi rozumieć, jakiej AI używa.

Cięższe wymagania — dokumentacja systemu, formalne oceny ryzyka, audyty stron trzecich — wchodzą w grę tylko wtedy, gdy Twoja AI podejmuje ważne decyzje dotyczące ludzi. Algorytmy rekrutacji, scoring kredytowy, diagnostyka medyczna. Większość MŚP tu nie należy.

Artykuł 6 i Załącznik III definiują „wysokie ryzyko". Jeśli wdrażasz (bez tworzenia) standardowe narzędzie wysokiego ryzyka, dostawca ponosi większość obowiązków — Ty utrzymujesz nadzór i stosujesz się do jego instrukcji (Artykuł 26).

Poziomy ryzyka

W mocy od 2 lutego 2025 r.

Praktyki zakazane

Scoring społeczny, rozpoznawanie twarzy w czasie rzeczywistym w przestrzeni publicznej, wnioskowanie o emocjach w pracy lub szkole. Manipulacja, wyzysk, masowa inwigilacja.

Nie buduj tych systemów. Z dużym prawdopodobieństwem tego nie robisz.

Kary do 35 mln € lub 7% globalnych przychodów. Dla MŚP obowiązuje niższy próg. Pełna lista w Artykule 5.
Egzekwowalne od 2 sierpnia 2026 r.

AI wysokiego ryzyka

AI decydująca o tym, kto zostanie zatrudniony, kto otrzyma pożyczkę, kto uzyska leczenie medyczne, kto ma dostęp do podstawowych usług. Kategoria, w której konsekwencje mają znaczenie.

Udokumentuj system, wdróż ludzki przegląd, prowadź rejestry decyzji, szkol swoich użytkowników.

Większość MŚP korzystających ze standardowych narzędzi HR lub fintech nie jest ich dostawcą — dostawca narzędzia ponosi większość obowiązków. Ty utrzymujesz nadzór i stosujesz się do jego instrukcji (Artykuł 26). Pełne przepisy dotyczące bezpieczeństwa produktów obowiązują do 2 sierpnia 2027 r.
Egzekwowalne od 2 sierpnia 2026 r.

Zasady przejrzystości

Chatboty, teksty generowane przez AI, obrazy, wideo, audio, deepfake, kategoryzacja biometryczna. Jeśli ludzie wchodzą w interakcję z Twoją AI lub konsumują to, co tworzy, muszą o tym wiedzieć.

Ujawniaj korzystanie z AI w rozmowach. Oznaczaj treści syntetyczne. Wyraźnie zaznaczaj deepfake.

Oznaczenie czytelne maszynowo wymagane dla obrazów i wideo generowanych przez AI. Treści w interesie publicznym zwolnione tylko przy redakcyjnym nadzorze ludzkim. Najczęstszy obowiązek dla MŚP.
W mocy od 2 lutego 2025 r.

Ogólne użycie

Narzędzia wewnętrzne, analityka, filtry antyspamowe, rekomendacje. AI działająca w tle bez decydowania o czymś losie kogokolwiek.

Sporządź listę narzędzi AI. Przeszkol zespół w zakresie ograniczeń. Gotowe.

Artykuł 4 — obowiązek kompetencji w zakresie AI. Dotyczy wszystkich podmiotów stosujących AI niezależnie od poziomu ryzyka. Brak rejestracji, brak dokumentacji poza wewnętrznym inwentarzem.

Kluczowe terminy

Data, która ma znaczenie dla większości firm: 2 sierpnia 2026 r.

2 lutego 2025 r.

Już obowiązuje

Praktyki zakazane objęte zakazem. Kompetencje w zakresie AI obowiązkowe dla wszystkich podmiotów stosujących.

2 sierpnia 2025 r.

Zasady dotyczące modeli AI ogólnego przeznaczenia obowiązują. Krajowe organy zarządzania operacyjne.

2 sierpnia 2026 r.

Obowiązki przejrzystości i wymagania wysokiego ryzyka egzekwowalne. To jest ten kluczowy termin.

2 sierpnia 2027 r.

AI wysokiego ryzyka w produktach regulowanych (wyroby medyczne, maszyny) w pełni egzekwowalna.

Co konkretnie muszę zrobić?

Chatboty i treści AI

Kilka godzin do weekendu

  • Tekst ujawnienia dla interakcji z AI
  • Etykiety czytelne maszynowo na syntetycznych obrazach, wideo, audio
  • Wewnętrzny rejestr używanych systemów AI

AI podejmująca decyzje dotyczące ludzi

2–4 tygodnie początkowo, potem ciągłe

  • Dokumentacja systemu (co, jak, jakie dane)
  • Ocena ryzyka (co może pójść nie tak, jak sobie z tym radzisz)
  • Proces ludzkiego nadzoru (kto przegląda, kiedy, jak)
  • Dokumentacja danych treningowych + rejestry decyzji (przechowywanie 6+ miesięcy)

Tylko narzędzia wewnętrzne

Kilka godzin

  • Inwentarz używanych narzędzi AI (tak, w tym ChatGPT)
  • Podstawowe szkolenie zespołu w zakresie ograniczeń AI

Większość MŚP radzi sobie z tym w weekend do kilku tygodni. Prawdziwa praca, ale nie wieloletni program.

Act-Ready zajmuje się tym wszystkim za Ciebie — zazwyczaj w mniej niż godzinę.

Podsumowanie

Rozporządzenie AI nie zniknie. 2 sierpnia 2026 r. się nie przesunie. Większość MŚP nie buduje AI wysokiego ryzyka — większość obowiązków to zasady przejrzystości, nie maratony dokumentacyjne.

Nie potrzebujesz doskonałej gotowości. Musisz pokazać, że traktujesz to poważnie.

Ta strona wspiera przygotowanie do regulacji. Nie stanowi porady prawnej.