← Wróć do bloga

Luka w Standardach — Co Zrobić, Gdy Połowa Regulaminu Nie Istnieje

5 min czytania

Nie możesz przestrzegać zasad, które jeszcze nie istnieją. I to jest w porządku.

Oto sytuacja: Rozporządzenie AI UE przeszło. Terminy są ustalone. Ale tylko 15 z 45 standardów technicznych jest opublikowanych. Prawie połowa nie będzie gotowa, gdy obowiązki AI wysokiego ryzyka wejdą w życie w sierpniu 2026.

To brzmi przerażająco. To w rzeczywistości wyzwalające.

Ponieważ nie jesteś zablokowany. Jesteś po prostu uwolniony od iluzji, że ktoś ma wszystkie odpowiedzi. Nikt ich nie ma. Nie konsultanci, nie Twoja konkurencja, nawet nie regulatorzy, którzy to napisali.

Więc co faktycznie robisz? Skupiasz się na tym, co jest gotowe. Dokumentujesz to, co robisz. I nie płacisz nikomu, kto obiecuje pewność, która nie istnieje.

Problem Osi Czasu Standardów

Rozporządzenie AI ustala obowiązki. Standardy techniczne mówią Ci, jak je spełnić.

Ale proces standaryzacji jest powolny. CEN-CENELEC (organ standaryzacyjny) pracuje nad 45 standardami. Na luty 2026 opublikowano tylko 15. Niektóre nie pojawią się do 2027 lub później.

Pułapka-22: Twoje obowiązki AI wysokiego ryzyka zaczynają się w sierpniu 2026, niezależnie od tego, czy standardy są gotowe, czy nie.

To czuje się jak powiedzenie, aby zdawać test przed nadejściem podręcznika. I w pewnym sensie właśnie to się dzieje.

Co Jest Gotowe vs. Co Brakuje

Oto obecny stan rzeczy:

Opublikowane i użyteczne teraz:

  • Ramy zarządzania ryzykiem (zaadaptowane standardy ISO/IEC)
  • Podstawy zarządzania danymi (jakość, reprezentatywność, kontrole błędów systematycznych)
  • Szablony ujawniania przejrzystości (co powiedzieć użytkownikom)
  • Wymogi nadzoru ludzkiego (kiedy ludzie muszą pozostać w pętli)
  • Struktury prowadzenia dokumentacji (jakie logi prowadzić)
  • Podstawowe środki cyberbezpieczeństwa

Wciąż w projekcie lub brakujące:

  • Szczegółowe procedury oceny zgodności dla nowatorskich systemów wysokiego ryzyka
  • Szczegółowe metodologie pomiaru dokładności dla niektórych przypadków użycia
  • Formaty wymiany informacji dostawca-podmiot stosujący
  • Standardy raportowania monitorowania po wprowadzeniu do obrotu
  • Niektóre specyfikacje techniczne specyficzne dla sektora

Wzorzec: ogólne standardy procesowe są gotowe. Hiper-szczegółowe specyfikacje techniczne nie są.

Co Możesz Zacząć W Poniedziałek Rano

Nie czekaj. Oto co możesz zrobić teraz, bez żadnej zależności od brakujących standardów:

1. Zbuduj swój inwentarz systemów AI

Wypisz każde narzędzie AI, które budujesz lub wdrażasz. Uwzględnij narzędzia SaaS, które używają AI pod maską. Musisz wiedzieć, z czym masz do czynienia, zanim będziesz mógł to sklasyfikować.

2. Przeprowadź klasyfikację ryzyka

Czy ta AI podejmuje ważne decyzje o ludziach? Zatrudnianie, zwalnianie, zdolność kredytowa, dostęp do usług? To prawdopodobnie wysokie ryzyko. Wszystko inne to prawdopodobnie tylko przejrzystość.

Większość MŚP ląduje na terytorium przejrzystości. To dobra wiadomość — wymogi są jaśniejsze.

3. Wdróż ujawnienia przejrzystości (Artykuł 50)

Jeśli używasz treści wygenerowanych przez AI, chatbotów, rozpoznawania emocji lub kategoryzacji biometrycznej, musisz powiedzieć ludziom. To ma zastosowanie nawet do systemów niskiego ryzyka.

Standard na to jest gotowy. Język jest jasny. Zacznij teraz.

4. Dokumentuj swój proces oceny ryzyka

Nawet jeśli standardy techniczne ewoluują, potrzebujesz zapisu tego, jak myślałeś o ryzykach. Zapisz:

  • Jakie ryzyka zidentyfikowałeś
  • Jak je oceniłeś
  • Jakie środki łagodzące wprowadzasz
  • Kto podejmował decyzje

To nie jest praca na pokaz. Jeśli regulatorzy zapukają w 2027, "nie wiedzieliśmy co robić" nie przejdzie. "Oto nasz udokumentowany proces z 2026" przejdzie.

5. Ustanów podstawy zarządzania

Kto jest odpowiedzialny za gotowość AI w Twojej firmie? Kto przegląda nowe wdrożenia AI? Kto zajmuje się skargami użytkowników?

Nie potrzebujesz 47-osobowej komisji. Potrzebujesz nazwiska, procesu i śladu papierowego.

Co Jest Faktycznie Zablokowane Przez Brakujące Standardy

Oto czego naprawdę nie możesz jeszcze ukończyć:

Ocena zgodności dla nowatorskich systemów wysokiego ryzyka

Jeśli budujesz coś nowego i wysokiego ryzyka (nie kupujesz gotowego), szczegółowe procedury uzyskania sprawdzenia gotowości nie są sfinalizowane. Możesz przygotować dokumentację, ale nie możesz ukończyć formalnej oceny.

Wymogi techniczne specyficzne dla sektora

Niektóre branże (AI w opiece zdrowotnej, AI prawnicze) czekają na bardziej szczegółowe standardy. Możesz postępować zgodnie z ogólnymi ramami, ale szczegółowe specyfikacje techniczne wciąż nadchodzą.

Ustandaryzowane formaty raportowania

Jak raportujesz władzom, jak dostawcy dzielą się informacjami z podmiotami stosującymi — niektóre z tych formatów są wciąż w projekcie.

Ale zauważ, czego NIE ma na tej liście: zrozumienie swoich systemów, dokumentowanie swoich ryzyk, wdrażanie środków przejrzystości. Nic z tego nie jest zablokowane.

Pułapka, Której Należy Unikać

Konsultanci, którzy obiecują kompletną gotowość AI Act dzisiaj, kłamią.

Nie dlatego, że są złośliwi. Ponieważ standardy jeszcze nie istnieją. Nikt nie może dać Ci ostemplowanej, ostatecznej odpowiedzi.

To, czego chcesz, to ktoś, kto pomaga Ci zrobić to, co jest gotowe, dokumentuje Twój proces i buduje system, który dostosowuje się, gdy nadchodzą standardy.

Czego nie chcesz, to ktoś sprzedający "pełny pakiet gotowości" za 50 000 $ z nadmiernymi obietnicami pewności.

Skup Się Najpierw Na Przejrzystości

Jeśli jesteś MŚP używającym AI (nie budującym nowatorskie systemy wysokiego ryzyka), Twoim największym obowiązkiem jest przejrzystość.

Artykuł 50 jest jasny:

  • Treść wygenerowana przez AI? Ujawnij to.
  • Chatbot? Powiedz użytkownikom, że to nie człowiek.
  • Rozpoznawanie emocji? Daj ludziom znać.
  • Kategoryzacja biometryczna? Wymagane ujawnienie.

Te wymogi dotyczą znacznie więcej firm niż obowiązki wysokiego ryzyka. A standardy dla przejrzystości są gotowe.

Zacznij od tego. Uporządkuj swoje ujawnienia. Udokumentuj to. Następnie pracuj wstecz do klasyfikacji ryzyka.

Jak Wygląda Poniedziałek Rano

Oto Twój faktyczny plan działania:

W tym tygodniu:

  • Wypisz każdy system AI, którego używasz lub budujesz (1 godzina)
  • Szkicuj ujawnienia przejrzystości dla AI zwróconej do klienta (2 godziny)
  • Wyznacz jedną osobę jako właściciela gotowości AI (5 minut)

W tym miesiącu:

  • Sklasyfikuj systemy według poziomu ryzyka używając Załącznika III (2 godziny)
  • Udokumentuj swój proces oceny ryzyka (4 godziny)
  • Ustanów log dla decyzji i zmian związanych z AI (1 godzina)

W tym kwartale:

  • Zbuduj szablony dla bieżącej dokumentacji (1 dzień)
  • Przeszkol odpowiednie zespoły w wymogach przejrzystości (pół dnia)
  • Przejrzyj umowy z dostawcami dla narzędzi AI, które wdrażasz (1 dzień)

Nic z tego nie wymaga standardów, które jeszcze nie istnieją. Nic z tego nie jest zmarnowane, jeśli standardy się zmienią. Wszystko to wykazuje gotowość w dobrej wierze.

Szczera Prawda

Nie możesz być "zgodny z AI Act" w lutym 2026, ponieważ połowa regulaminu jeszcze nie jest napisana.

Ale możesz być gotowy. Możesz pokazać, że traktujesz to poważnie. Możesz udokumentować, co robisz i dlaczego.

To nie jest luka. To czego regulatorzy oczekują od rozsądnych firm stojących przed niemożliwym harmonogramem.

Standardy nadejdą. Twoim zadaniem jest być gotowym do dostosowania się, gdy to nastąpi — i udowodnić, że nie siedziałeś bezczynnie w międzyczasie.

Pobierz nasze Zestawienie Statusu Standardów i skup się na tym, co jest gotowe. Śledzimy, które standardy są opublikowane, które są w projekcie i które obowiązki możesz zrealizować dzisiaj.


Ten dokument wspiera przygotowanie do regulacji. Nie stanowi porady prawnej.

Chcesz wiedzieć, czy to dotyczy Twojej firmy?

Assessment AI Act zajmuje 3 minuty. Bez rejestracji. Klasyfikację zobaczysz natychmiast.

Wykonaj assessment

Lub bądź na bieżąco

Otrzymuj aktualizacje, gdy zasady się zmienią. Bez spamu.