Usługi Readiness Sprint

Readiness Sprint

Od luki w governance AI do gotowości audytowej — zanim rozpocznie się audyt.

Ustalony zakres
Zgodność z art. 26
Priorytet: sektor finansowy
Porozmawiajmy →

Problem

„Dział prawny mówi, czego wymagają przepisy. IT mówi, że AI działa. Nikt nie łączy tych dwóch światów.”

Art. 26: 13 obowiązków, zero podręczników

EU AI Act nakłada 13 konkretnych obowiązków na podmioty wdrażające. Wytyczne operacyjne EBA pojawią się dopiero w 2027 r. — po terminie egzekwowania z sierpnia 2026 r. Banki muszą działać, zanim powstanie oficjalny podręcznik.

Luka w dokumentacji governance

Większość organizacji wdrożyła AI w produkcji. Bardzo niewiele ma udokumentowane governance, które mapuje się na obowiązki z art. 26. Luka między tym, co wdrożono, a tym, co udokumentowano — to ekspozycja audytowa.

Sankcje

15 mln EUR lub 3% globalnego rocznego obrotu. Za naruszenia na poziomie podmiotu wdrażającego. Nie za tworzenie złego AI — za brak governance wdrożonego AI.

Metoda

Cztery fazy. Wynik gotowy do audytu.

1

Inwentaryzacja i klasyfikacja

Identyfikacja systemów AI we wszystkich jednostkach biznesowych. Klasyfikacja ryzyka zgodnie z Załącznikiem III. Wywiady z interesariuszami w celu zmapowania odpowiedzialności, wzorców użytkowania i przepływów danych.

2

Ocena luk

Istniejąca dokumentacja zmapowana pod kątem wszystkich 13 obowiązków z art. 26. Krytyczne luki zidentyfikowane i uszeregowane według ekspozycji audytowej. Uzasadnienie prawne udokumentowane dla każdej decyzji klasyfikacyjnej.

3

Budowa frameworku governance

Opracowanie polityk governance, ról i odpowiedzialności, szablonów dokumentacji, struktury ścieżki audytu. Zaprojektowane tak, aby zespoły wewnętrzne mogły je samodzielnie utrzymywać po zakończeniu Sprintu.

4

Pakiet i mapa drogowa

Finalizacja rejestru systemów AI. Raport luk w compliance. Prezentacja dla zarządu. Priorytetyzacja backlogu naprawczego z szacunkami pracochłonności i przypisaniem odpowiedzialności.

Co otrzymujesz

Pięć dokumentów. Jeden pakiet.

  • Rejestr systemów AI

    Format zgodny z art. 26, ustrukturyzowany pod kątem prezentacji audytowej i bieżącego utrzymania.

  • Raport klasyfikacji ryzyka

    Uzasadnienie prawne dla kategorii ryzyka każdego systemu zgodnie z Załącznikiem III. Do obrony przed kontrolą regulacyjną.

  • Framework governance

    Polityki, role, procedury eskalacji, struktura ścieżki audytu. Do samodzielnego utrzymania przez zespół wewnętrzny.

  • Raport luk w compliance

    Priorytetowy backlog naprawczy z szacunkami pracochłonności.

  • Prezentacja dla zarządu

    Maksymalnie 10 slajdów. Gotowa dla regulatora. Mapuje obowiązki na dowody.

Dla kogo

Właściciel problemu.

CRO

Odpowiada za governance ryzyka AI. Potrzebuje dokumentacji, która wytrzyma audyt KNF lub EBC.

CCO

Odpowiada za zgodność z art. 26. Potrzebuje ustrukturyzowanego programu, który zamknie lukę między stanem obecnym a gotowością audytową.

Head of AI

Odpowiada za systemy techniczne. Potrzebuje dokumentacji governance, która dokładnie odzwierciedla, jak systemy faktycznie działają.

Termin wejścia w życie

Egzekwowanie od sierpnia 2026.

Termin egzekwowania EU AI Act dla systemów AI wysokiego ryzyka upływa w sierpniu 2026 r. Proponowana poprawka Digital Omnibus może przedłużyć go do grudnia 2027 r. — ale nie została jeszcze przyjęta i nie jest gwarantowana. Organizacje, które działają teraz, eliminują ryzyko niezależnie od scenariusza.

Zarezerwuj termin →

Co dalej

Readiness Sprint otwiera drzwi.

Gotowy zamknąć lukę przed sierpniem 2026?

Każde zaangażowanie zaczyna się od krótkiej rozmowy. Zero zobowiązań, tylko konkrety.

Porozmawiajmy →