W tym roku zacznie obowiązywać część przepisów AI Act, regulując tworzenie i korzystanie z m.in. systemów AI w Europie. Świadomość nadchodzących zmian oraz proaktywne działania w zakresie zapewnienia zgodności pomogą firmom uniknąć ryzyka prawnego i finansowego.
Przypominamy, że AI Act dotyczy szerokiego grona podmiotów i osób, zarówno tych bezpośrednio tworzących technologie AI, jak i korzystających z nich w różny sposób. AI Act obejmuje:
W szczególności od 2 lutego 2025 roku rozpoczyna się stosowanie pierwszych przepisów AI Act, obejmujących w szczególności następujące obszary:
1. Zakaz praktyk uznanych za szczególnie niebezpieczne
W całej Unii Europejskiej rozpocznie się stosowanie zakazu używania oraz wprowadzania na rynek systemów AI spełniających kryteria praktyk zakazanych określonych w rozdziale II AI Act. Niezastosowanie się do tych przepisów może skutkować wysokimi karami administracyjnymi – do 35 milionów euro lub 7% całkowitego rocznego światowego obrotu z poprzedniego roku.
Ponadto, 4 lutego br., Komisja Europejska opublikowała wytyczne dotyczące zakazanych praktyk w zakresie sztucznej inteligencji (Commission Guidelines on prohibited artificial intelligence practices), określonych w AI Act. Celem tych wytycznych jest zapewnienie spójnego i skutecznego stosowania przepisów AI Act na terenie Unii Europejskiej, a także dostarczenie praktycznych wskazówek dla dostawców i użytkowników systemów AI.
Zakazane praktyki AI (art. 5 AI Act) to przede wszystkim:
Systemy AI wykorzystujące subliminalne, manipulacyjne lub oszukańcze techniki, mające na celu lub skutkujące istotnym zniekształceniem zachowania osoby lub grupy osób, co prowadzi do poważnych szkód.
Zakazane są systemy AI, które celowo wykorzystują podatności użytkowników wynikające z wieku, niepełnosprawności lub sytuacji społeczno-ekonomicznej, aby manipulować ich zachowaniem w sposób mogący prowadzić do szkód.
AI oceniające osoby lub grupy na podstawie ich zachowań społecznych lub cech osobowościowych, prowadzące do negatywnego traktowania w niepowiązanych kontekstach lub w sposób nieproporcjonalny.
Zakazane są systemy AI przewidujące ryzyko popełnienia przestępstwa przez osobę, jeśli ocena ta opiera się wyłącznie na profilowaniu lub cechach osobowościowych. Wyjątek stanowią systemy wspierające oceny oparte na obiektywnych i zweryfikowanych faktach dotyczących działalności przestępczej.
Zakazano nieselektywnego pobierania obrazów twarzy z Internetu lub systemów CCTV w celu tworzenia baz danych do rozpoznawania twarzy.
Zakazane jest stosowanie AI do rozpoznawania emocji w środowisku zawodowym i edukacyjnym, z wyjątkiem zastosowań medycznych i kwestii bezpieczeństwa.
Zakazano systemów AI, które analizują dane biometryczne w celu określenia pochodzenia etnicznego, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych, orientacji seksualnej itp.
Ogólny zakaz stosowania systemów rozpoznawania twarzy na żywo w przestrzeni publicznej do celów egzekwowania prawa. Możliwe jest zastosowanie tylko w sytuacjach zagrożenia życia, zapobiegania atakom terrorystycznym oraz identyfikacji podejrzanych o poważne przestępstwa, pod warunkiem uzyskania odpowiednich zezwoleń.
2. Obowiązek zapewnienia kompetencji w zakresie AI - AI Literacy
Zgodnie z art. 4 AI Act, dostawcy oraz podmioty stosujące systemy AI będą zobowiązane do zapewnienia pracownikom odpowiedniej wiedzy i umiejętności niezbędnych do korzystania z AI w ich zakresie obowiązków. Celem tego przepisu jest zwiększenie świadomości i bezpieczeństwa użytkowania systemów AI w miejscu pracy.
Co jest istotne dla firm:
Przepisy te obowiązują bez konieczności wdrażania ich do prawa krajowego, co oznacza, że podmioty na terenie UE muszą się do nich dostosować od momentu rozpoczęcia ich stosowania.