W obliczu ostatnich wydarzeń, w których Rafał Brzoska padł znowu ofiarą technologii deepfake, nasuwa się pytanie o regulacje dotyczące tej technologii. Deepfake, wykorzystując sztuczną inteligencję do tworzenia realistycznych, lecz fałszywych treści, staje się coraz większym zagrożeniem. Odpowiedzią na to wyzwanie może być AI Act, który wprowadza konkretne zasady dotyczące przejrzystości i odpowiedzialności za treści generowane przez AI. Przeanalizujmy, jakie regulacje wprowadza prawo Unii Europejskiej i jakie mają one znaczenie w kontekście ochrony przed nadużyciami związanymi z technologią deepfake.
AI Act a deepfake
▪ Obowiązki w zakresie przejrzystości (artykuł 50)
Dostawcy systemów AI, które generują treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu, muszą zapewnić, aby wyniki tych systemów były oznakowane jako sztucznie wygenerowane lub zmanipulowane (z wyjątkami). Operatorzy, którzy nie przestrzegają tych obowiązków, mogą być narażeni na surowe kary.
▪ Kary za naruszenia (artykuł 99)
Artykuł ten przewiduje szereg kar za nieprzestrzeganie przepisów dotyczących AI. Na dostawców i podmioty stosujące, którzy nie spełniają obowiązków przejrzystości, mogą być nałożone kary pieniężne w wysokości do 15 000 000 EUR lub do 3% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
▪Kim są dostawcy i podmioty stosujące
Jednakże zgodnie z AI Act ww. odpowiedzialność pieniężną ponoszą dostawcy i podmioty stosujące. Kim oni są? „Podmiot stosujący” oznacza osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które wykorzystują system AI, nad którym sprawują kontrolę (z wyjątkiem sytuacji, gdy system AI jest wykorzystywany w ramach osobistej działalności pozazawodowej). Z kolei „dostawca” oznacza osobę fizyczną lub prawną […] lub inny podmiot, które rozwijają system AI lub model AI ogólnego przeznaczenia lub zlecają rozwój systemu AI lub modelu AI ogólnego przeznaczenia oraz które – odpłatnie lub nieodpłatnie – pod własną nazwą lub własnym znakiem towarowym wprowadzają do obrotu lub oddają do użytku system AI.
Jak to zatem wygląda z Meta?
Rola Mety jako platformy hostującej treści AI
▫ Dyrektywa o handlu elektronicznym (2000/31/WE):
Facebook, jako platforma hostingowa, może korzystać z ograniczenia odpowiedzialności na mocy art. 14 dyrektywy, pod warunkiem że nie ma wiedzy o nielegalnej działalności lub informacji oraz działa szybko, aby usunąć lub zablokować dostęp do takich informacji po uzyskaniu wiedzy o ich nielegalnym charakterze.
▫ Ogólne Rozporządzenie o Ochronie Danych (RODO):
Wizerunek jest daną osobową. W sytuacji, gdy treści generowane przez AI naruszają wizerunek (np. deepfake), Meta musi przestrzegać przepisy RODO, które chronią dane osobowe obywateli UE.
▫ Akt o Usługach Cyfrowych (Digital Services Act):
DSA wprowadza nowe obowiązki dla platform internetowych dotyczące przejrzystości i odpowiedzialności za treści publikowane na ich stronach, w szczególności Meta musi mieć wdrożone mechanizmy przeciwdziałania dezinformacji, w tym treści generowanych przez AI (wręcz DSA wskazuje, że platforma powinna dostosować procesy moderowania treści, aby zapewnić szybkość i jakość rozpatrywania zgłoszeń).
Trudno być tu czarno-białym. Z jednej strony nadmiar przepisów jest problematyczny, ale kiedy sytuacja jest poważna, okazuje się, że taki system prawny nie jest aż tak zły.
Obraz herbinisaac z Pixabay