Chatboty a prawo – regulacje prawne AI i zgodność z RODO

Nowe Technologie i Branża IT
Obsługa korporacyjna

Sztuczna inteligencja (AI) odgrywa coraz większą rolę w biznesie, a chatboty stają się nieodzownym elementem obsługi klienta, automatyzacji procesów oraz komunikacji online. Im większy stopień zaawansowania, tym większe ryzyko naruszeń. Stąd, tradycyjnie, wdrożenie takich rozwiązań wiąże się z szeregiem wyzwań prawnych, które należy bezwzględnie uwzględnić.

Jak AI ACT – jak reguluje chatboty?

AI ACT to unijne rozporządzenie, które nie tylko klasyfikuje systemy AI według poziomu ryzyka i nakłada na nie określone obowiązki, ale również zawiera przepisy dotyczące niedozwolonych praktyk w zakresie AI oraz regulacje odnoszące się do modeli ogólnego przeznaczenia (General Purpose AI Models – GPAI). Chatboty, w zależności od ich funkcjonalności, mogą podlegać różnym wymaganiom.

Najważniejsze założenia AI ACT dotyczące chatbotów (i nie tylko) obejmują:

  • transparentność – użytkownik musi wiedzieć, że komunikacja odbywa się z systemem AI, co ma na celu umożliwienie podejmowania świadomych decyzji,
  • klasyfikacja ryzyka – chatboty wykorzystywane w kluczowych sektorach, takich jak bankowość, edukacja czy opieka zdrowotna, mogą być uznane za systemy wysokiego ryzyka, jeśli spełniają kryteria określone wskazane w AI Act lub są elementem wyrobu medycznego albo innego produktu regulowanego odrębnymi przepisami unijnymi (np. MDR – Medical Devices Regulation). W takich przypadkach muszą one spełniać dodatkowe wymogi bezpieczeństwa, jak np. obowiązek wdrożenia systemu zarządzania ryzykiem.
  • odpowiedzialność – firmy wdrażające chatboty muszą zapewnić, że systemy AI spełniają wymogi określone w AI Act, w tym:

-prowadzenie dokumentacji technicznej i oceny zgodności,

- wdrożenie systemów monitorowania działania AI po wprowadzeniu na rynek (post-market monitoring),

- zapewnienie nadzoru człowieka nad działaniem systemu,

- podejmowanie działań korygujących w przypadku wykrycia niezgodności lub zagrożeń

Każdorazowo ten zakres też może się zmieniać, w szczególności w zależności od tego czy system będzie zakwalifikowany jako system wysokiego ryzyka. 

Czy chatboty muszą być zgodne z RODO?

Chatboty, które przetwarzają dane osobowe użytkowników, muszą być zgodne z RODO (GDPR). Jednak obowiązki wynikające z RODO zależą od celu i kontekstu przetwarzania danych.

Automatyzacja obsługi klienta poprzez chatboty zwykle wiąże się z przetwarzaniem danych osobowych użytkowników. W kontekście przepisów RODO firmy, które chcą korzystać z funkcji chatbotu do automatyzacji obsługi klienta powinny zwrócić szczególną uwagę na chociażby następujące kwestie:

  • czy chatboty przetwarzają dane osobowe klientów zgodnie z RODO?
  • czy zostały wdrożone odpowiednie środki techniczne i organizacyjne, aby chronić dane użytkowników przed naruszeniami?
  • czy użytkownik jest odpowiednio informowany o przetwarzaniu danych przez AI?

Dodatkowo, ważne jest, aby zwrócić uwagę na to, żeby każda czynność przetwarzania danych osobowych miała odpowiednią, ważną podstawę prawną.  

W każdym wypadku, należy zadbać o to, aby chatboty wspierały te prawa i umożliwiały użytkownikom ich realizację.

Obsługa prawna AI w firmach – jakie obowiązki mają przedsiębiorstwa?

Firmy wdrażające chatboty muszą przestrzegać regulacji dotyczących AI i ochrony danych. Kluczowe aspekty obsługi prawnej IT i chatbotów w biznesie obejmują:

  1. ocena zgodności z przepisami prawa, w tym AI Act i RODO, ale także przepisami chroniącymi konsumentów – firmy powinny przeprowadzić audyt chatbotów, aby upewnić się, że spełniają wymagania prawne,
  2. polityka prywatności – chatboty muszą jasno informować użytkowników o sposobie, celu i zakresie przetwarzania ich danych,
  3. monitorowanie i aktualizacja – regulacje dotyczące AI dynamicznie się zmieniają, dlatego przedsiębiorstwa powinny regularnie aktualizować swoje systemy AI zgodnie z nowymi wymogami.
  4. nadzór - końcowo to przedsiębiorca ponosi odpowiedzialność za przekazywanie błędnych informacji przez czatbota, a więc należy zapewnić nie tylko nadzór pracownika, ale również w razie problemów zapewnić konsumentowi możliwość skontaktowania się z takim pracownikiem.

Wraz z rozwojem technologii pojawiają się także wyzwania prawne i etyczne, w tym:

  • ryzyko błędnych decyzji podejmowanych przez AI i odpowiedzialność z tym związana,
  • ochrona danych i cyberbezpieczeństwo,
  • zapewnienie równego traktowania użytkowników i eliminacja uprzedzeń.

Milena Balcerzak

Bądź na bieżąco ze zmianami w prawie

Zapisz się do naszego newslettera

Dziękujemy!
Rejestracja przebiegła pomyślnie.
Ups...twój mail nie może być wysłany!