Trwa wczytywanie strony. Proszę czekać...
Niedziela, 21 kwietnia. Imieniny: Jarosława, Konrada, Selmy
20/02/2024 - 09:45

Sztuczna inteligencja do prześwietlania pracowników. Czy to legalne?

Kraje członkowskie UE porozumiały się ostatecznie co do treści aktu o sztucznej inteligencji (AI), który ma na celu wprowadzenie pewnych ograniczeń dla technologii, której wpływ na nasze życie rośnie gwałtownie z dnia na dzień.

Nowe zasady w tej sprawie mają być zatwierdzone w kwietniu br. i mogą wejść w życie jeszcze w tym roku. Dokument poprzedziły długie debaty na temat tego, czy i w jaki sposób Unia Europejska powinna zakazać niektórych praktyk AI i ograniczyć zaawansowaną AI.

Komisja Europejska zaproponowała uchwalenie aktu o sztucznej inteligencji w 2021 r. Chodziło przy tym o ustalenie zasad nie tylko dla samej technologii, ale także dla jej zastosowania w scenariuszach, które mogą mieć poważne konsekwencje dla społeczeństwa.

Innymi słowy, narzędzie AI, które na przykład dodaje „uszy króliczka” na fotografii osoby, umieszczonej na Instagramie itp., nie wymaga regulacji, natomiast systemy AI wykorzystywane do sprawdzania kandydatów do pracy itp. już zdecydowanie tak.

Artykuł 5 Aktu o sztucznej inteligencji wymienia przypadki jej użycia, które są wprost zakazane.  Co konkretnie jest zabronione? Do takich działań, do których wykorzystanie AI jest jednoznacznie zabronione, należą między innymi zastosowania, mające wpływ na zachowanie ludzi, takie jak techniki podprogowe, manipulacyjne lub innego rodzaju techniki typu AI-Ai-Ai-AiD itp.

Inne niedozwolone praktyki obejmują wykorzystanie informacji biometrycznych w celu ustalenia rasy osoby, jej orientacji seksualnej, przekonań lub członkostwa w związkach zawodowych. Niedozwolona jest również ocena danej osoby, z wykorzystaniem śledzenia jej zachowania w sposób, który może spowodować niekorzystne dla niej skutki - na przykład, prowadzące do odmowy dostępu do służby publicznej z powodu wcześniejszego zażywania narkotyków, stwierdzonego ma podstawie informacji, zebranych przez sztuczną inteligencję.

Zakazane jest również zastosowanie rozpoznawania twarzy w czasie rzeczywistym (znane również jako „zdalna identyfikacja biometryczna” lub RBI) w miejscach publicznych. Od tego zakazu przewidziano jednak wyjątki: organy ścigania nadal będą mogły korzystać z tej technologii podczas prowadzenia dochodzeń w sprawie poważnych przestępstw lub przy poszukiwaniach osób zaginionych, zawsze jednak za zgodą sądu. Nie jest natomiast dozwolone wykorzystanie sztucznej inteligencji do oszacowania prawdopodobieństwa popełnienia przez osobę przestępstwa, opartego wyłącznie na jej cechach osobowych - tak zwanych działań predykcyjnych.

Ponadto, narzędzia AI nie mogą być używane do tworzenia baz danych obrazów twarzy z wykorzystaniem filmów internetowych lub CCTV. Oczywistym przykładem tego rodzaju praktyk jest kontrowersyjna amerykańska firma Clearview AI.

Zabronione jest także korzystanie z narzędzi AI do określenia stanów emocjonalnych jakiejś osoby w miejscu pracy lub w środowisku edukacyjnym.

Twórcy systemów AI wykorzystywanych w scenariuszach „wysokiego ryzyka” są zobowiązani do przestrzegania praktyk zarządzania danymi, w tym etycznego zbioru zestawów danych do szkolenia oraz zapewnienia, że są reprezentatywne i nie tendencyjne.

Muszą oni również opracować dokumentację techniczną funkcjonalności sztucznej inteligencji i środków zarządzania ryzykiem, przechowywać zapisy użycia sztucznej inteligencji i zapewnić, aby użycie sztucznej inteligencji było zawsze nadzorowane przez ludzi, a także zagwarantować wysoki poziom dokładności, solidności i bezpieczeństwa cybernetycznego.

Każdy, kto wprowadza do użytku systemy AI wysokiego ryzyka, będzie musiał również przeprowadzić ocenę, w jaki sposób takie narzędzie może wpłynąć na prawa podstawowe zgodnie z ustawodawstwem UE w tym zakresie.

Obszary uważane za wysokiego ryzyka, zgodnie z załącznikiem III, obejmują biometrię i rozpoznawanie twarzy, o ile nie są wyraźnie zabronione zgodnie z art. 5, a także infrastrukturę krytyczną, edukację i miejsce pracy, a także dostęp do usług publicznych, świadczeń lub niezbędnych usług prywatnych, takich jak bankowość czy ubezpieczenia.

Zastosowania AI związane z organami ścigania, migracją, wymiarem sprawiedliwości i wyborami również kwalifikują się jako obszary wysokiego ryzyka.

Jeśli zaś chodzi o modele ogólne, obecne np. w oprogramowaniu, zintegrowanym z produktami różnych dostawców, to programiści tych modeli – np. CHATGPT lub BARD Google,  będą musieli przechowywać szczegółową dokumentację techniczną i umożliwiać firmom lub osobom wdrażającym ich modele zrozumieć funkcjonalność i granice zastosowania tych narzędzi oraz ściśle współpracować z Komisją Europejską i stosownymi organami krajowymi w kwestii zgodności tych działań z zapisami Aktu.

Oczekiwania społeczne co do wyznaczenia granic używania sztucznej inteligencji są wysokie i nowe przepisy zweryfikują, czy Unia Europejska jest w stanie nadążać za postępami rozwoju tej nowej technologii i ukierunkować ją na obszary, gdzie jej wykorzystanie spowoduje szybki i pozytywny wzrost poziomu życia społeczeństw, komfortu i bezpieczeństwa, a nie będzie ona sama stanowić zagrożenia dla najważniejszych wartości współczesnych społeczeństw w Europie. ISW, Andrzej Skrzydło fot. pixaby







Dziękujemy za przesłanie błędu