Oparte na sztucznej inteligencji systemy oceny obywateli mogą prowadzić do wielu nadużyć. Unijne prawo ma ich zakazać

0
283

– W przyszłości państwo będzie mogło dokonywać oceny wiarygodności obywatela z użyciem systemów sztucznej inteligencji, ale tylko w pewnym, bardzo ograniczonym zakresie. Jak będzie to wyglądało, zależy od tego, jak zostaną zaprojektowane i wdrożone przepisy na poziomie Unii Europejskiej – mówi Michał Nowakowski, prawnik z kancelarii Maruta Wachta. Jak zauważa, w Polsce nie ma w tej chwili przepisów, które w sposób precyzyjny regulowałyby zasady wykorzystywania systemów AI do oceny obywateli, więc ich prywatność chronią ogólne przepisy konstytucyjne i dotyczące praw człowieka. Tego typu systemy w rękach przestępców mogą być poważnym zagrożeniem. Jak to działa w praktyce, pokazuje przykład Chin.

Scoring społeczny – czyli wdrażany obecnie w Chinach tzw. system zaufania społecznego – to system monitorowania i oceniania zachowań obywateli pod kątem zgodności z prawem i zasadami współżycia społecznego.

– Przykładowo za działanie na rzecz partii rządzącej w Chinach dostajemy dodatkowe punkty, a w przypadku wykroczenia albo działania wbrew wartościom wyznawanym przez partię są punkty ujemne. W konsekwencji, jeżeli będziemy mieć określony poziom punktów, wyższy lub niższy, możemy uzyskać jakieś benefity albo w drugą stronę – mieć problem z dostępem do usług administracji czy uzyskaniem kredytu. W ten właśnie sposób ma działać scoring społeczny w Chinach, natomiast dzisiaj nie wiemy tak naprawdę, co za tym wszystkim stoi – mówi agencji Newseria Biznes Michał Nowakowski.

System opiera się na bazach danych, do których trafiają informacje m.in. z organów administracji publicznej, sądów, państwowych rejestrów, ale również z monitoringów miejskich czy aplikacji mobilnych.

– Scoring społeczny w Chinach ewoluuje, od kilkunastu lat są prowadzone różnego rodzaju prace, które zmierzają do tego, żeby wybrać optymalny model, oczywiście z punktu widzenia państwa, ale niekoniecznie obywateli czy przedsiębiorstw – podkreśla prawnik.

Chiński system zaufania społecznego odnosi się do niemal każdej dziedziny życia. Obywatele mają naliczane punkty ujemne m.in. za nieodpowiednie zachowanie, niszczenie mienia publicznego, opóźnienie w zapłacie podatków i składek na ubezpieczenie społeczne, wykroczenia drogowe i uczestnictwo w protestach, które nie zostały uznane przez władze za legalne. System wkracza nawet w sferę prywatną, ponieważ ujemne punkty można dostać np. za zaniedbywanie rodziny albo szerzenie nieprawdziwych informacji na chińskim komunikatorze WeChat. Pozytywnie punktowana jest za to np. praca społeczna, działania na rzecz partii rządzącej i wysokie lokaty w zawodach sportowych.

  Premier Mateusz Morawiecki: Zakładamy scenariusz, że polska gospodarka będzie zamknięta przez dłuższy czas. Dopóki nie ma szczepionki, wszystko zależy od przestrzegania nałożonych ograniczeń

Wysoka punktacja jest źródłem nobilitacji i benefitów, do których zalicza się np. możliwość posłania dzieci do dobrych szkół. Natomiast obywatele z niską oceną muszą się liczyć z utrudnieniami w codziennym życiu, takimi jak np. problemy z otrzymaniem kredytu czy dostępem do usług. Co istotne, dostęp do chińskiego systemu zaufania społecznego mają nie tylko instytucje rządowe, ale i podmioty prywatne. To zaś budzi duże kontrowersje, ponieważ może prowadzić wprost do dyskryminacji obywateli na wielu płaszczyznach ich życia.

– Z punktu widzenia przeciętnego człowieka to jest ogromne naruszenie prywatności, ponieważ scoring społeczny jest też połączony z kwestią identyfikacji biometrycznej, w tym wykorzystania np. biometrii behawioralnej. Już dzisiaj w Chinach zainstalowana jest ogromna liczba kamer, które monitorują zachowania tamtejszych obywateli, dzięki czemu państwo jest w stanie kontrolować, dodawać albo odejmować im punkty – mówi Michał Nowakowski.

Oprócz zwykłych obywateli chińskim systemem scoringu objęci są też przedsiębiorcy, którzy mają odrębny system oceniania i naliczania dodatnich i ujemnych punktów. To zaś może stanowić wyzwanie i problem dla zagranicznych podmiotów, które planują ekspansję na tamtejszym rynku.

W Chinach przedsiębiorstwa, które nie realizują określonych założeń, mogą mieć trudności np. z uzyskaniem dodatkowego finansowania czy w ogóle z wejściem na rynek. Z punktu widzenia państwa jest to idealny sposób na to, żeby trzymać w ryzach tych niepokornych – mówi prawnik z kancelarii Maruta Wachta.

Jak wskazuje, takie profilowanie obywateli i firm wspiera coraz większa skuteczność systemów sztucznej inteligencji i uczenia maszynowego, które mogą posłużyć do identyfikacji biometrycznej i behawioralnej.

– Sztuczna inteligencja w rękach państwa może być ogromnym zagrożeniem. Wszystko zależy od tego, jak państwo będzie chciało ją wykorzystać – mówi Michał Nowakowski. – Do tego, żeby ocenić, czy w Polsce są albo będą wykorzystywane tego typu systemy, potrzebujemy określonych rozwiązań prawnych, które pozwolą nam jako obywatelom na uzyskanie informacji na ten temat. Oczywiście możemy robić to w ramach już istniejących pytań, które zadajemy instytucjom państwowym, natomiast nie zawsze uzyskamy określoną odpowiedź. Ważne jest też w tym kontekście to, że niektóre organy czy instytucje zaczynają już wykorzystywać tego typu systemy.

Ekspert zauważa, że w Polsce nie obowiązują w tej chwili przepisy, które w sposób precyzyjny regulowałyby zasady wykorzystywania systemów sztucznej inteligencji. Prywatność obywateli przed stosowaniem tego typu praktyk chronią art. 32. i 33 Konstytucji RP oraz art. 20 do 26 Karty praw podstawowych, które traktują o równości i zakazie dyskryminacji.

  Bezrobocie w Polsce najniższe od 32 lat. Mimo zapotrzebowania na roboty sezonowe spada liczba ogłoszeń o pracę i presja na wzrost płac

– Państwo, bazując na istniejących przepisach zarówno o ochronie danych osobowych, jak i Konstytucji, zasadniczo nie powinno wykorzystywać wrażliwych informacji do przyznawania albo odbierania świadczeń. Natomiast wprost takiego zakazu w tej chwili nie mamy – wyjaśnia prawnik. – To ma się zmienić z wejściem w życie unijnego rozporządzenia w sprawie sztucznej inteligencji, które w art. 5 ma wprost zakazywać stosowania scoringu społecznego, czyli dokonywania oceny wiarygodności obywatela pod kątem pewnych cech wrażliwych, np. tego, z jaką partią sympatyzuje albo jaką ma orientację seksualną. To ma być zakazane, ale oczywiście te przepisy jeszcze się tworzą i ich ostateczny kształt nie jest jasny.

Unijny Akt o sztucznej inteligencji (Artificial Intelligence Act), który ma wdrożyć bardziej precyzyjne regulacje dotyczące AI, w aktualnym kształcie zakazuje profilowania obywateli. Prace nad dokumentem, który został opublikowany przez Komisję Europejską w kwietniu 2021 roku, trwają. Zdaniem eksperta nowej regulacji, jeśli zostanie przyjęta w takim kształcie, będzie towarzyszyć szereg wątpliwości, chociażby dotyczących tego, które istniejące i stosowane systemy zostaną zaliczone do tej kategorii i co wówczas z nimi zrobić. Innym ważnym wyzwaniem będzie też kwestia ochrony prywatności i danych osobowych. Co istotne, jest to pierwsza na świecie próba kompleksowego uregulowania prawnego systemów AI i ich zastosowań, która może w przyszłości wywrzeć wpływ na ich rozwój i ustawodawstwo także w innych krajach, poza Unią Europejską.

– Myślę, że w przyszłości państwo będzie mogło dokonywać oceny wiarygodności obywatela z użyciem systemów sztucznej inteligencji, ale tylko w pewnym, bardzo ograniczonym zakresie. Jak będzie to wyglądało, zależy od tego, jak zostaną zaprojektowane i wdrożone przepisy na poziomie Unii Europejskiej. Natomiast trzeba też pamiętać o tym, że niezwykle istotna w tym kontekście jest też kwestia pewnej przejrzystości, transparentności państwa względem obywatela – mówi Michał Nowakowski.

Źródło: https://biznes.newseria.pl/news/oparte-na-sztucznej,p597624482