UE nie chce, by policja korzystała ze sztucznej inteligencji
Parlament Europejski powiedział „nie” dalszemu rozwojowi projektów związanych ze zdalnym rozpoznawaniem twarzy w ramach kontroli granicznej oraz szerokiemu zastosowaniu biometrii w ściganiu przestępców.
Parlament Europejski zdecydował dziś, że należy przeciwdziałać dyskryminacji ludzi ze strony sztucznej inteligencji. W przyjętej rezolucji europosłowie wskazali na ryzyko stronniczości algorytmów w zastosowaniach AI, a także podkreślili, że ludzki nadzór i silne uprawnienia prawne są potrzebne, aby zapobiec dyskryminacji przez AI, zwłaszcza w kontekście egzekwowania prawa lub przekraczania granic. W praktyce oznacza to też ograniczenie możliwości korzystania z prywatnych baz danych do rozpoznawania twarzy, a także prewencyjnych działań policji w oparciu o dane biometryczne.
Rezolucja została przyjęta w odpowiedzi na skargi, które pokazują, że systemy identyfikacji oparte na sztucznej inteligencji coraz częściej błędnie identyfikują kobiety, osoby starsze, a także mniejszości etniczne oraz osoby LGBT. Rekomendacje PE zakładają m.in. stosowanie oprogramowania open-source i algorytmów przejrzystych, możliwych do śledzenia i wystarczająco udokumentowanych, a przede wszystkim – ustanowienie człowieka jako ostatecznej instancji w sprawach rozpatrywanych przez algorytmy oraz umożliwienie poszkodowanym skorzystania ze środków odwoławczych.
Posłowie sprzeciwiają się też systemom identyfikacji zdalnej, wykorzystywanym m.in. w bramkach kontroli granicznej. Zakazano m.in. korzystania z systemu iBorderCtrl, czyli inteligentnego systemu wykrywania kłamstw, którego rozwój na wczesnych etapach finansowano z budżetu unijnego. Wkrótce za jego stosowanie państwa członkowskie mogą odpowiadać przed Komisją Europejską w ramach postępowania o uchybienie zobowiązaniom członka wspólnoty.