Kontrowersyjne oprogramowanie do rozpoznawania twarzy użytkowane przez policję w Toronto
Kontrowersyjne oprogramowanie do rozpoznawania twarzy użytkowane przez policję w Toronto
Torontońska policja użyła oprogramowania do rozpoznawania twarzy Clearview AI, aby zidentyfikować podejrzanych, ofiary i świadków w 84 dochodzeniach karnych. Oficerowie korzystali z kontrowersyjnej technologii przez trzy i pół miesiąca, zanim komendant policji dowiedział się o tym i nakazał im zaprzestać takich praktyk.
Informacje o tym procederze są zawarte w wewnętrznym dokumencie policyjnym uzyskanym ostatnio przez CBC News dzięki odwołaniu się do prawa o dostępie do informacji.
Między październikiem 2019 a początkiem lutego 2020 funkcjonariusze przesłali ponad 2800 zdjęć do oprogramowania firmy USA, aby namierzyć poszukiwane osoby wśród trzech miliardów zdjęć Clearview AI wyodrębnionych z publicznych stron internetowych, takich jak Facebook i Instagram, tworzących ogromną bazę danych.
Policja z Toronto przyznała, że niektórzy oficerowie używali Clearview AI jeszcze w połowie lutego 2020, miesiąc po tym, kiedy oprogramowanie zostało wycofane z użytku policyjnego. Do tej pory nie zostały jednak ujawnione żadne szczegóły dotyczące tego jak i w jakim stopniu oficerowie wykorzystali oprogramowanie do rozpoznawania twarzy.
Wewnętrzny raport pokazuje, jak detektywi z wielu jednostek zaczęli korzystać z bezpłatnej wersji próbnej Clearview Ai, aby zrobić szybsze postępy w dochodzeniach karnych, bez konsultacji z nikim poza samą firmą i jej wewnętrznymi przełożonymi, w sprawie legalności i dokładności technologii.
“Kiedy egzekwujesz prawo od innych, twoim pierwszym obowiązkiem jest jego przestrzeganie” – powiedziała Brenda McPhyla, dyrektor programu prywatności, technologii i nadzoru w Canadian Civil Liberties Association (CCLA). “Naprawdę nie wygląda na to, by ta koncepcja przyświecała idei tego narzędzia, kiedy zaczęło się pojawiać w rozmowach naszych funkcjonariuszy”.
Według sprawozdania, detektywi wykorzystujący technologię spotkali się z adwokatem Korony w sprawie Clearview AI po dochodzeniu New York Times w styczniu 2020 r. Dochodzenie ujawniło szczegóły, w jaki sposób firma skompilowała swoją bazę danych i jej wykorzystanie przez ponad 600 organów ścigania w Kanadzie, Stanach Zjednoczonych i innych krajach. Wkrótce po tym ówczesny komendant policji w Toronto Mark Saunders został poinformowany, że jego oficerowie korzystali z oprogramowania i nakazał im zaprzestać takich działań 5 lutego.
Od tego czasu czterej kanadyjscy komisarze prywatności ustalili, że Clearview Ai przeprowadziło masowy nadzór i złamało kanadyjskie prawa do zachowania prywatności, zbierając zdjęcia Kanadyjczyków bez ich wiedzy lub zgody.
Biorąc pod uwagę te ustalenia, współprzewodniczący komitetu technologicznego Criminal Lawyers’ Association powiedział, że brak sumienności policji przed użyciem ClearView AI może spowodować zagrożenie dla spraw, w których oprogramowanie zostało wykorzystane.
“Jeśli policja naruszyła prawo w ramach swoich dochodzeń, może to sprawić, że te dochodzenia będa narażone na wyzwania prawne i konstytucyjne” – powiedział Eric Neubauer, prawnik z Toronto.
“Mamy prawo w Kanadzie, aby być wolnym od nieuzasadnionego przeszukiwania i zajęcia mienia – można wyobrazić sobie, że taki argument przedstawiony w sądie udowadniałby dość poważne naruszenie tego prawa”.
Neubauer i McPhail mówią, że do tej pory nie widzieli w Kanadzie przypadku zastosowania oprogramowania, uznanego przez sąd za nielegalny. Według raportu były już dwie sprawy sądowe w Toronto oparte przynajmniej częściowo na dowodach wygenerowanych przez oficerów dzięki wykorzystaniu ClearView AI w marcu 2020 r.
Z 84 dochodzeń kryminalnych, w których wyszukiwania zostały zakończone, 25 zakończyło się sukcesem dzięki ClearView AI – dochodzeniowcy zidentyfikowali lub potwierdzili miejsca pobytu czterech podejrzanych, dwunastu ofiar i dwóch świadków.
W oświadczeniu rzecznik Toronto Police Connie Osborne powiedziała CBC News, że usługa Clearview Ai nie będzie miała ponownego zastosowania w służbach. “Rada Toronto Police Services opracowuje obecnie politykę wykorzystania technologii sztucznej inteligencji i uczenia maszynowego po konsultacji publicznej” – powiedziała Osborne.
“Policja opracowuje również solidną procedurę przyjęcia nowej technologii aby zapewnić zarządzanie zamówieniami oraz wszelkie możliwości stosowania jej zgodnie z odpowiednimi przepisami, w tym wymogami prywatności”.
Proponowana polityka technologii AI ustanowiłaby pięć kategorii opartych na ryzyku dla technologii, począwszy od minimalnego ryzyka do ekstremalnego. “Oprogramowanie do rozpoznawania twarzy z nielegalnie pozyskiwanymi danymi, które może spowodować masowy nadzór”, jest wymienione jako przykład technologii ekstremalnego ryzyka na stronie internetowej konsultacji zarządu. Taka opcja nie byłaby dozwolona do stosowania w ramach proponowanej polityki policji.
Według raportu uzyskanego przez CBC News, Policja z Toronto została po raz pierwszy wprowadzona w tajniki Clearview AI na konferencji dotyczącej identyfikacji ofiar, która odbyła się w Holandii w październiku 2019 r.
Podczas konferencji, uczestniczący detektywi braki udział w pokazie technologii przygotowanym przez FBI i U.S. Department of Homeland Security. Przedstawiono oprogramowanie Clearview AI jako narzędzie dochodzeniowe w identyfikacji wykorzystania dzieci w internecie oraz w rzeczywistości realnej.
Kilka dni po powrocie z konferencji do Toronto, policja otrzymała bezpłatną wersję oprogramowania Clearview AI. Jesienią oficerowie wywiadu i jednostki badającej sprawy wykorzystania dzieci korzystały z technologii, która w połowie grudnia przydała się w ponad stu dochodzeniach dotyczących przestępstw seksualnych, morderstw i przekrętów finansowych na dużą skalę.
Policja Toronto potwierdziła CBC News, że oprogramowanie Clearview AI odegrało kluczową rolę w dochodzeniu zabóstwa, które zakończyło się aresztowaniem sprawcy. Ofiarą w sprawie była Maryna Kudzianiuk, 49-latka, która zmarła w szpitalu po tym, jak strażacy znaleźli ją, reagując na wezwanie do pożaru w Scarborough w styczniu 2020 r. Po autopsji policja stwierdziła zabójstwo, a około tygodnia później aresztowano mężczyznę, który został oskarżony o morderstwo pierwszego stopnia.
Tego typu przykłady mogą pokazać korzyści płynące z wykorzystania tej technologii, kiedy pomaga rozwiązać najpoważniejsze przestępstwa i zatrzymać sprawców; McPlail CCLA mówi jednak, że “to trochę śliski grunt”. Istnieją również obawy dotyczące dokładności oprogramowania Clearview AI – wciąż robi za dużo błędów przy identyfinacji osób “kolorowych”, co może prowadzić do oskarżeń o rasizm. Neubauer twoerdzi – “oznacza to kolejne dochodzenia, potencjalnie zatrzymywanie i aresztowania osób w marginalizowanych grupach, które już stają przed nieproporcjonalnym poziomem aresztowań, dochodzeń i zatrzymań”.
“Narzędzia stosowane przez organy ścigania muszą podlegać kontroli publicznej i prawnej,” powiedział prawnik z Toronto. “Oznacza to pełną przejrzystość, kiedy jest używana, a także dostępne publicznie informacje o tym, jak to działa”.
Clearview AI opuścił kanadyjski rynek latem 2020, ale obawy dotyczące zdjęć, które zebrała firma pozostają.