Jak rząd federalny Kanady wykorzystuje AI
Jak rząd federalny Kanady wykorzystuje AI
Nowe badania wykazały, że rząd federalny Kanady wykorzystał sztuczną inteligencję w prawie 300 projektach i inicjatywach – w tym w celu przewidzenia wyniku spraw podatkowych, sortowania wniosków o wizę tymczasową i promowania różnorodności w procesie zatrudniania.
Joanna Redden, profesor nadzwyczajny na Western University, stworzyła bazę danych, korzystając z doniesień prasowych, dokumentów złożonych w parlamencie i wniosków o dostęp do informacji. Spośród 303 zautomatyzowanych narzędzi znajdujących się w rejestrze 95 procent było używanych przez agencje rządu federalnego.
„Potrzebujemy znacznie szerszej debaty publicznej na temat tego, jakiego rodzaju systemy należy stosować, a także powinno być dostępnych publicznie więcej informacji na temat sposobu, w jaki te systemy są wykorzystywane” – stwierdziła Redden w wywiadzie. Profesorka argumentowała, że dane ujawniają problem z zaproponowanym przez rząd liberalny projektem ustawy o sztucznej inteligencji i danych, pierwszym federalnym projektem ustawy skierowanym specjalnie na AI.
„Ten akt prawny nie będzie dotyczył w dużej mierze wykorzystywania AI przez rząd. Liczba zastosowań, które zidentyfikowaliśmy, pokazuje, jaki to problem” – powiedziała.
Ustawa C-27 wprowadziłaby na przykład nowe zobowiązania dla „systemów o wysokim wpływie”, takich jak wykorzystanie AI w zatrudnieniu. A to coś, z czym eksperymentował Departament Obrony Narodowej, wykorzystując sztuczną inteligencję do ograniczania stronniczości przy podejmowaniu decyzji o zatrudnieniu w ramach programu, który zakończył się w marcu 2021 r.
Rzecznik powiedział, że departament korzystał z jednej platformy do tworzenia krótkiej listy kandydatów na rozmowę kwalifikacyjną, a inną wykorzystał do oceny „osobowości danej osoby, jej zdolności poznawczych i umiejętności społecznych” oraz dopasowywania ich do profili. Kandydaci wyrazili wyraźną zgodę, a dane wpływały na proces decyzyjny człowieka.
Immigration, Refugees and Citizenship Canada stwierdziło, że dwa projekty pilotażowe z 2018 roku mające na celu pomóc urzędnikom w sortowaniu wniosków o wizy na pobyt czasowy, nabrały charakteru stałego. Departament wykorzystuje „narzędzia sztucznej inteligencji do sortowania wniosków i określania pozytywnej kwalifikowalności”. Z rejestru wynika również, że wydział wykorzystuje sztuczną inteligencję do rozpatrywania wniosków o pozwolenie na studia składanych przez osoby z innych krajów, choć rzecznik powiedział, że nie wykorzystuje sztucznej inteligencji do „ostatecznego podejmowania decyzji”. Automatyczne systemy departamentu nie mogą odrzucić wniosku ani zalecić jego odrzucenia, powiedział rzecznik.
Nie wszystkie eksperymenty stają się stałymi inicjatywami.
Kanadyjska Agencja Zdrowia Publicznego oświadczyła, że przerwała projekt analizujący publicznie dostępne informacje z mediów społecznościowych w poszukiwaniu sygnałów ostrzegawczych dotyczących samobójstwa ze względu na takie czynniki, jak koszty i „metodologie”. Z drugiej strony Health Canada w dalszym ciągu korzysta z narzędzia do śledzenia w mediach społecznościowych z „podstawowym komponentem AI” do przeszukiwania internetu w poszukiwaniu wzmianek o incydentach związanych z produktem konsumenckim, powiedział rzecznik.
Niektóre z eksperymentów byłyby znane Kanadyjczykom – na przykład Królewska Marynarka Wojenna Kanady, wypróbowała system podobny do Siri firmy Apple lub Alexa firmy Amazon do werbalnego przekazywania poleceń na okręty. Rzecznik powiedział, że wysiłki na rzecz zintegrowania technologii aktywowanej głosem na okrętach wojennych są kontynuowane, ale „względy bezpieczeństwa informacji” należy „rozważyć, zanim będzie można zastosować taką technologię”.
Sztuczna inteligencja jest również wykorzystywana do badań i prognoz prawnych.
Kanadyjska Agencja Skarbowa (CRA) stwierdziła, że korzysta z systemu, który pozwala użytkownikom wprowadzać zmienne związane ze sprawami sądowymi. Dzięki temu „szacują spodziewany wynik, używając analiz do przewidzenia, jak sąd najprawdopodobniej zdecydowałby w określonej sytuacji, na podstawie istotności i historycznych decyzji sądowych.“
Kanadyjskie Instytuty Badań nad Zdrowiem korzystają z oprogramowania do podejmowania decyzji w zakresie stosunków pracy. Rejestr porównuje konkretną sytuację z poprzednimi sprawami i symuluje, jak różne fakty mogą wpłynąć na wynik.
W Biurze Nadzoru Bankructwa (Office of the Superintendent of Bankruptcy) AI flaguje anomalie w zgłoszeniach majątkowych. Rzecznik powiedział, że system wykrywa „potencjalne niezgodności dłużników na podstawie kluczowych cech znalezionych w zgłoszeniach upadłościowych”. Przypadki wytypowane przez system są oceniane przez analityków.
W rejestrze znajdują się także przykłady wykorzystania sztucznej inteligencji przez RCMP. Rzecznik potwierdził, że RCMP wykorzystuje sztuczną inteligencję do identyfikowania materiałów przedstawiających przemoc na tle seksualnym wobec dzieci oraz do pomocy w ratowaniu ofiar. W przypadku legalnie uzyskanych danych wewnętrznych zastosowano także wielokrotnie „rodzaj technologii rozpoznawania twarzy zwany dopasowywaniem twarzy”. Rozpoznawanie twarzy jest również wykorzystywane przez Kanadyjską Agencję Służb Granicznych. Rzecznik powiedział, że agencja dobrowolnie korzysta z tej technologii, aby „pomagać w uwierzytelnianiu tożsamości przylatujących podróżnych” za pośrednictwem kiosków na niektórych lotniskach.
Redden podkreśla, że istnieje wiele powodów, aby zadawać pytania na temat rozpoznawania twarzy, w tym przykłady w Stanach Zjednoczonych, gdzie doprowadziło to do bezprawnych aresztowań. Ogólnie rzecz biorąc, argumentowała, że rząd powinien lepiej śledzić własne wykorzystanie AI.
Rząd federalny powiedział, że w przypadkach, gdy wykorzystanie AI „może mieć znaczący wpływ”, na przykład przy podejmowaniu decyzji administracyjnych, jego dyrektywa w sprawie zautomatyzowanego podejmowania decyzji wymaga oceny wpływu algorytmicznego. Oceny te są następnie publikowane w rejestrze publicznym. Rejestr ma obecnie tylko 18 wpisów.
Zapytany, dlaczego liczba ta jest o wiele mniejsza niż całkowita liczba Reddena powiedziała, że dyrektywa i rejestr „koncentrują się szczególnie na zastosowaniach sztucznej inteligencji mających bezpośredni wpływ na osoby fizyczne lub przedsiębiorstwa. Wiele zastosowań AI w rządzie federalnym nie podlega temu kryterium“
Jeden z takich przykładów: technologia używana do obserwowania natury. Kanadyjska Agencja Inspekcji Żywności wykorzystuje uczenie maszynowe do śledzenia inwazyjnych roślin, owadów i mięczaków.
Rzecznik powiedział, że agencja wykorzystuje narzędzie AI do przeszukiwania społecznościowej sieci, która gromadzi obserwacje roślin i zwierząt. Kanadyjski Departament Rybołówstwa i Oceanografii (Fisheries and Oceans Canada) mówi, że wykorzystuje AI do „wykrywania ssaków morskich na podstawie obrazów lotniczych, z dronów i satelitarnych”.
Kompilacja danych na podstawie ograniczonych informacji z różnych źródeł zajęła profesor Redden dwa lata. Dostępne informacje często nie wskazują, kiedy system sztucznej inteligencji został wprowadzony i dlaczego, czy nadal istnieje, jakie dane są wykorzystywane lub czy wystąpiły jakieś problemy z systemem – stwierdziła. „Osobom z zewnątrz bardzo trudno jest wykonywać tego rodzaju pracę”.
Nie jest jasne, co stało się z niektórymi projektami pilotażowymi udokumentowanymi przez Redden. Z dokumentu złożonego w parlamencie ze stycznia 2023 r. wynika, że Kanadyjska Agencja Służb Granicznych oświadczyła, że opracowuje algorytm prześwietleń rentgenowskich w celu automatycznego wykrywania broni i części broni, podczas gdy Global Affairs Canada eksperymentowała z notatkami informacyjnymi generowanymi przez AI.
Dział Global Affairs nie odpowiedział na prośbę o więcej informacji, a CBSA odmówiła udzielenia aktualizacji tych działań. „Chociaż możemy powiedzieć, że CBSA obecnie uważnie śledzi rozwój algorytmów uczenia maszynowego do rentgenowskiego automatycznego wykrywania przedmiotów zainteresowania, nie ujawniamy szczegółów dotyczących konkretnego celu, egzekwowania ani informacji wywiadowczych, ponieważ może to sprawić, że staną się one nieskuteczne” – powiedziała agencja.
Rejestr pokazuje jak powszechne jest stosowanie AI w organach rządowych w Kanadzie i jak mało wiemy o tym zastosowaniu – stwierdziła Redden.