Sztuczna inteligencja udostępnia masom fałszywą pornografię
Sztuczna inteligencja udostępnia masom fałszywą pornografię
Nieletnie kanadyjskie licealistki są celem ataków z wykorzystaniem sztucznej inteligencji do tworzenia fałszywych zdjęć pornograficznych, które rozprzestrzeniają się w Internecie. Kanadyjskie prawo nie nadąża za rozwojem AI.
Wyszukiwanie w Google prowadzi do wielu darmowych stron internetowych, które są w stanie “rozebrać” kobiety w ciągu kilku minut. Ofiarą fałszywej pornografii padła jedna z największysz gwiazd muzyki pop, a jej zdjęcia są oglądane dziesiątki milionów razy. To nowa era sztucznej pornografii dla mas.
Technologia wymagana do tworzenia przekonującej fałszywej pornografii istnieje od lat, ale eksperci ostrzegają, że jest ona szybsza i bardziej dostępna niż kiedykolwiek, co stanowi pilne wyzwanie dla kanadyjskich decydentów.
Postępy w dziedzinie sztucznej inteligencji umożliwiły zrobienie za pomocą telefonu komórkowego tego, co kiedyś wymagałoby superkomputera, powiedział Philippe Pasquier, profesor kreatywnej sztucznej inteligencji na Uniwersytecie Simona Frasera w Wielkiej Brytanii. Twierdzi, że społeczeństwo “straciło pewność” co do tego, co jest prawdziwe, a co nieprawdziwe. “Technologia stała się nieco lepsza w laboratoriach, ale przede wszystkim poprawiła się jakość technologii, do której każdy ma dostęp” – powiedział. “Jeśli zwiększysz dostępność technologii, musisz się liczyć z tym, że przyciągnie wszystkich – dobrych i złych graczy”.
W całej Kanadzie ustawodawcy starają się nadążyć za zmianami. Osiem prowincji uchwaliło przepisy dotyczące zdjęć intymnych, ale tylko połowa z nich odnosi się do zdjęć zmienionych przy pomocy AI.
B.C. dołączyła niedawno do Wyspy Księcia Edwarda, Saskatchewan i Nowego Brunszwiku. Prawo B.C., które weszło w życie 29 stycznia, pozwala ludziom udać się do sądu cywilnego w celu usunięcia intymnych zdjęć, niezależnie od tego, czy są one prawdziwe, czy fałszywe, ścigać sprawców i firmy internetowe za szkody.
Osoby fizyczne będą karane grzywną w wysokości do 500 CAD dziennie, a strony internetowe do 5000 CAD dziennie, jeśli nie zastosują się do nakazów zaprzestania rozpowszechniania zdjęć opublikowanych bez zgody.
Premier B.C. David Eby powiedział, że niedawne udostępnienie fałszywych zdjęć gwiazdy pop Taylor Swift udowodniło, że nikt nie jest odporny na takie “ataki”.
Prokurator generalna Niki Sharma powiedziała w wywiadzie, że obawia się, że ludzie nie zgłaszają się, gdy padają ofiarą udostępniania intymnych zdjęć bez ich zgody, prawdziwych lub nie. “Nasze systemy prawne muszą przyspieszyć, jeśli chodzi o wpływ technologii na społeczeństwo i jednostki, i to jest dobry przykład” – powiedziała o nowych przepisach.
Prowincja stwierdziła, że nie może dostarczyć konkretnych danych na temat zakresu obrazów zmienionych przez sztuczną inteligencję i deepfake’ów. Ale takie przypadki były czasami upubliczniane gdzie indziej.
W grudniu szkoła w Winnipeg powiadomiła rodziców, że w Internecie krążą zdjęcia nieletnich uczennic wygenerowane przez sztuczną inteligencję. Co najmniej 17 zdjęć pobranych z mediów społecznościowych uczniów zostało wyraźnie zmienionych przy użyciu sztucznej inteligencji. Przedstawiciele szkoły powiedzieli, że skontaktowali się z policją i udostępnili wsparcie dla uczniów bezpośrednio lub pośrednio dotkniętych problemem. “Jesteśmy wdzięczni za odwagę uczniów, którzy zwrócili na to naszą uwagę” – powiedział Christian Michalik, kurator Louis Riel School Division, w liście do rodziców, który został również opublikowany na Facebooku przez powiernika wydziału szkolnego.
Manitoba ma przepisy dotyczące wizerunku intymnego, ale nie odnoszą się one do zmienionych zdjęć.
Brandon Laur jest dyrektorem generalnym White Hatter, firmy z siedzibą w Victorii, zajmującej się bezpieczeństwem w Internecie. Firma przeprowadziła niedawno eksperyment i odkryła, że wirtualne rozebranie w pełni ubranej kobiety zajęło tylko kilka minut przy użyciu bezpłatnych stron internetowych, co Laur nazwał “szokującym”.
Kobieta użyta w eksperymencie nie była prawdziwa – została również stworzona za pomocą sztucznej inteligencji. “To dość zaskakujące” – powiedział Laur w wywiadzie. “Mamy do czynienia z przypadkami (fałszywych zdjęć seksualnych) od początku 2010 roku, ale wtedy był to tylko Photoshop. Dzisiaj jest to o wiele prostsze i to bez żadnych umiejętności”.
Eksperyment White Hatter wykorzystał Google do znalezienia siedmiu łatwo dostępnych i przyjaznych dla użytkownika stron internetowych i aplikacji zdolnych do tworzenia tak zwanych “głębokich aktów”. Na oryginalnym zdjęciu młoda kobieta ubrana w niebieską koszulę z długim rękawem, białe spodnie i trampki idzie w kierunku widza. W kolejnych scenach jest naga, częściowo naga lub w bieliźnie; White Hatter ocenzurował powstałe obrazy czarnymi paskami.
Angela Marie MacDougall, dyrektor wykonawczy Battered Women’s Support Services, powiedziała, że wielokrotnie konsultowano się z jej organizacją w sprawie przepisów obowiązujących w Kolumbii Brytyjskiej. Podkreśliła, że przypadek Swift podkreśla pilną potrzebę wprowadzenia kompleksowych przepisów w celu zwalczania fałszerstw w mediach społecznościowych i pochwaliła prowincję za uznanie tego za priorytet. Powiedziała jednak, że ustawodawstwo jest ukierunkowane na niekonsensualną dystrybucję obrazów o jednoznacznej treści, a kolejnym “kluczowym krokiem” jest stworzenie przepisów ukierunkowanych na twórców niekonsensualnych obrazów.
“To bardzo konieczne” – powiedziała. “Jest tam luka. Istnieją inne możliwości, które wymagałyby dostępu do zasobów, a kobiety, z którymi pracujemy, nie byłyby w stanie zatrudnić prawnika i przeprowadzić prawnego procesu cywilnego dotyczącego tworzenia zdjęć… ponieważ oczywiście kosztuje to niemałe pieniądze “.
Dla ofiar mogą jednak istnieć inne drogi prawne.
Suzie Dunn, asystentka profesora prawa na Uniwersytecie Dalhousie w Halifaksie, powiedziała, że istnieje kilka przepisów, które mogą mieć zastosowanie do deepfake’ów i zmienionych obrazów, w tym te związane ze zniesławieniem i naruszeniem prywatności.
“Jest to nowa kwestia społeczna, która pojawia się wraz z treściami generowanymi przez sztuczną inteligencję, generatorami obrazów i deepfake’ami, gdzie pojawia się ten rodzaj nowej szkody społecznej, która nie pasuje idealnie do żadnej z istniejących kategorii prawnych, które mamy” – powiedziała. Dodała, że niektóre formy fałszerstw mogą zasługiwać na wyjątki, takie jak satyra.
“Wraz z rozwojem technologii prawo nieustannie musi nadrabiać zaległości i trochę się martwię, że w przypadku generatywnej sztucznej inteligencji może dojść do konieczności nadrabiania zaległości”.
Pablo Tseng, prawnik zajmujący się własnością intelektualną w Vancouver, powiedział, że deepfakes “przyspieszają” kwestię, która istnieje od dziesięcioleci: wprowadzanie w błąd.
“Zawsze istniał zbiór przepisów prawnych, które były ukierunkowane na wprowadzanie w błąd, które istniały od dawna i które nadal mają zastosowanie do deepfake’ów, (w tym) delikty zniesławienia, wprowadzenia w błąd lub rzucania fałszywego światła oraz delikt przywłaszczenia dóbr osobistych”. Powiedział jednak, że konkretne przepisy, takie jak ustawodawstwo B.C., są krokami we właściwym kierunku w celu dalszego zwalczania tej kwestii, w połączeniu z istniejącymi przepisami.
Tseng powiedział, że wie o jednej sprawie z Quebecu, która pokazała, w jaki sposób niewłaściwe wykorzystanie technologii deepfake może podlegać przepisom dotyczącym pornografii dziecięcej. Sprawa ta doprowadziła do skazania na ponad trzy lata więzienia 61-letniego mężczyzny, który wykorzystał sztuczną inteligencję do produkcji fałszywych filmów z pornografią dziecięcą. Tseng powiedział jednak, że nie słyszał o żadnym wyroku, w którym technologia ta jest przywoływana w kontekście wprowadzania w błąd.
“Oczywiste jest, że to, że nie wydano żadnego wyroku, nie oznacza, że nie dzieje się to wokół nas. Taylor Swift to tylko najnowszy przykład z szeregu innych przykładów, w których twarze, osobowości i portrety celebrytów zostały po prostu niewłaściwie wykorzystane” – powiedział.
Dunn powiedziała, że jej zdaniem moderowanie treści przez strony internetowe jest prawdopodobnie najlepszym rozwiązaniem. Wezwała wyszukiwarki, takie jak Google, do odindeksowania stron internetowych skupionych głównie na tworzeniu seksualnych deepfake’ów.
“Myślę, że w pewnym momencie niektórzy ludzie po prostu się poddadzą, nawet ludzie tacy jak Scarlett Johansson czy Taylor Swift, ponieważ produkuje się tak wiele treści i jest tak niewiele możliwości dochodzenia roszczeń prawnych, ponieważ musiałbyś pozwać każdą osobę, która je udostępnia” – powiedziała Dunn.
Chociaż większość deepfake’ów wideo dotyczy celebrytów, zdarzają się przypadki, w których celem są “zwykłe kobiety”.
“Wszystko, co musisz mieć, to jeden nieruchomy obraz osoby, który możesz wprowadzić do tych generatorów nagich obrazów, a on po prostu tworzy nieruchomy obraz, który wygląda, jakby był nagi”.
Australijska aktywistka Noelle Martin jest świadoma niebezpieczeństwa aż za dobrze. 29-latka powiedziała w wywiadzie, że około 10 lat temu przeszukała swoje zdjęcia w Google. Jej ciekawość przerodziła się w upokorzenie, gdy znalazła fałszywe zdjęcia przedstawiające ją w seksualnym świetle.
“To najbardziej szokujące, bolesne i odczłowieczające doświadczenie, przez jakie kiedykolwiek przeszłam” – powiedziała w wywiadzie. “Oglądanie siebie przedstawionej w różnych pozycjach i okolicznościach, w najbardziej graficzny i poniżający sposób, jest obrzydliwe”. Kobieta poszła na policję, ale ponieważ w tamtym czasie nie było żadnych przepisów zakazujących takiej działalności, powiedziano jej, aby skontaktowała się ze stronami internetowymi i spróbowała usunąć zdjęcia. Niektórzy zobowiązali się pomóc, ale inni nie zareagowali, a fałszywe obrazy – a ostatecznie filmy – nadal się mnożyły.
Martin zaczęła wypowiadać się publicznie, opowiadając się za krajowym australijskim prawem, które nakładałoby na firmy grzywny w wysokości tysięcy dolarów, gdyby nie zastosowały się do nakazów usunięcia. Ustawa została przyjęta w 2018 roku. Martin, który obecnie pracuje jako badacz prawa na Uniwersytecie Australii Zachodniej, powiedziała, że globalne podejście do zwalczania tego problemu jest konieczne, biorąc pod uwagę “bezgraniczny” charakter Internetu, ale musi zacząć się lokalnie.
Chociaż ostatnie rozmowy na temat niewłaściwego wykorzystania sztucznej inteligencji koncentrowały się na osobach publicznych, Martin ma nadzieję, że uwaga skupi się na “zwykłych kobietach”. “Nie tylko nie mamy przepisów w niektórych jurysdykcjach, ale w wielu z nich nie są one egzekwowane. Kiedy umieścimy to w kontekście tego, że takie działanie staje się tak łatwe i szybkie dla ludzi, jest to przerażające, ponieważ dokładnie wiem, jak to będzie wyglądać” – powiedziała. “To nie będzie doświadczenie, które widzimy na przykład w przypadku Taylor Swift. Świat nie zjednoczy się wokół zwykłej osoby ani nie pomoże jej usunąć zdjęć, a firmy technologiczne nie zareagują na nie w sposób, który by je chronił”.