Sztuczna inteligencja może mieć katastrofalne skutki – czy Kanada jest gotowa?
Sztuczna inteligencja może mieć katastrofalne skutki – czy Kanada jest gotowa?
Wielu krajom – w tym Kanadzie – kończy się czas na zaprojektowanie i wdrożenie kompleksowych zabezpieczeń dotyczących opracowywania i wdrażania zaawansowanych systemów sztucznej inteligencji – ostrzegła w tym tygodniu wiodąca firma zajmująca się bezpieczeństwem sztucznej inteligencji.
W najgorszym przypadku żądne władzy nadludzkie systemy sztucznej inteligencji mogłyby wymknąć się spod kontroli swoich twórców i stanowić zagrożenie dla ludzkości „na poziomie wyginięcia” – napisali badacze sztucznej inteligencji w raporcie zamówionym przez Departament Stanu USA zatytułowanym Defence in Depth: An Action Plan to Increase the Safety and Security of Advanced AI. (Głęboki poziom obrony – plan działania mający na celu zwiększenie bezpieczeństwa i ochrony zaawansowanej sztucznej inteligencji).
Departament upiera się, że poglądy wyrażone przez autorów raportu nie odzwierciedlają poglądów rządu USA. Jednak przesłanie raportu przywraca dotychczasowe działania kanadyjskiego rządu w zakresie bezpieczeństwa i regulacji dotyczących sztucznej inteligencji, a jeden z parlamentarzystów z Partii Konserwatywnej ostrzega, że proponowana przez rząd ustawa o sztucznej inteligencji i danych (Artificial Intelligence and Data Act) jest już nieaktualna.
Autorem raportu jest amerykańska firma Gladstone AI, która opowiada się za odpowiedzialnym rozwojem bezpiecznej sztucznej inteligencji. Ostrzeżenia zawarte w nim można podzielić na dwie główne kategorie. Pierwsza dotyczy ryzyka utraty przez twórców sztucznej inteligencji kontroli nad systemem sztucznej inteligencji ogólnej (AGI). Autorzy definiują AGI jako system sztucznej inteligencji, który może przewyższyć ludzi we wszystkich dziedzinach istotnych ekonomicznie i strategicznie. Choć do chwili obecnej nie istnieją żadne systemy AGI, wielu badaczy sztucznej inteligencji uważa, że są one już niedaleko. „Istnieją dowody sugerujące, że w miarę jak zaawansowana sztuczna inteligencja osiągnie poziom ludzkich i nadludzkich ogólnych możliwości podobnych do AGI, może w rzeczywistości wymknąć się spod kontroli.
W szczególności w przypadku braku środków zaradczych wysoce wydajny system sztucznej inteligencji może angażować się w tak zwane zachowania polegające na poszukiwaniu władzy” – napisali autorzy, dodając, że te zachowania mogą obejmować strategie zapobiegające wyłączeniu samej sztucznej inteligencji lub modyfikacji jej celów.
W najgorszym przypadku autorzy raportu ostrzegają, że taka utrata kontroli „może stanowić zagrożenie dla gatunku ludzkiego na poziomie wyginięcia”. „Istnieje ryzyko, że te systemy zaczną działać niebezpiecznie kreatywnie. Są w stanie wymyślić niebezpiecznie kreatywne strategie, które osiągną zaprogramowane cele, a jednocześnie będą miały bardzo szkodliwe skutki uboczne. To rodzaj ryzyka, na które patrzymy w przypadku utraty kontroli ” – powiedział w czwartek w wywiadzie dla „Power & Politics” dyrektor generalny Gladstone AI, Jeremie Harris, jeden z autorów raportu.
„Jednym z przykładów jest ryzyko cybernetyczne” – Harris powiedział gospodarzowi P&P Davidowi Cochrane’owi. „Widzimy już na przykład autonomicznych agentów. Możesz teraz udać się do jednego z tych systemów i zapytać… «Hej, chcę, żebyś zbudował dla mnie aplikację, prawda?». To niesamowita rzecz. To w zasadzie automatyzacja inżynierii oprogramowania. Cała ta branża. To coś cholernie dobrego.