Australijska policja federalna wykorzystuje sztuczną inteligencję do przetwarzania ogromnych ilości danych w dochodzeniach
Australijska policja federalna (AFP) twierdzi, że nie miała wyboru i musiała zacząć intensywnie korzystać ze sztucznej inteligencji (AI), aby radzić sobie z ogromną ilością danych analizowanych w dochodzeniach. Benjamin Lamont, menedżer ds. strategii technologicznej i danych w AFP, podczas konferencji Microsoft AI w Sydney poinformował, że przeciętne dochodzenie agencji obejmuje aż 40 terabajtów danych.
Do tej liczby zalicza się materiały z 58 000 zgłoszeń rocznie do Centrum ds. Wykorzystywania Dzieci oraz dane dotyczące cyberincydentów, które zgłaszane są średnio co sześć minut.
„To poza skalą ludzkich możliwości, dlatego musimy opierać się na sztucznej inteligencji” – powiedział Lamont. „Wykorzystujemy AI w wielu obszarach”.
Sztuczna inteligencja w praktyce AFP
AFP korzysta z narzędzi Microsoftu do opracowywania własnej sztucznej inteligencji, która wspiera pracę agencji. Przykłady obejmują tłumaczenie sześciu milionów wiadomości e-mail w języku hiszpańskim oraz analizę 7 000 godzin materiału wideo. Jeden z analizowanych zestawów danych liczy aż 10 petabajtów (10 240 terabajtów), a pojedynczy telefon skonfiskowany w dochodzeniu może zawierać nawet 1 terabajt danych.
Większość zadań wykonywanych z pomocą AI dotyczy porządkowania danych, aby ułatwić ich analizę funkcjonariuszom. „Kiedy przeprowadzamy rewizję, często znajdujemy szuflady pełne starych telefonów komórkowych” – mówi Lamont. „Musimy sprawdzić, czy te urządzenia były używane do popełnienia przestępstw”.
Potencjalne zastosowania generatywnej AI
AFP bada również możliwość wykorzystania generatywnej AI do tworzenia tekstowych podsumowań zdjęć lub filmów, co miałoby na celu ochronę funkcjonariuszy przed bezpośrednim narażeniem na drastyczne treści. Testowane są też technologie konwertujące obrazy do skali szarości lub usuwające dźwięk, aby zmniejszyć ich wpływ psychologiczny.
Kontrowersje wokół stosowania AI
AFP spotkała się z krytyką za wykorzystanie technologii AI, szczególnie w związku z korzystaniem z systemu rozpoznawania twarzy Clearview AI, opartego na zdjęciach pobranych z internetu. Lamont przyznał, że „AFP nie zawsze podejmowało właściwe decyzje”. Dodał jednak, że istotne jest prowadzenie publicznej dyskusji o wykorzystywaniu AI oraz zapewnienie, że w podejmowaniu decyzji wspomaganych sztuczną inteligencją zawsze uczestniczy człowiek.
źródło