Jak sztuczna inteligencja może zostać oszukana dzięki drukowaniu 3D ... i naklejkom

To była reakcja, na którą liczyli naukowcy. Używając subtelnych zmian niedostrzegalnych dla ludzkiego oka, zmienili obiekty w sposób, który uczyniłby je nierozpoznawalnymi dla sztucznej inteligencji. Technika ta jest określana jako atak przeciwnika, sposób na oszukanie sztucznej inteligencji bez widocznego dla ludzi.

Piosenka wspomniała również o sztuczce, w której umieszczono Hello Kitty w widoku rozpoznawania obrazów AI sceny ulicznej . Samochody na scenie po prostu zniknęły. Jeśli świat pełen autonomicznych samochodów rzeczywiście pojawi się w przyszłości, jak mówią wielu, katastroficzne wypadki mogą być spowodowane przez hakerów zakłócających wizję rozpoznawania obrazu. Właśnie dlatego eksperymenty takie są wykonywane przez naukowców - aby uwydatnić słabości tych systemów, aby można było je ulepszyć CD3D .

Najstraszniejsze jest to, że hakerzy mogą potencjalnie zmieniać obrazy, aby oszukać AI bez świadomości ludzi. W tak zwanym ataku białej skrzynki hakerzy widzą gradienty AI, które opisują, jak niewielka zmiana obrazu wejściowego lub dźwięku może przesuwać wyjście w określonym kierunku. Znając gradienty, hakerzy mogą obliczyć, jak nieznacznie zmieniać dane wejściowe, trochę po trochu, aby utworzyć nieprawidłowy wynik, powodując, że sztuczna inteligencja na przykład wywołuje żółwia karabinu. To duża zmiana w sztucznej inteligencji, ale tak lekka, że ​​ludzie jej nie widzą.

Twórcy sztucznej inteligencji pracują nad technikami walki z tymi atakami. Na przykład jedna technika osadza kompresję obrazu jako krok w AI rozpoznawania obrazu. To dodaje nierówności do gradientów. Ale te metody również mogą być sprytnie przechytrzone. W innej niedawno opublikowanej pracy zespół naukowców przeanalizował dziewięć algorytmów rozpoznawania obrazów z niedawnej konferencji. Siedem algorytmów polegało na zaciemnianiu gradientów, a zespół był w stanie zerwać wszystkie siedem metod, np. Unikając kompresji obrazu. Kazda sprawa nie trwała dłużej niż kilka dni.

Inną możliwością jest wyszkolenie algorytmu z pewnymi ograniczeniami, które uniemożliwiają mu pomylenie, przy użyciu weryfikowalnych, matematycznych metod. Song jest jednak zaniepokojony realnymi ograniczeniami tych zabezpieczeń.

"Nie ma matematycznej definicji pieszego, więc jak możemy udowodnić, że samozasilający się samochód nie wpadnie na pieszego ?" powiedziała. "Nie możesz!"

Te przykłady są niepokojącymi przypomnieniami o tym, jak niedoskonałesztuczna inteligencja jest i jak łatwo może być zepsuta. Czy powinniśmy zatem całkowicie zrezygnować z idei autonomicznych samochodów? Oczywiście, że nie - ale faktem jest, że przy każdej technologii dochodzi do ciągłego wyścigu pomiędzy hakerami i tymi, którzy próbują chronić się przed hackowaniem. Fakt, że te słabości zostały ujawnione, oznacza, że ​​programiści i programiści mogą lepiej przygotować się do takich ataków, i prawdopodobnie uczynić swoje algorytmy sztucznej inteligencji bardziej niezawodnymi przez czas, kiedy widzimy ulice wypełniające się autonomicznymi samochodami.

If chcesz przeczytać pełny artykuł, zatytułowany "Synthesizing Solid Assurarial Examples", o drukowanych elementach 3D używanych do oszukania AI, możesz uzyskać do niego dostęp tutaj. Autorzy to Anish Athalye, Logan Engstrom, Andrew Ilyas i Kevin Kwok.