Po co wojskowemu dronowi sztuczna inteligencja

Działania wojenne od zawsze testowały ludzkie emocje czy postawy moralne. Czasami wyzwalały leżące w naszej naturze niewyobrażalne zło. W innych przypadkach pchały do heroicznych czynów. Jednak nawet bez osiągania maksymalnych odchyleń na skali ludzkich zachowań, pozostawiały często niezabliźnione rany w umysłach weteranów.

Dopiero całkiem niedawno – u schyłku zeszłego wieku - udało się lekarzom wychwycić i zdiagnozować zespół stresu pourazowego (z ang, PTSD), wpływający na emocje i psychiczne traumy żołnierzy wracających z wojny. Okazało się również, że na schorzenie cierpią także operatorzy wojskowych dronów – mimo braku zaangażowania w konflikt zbrojny.

W obecnych realiach drony wojskowe są sterowane przez satelitę, Każdorazowa zmiana namierzanych obiektów, lub decyzja o ich eliminacji, jest podejmowana przez człowieka. Operator maszyny ma również za zadanie prowadzić wystrzelone pociski na wybrane cele.

Schemat działania z oczywistych względów powoduje, że osoby - kierujące pracą dronów -ponoszą odpowiedzialność związaną z wykorzystaniem latających maszyn. Zarówno operacyjną, prawną, a nade wszystko etyczną. Szczególnie gdy celem ataku jest osoba fizyczna.

Właśnie z powodu ograniczenia ludzkiej odpowiedzialności i – konieczności życia w cieniu wojennej traumy, armia amerykańska rozważa wprowadzenie autonomicznych dronów wojskowych.

Peter Lee, specjalista z Uniwersytetu w Portsmouth, na łamach The Conversation zwraca uwagę, że części naukowców twierdzi, iż brak bezpośredniego zaangażowania operatorów maszyn w podejmowanie decyzji o fizycznej eliminacji namierzanych celów, zredukuje objawy stresu pourazowego.

Ten sam Peter Lee dodaje zaraz, że równie liczna grupa badaczy uważa, że wojskowi nadal będą narażeni na traumy. Na urazy psychiczne mogą być narażeni chociażby pracownicy wywiadu, analizujących materiał filmowy z obszarów działań wojennych. Z drugiej strony brak kontaktu wzrokowego z efektem podejmowanych decyzji, niekoniecznie zmniejsza odpowiedzialność i obciążenia psychiczne. Demony rodzące się w naszych umysłach są często dużo potworniejsze, niż świat realny.

Eliminowanie ludzi z procesów sterowania i decydowania o likwidacji śledzonych obiektów, przenosi działania militarne w nową erę. Użycie bezzałogowych maszyn, podejmujących decyzję o wyborze celów oraz ich ewentualnej eliminacji, może zmienić działania wojenne w eksterminację. Problem powierzenia losów akcji militarnych maszynie rodzi oczywiście szereg pytań prawnych i etycznych.

Nie bez znaczenia dla bezpieczeństwa państwa, będzie poszerzenie ewentualnych działań odwetowych. Obiektem ataków mogą się stać zarówno spółki opracowujące zaawansowane projekty z dziedziny sztucznej inteligencji, jak również pojedynczy inżynierowie czy naukowcy.

Są jeszcze dwie kwestie. Być może autonomiczność decyzji podejmowanych przez wojskowego drona zmniejszy występowanie objawów PTSD. Jednak pozostaje sprawa odpowiedzialności prawnej i moralnej, które nie znikają wraz z wyeliminowaniem ludzi z procesu sterowania, wyznaczania celów i ich eliminacji.

Skoro za swoje czyny nie będą mogli być pociągnięci operatorzy, kolejni w ogniwie są twórcy oprogramowania i spółki dostarczające rozwiązań informatycznych, opartych na sztucznej inteligencji. I to nawet nie działających bezpośrednio dla wojska. Przykład pierwszy z brzegu. Co się stanie gdy armia amerykańska wykorzysta system rozpoznawania twarzy i bazę zdjęć - np. Google’a, do namierzania groźnych terrorystów, a te błędnie wskażą niewinnego człowieka, który następnie zostanie zabity. Czy właściciel oprogramowania do porównywania ludzkich fizjonomii nie odpowiada wówczas za błędną identyfikację?

Poza tym zaawansowane systemy sztucznej inteligencji są oparte na algorytmach, które umożliwiają im samouczenie się. W przypadku rozpoznawania na zdjęciach medycznych schorzeń taka praktyka przynosi zaskakujące efekty, o czym już pisałem wcześniej. Jednak w pierwszych krokach system trzeba było „nakarmić” danymi, zasilając go nie tylko odpowiednimi zdjęciami, ale też decyzjami diagnostycznymi specjalistów w swoich dziedzinach. Jak w takim razie zostanie przeszkolony - i w jakie dane zaopatrzony na starcie – algorytm wyszukiwania oraz eliminowania celów, zainstalowany w wojskowych dronach?

Dodatkowo wprowadzanie systemów, opartych na sztucznej inteligencji, odbywa się w momencie gdy ich efektywność przerasta ludzkie zdolności. W praktyce oznacza to, że maszyna ma więcej pozytywnych – lub mniej negatywnych – wskazań niż najlepsi ludzcy specjaliści, albo nawet cała ich grupa. Jednak wysoka skuteczność nie oznacza 100% pewności. Gdyby u podstaw podejmowania decyzji, na przykład o włączaniu sztucznej inteligencji w proces diagnostyki zdrowia pacjentów, leżała nieomylność, jeszcze przez dekady człowiek nie mógłby liczyć na wsparcie ze strony algorytmów.

Komentarze

Popularne posty z tego bloga

Polikulturalizm

Głos przeciw dochodowi podstawowemu

Czekając na drugą falę