Inteligentny robot
inteligentny asystent
Szukaj Menu

Czy ludzie mogą polegać na sztucznej inteligencji?

Inteligentny Asystent wcale Cię nie podsłuchuje, ale może być świadkiem morderstwa

Wyłącz światło Włącz światło

Nie od dziś wiadomo, że wiele procesów w różnych dziedzinach życia opartych jest na częściowej lub całkowitej automatyzacji. Algorytmy podejmują różne decyzje w celu ułatwienia i odciążenia pracy człowieka. Decydują za nas w mało widocznych miejscach, takich jak sygnalizacja świetlna oraz w bardzo skomplikowanych miejscach takich jak wyszukiwarka internetowa. Łatwo więc zauważyć, że algorytmy oparte na sztucznej inteligenci są na wagę złota, dlatego też “walka” o sztuczną inteligencję idealną już się zaczęła, tylko co czego jest nam ona wogóle potrzebna? i czy będzie w ogóle bezpieczna?

To zrozumiałe, że tak jak wielkie koncerny elektroniczne, również i wojsko nieustanie rozwija i testuje elektroniczne systemy do zarządzania procesami. Systemy dowodzenia, techniki rozpoznawania obiektów jak i zarządzanie polem walki już dziś dzięki postępowi techniki podwyższa poziom bezpieczeństwa na polu walki. Rozwój systemów oraz algorytmów w niedalekiej przyszłości może doprowadzić do automatyzacji podejmowanych decyzji o uruchomieniu broni ofensywnej. W przypadku broni defensywnych bardzo często decyzje o otworzeniu ognia lub użycia systemów bojowych podejmowane są już teraz przez w pełni automatyczne maszyny bez udziału człowieka.

Eksperci, politycy oraz przedstawiciele biznesu informatycznego ostrzegają, że problem związany z istnieniem broni autonomicznej nie jest abstrakcją. Od kilku lat prowadzone są coraz większe inicjatywy nagłaśniające te kwestie. Oczekuje się również od Stanów Zjednoczonych wynegocjowania wiążącego traktatu i wytyczenia granic autonomii systemów uzbrojenia by zagwarantować bezpieczeństwo ludzkości.

Brytyjska organizacja pozarządowa „Article 36” skupiająca swoją uwagę na broni autonomicznej twierdzi, że polityczna kontrola uzbrojenia powinna być regularna i oparta na publicznie dostępnych, przejrzystych analizach.

Jedną z ostatnich inicjatyw międzynarodowych jest tegoroczny list sygnowany przez bostońską organizację Future of Life Institute. Aż 160 firm związanych z technologiami sztucznej inteligencji w 36 krajach i 2400 osób, podpisało deklarację ustalającą, że autonomiczna broń stanowi wyraźne zagrożenie dla ludzkości i dlatego nie będą oni uczestniczyć w jej rozwijaniu. Dokument podpisali między innymi Elon Musk, Demis Hassabis, Toby Walsh, Stuart Russell, Yoshua Bengio oraz Anca Dragon.

Regulacje są potrzebne, ale są nierealne

Sprawa tego typu inicjatyw jest trudna. Z jednej strony możliwość kontroli nad wojskowymi przedsięwzięciami jest niewykonalna. Dopiero podczas otwartego konfliktu międzynarodowego, można sprawdzić jakie technologie są faktycznie w użyciu.

Z drugiej strony przeszkodą do wypracowania jasnych norm i ustaleń jest trudna natura algorytmów. Wszyscy postrzegają broń jako materialny przedmiot, którego użycie może być zakazane lub nie. W przypadku oprogramowania, algorytmu, sieci neuronowych czy sztucznej inteligencji, regulacje prawne nie istnieją.

Dodatkowo pojawia się też problem z odpowiedzialnością. Jeśli dojdzie do tragedii, to kto za nią ponosi odpowiedzialność? Informatyk programujący algorytmy tak, by dokonywały samodzielnych wyborów, a może trener sieci neuronowych?

Dla wojska liczy się przewaga

Wojskowi twierdzą, że zamiast zakazywać, należy bardziej zachęcać do innowacji, które pozwolą zmniejszyć liczbę ofiar cywilnych. Nie chodzi im o to, aby algorytmy miały niszczyć wroga i ludzkość cywilną. Mają przede wszystkim pomagać w ocenie sytuacji na polu walki, analizując ją pod kątem możliwości zyskania taktycznej przewagi. W tej perspektywy inteligentne technologie prowadzą przede wszystkim do sprawniejszego przetwarzania danych. Ułatwiają również identyfikację obiektów i zmniejszenia liczby przypadkowych ofiar wśród ludzkości cywilnej.

Nie możemy liczyć na prawa człowieka

Algorytmy spuszczone ze smyczy na polu walki mogą prowadzić do tragedii niebywałych rozmiarów, ponieważ autonomiczna broń nie będzie przestrzegać praw człowieka. Maszyny mogą wędrować po polu bitwy, na ziemi lub w powietrzu, wybierając własne cele, a następnie niszcząc je w wybrany sposób bez ludzkiego udziału.

Sztuczna inteligencja ma ogromne możliwości, by pomagać ludzkości. Niestety ma też swoją ciemną stronę. Warto mieć nadzieję, że politycy i wojskowi będą mieli na tyle dużo wyobraźni, by na czas dostrzec wszystkie konsekwencje wynikające z upowszechnienia autonomicznej broni.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Powiązane artykuły