Broń sztucznej inteligencji



<div _ngcontent-c14 = "" innerhtml = "

Rzeczywistość powstania autonomicznych systemów uzbrojeniaUlepszone przez CogWorld

Wprowadzenie

Rozwój technologiczny stał się wyścigiem szczurów. W rywalizacji o przewagę wyłaniającego się wyścigu technologicznego i futurystycznego pola bitwy sztuczna inteligencja (AI) szybko staje się centrum globalnej gry z mocą. Jak widać w wielu krajach, rozwój autonomicznego systemu uzbrojenia (AWS) postępuje szybko, a ten wzrost broni sztucznej inteligencji wydaje się być bardzo destabilizujący. Przynosi złożone wyzwania bezpieczeństwa nie tylko decydentom każdego narodu, ale także przyszłości ludzkości.

Dzisiejsza rzeczywistość jest taka, że ​​sztuczna inteligencja prowadzi nas na nowe algorytmiczne pole bitewne, które nie ma granic ani granic, może, ale nie musi, angażować ludzi, i będzie niemożliwe do zrozumienia i być może kontroli nad ludzkim ekosystemem w cyberprzestrzeni, przestrzeni kosmicznej i przestrzeni kosmicznej (CGS). W rezultacie sama idea uzbrojenia sztucznej inteligencji, w której system broni, który po aktywowaniu przez CGS, może wybierać i angażować cele ludzkie i inne niż ludzkie, bez dalszej interwencji ze strony ludzkiego projektanta lub operatora, powodując wielki strach.

Myśl o jakiejkolwiek inteligentnej maszynie lub inteligencji maszynowej, aby móc wykonać dowolne zaplanowane zadanie wojenne bez udziału człowieka i interwencji – wykorzystując tylko interakcję wbudowanych czujników, programowania komputerowego i algorytmów w środowisku ludzkim i ekosystemie – stanie się rzeczywistością którego nie można już zignorować.

Weaponization of Artificial Intelligence

Jako sztuczna inteligencja uczenie maszynowe i głębokie uczenie się ewoluują dalej i przechodzą od koncepcji do komercjalizacji, szybkie przyspieszenie mocy obliczeniowej, pamięć, duże zbiory danych i szybka komunikacja nie tylko tworzą innowacje, inwestycje i aplikacje, ale także intensyfikują zadanie do układów AI. To ciągły szybki postęp i rozwój oznacza, że ​​sztuczna inteligencja jest na najlepszej drodze do zrewolucjonizowania działań wojennych i że narody niewątpliwie będą nadal rozwijać automatyczny system uzbrojenia, który umożliwi AI.

Kiedy narody indywidualnie i wspólnie przyspieszają swoje wysiłki, aby uzyskać przewagę konkurencyjną w nauce i technologii, dalsza zbrojenie sztucznej inteligencji jest nieuniknione. W związku z tym istnieje potrzeba wizualizacji, jak wyglądałaby algorytmiczna wojna jutra, ponieważ budowanie autonomicznych systemów uzbrojenia jest jedną rzeczą, ale używanie ich w algorytmicznej wojnie z innymi narodami i przeciwko innym ludziom jest czymś innym.

Jak raporty już się pojawia złożonych algorytmicznych systemów wspierających coraz więcej aspektów walki wojennej w CGS, prawda jest taka, że ​​komercjalizacja sztucznej inteligencji jest teraz rzeczywistością. Jak widać w cyberprzestrzeni, zautomatyzowana wojna (cyberwojna) ma już się zaczęło – gdzie każdy i każdy jest celem. Co dalej, geo-wojna i wojna kosmiczna? I kto i jaki będzie cel?

Szybki rozwój broni w zakresie sztucznej inteligencji jest widoczny we wszystkich dziedzinach: nawigowanie i wykorzystywanie bezzałogowej marynarki wojennej, powietrzne, & nbsp; i pojazdy terenowe, wytwarzające oszacowania uszkodzeń ubocznych, wdrażanie systemów rakietowych "pożaru i zapomnienia" i za pomocą stacjonarnych systemów do automatyzacji wszystkiego, od systemów personelu i konserwacji sprzętu do wdrożenia drony inwigilacyjne, roboty i więcej to wszystkie przykłady. Tak więc, gdy algorytmy wspierają coraz więcej aspektów wojny, prowadzi nas do ważnego pytania: jakie zastosowania sztucznej inteligencji w dzisiejszej i jutrzejszej wojnie powinny być dozwolone, ograniczone i wręcz zakazane?

Uważa się, że systemy autonomicznych broni dają możliwości zmniejszenia kosztów operacyjnych systemu uzbrojenia – w szczególności dzięki bardziej wydajnemu wykorzystaniu siły roboczej – i prawdopodobnie umożliwią systemom broni osiągnięcie większej prędkości, dokładności, wytrwałości, precyzji, zasięgu i koordynacji na pole bitwy CGS, potrzeba zrozumienia i oceny problemów technologicznych, prawnych, ekonomicznych, społecznych i bezpieczeństwa pozostaje nadal.

Rola programistów i programowanie

Wśród tych złożonych wyzwań związanych z bezpieczeństwem i morza niewiadomych, które pojawiają się na naszej drodze, zasadniczą kwestią dla bezpieczeństwa i godności ludzkiej jest rola programistów i programowanie oraz integralność układów półprzewodnikowych. Powodem tego jest to, że programiści mogą definiować i określać charakter AWS (przynajmniej na początku), dopóki AI nie zacznie się programować.

Jednakże, jeśli i kiedy programista, który celowo lub przypadkowo zaprogramuje autonomiczną broń do działania z naruszeniem obecnego i przyszłego międzynarodowego prawa humanitarnego (MPH), jak ludzie będą kontrolować zbrojenie AI? Co więcej, ponieważ AWS koncentruje się na oprogramowaniu, gdzie powinna leżeć odpowiedzialność za błędy i manipulacje projektowaniem i użytkowaniem systemów AWS? To prowadzi nas do sedna pytania – kiedy i czy autonomiczny system zabija, kto jest odpowiedzialny za zabijanie, niezależnie od tego, czy jest to uzasadnione, czy nie?

Wyzwania dla bezpieczeństwa cybernetycznego

W skrócie, algorytmy nie są wcale bezpieczne – nie są też odporne na błędy, złośliwe oprogramowanie, stronniczość i manipulacje. A ponieważ uczenie maszynowe wykorzystuje maszyny do trenowania innych maszyn, co dzieje się w przypadku złośliwego oprogramowania lub manipulacji danymi treningowymi? Podczas gdy zagrożenia bezpieczeństwa są wszędzie, połączone urządzenia zwiększają zdolność cyberbezpieczeństwa do naruszania ze zdalnych lokalizacji, a ponieważ kod jest nieprzejrzysty, bezpieczeństwo jest bardzo złożone. Tak więc, gdy AI idzie na wojnę z inną sztuczną inteligencją (bez względu na to, czy jest to związane z cyberbezpieczeństwem, geo-bezpieczeństwem, czy bezpieczeństwem kosmicznym), bieżące wyzwania związane z cyberbezpieczeństwem stworzą monumentalne zagrożenia dla przyszłości ludzkości i ludzkiego ekosystemu w CGS.

Choć wydaje się, że autonomiczne systemy broni mają pozostać, pytanie, które wszyscy indywidualnie i zbiorowo potrzebujemy odpowiedzieć, będzie sztuczną inteligencją napędzającą i określającą naszą strategię na przetrwanie i bezpieczeństwo człowieka, czy też nie?

Uznając tę ​​rozwijającą się rzeczywistość, Risk Group zainicjowała bardzo potrzebną dyskusję na temat autonomicznych systemów uzbrojenia z Markusem Wagnerem, autorem publikacji i profesorem prawa na Uniwersytecie Wollongong w Australii.

Ujawnienie: Risk Group LLC jest moją firmą

Grupa ryzyka omawia system autonomicznej broni i prawo z Markusem Wagnerem, autorem publikacji i profesorem prawa na Uniwersytecie Wollongong z siedzibą w Australii w sprawie Risk Roundup.

Co dalej?

Ponieważ narody indywidualnie i wspólnie przyspieszają swoje wysiłki, aby uzyskać przewagę konkurencyjną w nauce i technologii, dalsza zbrojenie sztucznej inteligencji jest nieuniknione. W rezultacie pozycjonowanie AWS zmieniłoby samo znaczenie bycia człowiekiem i nie będzie w & nbsp; niepewnych terminach & nbsp; zmieniło fundamentów bezpieczeństwa i przyszłości ludzkości i pokoju.

Ważne jest, aby zrozumieć i ocenić, czy nie można zapobiec autonomicznemu wyścigowi zbrojeń, co może pójść nie tak. Nadszedł czas, aby przyznać, że tylko dlatego, że technologia może pozwolić na pomyślny rozwój AWS, nie oznacza to, że powinniśmy. Być może w interesie ludzkości nie jest broń sztucznej inteligencji! Czas na pauzę.

">

Rzeczywistość powstania autonomicznych systemów uzbrojeniaUlepszone przez CogWorld

Wprowadzenie

Rozwój technologiczny stał się wyścigiem szczurów. W rywalizacji o przewagę wyłaniającego się wyścigu technologicznego i futurystycznego pola bitwy sztuczna inteligencja (AI) szybko staje się centrum globalnej gry z mocą. Jak widać w wielu krajach, rozwój autonomicznego systemu uzbrojenia (AWS) postępuje szybko, a ten wzrost broni sztucznej inteligencji wydaje się być bardzo destabilizujący. Przynosi złożone wyzwania bezpieczeństwa nie tylko decydentom każdego narodu, ale także przyszłości ludzkości.

Dzisiejsza rzeczywistość jest taka, że ​​sztuczna inteligencja prowadzi nas na nowe algorytmiczne pole bitewne, które nie ma granic ani granic, może, ale nie musi, angażować ludzi, i będzie niemożliwe do zrozumienia i być może kontroli nad ludzkim ekosystemem w cyberprzestrzeni, przestrzeni kosmicznej i przestrzeni kosmicznej (CGS). W rezultacie sama idea uzbrojenia sztucznej inteligencji, w której system broni, który po aktywowaniu przez CGS, może wybierać i angażować cele ludzkie i inne niż ludzkie, bez dalszej interwencji ze strony ludzkiego projektanta lub operatora, powodując wielki strach.

Myśl o jakiejkolwiek inteligentnej maszynie lub inteligencji maszynowej, aby móc wykonać dowolne zaplanowane zadanie wojenne bez udziału człowieka i interwencji – wykorzystując tylko interakcję wbudowanych czujników, programowania komputerowego i algorytmów w środowisku ludzkim i ekosystemie – stanie się rzeczywistością którego nie można już zignorować.

Weaponization of Artificial Intelligence

Jako sztuczna inteligencja uczenie maszynowe i głębokie uczenie się ewoluują dalej i przechodzą od koncepcji do komercjalizacji, szybkie przyspieszenie mocy obliczeniowej, pamięć, duże zbiory danych i szybka komunikacja nie tylko tworzą innowacje, inwestycje i aplikacje, ale także intensyfikują zadanie do układów AI. To ciągły szybki postęp i rozwój oznacza, że ​​sztuczna inteligencja jest na najlepszej drodze do zrewolucjonizowania działań wojennych i że narody niewątpliwie będą nadal rozwijać automatyczny system uzbrojenia, który umożliwi AI.

Kiedy narody indywidualnie i wspólnie przyspieszają swoje wysiłki, aby uzyskać przewagę konkurencyjną w nauce i technologii, dalsza zbrojenie sztucznej inteligencji jest nieuniknione. W związku z tym istnieje potrzeba wizualizacji, jak wyglądałaby algorytmiczna wojna jutra, ponieważ budowanie autonomicznych systemów uzbrojenia jest jedną rzeczą, ale używanie ich w algorytmicznej wojnie z innymi narodami i przeciwko innym ludziom jest czymś innym.

Jak raporty już się pojawia złożonych algorytmicznych systemów wspierających coraz więcej aspektów walki wojennej w CGS, prawda jest taka, że ​​komercjalizacja sztucznej inteligencji jest teraz rzeczywistością. Jak widać w cyberprzestrzeni, zautomatyzowana wojna (cyberwojna) ma już się zaczęło – gdzie każdy i każdy jest celem. Co dalej, geo-wojna i wojna kosmiczna? I kto i jaki będzie cel?

Szybki rozwój broni w zakresie sztucznej inteligencji jest widoczny we wszystkich dziedzinach: nawigowanie i wykorzystywanie bezzałogowej marynarki wojennejpojazdów naziemnych i naziemnych, wytwarzających oszacowania uszkodzeń ubocznych, wdrażanie systemów rakietowych "pożaru i zapomnienia" i za pomocą stacjonarnych systemów do automatyzacji wszystkiego, od systemów personelu i konserwacji sprzętu do wdrożenia drony inwigilacyjne, roboty i więcej to wszystkie przykłady. Tak więc, gdy algorytmy wspierają coraz więcej aspektów wojny, prowadzi nas do ważnego pytania: jakie zastosowania sztucznej inteligencji w dzisiejszej i jutrzejszej wojnie powinny być dozwolone, ograniczone i wręcz zakazane?

Uważa się, że systemy autonomicznych broni dają możliwości zmniejszenia kosztów operacyjnych systemu uzbrojenia – w szczególności dzięki bardziej wydajnemu wykorzystaniu siły roboczej – i prawdopodobnie umożliwią systemom broni osiągnięcie większej prędkości, dokładności, wytrwałości, precyzji, zasięgu i koordynacji na pole bitwy CGS, potrzeba zrozumienia i oceny problemów technologicznych, prawnych, ekonomicznych, społecznych i bezpieczeństwa pozostaje nadal.

Rola programistów i programowanie

Wśród tych złożonych wyzwań związanych z bezpieczeństwem i morza niewiadomych, które pojawiają się na naszej drodze, zasadniczą kwestią dla bezpieczeństwa i godności ludzkiej jest rola programistów i programowanie oraz integralność układów półprzewodnikowych. Powodem tego jest to, że programiści mogą definiować i określać charakter AWS (przynajmniej na początku), dopóki AI nie zacznie się programować.

Jednakże, jeśli i kiedy programista, który celowo lub przypadkowo zaprogramuje autonomiczną broń do działania z naruszeniem obecnego i przyszłego międzynarodowego prawa humanitarnego (MPH), jak ludzie będą kontrolować zbrojenie AI? Co więcej, ponieważ AWS koncentruje się na oprogramowaniu, gdzie powinna leżeć odpowiedzialność za błędy i manipulacje projektowaniem i użytkowaniem systemów AWS? To prowadzi nas do sedna pytania – kiedy i czy autonomiczny system zabija, kto jest odpowiedzialny za zabijanie, niezależnie od tego, czy jest to uzasadnione, czy nie?

Wyzwania dla bezpieczeństwa cybernetycznego

W skrócie, algorytmy nie są w żaden sposób bezpieczne – nie są też odporne na błędy, złośliwe oprogramowanie, stronniczość i manipulację. A ponieważ uczenie maszynowe wykorzystuje maszyny do trenowania innych maszyn, co dzieje się w przypadku złośliwego oprogramowania lub manipulacji danymi treningowymi? Podczas gdy zagrożenia bezpieczeństwa są wszędzie, połączone urządzenia zwiększają zdolność cyberbezpieczeństwa do naruszania ze zdalnych lokalizacji, a ponieważ kod jest nieprzejrzysty, bezpieczeństwo jest bardzo złożone. Tak więc, gdy AI idzie na wojnę z inną sztuczną inteligencją (bez względu na to, czy jest to związane z cyberbezpieczeństwem, geo-bezpieczeństwem, czy bezpieczeństwem kosmicznym), bieżące wyzwania związane z cyberbezpieczeństwem stworzą monumentalne zagrożenia dla przyszłości ludzkości i ludzkiego ekosystemu w CGS.

Choć wydaje się, że autonomiczne systemy broni mają pozostać, pytanie, które wszyscy indywidualnie i zbiorowo potrzebujemy odpowiedzieć, będzie sztuczną inteligencją napędzającą i określającą naszą strategię na przetrwanie i bezpieczeństwo człowieka, czy też nie?

Uznając tę ​​rozwijającą się rzeczywistość, Risk Group zainicjowała bardzo potrzebną dyskusję na temat autonomicznych systemów uzbrojenia z Markusem Wagnerem, autorem publikacji i profesorem prawa na Uniwersytecie Wollongong w Australii.

Ujawnienie: Risk Group LLC jest moją firmą

Grupa ryzyka omawia system autonomicznej broni i prawo z Markusem Wagnerem, autorem publikacji i profesorem prawa na Uniwersytecie Wollongong z siedzibą w Australii w sprawie Risk Roundup.

Co dalej?

Ponieważ narody indywidualnie i wspólnie przyspieszają swoje wysiłki, aby uzyskać przewagę konkurencyjną w nauce i technologii, dalsza zbrojenie sztucznej inteligencji jest nieuniknione. W rezultacie pozycjonowanie AWS zmieniłoby samo znaczenie tego, co ludzkie i nieuchronnie zmieni fundamenty bezpieczeństwa i przyszłości ludzkości i pokoju.

Ważne jest, aby zrozumieć i ocenić, czy nie można zapobiec autonomicznemu wyścigowi zbrojeń, co może pójść nie tak. Nadszedł czas, aby przyznać, że tylko dlatego, że technologia może pozwolić na pomyślny rozwój AWS, nie oznacza to, że powinniśmy. Być może w interesie ludzkości nie jest broń sztucznej inteligencji! Czas na pauzę.