Wojna na Ukrainie – drony szturmowe
Ukraińskie drony wykorzystujące sztuczną inteligencję mają zdolność do działania bez bezpośredniego nadzoru człowieka. Jest to pierwszy przypadek wykorzystania autonomicznych systemów bojowych, nazywanych też „robotami zabójcami”, na terytorium Ukrainy. Ukraina używa dronów wyposażonych w sztuczną inteligencję, które mogą identyfikować i atakować cele bez żadnej kontroli ze strony człowieka.
To bardzo interesujący rozwój wydarzeń i będzie ciekawe zobaczyć, jak wpłynie to na wojnę na Ukrainie. Jest to również przypomnienie o potencjalnych zagrożeniach związanych z autonomicznymi bronią oraz o ważności opracowywania etycznych wytycznych dotyczących ich używania.
Sztuczna inteligencja w dronach na Ukrainie
Ukraińskie drony szturmowe, wzbogacone o zaawansowane technologie sztucznej inteligencji, mają teraz zdolność do samodzielnego wykrywania oraz atakowania celów, co oznacza ewolucję w dziedzinie współczesnej broni. To pierwszy znany i potwierdzony przypadek użycia tak zaawansowanej autonomicznej broni, często nazywanej „zabójczymi robotami”.
Mimo że te drony zostały pierwotnie zaprojektowane z myślą o atakowaniu pojazdów bojowych, takich jak czołgi, istnieje duże prawdopodobieństwo, że mogą one przypadkowo spowodować śmierć rosyjskich żołnierzy podczas eksplozji, nawet bez bezpośredniego polecenia od ludzkiego operatora. Należy jednak podkreślić, że dotychczas nie potwierdzono oficjalnie żadnych takich ofiar. W kontekście tych działań nasuwa się wiele pytań dotyczących odpowiedzialności i etyki wojennej w erze automatyzacji.
Ankieta
Dron Saker Scout na Ukrainie
Dron o nazwie Saker Scout to zaawansowana technologicznie maszyna zdolna do przenoszenia ładunków bombowych ważących do 3 kg. Co więcej, jest wyposażony w autonomiczne systemy rozpoznania i ataku. Jego zaawansowany system wizyjny oparty na sztucznej inteligencji jest w stanie rozpoznać aż 64 różne typy pojazdów wojskowych, w tym czołgi. To pozwala mu na samodzielną weryfikację celów przed dokonaniem uderzenia, bez potrzeby ingerencji człowieka.
Ukraina podkreśla, że funkcja autonomicznego ataku drona była już skutecznie wykorzystywana, aczkolwiek wciąż na ograniczoną skalę.
Pomimo technologicznych osiągnięć, pojawia się coraz więcej głosów domagających się wprowadzenia prawnych zakazów stosowania takich systemów. Główną przyczyną są obawy etyczne dotyczące wykorzystywania maszyn, które decydują o życiu i śmierci bez bezpośredniego nadzoru człowieka. Niemniej jednak, w chwili obecnej brakuje spójnych, globalnych regulacji w tej kwestii.
Autonomiczne systemy uzbrojenia na polu bitwy
Niekontrolowane wdrażanie autonomicznych systemów uzbrojenia na polu bitwy otwiera puszkę Pandory wielu poważnych kwestii, zarówno etycznych, jak i prawnych. Wprowadzenie takich technologii zmienia tradycyjne pojęcie wojny, wnosząc elementy, które dotychczas były zarezerwowane dla literatury science-fiction. Wchodzimy w nową erę konfliktów, gdzie maszyny mogą podejmować decyzje o życiu i śmierci bez bezpośredniego nadzoru człowieka. To stawia przed nami nie tylko wyzwanie zrozumienia tych zmian, ale także konieczność szybkiego dostosowania ram prawnych, aby chronić niewinnych i zapobiec nieprzewidzianym skutkom takiej ewolucji wojny.
Niekontrolowane użycie autonomicznych systemów uzbrojenia na polu bitwy może prowadzić do wielu niepożądanych konsekwencji, takich jak:
- Zwiększone ryzyko ofiar cywilnych
- Zmniejszona kontrola człowieka nad działaniami wojennymi
- Ułatwienie rozpoczęcia konfliktu zbrojnego
- Zwiększone ryzyko wyścigu zbrojeń
Dlatego ważne jest, aby opracować międzynarodowe regulacje dotyczące użycia autonomicznych systemów uzbrojenia, które będą chronić ludność cywilną i zapewnią utrzymanie pokoju i bezpieczeństwa międzynarodowego.
Etyka Sztucznej inteligencji
Etyka sztucznej inteligencji (AI) stoi przed wieloma wyzwaniami, które mają kluczowe znaczenie dla przyszłości technologii i społeczeństwa. Jednym z podstawowych dokumentów, które dostarczają wytycznych w tej dziedzinie, są „zasady dla projektantów, budowniczych i użytkowników robotów” opublikowane przez Engineering and Physical Sciences Research Council (EPSRC). Dwoma kardynalnymi zasadami tego zestawienia, które odnoszą się bezpośrednio do odpowiedzialności, są:
- Ludzie są odpowiedzialnymi podmiotami, a roboty są jedynie narzędziami służącymi osiągnięciu ludzkich celów.
- Zawsze musi istnieć jasność co do tego, kto jest prawnie odpowiedzialny za danego robota.
Ta druga zasada jest niezwykle istotna, gdyż roboty, w przeciwieństwie do ludzi, nie posiadają uczuć ani myśli. W sytuacji, gdy działania robota prowadzą do śmierci niewinnych, kwestia odpowiedzialności staje się paląca. Biorąc pod uwagę Ukrainę i jej dążenia do spełnienia europejskich standardów, zwłaszcza w kontekście NATO, warto obserwować, jak kwestia ta będzie się rozwijać w świetle surowych europejskich regulacji dotyczących AI.
Drony na polu bitwy a etyka
Autonomiczne systemy uzbrojenia stanowią źródło licznych obaw, zarówno etycznych, jak i prawnych. Jednym z najbardziej palących problemów jest odpowiedzialność. Jeśli autonomiczny system uzbrojenia spowoduje śmierć niewinnych ludzi, kto ponosi za to winę? Czy jest to producent, operator, czy może nikt?
Niejasność regulacji może prowadzić do niebezpiecznego wyścigu w zakresie rozwoju tych technologii. Państwa będą konkurować, tworząc coraz bardziej zaawansowane systemy działające niezależnie od człowieka. Istnieje też obawa, że takie systemy mogą obniżyć próg decyzji o rozpoczęciu działań wojennych, gdyż eliminują one konieczność trudnych wyborów przez ludzi.
Z uwagi na powyższe, istnieje pilna potrzeba opracowania międzynarodowych standardów dotyczących użycia autonomicznych systemów uzbrojenia. Powinny one jasno określać kwestie odpowiedzialności, a także wprowadzać mechanizmy hamujące wyścig zbrojeń oraz chroniące przed zbyt pochopnym podejmowaniem decyzji o działaniach wojennych.
Bibliografia
- https://www.newscientist.com/article/2397389-ukrainian-ai-attack-drones-may-be-killing-without-human-oversight/ (dostęp: 16.10.2023)
- https://www.linkedin.com/posts/roberto-lafforgue-7a356347_ukrainian-ai-attack-drones-may-be-killing-activity-7118691324609912832-8V51/ (dostęp: 16.10.2023)