„Szabad kezet” kaphat a mesterséges intelligencia egy háborúban?

0
134

Az Egyesült Államok és Kína között egyre inkább elmérgesedni látszik a helyzet és félő, hogy egy esetleges háború beláthatatlan következményekkel járna, tekintve, hogy a negyedik ipari forradalom korában élünk, ami nagy mértékben átírja az eddig ismert hadviselést.

Mindkét nagyhatalom évek óta azon dolgozik, hogy a mesterséges intelligenciát a hadseregben is alkalmazzák, ami a későbbiekben jelentős előnyt jelenthet a harctéren. Azonban Lloyd Austin amerikai védelmi miniszter arra figyelmeztet, hogy a mesterséges intelligenciát helyesen kell alkalmaznia a védelmi minisztériumnak.

Mesterséges intelligencia a hadiiparban

A védelmi minisztériumok szerte a világon alig várják, hogy a katonai rendszereket mesterséges intelligenciával ruházzák fel. A megfigyelő és fegyveres drónok sikerére és növekvő harci jelentőségére építve az USA, Izrael, Oroszország és Kína mind autonóm harci rendszereket keres. Ezek a rendszerek ember nélkül képesek végrehajtani az utasítást, vagyis egy drónt el lehet küldeni a célpont megsemmisítésére anélkül, hogy bármilyen kommunikációs- vagy vezérlőrendszerrel rendelkezne. Azonban az autonóm technológia jelenleg csak azt engedi, hogy egy fegyver elvégezze azt a feladatot, amire be van programozva. Viszont egy mesterséges intelligenciával működő fegyver képes önálló döntéseket is meghozni.

A májusi Gázai övezetben történt támadás során Izrael mesterséges intelligencia által irányított drón rajt használt, amelyet az izraeli hadsereg egy erre szakosodott egysége fejlesztett ki. Információk szerint ezek a drónok nemcsak egy adott területet tudnak feltérképezni, hanem rakétakilövő állomásokat és más katonai tevékenységeket is képesek észlelni és célpontként kiválasztani.

Az USA számos autonóm technológián dolgozik, a szárazföldi rendszerektől kezdve, a felszíni és víz alatti haditengerészeti járműveken át, az autonóm üzemanyag-utántöltő repülőgépekig. A hadsereg például mesterséges intelligencia képességgel bővíti a szárazföldi járműveket, köztük a tankokat, amelyek végül képesek lesznek együttműködni a megfigyelő drónokkal és kiválasztani a legbiztonságosabb elérhető útvonalakat, megjósolni, hogy hol lehetnek akadályok, majd ezek megoldására automatikusan alternatív intézkedéseket hozni. Ezeket egyébként az Egyesült Államok hadserege már évek óta használja terrorista drónok és pokolgépek megsemmisítésére.

A jövő katonája

De mi a helyzet a katonákkal? Hogyan tud a jövő katonája életben maradni a mesterséges intelligencia által vezérelt eszközök csatatéren?

Ahhoz, hogy a jövő katonája hatékony legyen, meg kell semmisítenie a vélt fenyegetéseket, mielőtt a fenyegetések semmisítenék meg őt. Így a katona valójában nem kiborg, de képességei elérik azok szintjét.

A mesterséges intelligencia harci környezetben megbízhatóbb lehet, mint az életéért küzdő, megrettent katona. A mesterséges intelligencia programozható úgy, hogy bizonyos “etikai” szabályoknak engedelmeskedjen, különösen, amikor a civilekről van szó harci környezetben. Ez elméletben jól hangzik, de gyakorlatban a visszájára fordulhat, ha a mesterséges intelligencia lezárja a katona fegyverét egy tűzharc közepén, hogy megakadályozza egy civil megölését, még akkor is, ha az egy terrorista.

Ugyan a mesterséges intelligenciát nem tudjuk etikus működésre programozni, azonban a katonai vezetőktől elvárható az etikus viselkedés, ami azt jelenti ezesetben, hogy csak akkor vessék be az autonóm fegyvereket harci környezetben, ha az indokolt és elengedhetetlen az emberek biztonságának érdekében. Ezzel a mentalitással pedig megvalósulhat Lloyd Austin felhívása a mesterséges intelligencia helyes használatát érintően.

Az eredeti cikk itt érhető el.