當前位置: 華文天下 > 軍事

日本釋出人工智慧武器研發指南,明確「人類幹預」必要性

2025-06-11軍事

據日本【朝日新聞】6月7日報道,日本防衛省6日首次制定並釋出了關於人工智慧(AI)武器研發的「AI適用指南」,以期在管理AI風險的同時推動套用AI技術。關於無人機等AI武器的開發,指南明確提出了「人類責任明確化」等要求。 日本防衛大臣中谷元在6日的記者會上強調:「根據指南內容,可以在降低AI套用風險的同時,最大限度從中受益。」

去年7月,防衛省制定了關於有效利用AI的基本方針,設定了包括「指揮控制」在內的七個重點領域,並明確指出「人類幹預」的必要性。在此基礎上,此次指南提出了在武器研發中涉及AI套用的思路與審查制度。 具體而言,研發物件被劃分為「高風險」和「低風險」兩類。例如,如果AI能夠辨識攻擊目標並直接觸發飛彈發射,則被劃為「高風險」一類;而如果即使AI能夠辨識目標,也仍由人類作出判斷,則被視為「低風險」。 針對「高風險」計畫,防衛省將從法律與政策角度審查其研發可行性。若無法遵守國際法或國內法,或者涉及人類無法幹預的致命性自主武器系統,則不允許推進開發。此外,專家會議將進行技術性審查,從七個方面展開調查。 由於AI武器可能出現錯誤判斷,相關研發管制成為國際社會廣泛討論的課題。

日本政府此次釋出指南,旨在透過提供AI風險管理標準,推動國內在武器研發中有效利用AI技術。 熟悉軍事領域相關國際法的京都產業大學教授巖本誠吾對指南評價道:「內容遵循國際社會達成共識的倫理框架,值得肯定。」在此基礎上他指出,在AI迅速發展的背景下,「未來AI可能自主升級,隨著科技不斷進步,有必要進行嚴格的法律審查」。(編譯/馬曉雲)