![]() 2023年3月9日,美國安全與新興技術(shù)中心發(fā)布報告《減少人工智能為軍事決策優(yōu)勢帶來的風險》。報告中指出,美國等主要大國的戰(zhàn)略家們看到了人工智能(AI)在實現(xiàn)更好、更快決策方面的潛力,這一潛力將在未來的軍事沖突中起決定性作用。機器學習的應用將影響政治和軍事領(lǐng)導人如何感知戰(zhàn)略環(huán)境、權(quán)衡風險和選擇以及判斷敵人。但是,將關(guān)鍵的人類決策過程暴露在人工智能面前會有什么風險? 要從人工智能中獲取決策優(yōu)勢,首先需要了解其局限性和缺陷。人工智能系統(tǒng)是根據(jù)數(shù)據(jù)模式進行預測,總是有一些意外行為或失敗的概率?,F(xiàn)有的工具和技術(shù)試圖使人工智能能夠更好地應對故障,這往往會導致能力間的權(quán)衡,即解決一個問題,但可能會讓另一個問題惡化。人們逐漸意識到人工智能的脆弱性和缺陷,需要在現(xiàn)實的部署環(huán)境中深入分析技術(shù)故障的潛在后果。 本報告探討了人工智能系統(tǒng)中直接或間接影響決策的故障如何與戰(zhàn)略壓力和人為因素相互作用,并引發(fā)危機或致使沖突升級: 包含人工智能或干擾敵方人工智能系統(tǒng)的進攻作戰(zhàn)可能會導致無法預見的系統(tǒng)故障和級聯(lián)效應,引發(fā)意外升級。 不安全、訓練不足或應用于錯誤類型問題的人工智能系統(tǒng)可能會將不良信息注入決策過程,導致意外升級。 發(fā)現(xiàn)人工智能系統(tǒng)癱瘓可能會對關(guān)鍵能力的可靠性或生存能力產(chǎn)生不確定性,如果沖突迫在眉睫,決策者就會故意升級。 這些場景揭示了一個核心困境:決策者希望使用人工智能來減少不確定性,尤其針對他們的戰(zhàn)場意識、了解對手的意圖和能力,或了解自己抵御攻擊的能力。然而,對人工智能的依賴也引入了包括人工智能系統(tǒng)可能發(fā)生技術(shù)故障以及故障所產(chǎn)生的結(jié)果等新的不確定因素。 ![]() 有效利用人工智能需要以一種有刻意保持風險意識的方式平衡這些性能權(quán)衡。盡管沒有辦法保證一個人工智能系統(tǒng)會完全按照預期運行,或者沒辦法保證它會給出正確的答案,然而,軍方可以設(shè)計人工智能系統(tǒng)和依賴它們的決策過程,以降低人工智能故障的可能性并控制其結(jié)果,具體舉措包括: 為決策環(huán)境中使用的人工智能系統(tǒng)定義一組任務(wù)特定的性質(zhì)、標準和要求,例如用于檢測癱瘓或緊急性質(zhì)的置信度和保障措施。 避免在決策中使用人工智能,將人工智能應用于高度匹配的個別問題,同時人為處理諸如解釋對手意圖等人類判斷問題;并考慮在某些領(lǐng)域完全排除人工智能。 盡可能讓高級決策者參與他們未來將會使用的系統(tǒng)的開發(fā)、測試和評估過程,并告知他們?nèi)斯ぶ悄艿膬?yōu)勢和缺陷,以便他們識別系統(tǒng)故障。 報告提出,美國應繼續(xù)帶頭制定負責任地開發(fā)和使用人工智能的全球標準,分步兌現(xiàn)相關(guān)承諾,并盡可能鼓勵中國采取類似的預防措施: 為限制人工智能系統(tǒng)的風險而實施的行動和保障措施應得到明確。 開展國際合作,制定互利的技術(shù)保障措施和最佳實踐,以降低災難性人工智能故障的風險。 致力于限制使用包含人工智能能力的進攻行動,以及針對存在重大升級風險的人工智能行動。 |
|
來自: 小飛俠cawdbof0 > 《決策》