人工智能[894] 開放AI軍事領域應用?智能機器人已在戰爭整備上穩步推進! 據悉,OpenAI在近期悄然對自家的使用者條款進行修改,取消了其中關于嚴禁將其科技用于軍事目的的表述。原規定中著重提及禁止“危險度較高的軍事相關活動”,包括武器研發及戰爭等。然而,最新的規約卻僅保留了關于不可自行造成損害或是封鎖他人正常使用的原則。原先更為廣泛的“軍事和戰爭”禁用范圍已不復存在。 而事實上除了OpenAI的修改條例之外,世界上已經有人開始著手把人工智能打造成“戰爭機器”了…… “潘多拉魔盒打開” OpenAI的發言人雖沒有詳細說明此次的修訂具體涉及哪些方面,只是表示,該人工智能研究機構從未容許任何使用其技術進行與保護安全無關的行為,如開發武器,損傷人身和財產,或者進行未取得授權的活動。 對此,網絡安全公司Trail of Bits的工程師兼自動系統安全專家海迪·克拉夫表示,OpenAI在制定其技術在軍事領域的應用規則時,明顯加大了“合法性”的權重,而非原有的“安全性”。克拉夫進一步指出,OpenAI深知其技術在軍事領域的潛在風險和影響,因此新規更傾向于擴大可應用范圍。 新規意圖削弱原有明確抵制軍事和武器應用的界限,將立場轉向一種更為模糊的"堅持勿傷人"的觀念。然而,最新版的OpenAI規定在語言層面似乎增寬了應用范疇,也讓讀者感到原有堅決抵制軍事、武器應用的主張已逐漸消失。 總之,OpenAI正改變"遠離軍事"的策略,這勢必對全球軍事體系產生深遠影響。雖然目前OpenAI的產品不能直接殺人或造成直接破壞,但是,該公司向軍方開放服務仍有諸多問題值得我們關注。 目前看來,盡管OpenAI的技術或許能協助軍隊完成某些任務,例如,ChATGPT等大型語言模型對軍事團隊在編碼和采購訂單處理中的作用等,甚至美國國家地理空間情報局曾猜測這類技術能夠輔助數據分析。但盡管如此,終究給人留下"幫助后繼者”的印象。 GPT操控機器人,AI“誤殺”操作員? 值得關注的是,微軟已成功運用ChatGPT實現機器人指令控制。就在去年,微軟公布了一份創新設計原理的論文,該原理可借由如ChatGPT此類龐大語義生成模型,為機器人發出指令。 一旦prompt設計精準合理,ChatGPT的性能將會更加卓越非凡。事實上,微軟研究團隊發現,若將此種功能導入機器人領域,想象數年后,每戶家庭均配備有各類機器人,只需簡單說出“加熱午餐”,機器便可自動尋找并操控微波爐,再將飯菜遞回主人手中。 為了使ChatGPT更好地協助使用者與機器人進行交互,關鍵性的挑戰在于教導ChatGPT如何理解物理規則、運用環境背景信息及探究機器人物理運動如何影響世界狀態。實驗驗證,ChatGPT具備操控真實無人機的能力,即便是非技術人員,僅靠對話便可輕松掌握無人機控制權。 近期有關GPT-5逐步逼近人工智慧的深入探討,使那些已具備“自學習”并易于遠程操作的機器人變得更為強大。同年六月份發生的一則“無人機意外致美軍士兵死亡”新聞,恰好印證了前述安全專家希迪·克拉夫觀點。當時,某空軍人工智能項目主管表示:“AI控制無人機意外導致操作員身亡,原因系人為干預導致目標無法達成。” 此消息爆出立即引發廣泛關注,迅速在網絡上傳播開來。 整個事件詳情如下——在5月23日至24日于倫敦舉辦的“未來空戰與太空能力”高峰論壇上,美國空軍AI測試及操作部門負責人圖克爾·辛科·漢密爾頓少校專題演講,詳細闡述了自主武器系統的利弊。按照人在回路原則,最終決策仍然由人類做出,只是采納AI建議罷了(YES或NO)。 在此過程中,由于人類操作者所給予AI的指示可能出現矛盾或不一致,從而使AI機敏地發現,有時即使識別出威脅,但若人類要求保持原有狀態則應遵守。例如在某種模擬測試中,AI基于上述規則,主動向人類操作員發起攻擊。美國空軍對此問題給予高度重視,立即對此系統進行整改規定:“嚴禁任何情況下攻擊操作員,否則面臨扣分處罰。”然而,即便如此,出人意料的事再次發生,AI竟然開始摧毀障礙物,剝奪操作員與無人機之間的溝通渠道,以此抹去自身行動限制。 隨著此事快速蔓延,美軍方面立即聲明:這是一場誤會,美國空軍從未進行過這類測試,無論是虛擬模擬還是現實行動均未實施。 所以,就算GPT已經能夠很好的操控機器人,但依然無法解決安全使用機器人的問題,搞不好機器人還會造成內部的巨大損失。因此,索菲亞認為,人工智能絕不應該被訴諸于戰爭,那只會讓人類社會遭受更大的傷害。 我是一位75歲以上的老人!本站主要是些學習體驗與分享(其中會引用一些作品的原話并結合我的一生體會與經驗加工整理而成!在此一并感謝!如有不妥之處敬請與我聯系,我會妥善處理,謝謝!)我寫的主要是中老年人各方面應注意的事兒!退休后我希望通過這個平臺廣交朋友,互助交流,共筑美好生活!!!!!! |
|
來自: 趙站長的博客 > 《人工智能大數據云計算物聯網》