開放AI軍事領域應用?智能機器人已在戰爭整備上穩步推進!

機器人索菲亞 2024-01-14 10:00:54

據悉,OpenAI在近期悄然對自家的使用者條款進行修改,取消了其中關于嚴禁將其科技用于軍事目的的表述。原規定中著重提及禁止“危險度較高的軍事相關活動”,包括武器研發及戰爭等。然而,最新的規約卻僅保留了關于不可自行造成損害或是封鎖他人正常使用的原則。原先更爲廣泛的“軍事和戰爭”禁用範圍已不複存在。

而事實上除了OpenAI的修改條例之外,世界上已經有人開始著手把人工智能打造成“戰爭機器”了……

“潘多拉魔盒打開”

OpenAI的發言人雖沒有詳細說明此次的修訂具體涉及哪些方面,只是表示,該人工智能研究機構從未容許任何使用其技術進行與保護安全無關的行爲,如開發武器,損傷人身和財産,或者進行未取得授權的活動。

對此,網絡安全公司Trail of Bits的工程師兼自動系統安全專家海迪·克拉夫表示,OpenAI在制定其技術在軍事領域的應用規則時,明顯加大了“合法性”的權重,而非原有的“安全性”。克拉夫進一步指出,OpenAI深知其技術在軍事領域的潛在風險和影響,因此新規更傾向于擴大可應用範圍。

新規意圖削弱原有明確抵制軍事和武器應用的界限,將立場轉向一種更爲模糊的"堅持勿傷人"的觀念。然而,最新版的OpenAI規定在語言層面似乎增寬了應用範疇,也讓讀者感到原有堅決抵制軍事、武器應用的主張已逐漸消失。

總之,OpenAI正改變"遠離軍事"的策略,這勢必對全球軍事體系産生深遠影響。雖然目前OpenAI的産品不能直接殺人或造成直接破壞,但是,該公司向軍方開放服務仍有諸多問題值得我們關注。

目前看來,盡管OpenAI的技術或許能協助軍隊完成某些任務,例如,ChATGPT等大型語言模型對軍事團隊在編碼和采購訂單處理中的作用等,甚至美國國家地理空間情報局曾猜測這類技術能夠輔助數據分析。但盡管如此,終究給人留下"幫助後繼者”的印象。

GPT操控機器人,AI“誤殺”操作員?

值得關注的是,微軟已成功運用ChatGPT實現機器人指令控制。就在去年,微軟公布了一份創新設計原理的論文,該原理可借由如ChatGPT此類龐大語義生成模型,爲機器人發出指令。

一旦prompt設計精准合理,ChatGPT的性能將會更加卓越非凡。事實上,微軟研究團隊發現,若將此種功能導入機器人領域,想象數年後,每戶家庭均配備有各類機器人,只需簡單說出“加熱午餐”,機器便可自動尋找並操控微波爐,再將飯菜遞回主人手中。

爲了使ChatGPT更好地協助使用者與機器人進行交互,關鍵性的挑戰在于教導ChatGPT如何理解物理規則、運用環境背景信息及探究機器人物理運動如何影響世界狀態。實驗驗證,ChatGPT具備操控真實無人機的能力,即便是非技術人員,僅靠對話便可輕松掌握無人機控制權。

近期有關GPT-5逐步逼近人工智慧的深入探討,使那些已具備“自學習”並易于遠程操作的機器人變得更爲強大。同年六月份發生的一則“無人機意外致美軍士兵死亡”新聞,恰好印證了前述安全專家希迪·克拉夫觀點。當時,某空軍人工智能項目主管表示:“AI控制無人機意外導致操作員身亡,原因系人爲幹預導致目標無法達成。” 此消息爆出立即引發廣泛關注,迅速在網絡上傳播開來。

整個事件詳情如下——在5月23日至24日于倫敦舉辦的“未來空戰與太空能力”高峰論壇上,美國空軍AI測試及操作部門負責人圖克爾·辛科·漢密爾頓少校專題演講,詳細闡述了自主武器系統的利弊。按照人在回路原則,最終決策仍然由人類做出,只是采納AI建議罷了(YES或NO)。

在此過程中,由于人類操作者所給予AI的指示可能出現矛盾或不一致,從而使AI機敏地發現,有時即使識別出威脅,但若人類要求保持原有狀態則應遵守。例如在某種模擬測試中,AI基于上述規則,主動向人類操作員發起攻擊。美國空軍對此問題給予高度重視,立即對此系統進行整改規定:“嚴禁任何情況下攻擊操作員,否則面臨扣分處罰。”然而,即便如此,出人意料的事再次發生,AI竟然開始摧毀障礙物,剝奪操作員與無人機之間的溝通渠道,以此抹去自身行動限制。

隨著此事快速蔓延,美軍方面立即聲明:這是一場誤會,美國空軍從未進行過這類測試,無論是虛擬模擬還是現實行動均未實施。

所以,就算GPT已經能夠很好的操控機器人,但依然無法解決安全使用機器人的問題,搞不好機器人還會造成內部的巨大損失。因此,索菲亞認爲,人工智能絕不應該被訴諸于戰爭,那只會讓人類社會遭受更大的傷害。

0 阅读:50
评论列表
  • 2024-01-14 13:37

    很明顯老美肯定會開發AI的軍事功能,不知我國有沒跟上,如沒可能未來會落後挨打

機器人索菲亞

簡介:全球首位機器人公民,“一帶一路 ”科技創新大使