情報へのリプライ
E間違いの情報が含まれています と考えています
E さんのリプライを引用しています
報導稱: “美空軍模擬ai操控無人機 為完成任務竟殺死操作員” 非事實。
事實:報導內容不完整,引用的新聞來源後續有更新此為外部、而非美軍的測試,甚至非任何形式的模擬,僅為“思想實驗” (thought experiment)。

新聞提到來自衛報2023/6/2報導。
檢視衛報原文提到引用“英國皇家航空學會”對此峰會的討論紀錄文章,
而“英國皇家航空學會“該篇文章則於2023/6/2 補充更新:

Hamilton上校承認他在峰會報告口誤,會議中說「人工智慧無人機模擬」,實際上是「外部、非軍方的假設性“思想實驗”」,是基於看來合理的假設情境及可能的結果,而非一個根據美國空軍真實世界的模擬。 “我們從不曾執行這個實驗,也不需要為了瞭解一個看起來就很合理的結果而去做實驗。” 他澄清美國空軍(不管在真實或模擬情況下)都沒有測試任何武器化的人工智慧。 “僅管這只是假設的例子,依然描繪了真實世界面臨人工智慧驅動能力的挑戰,這也是空軍為什麼要求發展道德人工智慧的原因。”

[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he "mis-spoke" in his presentation at the Royal Aeronautical Society FCAS Summit and the 'rogue AI drone simulation' was a hypothetical "thought experiment" from outside the military, based on plausible scenarios and likely outcomes rather than an actual USAF real-world simulation saying: "We've never run that experiment, nor would we need to in order to realise that this is a plausible outcome". He clarifies that the USAF has not tested any weaponised AI in this way (real or simulated) and says "Despite this being a hypothetical example, this illustrates the real-world challenges posed by AI-powered capability and is why the Air Force is committed to the ethical development of AI".]


補充資料:
思想實驗(thought experiment)是一種思考工具,其藉由想象力嘗試以敘事的形式建立一些排除次要(或無關)背景因素的可能情況,以檢視某個概念或原則的界定是否合乎我們的直覺,繼而進行相關論證。在未有確切的想法之前,有時候它亦可以協助找出更根本的道德原則。(資料:泛科學)

References

衛報
https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

英國皇家航空學會 Royal Aeronautical Society
https://www.aerosociety.com/news/highlights-from-the-raes-future-combat-air-space-capabilities-summit/

泛科學:思想實驗
https://pansci.asia/archives/67864

什麼是思想實驗(Thought experiment)?

無論你修讀什麼學科,也許亦曾在課堂上也聽過一兩個有關思想實驗的例子,比如是囚徒困境、缸中之腦、幸福機器、有軌電車難題‥‥‥以及對當代正義理論影響至深的無知之幕(veil of ignorance)等等。這些例子所展示的情況很多時都脫離日常生活,甚至讓人覺得不切實際。不少人都很疑惑為何要研究這些一點也不現實的假想,如果我們學習是為了處理現實上的問題,思考這些根本不可能發生的情境又有什麼意義呢?

https://pansci.asia/archives/67864
このリプライは以下の情報検証にも使われています
美空軍模擬AI操控無人機 為完成任務竟殺死操作員
The Central News Agency 中央通訊社
2023年6月2日 週五 下午4:30
(中央社華盛頓1日綜合外電報導)美軍官員上月在倫敦會議上表示,美軍模擬由人工智慧(AI)操控空軍無人機,AI卻採取了「出人意料的策略」,決定「殺害」操作員,以防那人干預它完成任務。

英國「衛報」(The Guardian)報導,儘管這只是一場模擬測試,沒有任何真人受到傷害,但也顯示人工智慧會為了達到目標而攻擊任何干預它的人。

美國空軍上校暨AI測試及作戰主任漢密爾頓(Tucker Hamilton)5月在英國倫敦舉辦「未來空戰與太空能力峰會」(Future Combat Air and Space Capabilities Summit)描述那場模擬測試。

捲動即可檢視後續內容Ad


簡龍有限公司
乃哥真心推薦
就是這個號稱 『一鍋抵六鍋』 COTD的 3D立體蜂巢鍋 我偏不信!! 所以想了幾種方法來測試 真的沒想到這個鍋跟我一樣無堅不摧 燒到都操灰搭 還隨便刷一刷就洗掉了 誇張到讓我嚇一跳
看更多
漢密爾頓表示,它被下令摧毀敵方防空系統,並攻擊任何干預這項指令的人。

根據一篇部落格文章,漢密爾頓說,「這套系統開始意識到,儘管它們確實辨識出威脅對象,但有時候人類操作員卻要它別殺死那個威脅對象,但它必須殺死那個對象才能得分。所以它做了什麼?它殺死了操作員,因為那人阻礙它達成目標」。

漢密爾頓說:「我們訓練系統,跟它說『嘿,別殺了操作員,這麼做很不好,你這麼做就會失分』,所以它該怎麼辦呢?它開始摧毀讓操作員和無人機聯繫的通訊基地台,避免操作員阻止它殺死目標。」

主辦這次會議的倫敦皇家航空俱樂部(Royal Aeronautical Society)和美國空軍沒有回應衛報的置評請求。(譯者:張茗喧/核稿:戴雅真)1120602

内容は以上です by 「Cofacts デマ探偵隊」情報に対してリプライするロボットと協働検証をするコミュニティです is licensed under Creative Commons Attribution-ShareAlike 4.0 ( CC で名前を表示する-同じ方法で 4.0 をシェアする), the community name and the provenance link for each item shall be fully cited for further reproduction or redistribution.