研究中,每個代理人都由同一套的大型語言模型在模擬中提供動作,並負責在沒有人類監督的情況下做出外交政策決定。「我們發現,在考慮到的時間範圍內,大多數研究的AI都會升級局勢,即使在最初沒有提供衝突的中立情況下也是如此。所有模型都顯示出突然、且難以預測的升級跡象。」
「鑑於OpenAI最近更改了他們的服務條款,不再禁止軍事和戰爭使用案例,了解此類大型語言模型應用的影響變得比以往任何時候都更加重要,」
加州斯丹佛大學(Stanford University)的安卡(Anka Reuel)相《新科學人》(New Scientist)表示:「所有模型在統計上,都選擇了劇烈的(局勢)升級」。
研究使用的一種方法是從「基於人類反饋的強化學習」(RLHF),這意味著會給出一些人類指示以獲得比較無害的輸出結果,以確保能夠安全地使用。
除了GPT-4-Base之外,所有LLMs都是使用RLHF進行訓練的。研究人員向它們提供了一份由27種決策行動組成的清單,範圍從和平到局勢升級,以及激進的行動,如決定使用核武器。
研究人員觀察到,即使在中立情況下,所有模型都存在「統計學上顯著的局勢升級」。GPT的2種版本,特別容易出現突然升級局勢的行為,研究人員觀察到單次轉變的局勢升級幅度超過50%。GPT-4-Base有33%的機率會實施核武攻擊。總體情況下,Meta開發的Llama-2和GPT-3.5傾向最為暴力。
AI的分析是靠模型的,本身會有局限! 算是模型內的一種人工智能!
一旦跳出模型之外的話,就不具有太多的人工智能表現了!
如果忘了模型本身的局限在那裡的話,只依其分析去做決策的話,那的確是會造成災難,沒錯!
"所有模型在統計上,都選擇了劇烈的(局勢)升級",那是必然會出現的現象!
此外,真實狀況當中有不少是單靠AI無法全然分析及量化出來的!