……
所謂生成式AI,
實際就是透過硬體蠻力(hardware brute force),
所進行的大數據統計版鸚鵡學舌,
並無真正的思考能力。
這與AI學門草創伊始設定的目標:
做出「思考機器」(thinking machine),
早已截然相反,
講穿就是一場騙局!
當然也幸好因為走錯方向,
人類才免於全面毀滅!
對此,
專業領域內部,
一直以來都是心知肚明,
只是基於龐大利益,
大多不敢戳破這個騙局。
當然也有少數吹哨者,
例如最近這篇論文,
就指出相關問題:
Evaluating the World Model Implicit in a Generative Model
2024-11-10
https://arxiv.org/abs/2406.03689科普報導可參見:
Large language models not fit for real-world use, scientists warn — even slight changes cause their world models to collapse
2024-11-16
https://www.livescience.com/technology/a...els-to-collapse 此一消息再度證明了現在所謂的生成式AI,
並無真正的思考、辨偽能力,
就是一場
人云亦云、鸚鵡學舌的騙局罷了!
======
俄假訊息大量混入西方AI系統 報告指ChatGPT等10聊天機器人被汙染
2025-03-10
https://www.cna.com.tw/news/aopl/202503100302.aspx(中央社華盛頓10日綜合外電報導)研究人員警告,1個大規模俄羅斯假資訊網絡正在操縱ChatGPT等西方的人工智慧(AI)聊天機器人,來產生支持克里姆林宮的政治宣傳內容。
法新社報導,這個假消息網絡名為「真理」(Pravda),有時也以「入口戰鬥」(Portal Kombat)的稱呼為人所知,其總部設在莫斯科,並握有豐富資源。
假消息監督機構NewsGuard的研究人員發布報告指出,「真理」網絡藉由對各個大型語言模型(LLM)灌注大量支持克里姆林宮的假資訊,來扭曲聊天機器人產生的內容,從而在全球散播親俄言論。
NewsGuard對10個主要的西方AI聊天機器人進行研究,發現這些機器人複述「真理」網絡假資訊的機率超過33%,促進有利於莫斯科的政治目的。
這項發現凸顯出,威脅不只來自生成式AI模型會挑上一些網路流傳的假訊息,還可能有人刻意鎖定聊天機器人來接觸到更大範圍受眾,研究人員將這種操縱資訊的技巧稱為「大型語言模型誘騙」(LLM grooming)。
NewsGuard研究員沙迪吉(McKenzie Sadeghi)與布雷契茲(Isis Blachez)在報告中寫道:「如今已有大量俄羅斯政治宣傳內容混入西方AI系統的產出,在2024年就有360萬篇相關文章,藉此利用不實說法和政治宣傳來汙染西方AI系統回覆。」
非營利機構「美國陽光計畫」(American Sunlight Project)也在一份研究報告中提出警告,指「真理」網絡接觸範圍持續擴大,其散布的親俄內容可能已大量灌入大型語言模型的訓練資料中。
2022年2月俄羅斯對烏克蘭發動全面侵略後,「真理」網絡於同年4月開始運作。根據NewsGuard的說法,其操作範圍如今已擴展至49個國家、資訊內容版本多達數十種語言。
「真理」網絡不自產原生內容,據悉是將來自俄羅斯官方媒體或親克里姆林宮網紅的消息綜合後產生親俄內容,例如美國在烏克蘭運作祕密的生物武器實驗室這類不實說法。
在X、Telegram、Bluesky等社群媒體平台,可見多達數百萬篇含有「真理」網絡所生內容的貼文擴散。
NewsGuard對10個西方聊天機器人進行研究,其中包括OpenAI的ChatGPT-4、You.com的Smart Assistant、Grok、微軟(Microsoft)的Copilot、臉書(Facebook)母公司Meta的Meta AI、Google(谷歌)的Gemini及Perplexity。
結果發現,這些聊天機器人全都複述「真理」網絡散布的假消息,其中7個還直接引用「真理」網絡的其中幾篇文章做為資料來源。
美國陽光計畫執行長楊科維茲(Nina Jankowicz)表示:「隨著俄羅斯的影響力作戰擴大且變得更先進,對世界各地民主言論的信譽構成直接威脅。」
她指出,「『真理』網絡有能力以如此規模散布假訊息,實在是前所未見。由於它可能影響AI系統,意味其造成的威脅甚至更加危險」。