台灣人工智慧實驗室創辦人杜奕瑾北約峰會演講 以可信任AI回應當前民主挑戰

圖說:台灣人工智慧實驗室(Taiwan AI Labs)創辦人杜奕瑾受邀赴美國華府出席北大西洋公約組織 (NATO)峰會,針對2024年歐洲議會選舉期間的資訊戰議題發表演說,並與華府AI與國家安全智庫「特別競爭研究計畫」 (Special Competitive Studies Project,SCSP)交流。

【2024年7月12日】不實訊息、特定勢力操弄資訊企圖影響選舉結果,已是全球關注的議題。台灣人工智慧實驗室(Taiwan AI Labs)創辦人杜奕瑾於7月9日赴美國華府出席北大西洋公約組織 (NATO)峰會,針對2024年歐洲議會選舉期間的資訊操弄議題演講,發表觀察報告。他呼籲,應建立可信任的AI查核機制,回應當前民主所遭遇的資訊戰危機。

此一觀察報告使用台灣人工智慧實驗室所開發的認知安全工具Infodemic,分析2023年7月1日至2024年6月24日之間,涵蓋Facebook、YouTube、X……等多個平台的26,011個社群媒體議題戰場(Battlefield)和335,045篇主要新聞報導(major story)。根據Infodemic的分析結果,在歐洲議會選舉( EU Parliament Election)期間有20,041個行為異常非由真正使用者操作的「協同帳號」(Troll Group)保持活躍,佔關於歐洲議會選舉討論12.58%的聲量。

較具影響力的協同團體主要分為兩組,其中一組專注於發布關於東歐地緣政治、國際軍事議題相關的內容,例如俄烏戰爭、北約的行動等。另一組協同團體則聚焦於攻擊西方民主政體,特別是英國、美國,散布關於國家領導人、政府決策的負面敘事,企圖動搖大眾對於民主體制的信心。同時進一步分析這兩組群體都有跨國操作的特色,同時參與美國總統大選的議題操作。

協同團體與威權國家官方媒體同調 歐洲議會面臨資訊戰似台灣總統大選
分析結果指出,這些協同團體形塑輿論的手法,包括批評主流媒體的報導缺乏公正性、放大俄羅斯宣傳論述,同時攻擊歐盟推出打擊訊息操作、仇恨言論的數位法規。此類言論的結果,可能保護極右保守主義的意識形態滋長,並意圖引導大眾對於「極端主義崛起所造成的威脅」抱持懷疑態度。

此外,Infodemic在同一期間運用FedGPT分析了1,624則主要新聞事件,發現其中16.07%和俄國、中國官方媒體有關。而值得注意的是,在歐洲議會選舉期間,針對俄烏戰爭、能源安全、數位監理、移民和氣候等5大議題,前述網路上的協同團體與俄羅斯、中國官方媒體的主張具有連動上一致性,試圖挑戰歐盟的領導議題論述的地位。

例如,比較2023年7-8月和同年9-10月期間,針對歐盟支持烏克蘭的攻擊,網路聲量從30.5%上升到34.97%。針對經濟問題的負面輿論,特別是能源安全,占2023年9-10月協同團體敘事的22.04%,是選舉期間最大的輿論戰場之一。

杜奕瑾特別指出,這樣的輿論操作策略和Infodemic於台灣2024年總統大選期間觀察到的現象相似,協同團體藉由炒作軍事支出、能源安全等議題,削弱民眾對政府及台灣國際盟友支持的信任度。

相較於傳統的選戰宣傳,這些協同團體所使用的資訊戰策略又更為細緻,不只是直接單一議題散布不實訊息,而是於日常的網路互動之中,穿插橫跨數國、針對多個主題的特定敘事,深化對大眾輿論的影響,亦成為民主治理的重大挑戰。

全球穩定性威脅來源不只實體戰場 發展可信任的AI機制應對資訊戰
這次北約峰會之演講,也是台灣人工智慧實驗室暨2024年5月首屆美國人工智慧國家競爭力博覽會(AI Expo for National Competitiveness)後,再度與華府重要智庫「特別競爭研究計畫」 (Special Competitive Studies Project,SCSP)交流,針對資訊戰與國家安全議題發表觀點。

圖說:美國第一屆人工智慧國家競爭力博覽會(AI Expo for National Competitiveness),台灣人工智慧實驗室受邀參展並由創辦人杜奕瑾發表演說,分享台灣自建大型開源語言模型TAIDE、TAME,並進一步建立聯盟級FedGPT,應用AI科技、辨識資訊操作、保護數位民主的經驗。

本次北約峰會前,SCSP智庫執行長Ylli Bajraktari於全球頂尖評論網站Project Syndicate發表〈AI生成的不實資訊是北約的新戰場〉(AI-Augmented Disinformation Is NATO’s New Battlefield)一文,強調全球穩定性的威脅來源已超越傳統的軍事領域。北約成員國必須正面回應敵對專制政權所發動的認知作戰。具體作法包括:投資於可辨識內容真實度的工具,例如大型語言模型(LLMs)、AI分類器,識別AI生成或修改的內容,指認敵對陣營於數位平台上的惡意活動,降低其對公眾的影響力。此外,有鑒於訊息操作的範疇往往超越國界,北約應與政府、公民組織、民間公司結盟,建立及早警示系統,並協作應對大規模的資訊戰。

杜奕瑾表示,2024年是全球大選年,呼應Ylli Bajraktari的觀點,在各國面臨關鍵選舉之際,與可信賴的夥伴合作建立AI機制,揭露網路協同帳號群的資訊操弄手法,有助於強化民主體制的韌性,回應不實資訊、意識形態兩極化等威脅。台灣人工智慧實驗室所開發的Infodemic平台是由AI驅動的認知安全平台,可檢測現代資訊戰的實施,追蹤虛假資訊的傳播,並揭示對手所採用的可能影響國家安全的目標、戰術和戰略。

關於FedGPT
FedGPT 是台灣人工智慧實驗室開發的落地式的大語言模型技術,由台灣自建的LLM技術,收集超過600億token的繁體中文語料來訓練GPT。注重讓 FedGPT 的回答要有所本的回答,基於內部建立的知識庫或透過聯合學習的聯盟驗證方式來達到可信任AI模型。落實可信任負責人的科技原則,保障資訊安全。

關於Infodemic
Infodemic是台灣人工智慧實驗室(Taiwan AI Labs)開發的認知安全工具,可以實時追蹤社群平台上的資訊,希望透過AI技術來揭露資訊操弄與協同行動、阻絕惡意訊息操作的傳播,並辨識協同操作群的策略。
Infodemic平台利用FedGPT揭露信息操控,揭示協同行為,發現惡意信息的傳播,以及識別由協同帳戶團體使用的敘事策略。並透過提供認知安全掃描系統,企業可以驗證任何訊息,無論其格式如何,無論是URL、圖像、視頻,甚至是句子。只需輸入資料並啟動掃描,系統就會告知該資訊是否是社交媒體上的有機訊息,或者是否是由利用平台演算法操縱公眾認知的惡意行為者係統傳播的。一旦探測到協同活動,該平台將揭露並提供全面信息,展示網絡惡意行為者、隱藏的企圖、以及在互聯網和社交媒體平台上運作的機器人網絡的詳細見解。通過匯總的信息圖表,企業可以輕鬆掌握信息戰的複雜領域,並了解問題所造成的影響。此外,該系統可以連結與探究這些參與者和外國實體之間的任何潛在合作。

關於Taiwan AI Labs
台灣人工智慧實驗室以開放演算法、原始碼與聯合學習發展國際可信任的研發成果;整合台灣人才、半導體產業鏈優勢,和累積的龐大綜合健康醫療資料,推動智慧醫療、人機介面、生成式AI等領域的人工智慧發展。
在可信任AI的宗旨下,Taiwan AI Labs有效結合生成式AI,推出智慧醫療、 聯合學習、AI虛擬主播、未來場景生成攝影棚、新聞分析平台等解決方案。人機介面領域,發展AI音樂藝術生成及語音辨識、語意理解等技術,一大應用於現今最受世界關注之假訊息、假新聞操作議題,觀察資訊操作的脈絡,相關成果在國際間興起熱烈討論,並屢獲國際權威期刊認證及刊登。

新聞聯絡人
台灣人工智慧實驗室 PR
陳莞欣 Ellie Chen
Mail:wanhsin.chen@ailabs.tw