【新聞大家談】杜奕瑾:高明網絡騙術 你避開了嗎?

Facebook

【新唐人北京時間2024年01月10日訊】大家好,歡迎收看週三(1月10日)的《新聞大家談》,我是扶搖。

今日焦點:「台灣大選」有人布陰險雷區!杜奕瑾:網上「噴子」背景不一般,台灣人要注意!五大最新招數,讓你沒反應過來就被騙。

台灣總統大選,已進入最後的倒數計時。外界在關注各候選人全力衝刺的同時,也聚焦中共當局大肆介選的動作。

1月4日,美國國家安全委員會發言人約翰‧柯比(John Kirby)不點名警告中共:不要干預台灣選舉,並表示「我們將儘可能密切地關注此事」。

中共的干預究竟到了什麼程度?

台灣基進創黨主席陳奕齊近期接受《大紀元時報》專訪時形容,對岸的滲透如同「白蟻侵蝕一般」,手段非常細緻,最終目標是要「全面掌控台灣」。

那麼,具體手段有哪些呢?

我們看到,共軍最近屢屢派出戰機、軍艦與間諜氣球在台海周邊活動,營造緊張局勢,給台灣選民施壓。而除了傳統的文攻武嚇外,中共也利用AI技術,結合網絡社群媒體,如PTT、抖音、小紅書、YouTube等,對台灣選民發動「認知戰」。這些手法更隱晦,讓許多人在不知不覺中放鬆戒備,並因此影響投票意願。

這個計劃是怎麼一步步實施的?台灣的選民朋友,您會不會已經中招?在接近1月13日大選投票的關鍵時刻,我們邀請到台灣人工智慧實驗室(Taiwan AI Labs)創辦人杜奕瑾先生,為您撥開迷霧。

【利用生成式科技 「噴子帳號」散播假信息】

扶搖:杜先生您好,首先可不可以請您和大家科普一下,中共介選它利用AI做了什麼樣的事情?

杜奕瑾:其實大家知道,現在中國、俄羅斯這種比較集權的國家,它們都是有利用西方的社交媒體,去做一些它們外宣宣導,或者影響當地民主過程的一些訊息,我們叫做Cognitive Warfare(認知戰)。

其實透過我們人工智慧實驗室(AI Lab)的觀察可以看到,今年在生成式科技已經變得非常成熟的情況下,這個Cognitive Warfare被做得更自然。

大家可能知道,像在美國這邊,最近有五角大廈被炸的這種生成式照片,造成股票下跌。其實在烏俄戰爭我們看到,比如說澤倫斯基他發表假的演說,這個都是我們過去在講的deepfake(深偽)的技術。

那除了deepfake的技術之外,現在我們在網路上看到非常多的troll account(噴子帳號)。所謂的troll account,就是說它們並不是真的人,它是透過程式或者大量被控制的帳號,去發布一些消息。這些troll account發布的消息,有點像一個口令一個動作在宣導,去攻擊民主陣營相關的言論以及想法。

以這個生成式科技來講,去年年初ChatGPT剛發布的時候,大家知道這種大型的語言模型已經可以大量應用在各種生成式的技術,讓它說話說得頭頭是道、引經據典。但現在的生成式科技我們可以看得到,已經應用在虛假消息的散播或者是誤導消息的散播。

【與中共官媒關聯 「協同帳號」在台灣網絡帶風向】

扶搖:好,謝謝。您觀察AI在社交媒體方面的滲透程度如何?

杜奕瑾:其實以目前來講,我們發現,社交媒體上面在訊息戰的滲透是非常非常嚴重。比如說像烏俄戰爭,俄羅斯入侵烏克蘭之前,我們在看到Twitter(先X平台)大概有10%的帳號,只要講到烏克蘭,它其實是被親俄的噴子帳號群操作。

同樣的在台灣,幾個比較主流的社交媒體平台,比如說我自己本身是PTT的創辦人,PTT,Twitter,Facebook,還有LINE,其實你都可以看得到有非常多的這些帳號,我們把它叫做「協同帳號」。我們如果去detect(檢測),它們會共進共出,在某些議題它們會同時出現,發表評論之後,在另外一個議題會消失。

台灣人工智慧實驗室就用大型語言模型去訓練,可以知道每個帳號它每天的行動,之後我們就可以知道,哪些帳號跟一般的使用者比較起來是不正常的。分析出來之後,我們會發現其實它們是在follow(追蹤),它們會follow一個又一個的議題,然後去攻擊台灣年輕人的想法。

比如說在大選之前的好幾個月,這些帳號它們就在不斷宣導,說總統大選如果選某一個候選人,就會給台灣帶來戰爭,它也會講說中國是和平的使者,或者是說美國會給台灣帶來戰爭。

在靠近總統大選的時候,這些帳號就會轉而攻擊比較多民生的議題。所謂的民生議題就是像「雞蛋事件」,它會講台灣買不到雞蛋;或者是前一陣子教育部課綱的問題,它就會講現在的課綱是去中國化;或者前幾週就在操作ECFA(海峽兩岸經濟合作框架協議)的議題,說沒有ECFA的話台灣經濟會很差。你可以看到農產品或者石化相關的議題,就會在網路上發酵。

其實你仔細去看這些行動帳號的行為,就會發現它跟(中共)官方媒體是有連動的關係。也就是說,其實它是會跟著一個有點像有個commander(指揮官),大概每個月會有一些主打的議題,那些帳號就會跟著在網路上去做散播。

甚至我們也有發現,這些行動帳號試著要去影響台灣候選人的合作。比如說在藍白合議題之前,這些行動帳號主要同時攻擊國民黨跟民進黨。就是想辦法去demote(降級)台灣自己政黨推薦的候選人,而促使某一個政黨跟他們比較喜歡的候選人去合作。但是藍白合破局之後,我們可以看到有協同團體開始散播類似「棄柯保侯」相關的言論。

所以其實蠻有趣的,我們可以看到幾個被控制的協同團體的帳號,可以影響到候選人的傾向,以及一般民眾的想法傾向。

【境外假信息密集轟炸 台灣民眾需更警惕】

扶搖:您提到的這些操作在台灣的網絡上目前有多普遍?是不是有一些相關的數據可以參照呢?

杜奕瑾:我們相關的報告都放在Infodemic的網頁上面。Infodemic就是pandemic(大流行)前面的這個pan改成info,就是infodemic。Infodemic裡面有一個report(報告)的頁面,我們有把每個月,甚至在選舉之前week by week(每一週)的觀察報告,秀出來給大家看。像剛才講的藍白合的議題,我們都是有相關的數據報告。

講到的這些分析報告,其實是有數十億的留言,我們去透過分析這數十億留言的使用者的行為,得出來結果。

扶搖:您認為中共利用AI影響台灣民意的目的,有達到嗎?

杜奕瑾:我覺得可能不見得只是中共,我們講的就是境外的影響力,包含中國、俄羅斯,其實我們都有看到在影響。那這個影響是不是有效?我覺得以人工智慧實驗室這邊的觀察來講的話,這個影響力是非常強大的。

台灣在全球已經算是對認知操作比較有awareness(意識),就是說大家會知道有這件事情。即使是這樣子,有非常多的民眾還是會被相關的消息誤導,尤其是像比較封閉型的社群,像LINE的社群,有很多比如說校友會、或者是公寓大樓的管理群、管委會或什麼,我們都可以看到有一些奇怪的帳號滲透進來,然後不斷去發表相關的議題跟言論。

非常多的人,如果他平常沒有透過比較主流、可信任的媒體報導,知道有認知操作這種事情的話,他就很容易被這種社交媒體裡面的訊息引導。我們可以注意到,現在連非常有知識的年輕人,或者大家覺得非常聰明的人,都會被這個訊息去誤導。

現在訊息戰的這種力量,透過引經據典來鋪陳,以及很多透過假裝中立的YouTuber短影音方式,比之前只是純粹貼文字的手法更有說服力。

扶搖:台灣的民眾是會比較容易放鬆警惕,更容易中招嗎?

杜奕瑾:我覺得其實台灣的民眾相對於全世界已經算是很有意識了,但是現在這種訊息戰的程度⋯⋯因為台灣在全世界算是言論最自由的地方。你在台灣散播虛假訊息,大部分時候都不會受到懲罰。另外,台灣其實應該也是foreign government distribution of false information(外國政府散布虛假信息)第一名的地方。

如果說國際上有大量的資金去做訊息操作散播,台灣在亞洲算是一個重點散播的地方。我們的這種人工智慧的方式,可以看到每天都有上百個議題正在交戰。你說為什麼台灣的民眾容易中招?應該是說,因為這種訊息的散播程度在台灣非常高,所以很容易人會被影響。

我可以舉個例子,就像我們現在看到在Facebook上有兩個協同群體,在政黨候選人粉絲頁下面,留言比例非常高。也就是說,你可以看到只要有人控制兩個網路的troll account group(噴子群),它就可以影響到台灣主要總統候選人下面留言的傾向。

比如現任總統蔡英文粉絲頁下面的留言,每三篇留言大概就有一篇留言是這兩個噴子群的其中一個發出來。也就是說它的密度非常高,所以你很容易就會受到這個風向的影響,影響到你自由的選擇。

【利用AI「偵破」網軍操作 護航選舉安全】

扶搖:是。那有沒有哪些反滲透措施,是值得台灣乃至其它國家學習和借鑒的?

杜奕瑾:我覺得台灣其實公民的力量是還蠻多的,就像比如台灣在全世界是最早在華文做事實查核的。但是事實查核我們在現在這個階段,我們覺比較來不及去解決這件事情。

所以後來像CoreFact就是開始做比較多中心的視察,就是就是crowdsourcing(眾包)的fact checking(事實審查)。但即使是crowdsourcing的fact checking也會來不及,所以我們AI Lab才去做了Infodemic,我們去成立一個人工智慧的大型語言模型,不斷去monitor(監視)網路上的言論以及行為,所以我們就可以知道有哪些網軍帳號正在進行操作。

那藉由這個,我們把這種行為模式公開,比如說在選舉之前,我們開放主流媒體,以及各個研究人員使用我們的人工智慧工具,去了解現在怎麼樣的訊息在被操作,讓大家知道我們怎麼樣的訊息被操作之後,大家可以把自己的發現共同分享出來,透過我們這個Infodemic和民營的APP去宣導,那 民眾看到類似的操作手法,他就會知道這其實有可能是極權國家的宣傳模式,它並不是一個真實的民意。

這樣子就可以防止台灣的key decision maker(關鍵決策者)、媒體、民眾被這些訊息操作所誤導。

我想這種模式在全世界算是非常新穎的,其實也是這次為什麼有很多在研究election security(選舉安全)的國際學者會邀請我們一起來做分享。這也是這一趟到華盛頓跟這邊的相關研究學者做交流的主要原因。

【五大新招數 升級認知作戰】

扶搖:好,謝謝。您剛才提到,您通過一些言論可以觀察到這背後是有定向操作的。目前的認知作戰,比以往嚴重多少?像抖音這種短視頻平台的發展,是不是也是更是把這認知戰向前推了一步?

杜奕瑾:對,今年我們可以看到有幾個很重要的、跟過去不一樣的地方。

第一個就是生成式科技被大量應用。生成式科技我們過去以為只是圖片,現在是圖片、影片、文字都有被使用。

第二件事情就是,過去大家看訊息操作,主要是文字的訊息操作,今年主要是短影音搭配文字。也就是說,網路上有很多的操作,它並不是直接用文字把它的主觀立場植入,而是藉由引述,或者是誘導使用者去閱讀某個短影音,從而被影響。

第三個,過去的操作它比較在社群平台上面公開去宣傳,但今年的操作它會誘導使用者,藉由他的投資的興趣、藉由他的比如說環保的興趣,把這些使用者拉到私人群組之後,再不斷去餵食他有誤導性的議題。

也就是說其實它的手法跟過去比起來更複雜,而且更成熟,一般的使用者就比較不容易察覺。

我們再看到這個帳號的分工,跟過去比起來也更明細了,帳號會分為比如說專門負責造謠的,也有專門負責傳播的,也有假中立者。因為造謠的帳號很容易被平台察覺跟刪除,所以就會有假中立者,他會把相關的內容截圖之後,留在社交媒體,然後再藉由傳播者把它傳出去。

那另外一個就是我們剛講的短影音平台,今年你可以注意到,YouTube跟TikTok在在操作部分比去年影響力更大,而且有大量的短影音在傳播。

如果說特別去看抖音平台,抖音在一開始就有非常強的偏見。它在國家的評介上,比如說提到哪個國家就都是好的,中國全部都是好的,那隻要是日本、美國、台灣,它就會有很大的⋯⋯都是往負面去傾斜。

同樣的,像提到台灣的總統候選人,原本是四組總統候選人,它的聲量就有非常不對稱,對這四個總統候選人的preference(偏好)也非常清楚。就我剛才講的,它只要是提到國民黨跟民進黨的候選人,它打擊的力量相對大,而且它的聲量是比較小。那它提到比如說TPP(台灣民眾黨)的候選人,它的聲量就非常大。

那我們可以去透過大量的人工智慧的觀察,知道它怎麼去運作、去影響到人的認知。

扶搖:哦。那像中共一直在定向推播假訊息, AI會不會在這種干擾之下,形成自己的思維模式,然後以後輸出的信息都是帶有偏向性的呢?

杜奕瑾:人工智慧當然是會把人的偏見學習起來,也就是說如果你資料是有偏見、你標註的方式是有偏見,你訓練出來的結果就是會有偏見。這也就是為什麼中國在第一時間就把比如說ChatGPT屏蔽掉。因為ChatGPT主要的資料,90%都是美國這邊收集的,那就代表說它的內容的傾向跟思維比較符合美國這邊的社會文化跟利益。

那同樣的,如果今天我們訓練人工智慧,我們大型語言模型這個資料是中國這邊去訓練的,相對來講它裡面學習到的回答方式,肯定會把中國相關的立場跟偏見也都學習起來。

這也就是為什麼,我們特別在去針對台灣,尤其在中文的領域,我們針對繁體中文的部分在訓練自己的大型語言模型,這樣可以確保我們的立場會符合台灣的社會標準。

【生成式科技發展 「人類文明在往下走」】

扶搖:是,所以AI水軍對台灣大選已經產生了影響。

杜奕瑾:我覺得其實它一直都有在影響。我們可以看到從烏俄戰爭,在推特上面的這種操作;佩洛西來台灣的時候,大概每四個言論就有一個言論是從水軍傳播出來,在台灣的這個言論;再來我們剛才講到這次總統大選,在總統的粉絲頁留言,每三個留言有一個就是水軍出來的。

這種模式我覺得已經變成一個⋯⋯我們過去會覺得說網路上是大家的民意,但是大家可能要認知到一件事情,就是在網路上大部分的言論很有可能都是被操作的帳號產生出來的。

生成式科技今年的發展,我們大概也可以預見到,人類的文明其實在往下走,未來可能生成的內容會比人自己原創的內容還多,這就是必然的走向。那也就是說,大家未來在獲得訊息時,一定要有一些方法去了解這個訊息有沒有被控制,這樣去協助你要不要相信這個訊息的來源。

所以你問我說是不是會被影響?從我的角度已經在影響,而且已經在全世界有很重大的影響。就比如說像「劍橋分析事件」,那是2019年在英國有一個Cambridge Analytica這家公司,它操作全世界200多場選舉,包含美國總統大選、英國脫歐、台灣2018年的選舉,其實它都是有很直接的影響。

這個以前是在做精準行銷,但是後來把它變成為政治服務,也就變認知操作,是非常的成功的。一旦這個東西非常成功,大家沒有注意到的是,這些平台都是國際化的,也就是說不是只有境內自己政黨之間可以運用這些技術去操作民眾的想法跟言論,境外也是可以操作民主國家境內的想法跟言論。

尤其是像台灣這種比較小的國家,透過境外去操作,相對來講它的門檻比較低,而且台灣的言論的障礙比較小,民眾又很容易去接受各種國際社交媒體,受到的侵害也是蠻大的。

【干預美國大選 中俄早已動手?】

扶搖:是的。想再請問一下,您那邊觀察中共除了對台灣大選,現在對於美國大選是否也已經開始用AI干預了呢?

杜奕瑾:其實觀察對美國大選的操作,我們在看推特跟Facebook這兩個平台的協同帳號已經有非常多。而且我們也有看到,這些協同帳號是會跟著中國跟俄羅斯的議題去做連動。也就是說中國跟俄羅斯有哪些議題,它其實就會在美國這邊利用這些帳號去做放大。

至於這些帳號是不是就跟中國跟俄羅斯有關,因為現在AI Lab我們比較沒有在觀察美國這邊的事件,所以我們也無從知道。但是如果說是往下去探究,我覺得這個應該是蠻有趣可以去看的。

如果說是以台灣為例的話,台灣社交媒體PTT因為它是開放透明的,因為那是我之前創立的。我們透過PTT,可以看得到有很多協同帳號在操作台灣的總統大選。PTT它的IP是會顯示出來,我們去探究這些IP,雖然它顯示是從台灣來的,去追蹤我們發現,這些帳號其實是利用台灣VPN的Router(路由)。你再往下去探究,會發現這些Router的設備很多都是中國製的。

另外,台灣今年也有一個「鷄蛋事件」,我們可以看到連續三週的協同團體操作。這三週協同團體操作大概一百多個議題,就可以造成台灣農業部長下台。

從這個操作模式我們可以看得到,(中共)官媒主打的議題跟協同團體發表的議題有連動的關係。官媒這邊提到比如說鷄蛋缺少,那台灣的協同團體就會講;官媒講到補助有問題,那台灣的協同團體也會發表同樣的攻擊方法。

【如何守護AI倫理 對抗信息操控?】

扶搖:好, 謝謝。我聽您以前講過,人才是創新的核心。而沒有創新的中共,常常盜竊知識產權、百般「山寨」。您如何看中共在網絡水軍方面的投入?這方面的過量研究和投入,是不是也會同樣阻礙科技創新?

杜奕瑾:我其實覺得應該是說,每個國家都是會有很多科技發展的經費,但是科技至於是怎麼樣發展,跟這個國家的投入方向是有關的。比如說,美國就是透過大科技公司去發展人工智慧。大科技公司發展人工智慧也會有它的盲點,像以人為本、保障人權隱私,怎麼去做到科技倫理?其實賺錢不是唯一的目的。我們現在看到西方的社交媒體,為什麼可以被利用來作為操作的工具?跟它的business model(商業模式)也是有關係的。

至於在中國,其實中國因為長久以來比較是政府出資的創新為主,很容易以國家利益為考量,所以像social scoring(社會評分)或是surveillance(監控),或者cognitive warfare(認知戰),很自然而然在這些方面發展。

這其實也更提醒到我們大家,未來做人工智慧是要做到right respecting(尊重權利),就是保障人權隱私、可信任、負責任,不管是在美國或是在中國,都是要能夠堅守到以人為本的這個界線。我覺得這是人類未來的共同挑戰,而且需要我們大家一起去努力。

扶搖:我覺得您提到的科技以人為本相當重要。之前有很多消息曝光出來,就是中共會讓一些監獄裡的在押人員上網,然後翻牆到海外散播一些假的訊息。如果說現在生成式科技,像您剛才提到的,它不可限量地發展下去的話,未來是不是都有可能會替代那些人工?而這方面的工作對於中共來說,或者對於極權國家來說,是不是更容易操作?這會不會讓他們未來的海外「維穩」變本加厲?

杜奕瑾:這是必然的。以人工智慧生成式AI去做到大量生產影片或大量生產言論,我們現在看到已經在進行。有可能在未來就像剛才講的,這種過去需要人在網路上散播言論的這些角色,慢慢地它也會被人工智慧取代,我們已經看到有往這方面的發展。

扶搖:那除了在應對方面,我想問一下對於政府、科企來說,對技術方面的合理管控,您還有沒有什麼建議?

杜奕瑾:美國白宮最近有開始發表人工智慧的行政命令,還有之前的人工智慧的AI Bill of Rights(AI權利法案),我覺得這個都是科技「以人爲本」從總統的高度去做的一些發表。希望未來的大科技公司不是只有賺錢。賺錢之前這些科技倫理該遵守的準則,美國這邊也開始在思考。

我們可以看到歐盟這邊,之前有數位服務法、數位市場法,現在有AIEd(AI教育)。其實大家已經開始往這方面去思考,就是怎麼把人擺放回技術的本位。

現在全世界都在重視,也是應該要重視的。

另外一方面,因為這些立法需要時間才會慢慢成熟,所以立法在進行的同時,我們要去支持立法的有效,一定要先能夠衡量人工智慧的影響到底是什麼。

現在台灣人工智慧實驗室我們建立了Infodemic這個平台,就是要讓全世界的民主國家不管是學者、媒體業者,以及政策的決策者,可以藉由我們開放的平台跟研究方式,知道人工智慧對訊息的操作、對民主國家的危害,怎麼去衡量。

很多極權國家可以利用人工智慧去做攻擊,那我們可以反過來利用人工智慧去做衡量,並把這個標準定出來。

扶搖:感覺也是一項非常繁雜的一項工程。那您覺得心理學研究是不是也應該開設一個課題,去討論網絡水軍對於選民的一些影響?

杜奕瑾:我還記得,我們剛開始做互聯網的時候,大家在講到網絡要怎麼去做精準行銷。所謂的精準行銷,就是你比如說不同地方看到同一個商品,看到七次之後你就會想買它,這個叫做精準行銷。你要知道使用者想要什麼,適時的給他這個商品的資訊。

其實所謂的認知作戰,就是精準行銷用來做政治服務。也就是說,當平台知道你喜歡什麼、討厭什麼,比如說你是喜歡動物,很討厭這個虐待動物的人,所謂的認知作戰,它就是可以用一些誤導或者是虛假消息,適時地讓你看到某個總統候選人虐待動物,或者是說適時看到某個總統候選人很喜歡小動物。幾個行為的模式,就會讓人對某個人或者某個政黨產生喜好或厭惡。

以前精準行銷是一個平台,投放內容至少都還是需要人去編輯,現在有了生成式科技,編輯也可以靠電腦去生成,然後去在不同的時候,給人不同的事情厭惡感或者是喜好感。

我可以舉一個例子,像前幾天日本地震,我們看到第一時間就有協同團體,它就在PTT上面去操作台灣跟日本的關係。它會在台灣組織人道救援隊的新聞下面,提到日本釋放福島廢水,那是不是台灣政府對台灣人的死活不顧,還要跑去救日本人?相關的言論就會在這個新聞出來的第一時間,不斷地在下面去渲染,好像台灣民眾是反日的,好像政府不應該去救援,救援就好像是不顧台灣人民的死活。

現在跟過去比起來,就是這個事件一出來,它相關的新聞議題的內容,怎麼去反制民眾的觀感、怎麼去反制政府去援助日本,它在第一時間就進來了。

這種第一時間進來,我們可以看到,以後如果說這種精準行銷的平台再加上生成式科技,這會變成一個非常強大的武器,它可以像導彈一樣。每一個議題一出現,它就立刻會有操作的言論進來,去影響到民眾的觀感。

扶搖:是,這個很可怕。

關於AI在網絡世界操作人們的認知,您還有什麼要補充的嗎?

杜奕瑾:我覺得其實2023年台灣的總統大選,應該是生成式科技運用在認知作戰的前哨站,我們在台灣已經看到有非常多的操作。也希望我們藉由這種開放的研究、以及我們這種平台的合作,我們可以跟全世界不管是民主國家或者是全世界頂尖的研究夥伴、對這方面有興趣的,都歡迎跟台灣人工智慧實驗室聯絡。

我們可以一起來思考,就是未來在生成式科技的時代,我們怎麼去建立一個全面而且是安全的訊息環境,讓各個媒體都可以在一個可信任跟負責任的基礎上面,去讓大家安全地接收到各種消息。

扶搖:好的,非常感謝杜奕瑾先生接受我們的採訪,也感謝大家的收看。希望大家都可以洞悉真實的世界,再會。

歡迎訂閱【新聞大家談 】YouTube 獨立頻道:https://www.youtube.com/@NTD-XWDJT

新唐人網站:https://www.ntdtv.com/

新唐人乾淨世界:https://www.ganjingworld.com/zh-TW/channel/uUaEX5vIKTh6l

新唐人YouTube:https://www.youtube.com/user/NTDCHINESE

大紀元新聞網:https://www.epochtimes.com/b5/nf1334917.htm

支持新唐人:https://www.ntdtv.com/gb/donation.html

新聞大家談》製作組

(責任編輯:劉明湘)

相關文章