【有冇搞錯】AI崛起 我們應該恐懼?

石山

Facebook

《有冇搞錯》。2月16日。

你有聽過AI是如何改變未來的嗎?別擔心,你並不是唯一一個擔心被機器人統治的人。但是,讓我們來看看AI對我們的未來社會到底會帶來什麼樣的影響吧!或者說,讓我們來看看到底哪些工作會被機器人搶走,讓人類繼續無所事事吧!(當然,這是玩笑話,但是AI對未來的影響是非常嚴肅的問題,我們必須認真對待。)

剛剛這段文字,不是我寫的,是ChatGPT寫的。這個ChatGPT,是美國硅谷OpenAI公司推出的人工智能對話平台,向社會公開。我註冊了一個帳號,說我要寫一個關於AI的文章,開頭要讓人感興趣,讓它幫我寫個開頭。所以第一段,就是它幫我寫的。大家覺得如何?

我們今天談AI,人工智能。首先我承認,我其實不是人工智能專家,甚至都不是電腦專家,經常被電腦搞得很頭痛。所以今天這個節目,可以說是一個外行,從看熱鬧的角度,和大家談一下人工智能的發展,和對未來的衝擊。

十多年前,看了傑夫‧霍金斯(Jeff Hawkins)的《創智慧》,英文書名是「On Intelligence」,我看的是台灣出版的中文版。那本書對我理解人工智能,有很大幫助。傑夫本人是神經學家,也是一個電子科技人,創辦了掌上機Palm,有幾年這個機器非常火,後來被蘋果的iPod和iPhone給超越了。傑夫在書裡面談到的人工智能AI,對我啟發相當大。

他首先去定義什麼是智慧。他認為,智慧就是人類大腦中儲存的數據,加上對這些數據的連結方式。換到電腦中,就是數據,和搜索引擎的聯合合作。當然這是一個非常初步的說法。比如說人類聽到獅子吼,這個聲音的數據以前就在大腦中了,但這個不是智慧,只有和「危險」這個概念的數據連結的時候,才是智慧。傑夫是從人類大腦運行模式下手,延伸到機器的運作模式。所以,關鍵的問題是,機器如何把「獅子」和「危險」這兩個概念的相關數據連結在一起。

十多年前,這還是一個相當不容易的工程,但實際上已經有不少突破了。經過了十多年的發展,現在電腦已經可以在很大程度上做出這樣的連結。這就是ChatGPT這個人工智能對話所體現出來的一些「智慧」。

基本上,GPT就是通過某種運作軟件,對電腦的記憶系統進行訓練,最後創造出新內容。比如谷歌搜索,本身還不是AI,因為谷歌給你的只是網絡上現有的數據,它搜索出來給你,它沒有創造出新的內容。但ChatGPT不同,它搜索數據之後,會創造新內容出來,比如我們開頭讀的那段文字。

現在AI已經發展到相當驚人的程度了,不光是文字寫作,還有作曲、作畫、寫信,甚至動漫等等,都可以通過AI幫助。現在美國市面上已經有不少由AI幫忙寫作的小說在出售了,而且據說賣得還很不錯。只要人類給出一些關鍵的要點,比如人物,大致情節,寫作風格等等,AI就可以自行去創作了。比如說有個超級英雄,叫做石山,發現了一個壞人叫做土山想要破壞地球,石山最後阻擋了土山,要用懸疑風格。大概兩個小時,AI就可以寫完一篇小說,石山就成了英雄主角了。

ChatGPT之所以大熱,因為有人用它去參加考試,居然可以獲得不錯的成績,寫論文也能獲得教授的讚許。所以,在未來我們還需要努力嗎?還會有多久,這些聰明的機器就能徹底取代我們呢?

這不是我一個人的擔憂。伊隆‧馬斯克(Elon Musk)也發出了警告,他認為AI對未來人類的威脅,可能已經超過了核武器了。以我的理解,這恐怕不是危言聳聽。

決定AI發展的,主要有三個因素:一個是算法,就是運算方式,也就是軟件;一個是演算力,這是電腦功能、速度、容量等等結合的結果;另一個是大數據。現在的機器學習,本質上就是電腦本身通過在數據這個大海洋中去自學習,然後得出自己的結論來。

我們來給ChatGPT出一個題:

【問】自動駕駛汽車遇到無法避免的情況,必須在兩個選擇中做出一個,它應該撞向嬰兒車,還是撞向街邊行走的老人?

【答】這個問題其實牽涉到倫理和道德的問題,因此很難得出一個明確的答案。然而,許多自動駕駛汽車的製造商和編程者都傾向於使用最小傷害原則(The Principle of Least Harm)來處理這種情況。

簡單來說,最小傷害原則是指自動駕駛汽車應該儘可能選擇對人類造成最小傷害的方案。這可能意味著撞嬰兒車的風險更小,但這並不是絕對的。這種決定取決於許多因素,例如車速、路況和撞擊的角度等等。

總的來說,這個問題的答案非常複雜,也取決於很多不同的因素。無論如何,我們希望這種情況不會發生,自動駕駛汽車的技術和安全措施能夠繼續改善,最終能夠減少交通事故對人類造成的傷害。

大家都看得出來,這是一個故意刁難的問題,因為同樣問題去問人,恐怕也很難獲得滿意的答案。我想要提出的是,我們這個世界,除了機械的理性邏輯外,還存在道德和倫理的問題。上述那個問題,有研究機構也曾經在不同國家對不同的人群提出過。有的國家,比如東亞,會選擇避開老人,因為東亞有孝道文化,有敬老的傳統。但在有些國家,會做出價值最大化的選擇,嬰兒未來對世界對社會貢獻最大,所以應該避開嬰兒車。

所以我們再問ChatGPT一個問題:

【問】AI具有道德判斷嗎?

【答】目前的AI尚未具備道德判斷的能力,它們只能根據事先設定好的規則和指令執行任務。但是,未來的AI可能會透過深度學習等技術不斷學習和進化,擁有更高層次的智能和判斷能力,也有可能被賦予道德判斷的能力。然而,要讓AI具備適當的道德判斷能力,需要透過良好的設計、嚴格的監督和評估,以及深刻的倫理思考。

這個意思是,以後,機器可能會有自己的倫理和道德原則,會有自己的價值觀。

在人工智能的世界中,科學家認為可能存在一個奇點,就是關鍵點的意思。我的理解是,在這個點之前,AI需要有人的指令,才能做出相應的判斷和行動反應,而在這個點之後,AI可能會根據事先設定的某種原則,自動做出判斷和行動反應。

而伊隆‧馬斯克擔憂的,當然也是我害怕的,是在這個奇點之後會發生什麼。過去兩三百年,人類有不少思想者發出警告,各種關於機器控制了人,或者電腦控制了人類的作品,層出不窮。其中最有名的一個,就是《黑客帝國》。在《黑客帝國》中,人類成了「想像力」的電池,被機器儲存在培養液的大罐子裡。逃離出來的人類,只能在深深的地下世界,和那個機器智慧體進行殊死搏鬥。

這個電影告訴大家說,一開始,人類對AI的出現非常高興,因為它解決了我們很多問題,但很快奇點到來了,AI越來越發達,最後把人類當成了阻礙進步的障礙了。

大部分人都並不相信這個未來,或許,我們距離那個奇點還有很遠很遠。像一位英國作家預測的那樣,需要2.5億年。

但其實,我們距離這個奇點很可能並不需要很長的時間。

我們舉一個例子:戰爭。

現在各國都在研究人工智能在軍事中的應用。比如說現代的先進導彈,我們稱之為聰明彈,是因為它可以自動追蹤目標,人類把它放出去,它自己去追蹤目標。當然,人類仍然可以操縱它的行動。如果是雙方都用聰明彈,那誰快一秒鐘,誰就勝利了。但隨著競爭越來越激烈,人工智能將會代替人類的大腦去做出判斷,因為它快得多,因此最後可能將越來越多的決定權交給AI。

我覺得,下一場的大型戰爭爆發,我們將會看到由AI指揮的作戰機器人參加戰鬥。一旦這個情況出現,我們可能被迫把決策權交給AI,也就是交給機器了。

原先我們認為,機器只能從事重複性的工作,創作性的工作還是必須由人類來完成。但我們看到阿法狗戰勝了李世石之後,其實就已經知道這個時代已經過去了。未來是AI對付AI的時代了。

人類擔憂的那個奇點,就是當AI擁有了自己的價值觀,並且可以自己改善自己的程序,甚至通過對製造設備的控制,改善自己的硬件系統的那個時刻。

一旦這個時刻來臨,人工智能的機器,將以我們人類無法想像的速度去改變這個物理上的世界,包括人工智能本身。

現在,所有國家的所有決策者,幾乎都非常明白一個事情,就是:誰控制了AI,誰將控制未來。美國知道,歐洲知道,中國知道,俄羅斯也知道。那麼如何去競爭呢?落後的恐懼,或者失去未來的恐懼,看來將迫使所有這些國家,或者那些想要擁有未來主導權的人群,去加速AI的進化和發展。而很明顯的,就是誰能率先發展出能夠設計改善AI系統的AI,將獲得未來最大的超越距離。而這個,卻恰恰是我們需要恐懼的事情。

石山角度:https://www.ganjing.com/zh-TW/channel/1f9m2ego2d87xwxnRkfIjqs3j1th0c

(責任編輯:李紅)

相關文章