人工智能的新問題:偏見

【新唐人北京時間2019年10月16日訊】人工智能(AI)正在深入社會的每一個角落,而人工智能可能帶來的問題,包括《黑客帝國》或《終結者》等電影所描述的人類黑暗未來,都已經有了諸多研究和關注,不過在可以預見的未來,AI所帶來的另一個現實的問題正在浮現,那就是「偏見」。

如今企業幾乎都使用人工智能(AI),以簡化員工的工作,以更方便於顧客。電腦軟件教客服人員怎樣更富同情心,學校用機器掃瞄校園內的武器和大規模屠殺殺手,醫生使用人工智能查看病因。

網路安全、線上娛樂及零售等行業用技術與客戶資料相結合,以革命性的方式簡化服務。儘管這些應用程式看起來無害,甚或有助,但人工智能不過是些輸入的資料,也可能造成嚴重的負面影響。您可能並未意識到,但AI有時將決定您有沒有資格貸款。

但問題是,如何能確保AI的決定是「不偏不倚」的呢?一般人認為AI會比人更少出現偏見,但事實可能並非如此。

設想一下,如果街上的人可以隨便拍你的照片,然後用電腦掃瞄進一個資料庫,從而了解你的一切,或機場的安全攝像頭把你標記為危險分子,卻讓一個這真正的壞人大搖大擺的上飛機。而這都可能發生——當科技中混淆了人類偏見時。

「人工智能是超強的工具,可用來做很多事情——其中有些是好的,有些可能會出問題。」現代創新及僱傭公司執行副總裁Eric Sydell說。他說:「在任何一種新技術的早期階段,很多公司試圖將其引入業務,而有些公司做得比別人要好。」

人工智能是一個概括性的術語,用於描述電腦執行的任務,這些任務通常需要人,例如語音辨識和決策。

無論是否有意,人類做出的判斷可以滲入AI的代碼中。意味著,AI能夠隱含種族、性別和意識形態偏見,進而促成一系列聯邦和州政府的條例。

司法

今年6月,民主黨眾議員Don Beyer對眾議院撥款法案提出了兩項修正案,將阻止聯邦資金通過執法部門融資於面部識別技術,並要求國家科學基金會向國會報告AI對社會的影響。

Beyer說:「不該全部禁止聯邦資金用於AI,但需要深思熟慮地使用。」「面部識別技術或導致警察認錯人,在極端情況下會導致他們拔出手槍。」

AI用於預測分析,電腦能夠顯示一個人犯罪的可能性。該技術是提高了安全性,抑或僅僅加大不平?

據AI治理中心和牛津大學未來人類研究所的一項研究,美國人對AI應用的支持度參差不齊,大多數(82%)同意對此進行監管。具體來說,當涉及到面部識別時,美國人說執法機構會很好地利用這項技術。

工作

許多研究表明,自動化將摧毀人類的工作。例如,牛津大學學者Carl Benedikt Frey 和Michael Osborne估計,至2030年代中期,47%的美國工作崗將面臨自動化的高風險。

不過在一寫特定的情況下,AI將決定你是否會被僱用。

現代僱傭公司使用從測試、音訊訪談和簡歷中收集的資料來預測一個人的工作表現。他說:「有意義的資訊包括:他如何工作,會幹多久,是不是業績最好售貨員或高素質的工人。」

使用AI,「我們可以去掉不順手或冗長的部分,並讓候選人即時回饋」,他說,「如果AI部署不當,會使工作環境變得更糟,但如果搞得好,將產生更公平的職場。」

此外,無論好壞,人工智能都能影響人做出的財務決策,這已有好久了。在防止信用卡欺詐方面尤為見效。

AI有沒有問題?研究說,它太男性化、白人化了,呼籲增加女性和少數民族。

偏見

偏見幾乎可以蔓延於深度學習過程的各個階段,然而,演算法也有助於減少人類因判斷力失誤而造成的差異。

一種解決方案涉及更改資訊中的敏感屬性以減少偏見。另一個則是預先篩選資料以保持準確性。他說,無論哪種方式,公司擁有的資訊越多,AI的決策就越公平。

「谷歌、臉書和亞馬遜是AI領域的領先者不無原因」,Sydell說,「這是因其擁有大量資訊。其它公司也能接觸相同類型的 AI 技術,但卻沒有這樣多的資料。」

Beyer,一位想要監管人工智能的政治家,贊成讓人類對電腦的決定再做檢查,直到技術無瑕疵為止,如果可能的話。

他說,質疑AI是否應該解決所有的問題,包括是否對某人判刑。

「即便它是完美的,我們還必須顧慮隱私。就像拍一張某人的照片,然後將其輸入資料庫,這合不合理?如果AI能比人類更快、更準確、更不偏不倚地閱讀X射線報告,那真是太棒了。但假如我們讓AI來宣戰,那就麻煩了。」

──轉自《大紀元》

(責任編輯:葉萍)

相關文章
評論
新版即將上線。評論功能暫時關閉。請見諒!