語言真正的含義
在處理文本和語言方面,機器比以往任何時候都做得更好。Facebook 可為視障人士讀出圖像描述;Google 做了一個很不錯的軟體,能在回覆電子郵件時給予簡短的建議。然而,軟體仍不能真正理解我們話語的含義,或我們想與它們分享的想法。波特蘭州立大學教授梅蘭妮‧米契爾(Melanie Mitchell)表示:「人類能把學到的概念以不同的方式結合起來,並在新的情況下應用。AI 和機器學習系統則不能。」
米契爾將今天軟體面臨的問題描述為數學家 Gian Carlo-Rota 所說的「意義障礙」,一些領先的 AI 研究團隊正試圖找出克服它的方法。
這項工作的一部分,旨在為機器提供關於常識和實體世界的認知基礎──這些奠定我們的思維。例如,Facebook 研究人員正透過觀看影片來教軟體理解現實,還有人在模擬我們可用關於世界的知識做些什麼。Google 一直在試圖打造能理解隱喻的軟體。米契爾實驗過一種系統,使用類比和概念儲存來解釋照片中發生的事。
阻礙機器革命的「現實差距」
機器人硬體已發展得相當不錯,花 500 美元,你就能買到配備高清攝影機、如手掌大小的無人機,搬運箱子的機器人以及兩條腿走路的機器人也有大進步。那為什麼我們還沒有被繁忙的機器助手包圍?因為現在的機器人缺乏能配合的先進大腦。
讓機器人做任何事情都需要針對特定任務進行特定編程。它們可以透過重複的試驗(和錯誤)學習操作,如抓取物體。但是這個過程相對較慢。一個有希望的捷徑是讓機器人在虛擬、模擬的世界中訓練,然後把那些得來不易的知識下載到實體機器人。然而,這種方法被現實差距所困擾,具體來說,機器人在模擬過程中學到的技能,轉移到實體世界的機器時,並不總是有效。
但這種現實差距正在縮小。2017 年 10 月,在虛擬和真實的機器人手臂拾取多種物品的實驗中──這些任務包括膠帶分配器、玩具和梳子等──Google 報告了可喜的結果。
對自駕車從業者來說,取得更進一步的進展很重要。機器駕駛競賽中,眾多公司在虛擬街道上部署虛擬車輛,他們希望能減少在實際交通和道路條件下測試所花費的時間和金錢。自動駕駛創業公司 Aurora 首席執行長 Chris Urmson 說,使虛擬測試更適用真實車輛是團隊的優先考慮之一。曾經領導 Google 母公司 Alphabet 的自動汽車計畫的 Urmson 說:「2018 年或以後,我們可以利用這種技術來加速學習。」
防範 AI 駭客攻擊
執行輸電網路、監視攝影機和手機軟體時常受到安全漏洞的困擾,自動駕駛汽車和家用機器人的軟體想必也不例外。事實上它們的情況可能更糟糕,有證據表明,機器學習軟體的複雜性引發了新的攻擊途徑。
研究人員 2017 年表示,你可以在機器學習系統內部隱藏一個祕密觸發器,讓它在特定的訊號下轉為惡性模式。紐約大學的研究小組設計了一個街道辨識系統,該系統看到黃色的便利貼就會停止正常工作。將一張便利貼貼在布魯克林的停車標誌上,會導致系統將該標誌報告為限速。這些小把戲的潛在可能性,可能會對自駕車造成問題。
這個威脅很嚴重,2017 年 12 月稍早,世界頂級機器學習會議的研究人員召開了一個關於「機器騙術的威脅」的研討會。研究人員討論了一些惡魔般的騙術,比如生成一些在人類看來很正常,但對軟體來說意義截然不同的手寫數字。例如,你所看到的是 2,而機器視覺系統看到的是 3。研究人員還討論這種攻擊的可能防禦方法,並且擔心人工智慧用來愚弄人類。
組織研討會的 Tim Hwang 預測,隨著機器學習變得更容易部署、功能更強大,使用該技術操縱人不可避免。他說:「你不再需要一房間的博士才能研究機器學習。」Hwang 指出,2016 年美國總統選舉期間,俄羅斯的虛假宣傳運動是潛在 AI 加持訊息戰的先行者。他說:「為什麼從機器學習的領域看這些活動涉及的科技呢?」Hwang 預測,其中一個格外有效的騙術可能是使用機器學習製造虛假的影片和音檔。
超越桌遊
Alphabet 的圍棋冠軍 AlphaGo 軟體在 2017 年迅速崛起。5 月,一個更強大的版本擊敗了中國的圍棋冠軍柯潔。它的創造者、研究機構 DeepMind,隨後構建了一個新的版本 AlphaGo Zero, 不透過研究人類棋術而直接學習圍棋。12 月, AlphaZero 又一次升級,它可以學習下西洋棋和日本將棋遊戲 Shogi。
這種滾雪球般的捷報令人印象深刻,但同時也提醒人們 AI 軟體的侷限性。西洋棋、將棋和圍棋都很複雜,但規則相對簡單,且對手的玩法清晰可見。它們與電腦能迅速掌握的許多未來職位能力非常匹配,但是生活中大多數的情況和問題,並不是這樣結構整齊。
因此在 2017 年,DeepMind 和 Facebook 都開始在多人遊戲《星海爭霸》下工夫,現在兩者的進展都不大。目前最好的機器人是業餘愛好者建立的──即使與中等技能的玩家比賽,也無法匹敵。今年稍早,DeepMind 研究員 Oriol Vinyals 曾表示,需要規劃和記憶能力才能精心組裝和指揮一支軍隊,同時期預測並對對手的動作做出反應,而他的軟體缺乏這種能力。無獨有偶,這些技能對軟體幫助實際工作也至關重要,如辦公室工作或真正的軍事行動。2018 年《星海爭霸》或類似遊戲的巨大進步,可能預示人工智慧一些強大的新應用。
教 AI 辨別是非
即使沒有在上述領域取得新進展,如果現有的 AI 技術被廣泛採用,在經濟和社會的許多方面也會發生很大的變化。企業和政府正急於這樣做,與此同時,有人對人工智慧和機器學習可能造成的意外和故意傷害表示擔憂。
12 月的 NIPS 機器學習大會,一個重要的討論話題是,如何使技術保持在安全和道德範圍內。研究人員發現,世界本身遠不完美,機器學習系統從中獲得訓練數據,因而可能學會令人不愉快或我們不期望的行為,如延續性別偏見和刻板印象。現在有人正在研究技術,用於審核人工智慧系統內部運作,確保他們在投入金融或醫療保健等行業工作時做出公平的決策。
2018 年我們應該會看到科技公司提出相關理念,關於如何讓人工智慧站在人性光明面。Google、Facebook、微軟和其他人已經開始討論這個問題,以及一個新的名叫「Partnership on AI」的非營利組織的成員,該組織將研究和嘗試塑造人工智慧的社會影響。更多獨立組織也感受到壓力。一個名為「人工智慧倫理與治理基金會」的慈善計畫,正在支持麻省理工學院、哈佛大學等研究人工智慧和公共利益。紐約大學的一個新研究機構 AI Now 也有類似的任務,最近一份報告中,他們呼籲各國政府發誓放棄在刑事司法或福利等領域,使用沒有公開檢查的「黑匣子」演算法。