【專家解讀AI趨勢:臺灣大學資訊工程學系教授林守德】深度學習不是最終答案,第三波AI浪潮有5大挑戰
在GPU運算資源協助下,大幅提高了訓練模型的效率,深度學習掀起第二波人工智慧的浪潮,但深度學習不是最終答案,下一波AI浪潮將有5大挑戰,這也是AI突破的5大方向(攝影/何維涓)。
人工智慧在今年開始發光發熱,以往不被重視的類神經網路演算法,因為硬體資源的提升加上大量數據的輔助,得以增加深度學習模型的準確率,讓AI踏出在學術界的實驗室,來到產業界產生各式各樣的真實應用。
「AI早在80年代前就已經有第一波的浪潮,」臺灣大學資訊工程學系教授林守德指出,當時許多企業投入開發的專家系統,就是AI最早期實現的應用,將專家的知識變成規則,藉由規則來判斷,從技術來看,專家系統是成功的,但因聘僱各領域專家的成本太高,導致專家系統難以普及化,因此,AI在80年代末期沒有成功興起。
接著, 90年代,更多的演算法出現,加上軟硬體的配合,包含電腦運算速度增加、記憶空間變大,以及網路的崛起讓資料收集變得更方便且廣泛,帶動了AI第二波的崛起。
林守德表示,第二波AI浪潮是將機器學習應用於統計、資料探勘,眾所皆知的AlphaGo,AI電腦圍棋打敗人類圍棋冠軍的事蹟,掀起了這一波AI技術的浪潮。也因AlphaGo的世紀戰役,也讓眾人對AI有更多的了解,過去,機器學習就是指用監督式學習來分類,像是支持向量機(Support Vector Machine,SVM),但因這一波AI的崛起,大家開始意識到機器學習還有許多各式各樣的演算法,非監督式學習、增強式學習、生成對抗網路(Generative Adversarial Network,GAN)等。
尤其是增強式學習,更因AlphaGo Zero的成功而開始受到注目,增強式學習讓程式能夠跟外在環境互動,並從互動中學習如何優化得到的獎勵的機制。
林守德認為,支撐第二波人工智慧浪潮的是深度學習,深度學習是從類神經網路衍生而來,將神經網路疊合成更多層,進而產生複雜的非線性模型,在GPU運算資源的協助下,增加了訓練模型的效率,而帶動這一波AI發展。
但是,他認為:「深度學習並非AI最終的萬靈丹」許多人可能覺得深度學習將認知和辨識的技術,推到了下一個境界,但林守德指出,深度學習還是有一些問題有待解決,目前AI的發展上,大部分成熟的應用都是與知覺相關,也就是說在辨識和認知方面的應用,但是深度學習並沒有解決電腦缺乏推論能力的問題,還是無法解決非搜尋類的相關問題。
未來,第三波人工智慧的浪潮,林守德提出5大即將面臨的問題,第一,他認為,AI將會從弱AI進入到強AI,弱AI即是只能聚焦在單一特定的任務上,從第二波浪潮之後,都算是弱AI極致的表現,但是,將來可能會走向強AI,也就是能夠解決廣泛問題的AI(General AI)。
他指出,未來AI將會加強推理、創造能力,打造出更接近人類智慧的AI,是下一波AI浪潮的新挑戰。目前像是DeepMind、臉書AI研究院都有在進行相關的研究,期望突破深度學習的架構,讓AI能夠完成更複雜的工作,像是記憶、推理等能力,若能達到這些能力,AI將會更接近人類的智慧。
第二個挑戰則是AI如何與人合作,他指出目前大部分的AI都是各自處理各自的問題,在不同的領域上也少有交集,未來的AI除了要相互合作,更要與人一同合作,但是為了要與人合作,就必須需要賦予AI更多能力,包含與人類互補的智慧,還需要展現出同理心、信任感,在合作的過程中,AI也需要有認知能力來與人類溝通,目前也有許多研究在朝著開發出類似人類能力的AI方向進行。
第三挑戰是安全和可性度。「AI的安全性和可信度會是未來需要關注的議題!」林守德指出,AI病毒和AI的安全性的討論,目前為止還沒有受到重視是因為AI還不夠普及,未來AI深入人類的生活,變得越來越普及之後,將會開始出現AI攻擊工具和方法,他表示,目前已經有研究發現,機器學習的決策可以被誤導,舉例來說,深度學習在圖像辨識的準確度已經達到大90以上,也在許多產業廣泛應用,但是若有心人士在圖片上加入特殊的錯誤,肉眼雖看不出差別,卻能夠左右AI的判斷,這種影響尤其不易察覺。
他認為,AI判斷遭誤導了,對許多應用都會造成嚴重的後果,舉例來說,近來有些銀行用AI來判定小額信貸的審核,但是AI系統若遭到有心人士攻擊,可能能夠使AI做出錯誤的判斷,也會造成銀行非常大的損失。
因此,林守德認為,金融業的AI應用,需要特別留意安全性,另外,國安方面,也是一大議題,未來人臉辨識、指紋辨識可能變得普及,若辨識遭到偽造,也會產生眾多問題,「AI的安全性,會越來越重要,」他甚至大膽預測,在幾年後將會出現第一支AI病毒。
而第四個挑戰則是AI道德和倫理議題。這也是林守德常常被問的問題,「AI有沒有可能摧毀人類?」他的答案是:「有可能,但是不是電影情節的那種摧毀方式」,AI短期之內,是不可能產生自我意識,進而攻擊人類,AI可能危害人類的方式是,在執行命令的過程中,因為沒有對現況有全面的了解,而犯錯傷害到人類。
簡單來說,AI在執行人類的命令時,因為誤判或是不夠智慧,而傷害到人類,例如,機器人被要求去冰箱拿飲料,行進的過程可能將遇到的嬰兒踢到旁邊,因此,「AI還需要加入道德和倫理的觀念,」他認為,道德和倫理也是智慧的一部分。
不過,他也指出,要賦予AI道德和倫理的觀念,非常具有挑戰,有時候道德觀和AI要執行的目標會有衝突,AI必須對現況有全面的了解,才能做出較正確的判斷。
最後,未來AI發展可能面臨的一大挑戰是,要如何建立透明化的AI方法,他表示,心理學家有一項研究指出,人類較不能接受無法理解的事物,當人類不能理解事情的原委時,接受度將會下降不少,因此,AI在未來深入人類的生活,生活中許多事物將會有AI共同參與,要如何讓大眾接受AI的建議與決策將是一大挑戰,必須建立一套透明的機制,讓大眾了解AI給予建議或是制定出決策的原因。
舉例來說,若AI理財機器人建議投資人買某支股票,但是沒有交代建議的參考資料和原因,投資人很難取信於AI,他認為,如何將AI的方法透明化並解釋清楚決策的過程,以及如何說服人類相信AI的決策,會是未來需要解決的議題。
《全文請見iThome(https://www.ithome.com.tw/news/118494)》