首先,在了解AI之前,我們要先探討 —
「 為何以往的科技產品無法實現智能行為 」這個問題。
過去的機器人 AI人工智障 (Artificial Idiot)#
對於以往的科技產品來說,不外乎就是撰寫程式指令,讓這些程式去完成複雜的程序,使其處理更快、更有效率,例如 醫學上癌細胞病變機率、軍事上發射飛彈的角度,又或者是數學家追求的圓周率 等複雜的運算。然而再強大的程式,它也僅僅只是遵循設計者所撰寫的指令一行一行的跑,並不會突然跳脫出設計者所設計的範圍(暫不討論漏洞情況)。簡單來說,不論這支程式看起來多厲害,它最終依舊是"死"的。
若是要單靠敲鍵盤打出一行又一行的程式,去塑造出一個能表現的近乎人類行為的產品,理論上是辦不到的,原因就在於,生活中的"例外“太多了。當一個新的例外出現時,對於此產物來說是陌生的,並且它也不能處理眼前所發生的狀況,這時候你又必須多加幾行程式跟它解釋「眼前狀況是什麼」,想想都覺得累,倒杯水,問你杯子是什麼,要喝時再問你水是什麼,喝下去後又問你水去哪了,沒有任何一個設計師會願意做出這樣的「人工智障」。反倒透過告訴它「水」的定義,並讓它理解人類需要水分才能生存。攝取水分的動作中,水需要有容器裝載,所以推測出「杯子」是「裝水的容器」,並且加上剛剛說的「人類需要攝取水分」這條原則,進而判斷出此現象就是「人類用杯子裝水後,攝取杯中的水分」。
機器的自主學習#
秉持著「 與其給魚,不如教怎麼釣魚 」的概念,「 與其告訴它答案,不如教它如何自己學習 」
對的!「 讓它自己學習 」這樣的思維就這麼產生了!
其實早在20世紀40年代後期,心理學家 唐納德·赫布 就根據「神經可塑性」的機制,創造了一種對學習的假說,現在稱作赫布型學習。赫布型學習被認為是一種典型的「非監督式學習」規則,也就是剛剛所提到的 — 「 自行學習 」。
運用這樣的技術,這些科技產物的行為似乎看起來就再也不是受到設計者所限制了,轉而運用程式內的演算法,去推斷出哪些資料屬於什麼,並自行做歸類,而在往後每次發生例外時,就自行透過以往的學習經驗判斷且有效的整理這陌生的例外,並且將它納入自身新的經驗裡。
有些讀者可能發現了,上述的這種思維,其實就近乎是我們生物的學習模式,舉人類當例子,嬰兒誕生時便賦予「學習」的功能,看到什麼、聽到什麼或者摸到什麼,都會在腦中紀錄,透過不斷的累積經驗,往後發生問題,便能透過以往的經驗去判斷最佳解,即使再次失敗,也能透過納入失敗的經驗,來學習成長。
遇到問題,能透過不斷的學習,運用統計學歸納出各項可能之比重,進而做出更正確的判斷,學習次數越多次,代表樣本越多,則判斷將會更精準,這樣的科技可怕就在於,機器將會透過自身的高效學習,以極高的速度成長。
如果還是不清楚這樣的概念,沒關係,以下舉簡單的例子說明:
假設一個情境,當您對AI說「你好!」,AI從過去的學習裡知道了關於「你好」一詞是屬於「打招呼」類型的句型,且基於禮貌需要給於回應,而"回應"關聯的詞有「喔、你好、知道、不知道」,透過歸類後判斷,「知道、不知道」不能用於此做回應,所以剩下的可能性就是「喔、你好」,在沒有其他可判斷的條件下,分配比重「喔50%、你好50%」,機率一樣的情況,隨機抽取,選出「喔」,經過這些判斷後,AI回應您「喔!」,結果您生氣了,您對AI說:「你的態度很不好!」,於是AI透過這次的經驗學習到了用「喔」作為打招呼的回應是「態度很不好」的,於是從新調整比重「喔25%,你好75%」,在往後您對AI說「你好」時,他便會因為過去經驗所調整得比重,而選擇最適合的回應,即此例子中回應您「你好」。
結論#
人工智慧是運用「 類神經網絡 」來達到與生物相似的「 學習 」效果。
越多的參考樣本(經驗)就越能準確的判斷發生問題時的最佳解,透過不斷的失敗,累積經驗來提昇自身判斷的準確度,標準的越戰越勇!
因為經驗越多學習越精準,所以在訓練這些AI時,我們通常會使用很多很多的數據讓AI當作樣本參考並學習,這樣的現象我們稱之為「 Big Data (大數據) 學習 」,這也就解釋了為什麼「大數據」總是跟「AI」的話題緊緊相連。
最後#
總合以上所說,如果您都聽懂了,
那恭喜您了解了「 人工神經網路 (ANN, Artificial Neural Network) 」的基礎概念。
當然背後有更多複雜的邏輯思維,也有很多強大的演算法,
但本文僅僅只是「淺談」則不深入探討,
若是讀者有興趣可以自行上網搜尋「 神經網路學習 」的相關資料。