【專家主場】形外佳興 ─ 點解我想發神經

    人工智能(Artificial Intelligence A.I.)大概有以下範疇:機器學習 Machine Learning、自然語言處理 Natural Language Processing、自動機學 Robotics 等。透過深度、多層的學習模式,人工智能可以為人類處理大量信息並作預測及自主行動,包括預測我今天想吃中餐還是西餐,了解侍應的日常語言,點餐並用自動機餵我吃飯等。早些兒,網上書店憑我的選書行為,已能預測我喜歡哪些書,準確程度令 Neo 有些心驚,覺得對方比 Neo 還了解 Neo。近日 Facebook 與 Cambridge Analytica 的事情,可能只是冰山一角。看著國會議員的問題,我覺得人類很有娛樂性。

    在 A.I. 這個新天地,我們已經在享受機器預測的準確性(Accuracy)。

    但有一事,A.I. 專家仍在頭大:

    Interpretability ─ 可解釋度

    相關文章

    【專家主場】略評 Michael Coates 訪談 Oct 28, 2019

    【專家主場】形外佳興——不誠實取用電腦 May 21, 2019

    【專家主場】形外佳興 ─ 顧問的存在焦慮 Oct 1, 2018

    例如,當圍棋 AlphaGo 打出一手好勁嘅神手,大家讚嘆,然後人類又打出一手鬼手,大家又拍掌。之後複盤,人類可以講出棋理,點解咁行,點解唔咁行。但係,叫 AlphaGo 解釋佢個決定,卻係不容易:A.I. + Big Data = Black Box。又有如 A.I. 認照片,喺一堆照片中,分辨出有跑車嘅照片同埋冇跑車嘅照片,有時,機器會喺一 D 九唔答八的塗鴉中,認定其中有一架跑車。你叫 A.I. 解釋一下點解,佢係做唔到嘅。點解 Interpretability 是重要問題?在人類的世界,除非你係老闆,否則你必須解釋你的決定:可解釋度決定可信度(trust)。考過數學嘅朋友,都知道除咗個答案有分,程序都有分:準確答案唔係大晒,你還要清楚交待點解。

    我認為 Interpretability 係一個比 Accuracy 還要大好多倍嘅研究範疇。例如賭馬,上一場邊一隻馬跑出,係人都知,但係點解佢跑出,個個馬評家有自己看法。又例如經濟學,十個經濟學家一定有至少十個理論解釋人嘅消費行為。我又記起 de Bono 呢個怪傑喺幾十年前已經處理「解釋」這活動的玄機,分為五級:把描述當作解釋(「我遲到因為我遲到」);用一些廢字當作解釋(「我遲到因為我有些延誤」);用一些專有名字當作解釋(「我遲到因為塞車」);把過程當作解釋(「我遲到因為我上咗架巴士但係今天路上行駛速率為 10km/hr 所以我用咗一小時才到達」);全面解釋(「我遲到因為…」[下刪三千字])。果本書係誠意之作,想深入了解人的思維。到咗今日,可能輪到 A.I. 要了解及交待自己的思維了。又或如使用亞里士多德哥哥的體系,又有:「我遲到因為我冇動力」;「我遲到因為我不夠$$質料去坐的士」;「我遲到因為我失去了做人嘅目的」;「我遲到因為我的存在本質就係遲到!」去到果陣,可能要有一個鋼鐵老師 A.I. 去點評成班小露寶 A.I.,邊個 Interpret 得最搞笑!

    Neo按:

    借卡繆的文法,當 A.I. 更見成熟,可能人類的真正嚴肅哲學任務,就係去發神經

    #Accuracy #AI #AlphaGo #Artificial Intelligence #Big data #Black Box #Interpretability #Natural Language Processing

    相關文章