【累積錯誤】Google用AI開發自家處理器 6個鐘等同人力數月成果

    Google 為了設計出自家電腦處理器,出動應用於機械學習的 TPU 處理器。TPU 現時已為多個行業提供演算法服務,包括醫療、網絡安全等等,而 Google 搜尋器及翻譯工具背後的演算法亦是由 TPU 負責,專家估計,TPU 不單可加快設計出自己的下一代,而下一代亦可再設計出後繼處理器……最終咪會變成天網 (Skynet)!

    傳統的處理器晶片設計,最大難度在於如何編排晶片上的數百萬個組件,因為處理器的運算速度,直接取決於各種組件的佈局,設計者不單要考慮組件擺放的距離,更要考慮運算過程中所產生的熱力。而且視乎處理器將會應用於哪一種產品,設計亦有很大分別,例如手機處理器會較講究節能,相反數據中心則強調速度優先,因此設計過程往往需要耗用數月以上,才能得出理想的最終電路圖。

    而 Google 的研究團隊就利用自家的 TPU (Tensor Processing Unit) 機械學習處理器,將組件規劃的問題交由神經元網絡 (neural network) 演算法解決。研究團隊指出,人工智能系統的設計基礎建基在隨機開發上,通過數千次隨機擺放組件及數據分析,得出的數據可讓人工智能系統逐漸學懂分辨哪些設計屬於有效,然後去蕪存菁,大幅縮短了開發過程。研究團隊說現時自主設計系統的 6 小時研究成果,已相當於人類數個月的研究時間,而市面上一款同類型名為RePlAce的自動化處理器設計工具,其研究成果更連人力也不及。而隨著累積更多 trial and error 經驗,Google 指 TPU 將可持續提升自己的運算能力,設計出下一代以及下下一代 TPU,甚至應用到設計不同裝置使用的處理器上,加快科研成果。

    提到 Google 的 TPU,它是專門應用於加快機械學習的雲端運算處理器,由 2015 年開始於內部使用,到 2018 年開放給第三方使用,中間經歷了三代。TPU 的人工智能演算能力,同時被應用於 Google 搜尋器及翻譯工具上,而第四代的 TPU 則剛於今年 5 月發表,據講其效能較第三代快 2.7 倍。

    資料來源:https://bit.ly/3x3kqfZ

    #AI #google #MachineLearning

    相關文章