Browsing: 人工智能

    AI 的理解能力愈來愈高,好似 Nvidia 的人工智能研究項目 GauGAN,前年示範時已可以將小學生塗鴉神奇地轉化為實物風景相。來到今年的 GauGAN2 就更得人驚,只要輸入描述文字例如「ocean waves hittingrocks on the beach」,期間 GauGAN 就會跟隨所輸入的字眼,由生成一張純海浪相片,逐漸變成石灘浪潮相,認真驚人! GauGAN 是 Nvidia 一款專門研究將人工智能神經元網絡應用於繪畫、生成圖像的計劃,通過向人工智能系統提供大量圖像數據資料進行機械訓練,令系統建立起不同的關聯資料庫。以兩年前研究隊伍示範的 GauGAN 影片為例,只要研究員在電子畫板上繪畫出各種風景圖案,例如用綠色畫出一片草地、藍色畫出天空,GauGAN…

    2020 年初新冠疫情全球大爆發,各國先後收緊出入境及社交隔離措施,其中一個重大影響,便是導致物流業陷於癱瘓,製造業難以買入原材料應付訂單,但另一方面疫情下網上購物爆炸性增長,求過於供亦令整個供應鏈 (supply chain) 崩潰。不過,業界一項調查發現,利用 AI 預測產品需求的企業,誤差率較其他企業低 33%,代表企業可更準確將生產及庫存控制得更有效率,逆境中保存實力。 歐洲一間供應鏈管理公司 E2open 最近發表一份疫情期間供應鏈對生產貨品的預測表現調查報告,以顯示製造業如何受到疫情的影響,以及 AI 技術協助製造業修正需求預測的表現。發言人指出,疫情初期實施的社交隔離政策,令傳統零售業受到重大打擊,作為供應鏈源頭的生產商便囤積了大量貨品;但在去年四月後,市民陸續養成網上購物習慣,需求一下子大幅上升,再加上物流業仍陷入癱瘓狀態,導致製造業的服務承諾達成率由原來的 99% 大跌至 83%,即使在去年六月至十二月疫情相對穩定期間,仍只能回復至 86% 服務達成率。 E2open 的調查報告又指出,企業為了過度疫境,營運目標紛紛從創新增長轉變為效率增長,即不再冒險開發新產品,而是極盡所能滿足現有訂單以獲得較穩定的收入。不過,能否成功改變為效率增長模式,完全取決於對各種貨品的需求預測,而在這方面,業界整體的預測準確度均較疫情爆發前下跌…

    各國政府為了防止新冠疫情爆發,或多或少都實施了各種社交限聚令,網民為了安撫自己的寂寞的心,導致網上約會 app 的使用量大增。不過,並非所有人都懂得網上調情之道,有學者就嘗試引入人工智能演算法,測試 AI 是否有能力代替人類,運用語言令對方心如鹿撞。 網上情緣詐騙的成功率,直接取決於騙徒是否擁有高超的社交工程(Social Engineering)技巧。而在相關領域之中,尼日利亞的騙徒一向被公認為詐騙之霸,特別是他們深諳調情之道,令塵世間不少男男女女墮入陷阱,損失大量金錢。美國一個科學家 Janelle Shane 忽發奇想,希望測試人工智能的調情潛力,於是就以四個版本的 GPT-3 人工智能技術包括 DaVinci、Curie、Babbage 及 Ada,測試它們在各自的演算法下,是否能創造出令人心動的深情說話。研究員指出,揀選 GPT-3 的原因,在於它早已被應用於網站設計、寫文等用途上,而其人工智能技術的學習能力來自模仿人類的神經網絡 (neural network),它可以在分析各種語言範例後,自動撰寫出與人類相似的句子,雖然它本身並無法理解句子的含義。 為了令…

    人工智能技術提高攔截釣魚電郵的準確度,於是網絡罪犯又變陣,反利用人工智能盲點避開攔截。最新方式是利用算術符號取代知名品牌logo上的文字,例如美國電訊商 Verizon,就俾罪犯用平方根符號代替V字,驟眼睇好似 logo 原貌得來又有些微差別,令電郵呃到人又呃到人工智能,高招! 網絡安全業界均肯定人工智能技術,必然有助提升惡意行為的攔截率,因為它具備機器學習功能,而且又能快速從不同渠道搜集網絡威脅資訊及趨勢,因此無論在調查及處理速度、標準化上,都較人類優勝。不過,始終人工智能的演算法都會依循一定規條,因此只要掌握它的規則,便有辦法找到入侵盲點。以這次打著 Verizon 旗號的釣魚電郵為例,一般人工智能技術都會著重檢查電郵內的品牌標誌是否偽造、內含的跳轉連結是否已被確認用於惡意行為等。網絡罪犯就利用這個規則,以平方根取代品牌的 V 字,令人工智能不會認為它是偽造的 Verizon 標誌,成功通過第一關。 不過,網絡罪犯當然不會單靠這招通關,這次發現的釣魚電郵攻擊還有其他招數。當收件者信以為真,點擊電郵內的語音留言 button,就會將收件者帶到一個虛假的 Verizon 網站。由於這次的目標是要令收件者以為正在瀏覽官方網站,所以網站的圖文排版都抄襲得一模一樣,專家指罪犯偷用了官方網站的 HTML 及 CSS 素材,因此才能令收件者信以為真。網絡罪犯亦特別利用新的 domain…

    為了令受害者誤以為正在登入或瀏覽官方網站,高質素的黑客會盡力將釣魚網站製作至以假亂真的地步。如果要交由防毒軟件識別當中差誤,現有方法較為費時,準確度亦未算高。由大學研究人員開發的機器學習技術,會自動將官網的程式碼轉變為圖像數據,跟虛假網站進行比對,從而減少所需的運算資源及縮短比對時間,以另類視覺分辦真假。 要分辨是否虛假網站,一般人只能靠肉眼找出可疑之處,以 Office 365 登入頁面為例,網址列、網頁設計、圖像擺位、文字有否文法或串字問題等,都必須小心留意。不過,如果並非專家或老手,單靠肉眼絕不可靠,因而必須借助防毒軟件或網絡安全工具代為分析。然而,大部分安全工具的識別效能除了上述的條件外,主要建基於資料庫上的記錄,例如架設該網頁的伺服器或 IP 位置是否可疑?種種因素令比對工作需要耗用大量資源,因此只能於雲伺服器上進行分析,從而令比對需要一定的時間。 由英國 University of Plymouth 及 University of Portsmouth 研究人員合作研究的人工智能分析技術,便以創新的角度進行分析。研究人員首先將大量官方網站及虛假網站的程式碼轉換成視覺化的圖像數據,歸納出各自的獨特之處,然後再這套數據模型交由人工智能的機器學習進一步自行訓練,自行修正當中的差異,演變成一套更成熟的分析系統。為了加強分析工具的可用性,研究團隊刻意選用了一套名為 MobileNet 的神經元網絡系統,它不似得其他神經元網絡需要龐大的運算資源,因而可以在一般電腦設備上運行。研究員指出,現時系統在分析虛假網頁的準確度已達94%,而且還在每日進化中。 不過,現階段新技術仍未可推出市面,因為研究人員正在改良系統操作,讓它成為一套可被普遍使用的工具。研究員更有信心這套系統最終可達 100%…

    成日聽到評論話某個人好有創造力,其實要衡量創造力好主觀,點先可以標準化地進行評估?有研究員就開發了一個四分鐘測試,利用人工智能的深度學習 (Deep Learning) 能力,計算參加者在兩項遊戲中的表現,而衡量標準就是基於人類的擴散性思考 (Divergent thinking) 方法。 擴散性思考能力,是一種以問題為中心,透過多方向思考討論各種處理問題的方法,從中得到創意概念。因此,擴散性思考屬於非線性思維,而且透過多方向思考,有可能在討論過程中發現不同解決方案的關聯性,比起傳統的線性聯想模式更有機會想出新點子。思考過程可以幻想為衛星城市發展模式,都市化由中心出發擴散至週邊地區,而衛星都市之間又有可能存在連繫。 由於在擴散性思考中,問題與答案未必一定存在相關性,就如人類大腦的大型神經網絡運作情況一樣,無時無刻都存在各種概念,所以研究人員在開發這個創意評估遊戲時,便利用了相關的數據樣本去評估參加者的創意。研究員首先將數據樣本訓練人工智能,經深度學習後調查出更準確的演算法。研究人員特別指出,交由人工智能分析的原因有兩方點,第一是數據量非常龐大,單靠人力將花費很多時間,其次人類對事物存在偏見,而且思維亦受過往經歷所局限,難以客觀地整理出結果。 而由 McGill University、Harvard University 及 University of Melbourne 科學家創建的 Divergent Association…

    人工智能可取代大量人力工作,但與此同時好多人最驚 AI 連人力市場都一併取代。到底廣泛使用AI會否增加失業率,還是可以提高個人生產力?就要視乎雇主同僱員點樣應對這種變化。 軟件開發商 InRule 最新一項調查發現,隨著機器學習(Machine Learning)和其他形式的人工智能應用愈趨普遍,近三分之二的企業決策者擔心工作不保。他們不僅擔心輸給機器人,同時亦憂慮人工智能可能存在數據分析缺陷或判斷錯誤,導致他們使用了錯誤的分析作決策,有可能被追究責任。研究員認為這種想法源自決策者對人工智能的誤會太深,他們仍以為人工智能必須由數據科學家等專家才能駕馭,同時仍從取代人類勞動力去評估AI的「危險性」,因此打從心底對AI存有戒心。事實上,人工智能並不一定擔當淘汰人力的壞角,它可以幫助組織各級員工,提高他們的生產力。 SymphonyAI 的專家 Pradyut Shah 說,當企業或組織決定引入人工智能時,它不可能一開始便懂得自己要做什麼事,反而須由人去教懂它。這方面數據科學家將承擔大部分責任,但打後人工智能便會交由低級別員工管理,擔起重複性及無聊的任務。在已經受到 AI 影響的員工中,75% 的人表示 AI 正在幫助他們做出更好的決策,而且不少人認為人類和 AI 合作,雙方都會獲得提升。專家認為單純為了減少人手而部署 AI…

    Microsoft 宣布旗下的 Azure Sentinel 雲原生 SIEM 平台將會加入勒索軟件的人工智能偵測技術,加強監察企業內部系統及雲端服務的數據傳輸,讓企業客戶能及早發現可疑活動。另外又提供多項處理懷疑勒索軟件入侵的流程建議,就算無用 Azure Sentinel,都值得大家參考。 在 Microsoft 新加入的勒索軟件偵測技術中,使用了 Azure Sentinel 內置的人工智能技術,快速分析大量的數據傳輸。Microsoft 方面指出快思邏輯 (Fusion) 技術可從收集到的數據中聯想出多種可能性,可捕捉及串連多種細微的可疑活動,早一步定性是否屬於勒索軟件活動,並向 IT 員工發出警報及分析報告。…

    在開發新產品前,傳統方法是收集問卷調查,或搞 focus group 了解目標客戶的真正需要。不過,現時已有不少公司引入人工智能,好似飲品生產商 PepsiCo,無論開發飲品抑或小食,都已套用 AI 工具協助分析。再發展落去,大家可能無機會再靠填問卷或出席意見調查會賺錢…… 雖然 PepsiCo 本身也有收集大數據 (Big Data),但由於這些數據大部分來自自己的客戶,因此未必能完全代表整體市場的喜好變化,因此 PepsiCo 也有採用一些現成服務,例如由 Google 前員工開發的 Tastewise,一款以演算法去分析及預測口味轉變及原因的工具。據稱 Tastewise 內收藏及監察的數據量非常豐富,當中包括 9,500…

    網絡安全行業現時非常看重「零信任」(Zero Trust)防禦概念,即對所有網絡連線及活動保持懷疑態度,不再單純依賴已知的病毒資料去預防入侵。與此同時,被視為網絡安全明日之星的 AI(人工智能)技術,卻建基於「可信任」的數據包作為訓練材料,兩者應該如何共存? 將 AI 技術引入網絡安全用途,帶來的好處極多,例如可以快速處理各種安全警報,阻止惡意軟件入侵,減少人力需求。另外,經訓練的 AI 模型還會不斷提升防禦能力。不過,由於 AI 技術非常複雜,持續發展過程到底是否仍能符合網絡安全法規?如缺乏適當的監管,相信業界仍難言可以 AI 完全取代網絡安全專家。 發展 AI 技術的主要障礙之一是數據,更具體地說,是確保數據的質量和完整性,畢竟 AI 模型的好壞完全取決於數據包的質量。基於 AI 的網絡安全系統,在匯入數據方面正面臨種種挑戰: 數據污染:不法人士可以通過操縱…