65 個採用 Realtek 開發者套件嘅 IoT (物聯網) 產品生產商今次大件事,由於套件存在漏洞,可讓黑客通過網頁版管理介面遙距入侵產品,所以超過 200 款產品都有問題,受影響品牌包括 Asus、Belkin、D-Link、Netgear、ZTE 等等…..用家快啲檢查下有無更新檔喇! 不少 IoT 產品都有採用 Realtek 的開發產組件 (SDK),但有 IoT 安全研究員就發現,它的網頁版管理介面存在漏洞,由於可令大量面向互聯網的無線產品如家用 router、隨身…
Search Results: AI (826)
成日聽到評論話某個人好有創造力,其實要衡量創造力好主觀,點先可以標準化地進行評估?有研究員就開發了一個四分鐘測試,利用人工智能的深度學習 (Deep Learning) 能力,計算參加者在兩項遊戲中的表現,而衡量標準就是基於人類的擴散性思考 (Divergent thinking) 方法。 擴散性思考能力,是一種以問題為中心,透過多方向思考討論各種處理問題的方法,從中得到創意概念。因此,擴散性思考屬於非線性思維,而且透過多方向思考,有可能在討論過程中發現不同解決方案的關聯性,比起傳統的線性聯想模式更有機會想出新點子。思考過程可以幻想為衛星城市發展模式,都市化由中心出發擴散至週邊地區,而衛星都市之間又有可能存在連繫。 由於在擴散性思考中,問題與答案未必一定存在相關性,就如人類大腦的大型神經網絡運作情況一樣,無時無刻都存在各種概念,所以研究人員在開發這個創意評估遊戲時,便利用了相關的數據樣本去評估參加者的創意。研究員首先將數據樣本訓練人工智能,經深度學習後調查出更準確的演算法。研究人員特別指出,交由人工智能分析的原因有兩方點,第一是數據量非常龐大,單靠人力將花費很多時間,其次人類對事物存在偏見,而且思維亦受過往經歷所局限,難以客觀地整理出結果。 而由 McGill University、Harvard University 及 University of Melbourne 科學家創建的 Divergent Association…
在開發新產品前,傳統方法是收集問卷調查,或搞 focus group 了解目標客戶的真正需要。不過,現時已有不少公司引入人工智能,好似飲品生產商 PepsiCo,無論開發飲品抑或小食,都已套用 AI 工具協助分析。再發展落去,大家可能無機會再靠填問卷或出席意見調查會賺錢…… 雖然 PepsiCo 本身也有收集大數據 (Big Data),但由於這些數據大部分來自自己的客戶,因此未必能完全代表整體市場的喜好變化,因此 PepsiCo 也有採用一些現成服務,例如由 Google 前員工開發的 Tastewise,一款以演算法去分析及預測口味轉變及原因的工具。據稱 Tastewise 內收藏及監察的數據量非常豐富,當中包括 9,500…
網絡安全公司 Bitdefender 最近發現一種透過搜索結果中的廣告,傳播給受害者的新型惡意軟件 MosaicLoader,被用作竊取密碼、安裝加密貨幣礦工和傳播另外的木馬惡意程或的途徑。Bitdefender 指,這種針對 Windows 的惡意軟件已令世界各地的受害者電腦感染病毒,並試圖侵害更多的電腦系統。 MosaicLoader 可用於將各種的惡意程式,下載到受感染的電腦中,包括一種名為 Glupteba 的惡意軟件,它可以在受感染的系統上創建後門,然後竊取敏感資料,包括用戶名、密碼以及財務資料等。 MosaicLoader 與一般透過網絡釣魚攻擊,或未修補的軟件漏洞傳播的惡意軟件不同,它是透過受害者使用搜尋引擎廣告接觸受害者。例如當受害者在搜索常用軟件的破解版時,導向惡意軟件的連結就會出現在搜索結果的頂部,這些連結出現在搜尋的自動化系統中的廣告欄位,意味著除了攻擊者之外,其他人都不知道廣告是導向惡意連結,非常客易中伏。 Bitdefender 的威脅研究和報告主管 Bogdan Botezatu 表示,在家工作的員工下載破解軟件的風險比較高,並指最有可能的是攻擊者正在通過下游廣告網絡購買廣告,小型廣告網絡將廣告流量傳輸到愈來愈大的提供商。攻擊者一般會在周末這樣做,因為人工廣告審查人員有限,較難發現。 惡意軟件其實可以被防病毒軟件檢測出來,但許多下載非法破解軟件的用戶,或因關閉保護以安裝下載程式。為了讓用戶以為下載的程式安全可靠,這些假的破解軟件會模仿真實軟件的文件資料,甚至包括文件夾中的名稱和描述。而實際上受害人只是下載了 MosaicLoader,並為攻擊者提供入侵電腦的缺口,並獲得存取權限。研究人員指出,攻擊者試圖竊取用戶名和密碼,以及操作加密貨幣礦工,並投放木馬惡意軟件以獲得對電腦後門的訪問權限。…
網絡安全行業現時非常看重「零信任」(Zero Trust)防禦概念,即對所有網絡連線及活動保持懷疑態度,不再單純依賴已知的病毒資料去預防入侵。與此同時,被視為網絡安全明日之星的 AI(人工智能)技術,卻建基於「可信任」的數據包作為訓練材料,兩者應該如何共存? 將 AI 技術引入網絡安全用途,帶來的好處極多,例如可以快速處理各種安全警報,阻止惡意軟件入侵,減少人力需求。另外,經訓練的 AI 模型還會不斷提升防禦能力。不過,由於 AI 技術非常複雜,持續發展過程到底是否仍能符合網絡安全法規?如缺乏適當的監管,相信業界仍難言可以 AI 完全取代網絡安全專家。 發展 AI 技術的主要障礙之一是數據,更具體地說,是確保數據的質量和完整性,畢竟 AI 模型的好壞完全取決於數據包的質量。基於 AI 的網絡安全系統,在匯入數據方面正面臨種種挑戰: 數據污染:不法人士可以通過操縱…
Google 為了設計出自家電腦處理器,出動應用於機械學習的 TPU 處理器。TPU 現時已為多個行業提供演算法服務,包括醫療、網絡安全等等,而 Google 搜尋器及翻譯工具背後的演算法亦是由 TPU 負責,專家估計,TPU 不單可加快設計出自己的下一代,而下一代亦可再設計出後繼處理器……最終咪會變成天網 (Skynet)! 傳統的處理器晶片設計,最大難度在於如何編排晶片上的數百萬個組件,因為處理器的運算速度,直接取決於各種組件的佈局,設計者不單要考慮組件擺放的距離,更要考慮運算過程中所產生的熱力。而且視乎處理器將會應用於哪一種產品,設計亦有很大分別,例如手機處理器會較講究節能,相反數據中心則強調速度優先,因此設計過程往往需要耗用數月以上,才能得出理想的最終電路圖。 而 Google 的研究團隊就利用自家的 TPU (Tensor Processing Unit) 機械學習處理器,將組件規劃的問題交由神經元網絡…
與 Facebook 不同,Instagram 較受青少年用家歡迎,因此不少性罪犯都會利用該平台,私下接觸未成年用家。Facebook 為了保障這些用家,便交由人工智能技術去評估帳戶持有人的真實年齡,如發現是用家「扮後生」,便會阻止他們與青少年用家接觸。究竟如何執行? 人工智能 (Artificial Intelligence) 的用途非常廣泛,它可以應用於工業、醫療、交通網絡、教育等範疇。而今次 Facebook 套用於 Instagram 的 AI 技術,便是為了防止青少年受到性侵,可說是非常特別的用途。近年不少性罪犯轉移使用社交平台或即時通訊的私訊功能,扮演成不同角色接觸青少年,混熟後便露出獠牙,或約青少年外出性侵,或取得青少年的私密相片勒索。有研究報告顯示,過去兩年超過七成的青少年性侵事故都是藉由Facebook、Messenger、Instagram、WhatsApp 或 Snapchat 等通訊工具作為起點,當中約 25% 性罪犯更是使用…
未來2年,全球將會有550億台物聯網裝置(註1),而且全球超過50%資料由資料中心或雲端外產生(註2)。企業網絡的數據流量以幾何級數增長,如果仍然採用傳統方式管理網絡,將會難以配合業務增長之餘,同時洐生種種IT問題。為了有效提升網絡管理效率,以AI驅動自動化,把網絡管理化繁為簡的「AIOps」技術,逐漸受到世界各地的企業關注。 今次我們專訪香港AIOps專家、Aruba 香港及澳門地區總經理 Kenneth Ma,為大家介紹這項革命性技術,如何有效提升企業營運效率,協助IT人輕鬆達標SLA。 註1:IDC註2:Gartner 工業專用物聯網 (IoT) 邊緣運算解決方案的行銷指南,2019 年 9 月發表
人工智能(AI)當中的智能,絕非無中生有,而是必須依賴人類為其提供養分,即將不同的datasets輸入系統,才能讓人工智能從中深度學習,完善它的演算法準確度。不過,港人最愛的「F牌社交平台」的人工智能系統已毋須依賴這些datasets,它只須使用同公司的大熱「I牌社交平台」上的用戶私人相片,便能提升辦識事物準確度。為了文明進步,大家繼續upload相吧! 人工智能的用途非常廣泛,以影像辨識為例,發展速度極快,應用方案亦不少,例如自動辨識影像內包含的事物如人類、各種動物、風景等,便可用於影像分類儲存方面,以及影像編修工作。Adobe亦曾不只一次於科技會議上展示其人工智能執相能力,以及將一些簡陋風景畫變成真實風景的技術。而現時令人極為頭痛的Deepfake影片,先後將美國總統、荷里活明星以至F牌社交平台主席樣貌移植至不相干的影片中,這些幾可亂真的影片亦多次於社交網絡上被瘋傳。 雖然上述的人工智能技術令人歎為觀止,不過背後必須經過長期訓練工作,以影像內容辨識為例,便首先要為人工智能提供多套資料準確的datasets,即已經人類確認及標籤了影像內的事物,才能供人工智能深度學習,掌握各種事物在不同角度、剪裁下的形象,最終才可提升其辨識準確度及執相能力。 F牌社交平台的人工智能系統卻免除了準備dataset的需要,因為該人工智能具備的自主學習功能,它利用了I牌社交平台上用家上載的數以十億計影像,作為深度學習的材料,據稱該AI識別事物的準確度已高達84.5%,換言之,它(他!?)的演算法已可從圖像中不同像素(pixel)的組合,去識別到底代表的是什麼東西,毋須再從已有的datasets中逐一學習,減少人力介入的需要。專家指該人工智能的自主學習能力,可大大影響AI的發展。 雖然F牌社交平台的AI在學術研究上有不少正評,但亦同時惹來私隱關注,因為不少I牌社交平台用家均未曾想像到自己上載的相片或影片會被F牌社交平台使用,當然F牌社交平台方面早已將相關條款寫進私隱政策上,只是用家登記帳戶時未有檢查清楚。所以話,免費服務絕非免費,背後一定有代價。
年初 Apple 更改 App Store 政策,要求開發商在 App 詳細資料中加入 Privacy Labels,公開所收集的用戶數據,最尷尬的要數一眾靠用戶數據賺最多錢的 Tech Giant。大家終於明白所謂「免費」有幾貴,網上立即湧現轉用其他平台的號召。一向以安全自居的 WhatsApp 亦在 Privacy Labels 影響下,要用戶同意與 facebook 共享數據,同樣引起極大反彈。靠收割用戶數據暴發成當今市值最大企業之一的 Google,食相絕不會比…