Search Results: 密碼 (414)

    上文提到,權要有限。那麼職責呢?要分。權要限、職要分,夠鐘要放工,得閒要睇 wepro180。 在系統中,有一條重要保安原則:職責分離。在系統及流程中,要把重要功能、職責拆開。在流程中,申請新帳號或者IT服務者,與批准者,須是不同的人。又如有 D 公司將一個超級帳號密碼拆開前後兩截,一人管一截(有 D 似古代果 D 虎符)。又如寫程式的人,不可以把程式直接安裝入系統,要透過另一個團隊。以上這些職責分離,目的是要減少差錯及舞弊。文藝一些講:避免監守自盜。 (再文藝一些…在歷史中,這些職責分離比比皆是,例如中國的皇權與相權的分離、唐代的三省制,以至謀與斷的分工、三權分立等,都有古仔可以講。) 講到呢度,就可以明白,保安系統設計要嚴密,須要包括:有各系統權限的人,他們的職責是否有合理的分離。所以,大機構的 SIEM / Log Management 要求完備,因為要有足夠的 Audit Trails 去審計各程交易 (Transactions)…

    近年常常聽到「人工智能」一詞,好像潮語一樣,並代表著「高科技」的意思。一些產品含有自動調節功能,就以誇張宣傳手法說是「人工智能」,這根本不符合「人工智能」的定義。 「人工智能」已有幾十年歷史,早在八十年代初,電腦科學家便開始設計能學習和模仿人類行為的程式。在電影裏,如《Terminator》、《Matrix》或《Ex Machina》所描述的「人工智能」,都擁有觀察和感知能力,並可以做到推理和解決問題,這類可稱為「強」人工智能,但是現今技術水平仍未有效實現。 目前的科學研究工作都是集中在「弱」人工智能這部份,並取得重大突破。智能是從何而來呢?讓我們先理解「人工智能」、「機器學習」和「深度學習」的區別和關係。 「人工智能」的領域中,「機器學習」是其中一種方法;在「機器學習」的技術中,通過使用大量樣本作訓練而積累的智能,就稱為「深度學習」。 在使用電腦的過程中,大家會不知不覺地留下大量數據及電子足跡,這給予「深度學習」在訓練時所需之用;此外,系統運算速度的提升,令「機器學習」時間大大加快。綜合這兩個主要因素,終於令「機器學習」成熟起來,在「人工智能」的應用邁進了一大步。 同樣,近年一些高端網絡安全產品也採用「機器學習」去處理大量電腦使用者的日常行為,並作深入分析。即使黑客成功盜取了用戶的帳號及密碼,保安系統也會跟用戶日常使用方式作出對比,如發現有明顯偏差,就會發出警示或作出攔截。一幕幕兵賊鬥智(人工智能)的場面,已在網絡安全領域中展開。

    自 Facebook 被爆 5.33 億用戶數據洩漏,LinkedIn 亦被爆發生洩漏事故!一個據稱包含 5 億個 LinkedIn 個人資料數據存檔,在一個知名的黑客論壇上出售,該貼文的作者又洩漏了另外 200 萬條記錄,作為驗證的樣本。四個洩露的文件包含 LinkedIn 用戶的信息,包括其全名、電郵地址、電話號碼、工作場所等。CyberNews 提供檢查網站(https://cybernews.com/personal-data-leak-check/),讓用戶可檢查有否中招。 在該黑客論壇上,用戶可用大約值 2 美元的論壇積分,查看洩漏的樣本,但黑客似乎正在以拍賣形式處理逾 5 億名用戶的數據庫,並將價格定位為至少…

    隨便買部 IoT 產品嚟用係非常之危險嘅一件事,相信睇得我哋嘅讀者都唔會懷疑。就算係 Amazon 旗下嘅產品,都一樣會出事,上個月中 Amazon 用十億美元收購返嚟嘅智能監視鏡頭 Ring,就發生大量鏡頭被 hack 事件,有用家仲告上法庭,怒指 Ring 無做好網絡安全工作,Ring 就反駁話用家唔用強密碼先係主因,咁到底係邊個錯呢? 喺上月中,陸陸續續有 Ring 用家嘅監視鏡頭被黑客入侵,有美國用家更因為呢件事,嚇到要放支鎗喺床頭先敢瞓。其中一個受害者 John Baker Orange 就聯同其他同路人告上法庭,指責…