當前位置:首頁 » 安全設置 » 網路安全大數據處理
擴展閱讀
無線橋接網路不行 2025-09-18 03:45:09

網路安全大數據處理

發布時間: 2023-01-15 08:02:28

1. 網路安全與大數據技術應用探討論文

網路安全與大數據技術應用探討論文

摘要: 隨著互聯網技術的高速發展與普及,現如今互聯網技術已經廣泛應用於人們工作與生活之中,這給人們帶來了前所未有的便利,但與此同時各種網路安全問題也隨之顯現。基於此,本文主要介紹了大數據技術在網路安全領域中的具體應用,希望在網路系統安全方面進行研究的同時,能夠為互聯網事業的持續發展提供可行的理論參考。

關鍵詞: 網路安全;大數據技術;應用分析

前言

隨著近年來互聯網技術的不斷深入,網路安全事故也隨之頻頻發生。出於對網路信息安全的重視,我國於2014年成立了國家安全委員會,正式將網路安全提升為國家戰略部署,這同時也表示我國網路信息安全形勢不容樂觀,網路攻擊事件處於高發狀態。木馬僵屍病毒、惡意勒索軟體、分布式拒絕服務攻擊、竊取用戶敏感信息等各類網路攻擊事件的數量都處於世界前列。時有發生的移動惡意程序、APT、DDOS、木馬病毒等網路攻擊不僅會嚴重阻礙網路帶寬、降低網路速度、並且對電信運營商的企業聲譽也會產生一定影響。根據大量數據表明,僅僅依靠傳統的網路防範措施已經無法應對新一代的網路威脅,而通過精確的檢測分析從而在早期預警,已經成為現階段網路安全能力的關鍵所在。

1網路安全問題分析

網路安全問題不僅涉及公民隱私與信息安全,更關乎國事安全,例如雅虎的信息泄露,導致至少五億條用戶信息被竊;美國棱鏡門與希拉里郵件門等等事件都使得網路安全問題進一步升級、擴大。隨著互聯網構架日益復雜,網路安全分析的數據量也在與日俱增,在由TB級向PB級邁進的過程,不僅數據來源豐富、內容更加細化,數據分析所需維度也更為廣泛。伴隨著現階段網路性能的增長,數據源發送速率更快,對安全信息採集的速度要求也就越高,版本更新延時等導致的Odav等漏洞日漸增多,網路攻擊的影響范圍也就進一步擴大;例如APT此類有組織、有目標且長期潛伏滲透的多階段組合式攻擊更加難以防範,唯有分析更多種類的安全信息並融合多種手段進行檢測抵禦。在傳統技術架構中,大多使用結構化資料庫來進行數據存儲,但由於數據存儲的成本過高,系統往往會將原始數據進行標准化處理後再進行存儲,如此易導致數據的丟失與失真以及歷史數據難以保存而造成的追蹤溯源困難;同時對於嘈雜的大型、非結構化數據集的執行分析以及復雜查詢效率很低,導致數據的實時性及准確性難以保證,安全運營效率不高,因此傳統網路安全技術已經難以滿足現階段網路安全分析的新要求。大數據技術這一概念最初由維克托.邁爾.舍恩伯格與肯尼斯.庫克耶在2008年出版的《大數據時代》一書中提出的,大數據是指不採用隨機分析法,而是對所有的數據進行綜合分析處理。大數據技術作為現階段信息架構發展的趨勢之首,其獨有的高速、多樣、種類繁多以及價值密度低等特點,近年來被廣泛應用於互聯網的多個領域中。大數據的戰略意義在於能夠掌握龐大的數據信息,使海量的原始安全信息的存儲與分析得以實現、分布式資料庫相比傳統資料庫的存儲成本得以降低,並且數據易於在低廉硬體上的水平擴展,極大地降低了安全投入成本;並且伴隨著數據挖掘能力的大幅提高,安全信息的採集與檢測響應速度更加快捷,異構及海量數據存儲的支持打造了多維度、多階段關聯分析的基礎,提升了分析的深度與廣度。對於網路安全防禦而言,通過對不同來源的數據進行綜合管理、處理、分析、優化,可實現在海量數據中極速鎖定目標數據,並將分析結果實時反饋,對於現階段網路安全防禦而言至關重要。

2大數據在網路安全中的應用

將大數據運用到網路安全分析中,不僅能夠實現數據的優化與處理,還能夠對日誌與訪問行為進行綜合處理,從而提高事件處理效率。大數據技術在網路安全分析的效果可從以下幾點具體分析:

2.1數據採集效率

大數據技術可對數據進行分布式地採集,能夠實現數百兆/秒的採集速度,使得數據採集速率得到了極大的提高,這也為後續的關聯分析奠定了基礎。

2.2數據的存儲

在網路安全分析系統中,原始數據的存儲是至關重要的,大數據技術能夠針對不同數據類型進行不同的數據採集,還能夠主動利用不同的方式來提高數據查詢的效率,比如在對日誌信息進行查詢時適合採用列式的存儲方式,而對於分析與處理標准化的數據,則適合採用分布式的模式進行預處理,在數據處理後可將結果存放在列式存儲中;或者也可以在系統中建立起MapRece的查詢模塊,在進行查詢的時候可直接將指令放在指定的節點,完成處理後再對各個節點進行整理,如此能夠確保查詢的速度與反應速度。

2.3實時數據的分析與後續數據的處理

在對實時數據的分析中,可以採用關聯分析演算法或CEP技術進行分析,如此能夠實現對數據的採集、分析、處理的綜合過程,實現了更高速度以及更高效率的處理;而對於統計結果以及數據的處理,由於這種處理對時效性要求不高,因此可以採用各種數據處理技術或是利用離線處理的方式,從而能夠更好地完成系統風險、攻擊方面的分析。

2.4關於復雜數據的分析

在針對不同來源、不同類型的復雜數據進行分析時,大數據技術都能夠更好的完成數據的分析與查詢,並且能夠有效完成復雜數據與安全隱患、惡意攻擊等方面的處理,當網路系統中出現了惡意破壞、攻擊行為,可採用大數據技術從流量、DNS的角度出發,通過多方面的數據信息分析實現全方位的防範、抵禦。

3基於大數據技術構建網路系統安全分析

在網路安全系統中引入大數據技術,主要涉及以下三個模塊:

3.1數據源模塊

網路安全系統中的`數據及數據源會隨著互聯網技術的進步而倍增技術能夠通過分布式採集器的形式,對系統中的軟硬體進行信息採集,除了防火牆、檢測系統等軟體,對設備硬體的要求也在提高,比如對伺服器、存儲器的檢查與維護工作。

3.2數據採集模塊

大數據技術可將數據進行對立分析,從而構建起分布式的數據基礎,能夠做到原始數據從出現到刪除都做出一定說明,真正實現數據的訪問、追溯功能,尤其是對數據量與日俱增的今天而言,分布式數據存儲能夠更好地實現提高資料庫的穩定性。

3.3數據分析模塊

對網路安全系統的運營來說,用戶的業務系統就是安全的最終保障對象,大數據分析能夠在用戶數據產生之初,及時進行分析、反饋,從而能夠讓網路用戶得到更加私人化的服務體驗。而對於用戶而言,得其所想也會對網路系統以及大數據技術更加的信任,對於個人的安全隱私信息在系統上存儲的疑慮也會大幅降低。當前網路與信息安全領域正在面臨著全新的挑戰,企業、組織、個人用戶每天都會產生大量的安全數據,現有的安全分析技術已經難以滿足高效率、精確化的安全分析所需。而大數據技術靈活、海量、快速、低成本、高容量等特有的網路安全分析能力,已經成為現階段業界趨勢所向。而對互聯網企業來說,實現對數據的深度「加工處理」,則是實現數據增值的關鍵所在,對商業運營而言是至關重要的。

4結語

在當下時代,信息數據已經滲透到各個行業及業務領域中,成為重要的社會生產因素。正因如此,互聯網數據產生的數量也在與日倍增中,這給網路安全分析工作帶來了一定難度與壓力,而大數據技術則能夠很好的完善這一問題。在網路系統中應用大數據技術不僅能夠滿足人們對數據處理時所要求的高效性與精準性,並且能夠在此基礎上構建一套相對完善的防範預警系統,這對維護網路系統的安全起著非常關鍵的作用,相信大數據技術日後能夠得到更加廣泛的應用。

參考文獻:

[1]魯宛生.淺談網路安全分析中大數據技術的應用[J].數碼世界,2017.

[2]王帥,汪來富,金華敏等.網路安全分析中的大數據技術應用[J].電信科學,2015.

[3]孫玉.淺談網路安全分析中的大數據技術應用[J].網路安全技術與應用,2017.

;

2. 信息與網路安全需要大數據安全分析

信息與網路安全需要大數據安全分析
毫無疑問,我們已經進入了大數據(Big Data)時代。人類的生產生活每天都在產生大量的數據,並且產生的速度越來越快。根據IDC和EMC的聯合調查,到2020年全球數據總量將達到40ZB。2013年,Gartner將大數據列為未來信息架構發展的10大趨勢之首。Gartner預測將在2011年到2016年間累計創造2320億美元的產值。
大數據早就存在,只是一直沒有足夠的基礎實施和技術來對這些數據進行有價值的挖據。隨著存儲成本的不斷下降、以及分析技術的不斷進步,尤其是雲計算的出現,不少公司已經發現了大數據的巨大價值:它們能揭示其他手段所看不到的新變化趨勢,包括需求、供給和顧客習慣等等。比如,銀行可以以此對自己的客戶有更深入的了解,提供更有個性的定製化服務;銀行和保險公司可以發現詐騙和騙保;零售企業更精確探知顧客需求變化,為不同的細分客戶群體提供更有針對性的選擇;制葯企業可以以此為依據開發新葯,詳細追蹤葯物療效,並監測潛在的副作用;安全公司則可以識別更具隱蔽性的攻擊、入侵和違規。
當前網路與信息安全領域,正在面臨著多種挑戰。一方面,企業和組織安全體系架構的日趨復雜,各種類型的安全數據越來越多,傳統的分析能力明顯力不從心;另一方面,新型威脅的興起,內控與合規的深入,傳統的分析方法存在諸多缺陷,越來越需要分析更多的安全信息、並且要更加快速的做出判定和響應。信息安全也面臨大數據帶來的挑戰。安全數據的大數據化
安全數據的大數據化主要體現在以下三個方面:
1) 數據量越來越大:網路已經從千兆邁向了萬兆,網路安全設備要分析的數據包數據量急劇上升。同時,隨著NGFW的出現,安全網關要進行應用層協議的分析,分析的數據量更是大增。與此同時,隨著安全防禦的縱深化,安全監測的內容不斷細化,除了傳統的攻擊監測,還出現了合規監測、應用監測、用戶行為監測、性能檢測、事務監測,等等,這些都意味著要監測和分析比以往更多的數據。此外,隨著APT等新型威脅的興起,全包捕獲技術逐步應用,海量數據處理問題也日益凸顯。
2) 速度越來越快:對於網路設備而言,包處理和轉發的速度需要更快;對於安管平台、事件分析平台而言,數據源的事件發送速率(EPS,Event per Second,事件數每秒)越來越快。
3) 種類越來越多:除了數據包、日誌、資產數據,安全要素信息還加入了漏洞信息、配置信息、身份與訪問信息、用戶行為信息、應用信息、業務信息、外部情報信息等。
安全數據的大數據化,自然引發人們思考如何將大數據技術應用於安全領域。
傳統的安全分析面臨挑戰
安全數據的數量、速度、種類的迅速膨脹,不僅帶來了海量異構數據的融合、存儲和管理的問題,甚至動搖了傳統的安全分析方法。
當前絕大多數安全分析工具和方法都是針對小數據量設計的,在面對大數據量時難以為繼。新的攻擊手段層出不窮,需要檢測的數據越來越多,現有的分析技術不堪重負。面對天量的安全要素信息,我們如何才能更加迅捷地感知網路安全態勢?
傳統的分析方法大都採用基於規則和特徵的分析引擎,必須要有規則庫和特徵庫才能工作,而規則和特徵只能對已知的攻擊和威脅進行描述,無法識別未知的攻擊,或者是尚未被描述成規則的攻擊和威脅。面對未知攻擊和復雜攻擊如APT等,需要更有效的分析方法和技術!如何做到知所未知?
面對天量安全數據,傳統的集中化安全分析平台(譬如SIEM,安全管理平台等)也遭遇到了諸多瓶頸,主要表現在以下幾方面:
——高速海量安全數據的採集和存儲變得困難
——異構數據的存儲和管理變得困難
——威脅數據源較小,導致系統判斷能力有限
——對歷史數據的檢測能力很弱
——安全事件的調查效率太低
——安全系統相互獨立,無有效手段協同工作
——分析的方法較少
——對於趨勢性的東西預測較難,對早期預警的能力比較差
——系統交互能力有限,數據展示效果有待提高
從上世紀80年代入侵檢測技術的誕生和確立以來,安全分析已經發展了很長的時間。當前,信息與網路安全分析存在兩個基本的發展趨勢:情境感知的安全分析與智能化的安全分析。
Gartner在2010年的一份報告中指出,「未來的信息安全將是情境感知的和自適應的」。所謂情境感知,就是利用更多的相關性要素信息的綜合研判來提升安全決策的能力,包括資產感知、位置感知、拓撲感知、應用感知、身份感知、內容感知,等等。情境感知極大地擴展了安全分析的縱深,納入了更多的安全要素信息,拉升了分析的空間和時間范圍,也必然對傳統的安全分析方法提出了挑戰。
同樣是在2010年,Gartner的另一份報告指出,要「為企業安全智能的興起做好准備」。在這份報告中,Gartner提出了安全智能的概念,強調必須將過去分散的安全信息進行集成與關聯,獨立的分析方法和工具進行整合形成交互,從而實現智能化的安全分析與決策。而信息的集成、技術的整合必然導致安全要素信息的迅猛增長,智能的分析必然要求將機器學習、數據挖據等技術應用於安全分析,並且要更快更好地的進行安全決策。
信息與網路安全需要大數據安全分析
安全數據的大數據化,以及傳統安全分析所面臨的挑戰和發展趨勢,都指向了同一個技術——大數據分析。正如Gartner在2011年明確指出,「信息安全正在變成一個大數據分析問題」。
於是,業界出現了將大數據分析技術應用於信息安全的技術——大數據安全分析(Big Data Security Analysis,簡稱BDSA),也有人稱做針對安全的大數據分析(Big Data Analysis for Security)。
藉助大數據安全分析技術,能夠更好地解決天量安全要素信息的採集、存儲的問題,藉助基於大數據分析技術的機器學習和數據挖據演算法,能夠更加智能地洞悉信息與網路安全的態勢,更加主動、彈性地去應對新型復雜的威脅和未知多變的風險。

3. 大數據環境下的網路安全分析

大數據環境下的網路安全分析
「大數據」一詞常被誤解。事實上,使用頻率太高反而使它幾乎沒有什麼意義了。大數據確實存儲並處理大量的數據集合,但其特性體現遠不止於此。

在著手解決大數據問題時,將其看作是一種觀念而不是特定的規模或技術非常有益。就其最簡單的表現來說,大數據現象由三個大趨勢的交集所推動:包含寶貴信息的大量數據、廉價的計算資源、幾乎免費的分析工具。
大數據架構和平台算是新事物,而且還在以一種非凡的速度不斷發展著。商業和開源的開發團隊幾乎每月都在發布其平台的新功能。當今的大數據集群將會與將來我們看到的數據集群有極大不同。適應這種新困難的安全工具也將發生變化。在採用大數據的生命周期中,業界仍處於早期階段,但公司越早開始應對大數據的安全問題,任務就越容易。如果安全成為大數據集群發展過程中的一種重要需求,集群就不容易被黑客破壞。此外,公司也能夠避免把不成熟的安全功能放在關鍵的生產環境中。
如今,有很多特別重視不同數據類型(例如,地理位置數據)的大數據管理系統。這些系統使用多種不同的查詢模式、不同的數據存儲模式、不同的任務管理和協調、不同的資源管理工具。雖然大數據常被描述為「反關系型」的,但這個概念還無法抓住大數據的本質。為了避免性能問題,大數據確實拋棄了許多關系型資料庫的核心功能,卻也沒犯什麼錯誤:有些大數據環境提供關系型結構、業務連續性和結構化查詢處理。
由於傳統的定義無法抓住大數據的本質,我們不妨根據組成大數據環境的關鍵要素思考一下大數據。這些關鍵要素使用了許多分布式的數據存儲和管理節點。這些要素存儲多個數據副本,在多個節點之間將數據變成「碎片」。這意味著在單一節點發生故障時,數據查詢將會轉向處理資源可用的數據。正是這種能夠彼此協作的分布式數據節點集群,可以解決數據管理和數據查詢問題,才使得大數據如此不同。
節點的鬆散聯系帶來了許多性能優勢,但也帶來了獨特的安全挑戰。大數據資料庫並不使用集中化的「圍牆花園」模式(與「完全開放」的互聯網相對而言,它指的是一個控制用戶對網頁內容或相關服務進行訪問的環境),內部的資料庫並不隱藏自己而使其它應用程序無法訪問。在這兒沒有「內部的」概念,而大數據並不依賴數據訪問的集中點。大數據將其架構暴露給使用它的應用程序,而客戶端在操作過程中與許多不同的節點進行通信。
規模、實時性和分布式處理:大數據的本質特徵(使大數據解決超過以前數據管理系統的數據管理和處理需求,例如,在容量、實時性、分布式架構和並行處理等方面)使得保障這些系統的安全更為困難。大數據集群具有開放性和自我組織性,並可以使用戶與多個數據節點同時通信。驗證哪些數據節點和哪些客戶應當訪問信息是很困難的。別忘了,大數據的本質屬性意味著新節點自動連接到集群中,共享數據和查詢結果,解決客戶任務。
嵌入式安全:在涉及大數據的瘋狂競賽中,大部分的開發資源都用於改善大數據的可升級、易用性和分析功能上。只有很少的功能用於增加安全功能。但是,你希望得到嵌入到大數據平台中的安全功能。你希望開發人員在設計和部署階段能夠支持所需要的功能。你希望安全功能就像大數據集群一樣可升級、高性能、自組織。問題是,開源系統或多數商業系統一般都不包括安全產品。而且許多安全產品無法嵌入到Hadoop或其它的非關系型資料庫中。多數系統提供最少的安全功能,但不足以包括所有的常見威脅。在很大程度上,你需要自己構建安全策略。
應用程序:面向大數據集群的大多數應用都是Web應用。它們利用基於Web的技術和無狀態的基於REST的API。雖然全面討論大數據安全的這個問題超出了本文的范圍,但基於Web的應用程序和API給這些大數據集群帶來了一種最重大的威脅。在遭受攻擊或破壞後,它們可以提供對大數據集群中所存儲數據的無限制訪問。應用程序安全、用戶訪問管理及授權控制非常重要,與重點保障大數據集群安全的安全措施一樣都不可或缺。
數據安全:存儲在大數據集群中的數據基本上都保存在文件中。每一個客戶端應用都可以維持其自己的包含數據的設計,但這種數據是存儲在大量節點上的。存儲在集群中的數據易於遭受正常文件容易感染的所有威脅,因而需要對這些文件進行保護,避免遭受非法的查看和復制。

4. 大數據與雲計算,信息網路安全

  1. 大數據技術是指從各種各樣類型的數據中,快速獲得有價值信息的能力。適用於大數據的技術,包括大規模並行處理(MPP)資料庫,數據挖掘電網,分布式文件系統,分布式資料庫,雲計算平台,互聯網,和可擴展的存儲系統。

    大數據的應用:大數據是信息產業持續高速增長的新引擎,幾乎各個行業都會逐步引入大數據技術,尤其是那些將要實現互聯網信息化轉型的傳統企業。面向大數據市場的新技術、新產品、新服務、新業態會不斷涌現。在硬體與集成設備領域,大數據將對晶元、存儲產業產生重要影響,還將催生一體化數據存儲處理伺服器、內存計算等市場。在軟體與服務領域,大數據將引發數據快速處理分析、數據挖掘技術和軟體產品的發展。

    2.雲計算是基於互聯網的相關服務的增加、使用和交付模式,通常涉及通過互聯網來提供動態易擴展且經常是虛擬化的資源。雲是網路、互聯網的一種比喻說法。過去在圖中往往用雲來表示電信網,後來也用來表示互聯網和底層基礎設施的抽象。

    雲計算的主要應用:雲物聯,「物聯網就是物物相連的互聯網」。這有兩層意思:第一,物聯網的核心和基礎仍然是互聯網,是在互聯網基礎上的延伸和擴展的網路;第二,其用戶端延伸和擴展到了任何物品與物品之間,進行信息交換和通信。

如果你的基礎不是很好,再加上網路安全形勢的嚴峻,國家政策對網路安全的偏向,個人建議可以選擇網路安全方向,希望可以幫到您,謝謝!

5. 如何利用大數據來處理網路安全攻擊

「大數據」已經成為時下最火熱的IT行業詞彙,各行各業的大數據解決方案層出不窮。究竟什麼是大數據、大數據給信息安全帶來哪些挑戰和機遇、為什麼網路安全需要大數據,以及怎樣把大數據思想應用於網路安全技術,本文給出解答。
一切都源於APT
APT(Advanced Persistent Threat)攻擊是一類特定的攻擊,為了獲取某個組織甚至是國家的重要信息,有針對性的進行的一系列攻擊行為的整個過程。APT攻擊利用了多種攻擊手段,包括各種最先進的手段和社會工程學方法,一步一步的獲取進入組織內部的許可權。APT往往利用組織內部的人員作為攻擊跳板。有時候,攻擊者會針對被攻擊對象編寫專門的攻擊程序,而非使用一些通用的攻擊代碼。此外,APT攻擊具有持續性,甚至長達數年。這種持續體現在攻擊者不斷嘗試各種攻擊手段,以及在滲透到網路內部後長期蟄伏,不斷收集各種信息,直到收集到重要情報。更加危險的是,這些新型的攻擊和威脅主要就針對國家重要的基礎設施和單位進行,包括能源、電力、金融、國防等關繫到國計民生,或者是國家核心利益的網路基礎設施。
現有技術為什麼失靈
先看兩個典型APT攻擊案例,分析一下盲點在哪裡
1、 RSA SecureID竊取攻擊
1) 攻擊者給RSA的母公司EMC的4名員工發送了兩組惡意郵件。郵件標題為「2011 Recruitment Plan」,寄件人是[email protected],正文很簡單,寫著「I forward this file to you for review. Please open and view it.」;裡面有個EXCEL附件名為「2011 Recruitment plan.xls」;
2) 很不幸,其中一位員工對此郵件感到興趣,並將其從垃圾郵件中取出來閱讀,殊不知此電子表格其實含有當時最新的Adobe Flash的0day漏洞(CVE-2011-0609)。這個Excel打開後啥也沒有,除了在一個表單的第一個格子裡面有個「X」(叉)。而這個叉實際上就是內嵌的一個Flash;
3) 該主機被植入臭名昭著的Poison Ivy遠端控制工具,並開始自BotNet的C&C伺服器(位於 good.mincesur.com)下載指令進行任務;
4) 首批受害的使用者並非「位高權重」人物,緊接著相關聯的人士包括IT與非IT等伺服器管理員相繼被黑;
5) RSA發現開發用伺服器(Staging server)遭入侵,攻擊方隨即進行撤離,加密並壓縮所有資料(都是rar格式),並以FTP傳送至遠端主機,又迅速再次搬離該主機,清除任何蹤跡;
6) 在拿到了SecurID的信息後,攻擊者就開始對使用SecurID的公司(例如上述防務公司等)進行攻擊了。
2、 震網攻擊
遭遇超級工廠病毒攻擊的核電站計算機系統實際上是與外界物理隔離的,理論上不會遭遇外界攻擊。堅固的堡壘只有從內部才能被攻破,超級工廠病毒也正充分的利用了這一點。超級工廠病毒的攻擊者並沒有廣泛的去傳播病毒,而是針對核電站相關工作人員的家用電腦、個人電腦等能夠接觸到互聯網的計算機發起感染攻擊,以此 為第一道攻擊跳板,進一步感染相關人員的U盤,病毒以U盤為橋梁進入「堡壘」內部,隨即潛伏下來。病毒很有耐心的逐步擴散,利用多種漏洞,包括當時的一個 0day漏洞,一點一點的進行破壞。這是一次十分成功的APT攻擊,而其最為恐怖的地方就在於極為巧妙的控制了攻擊范圍,攻擊十分精準。
以上兩個典型的APT攻擊案例中可以看出,對於APT攻擊,現代安全防禦手段有三個主要盲點:

1、0day漏洞與遠程加密通信
支撐現代網路安全技術的理論基礎最重要的就是特徵匹配,廣泛應用於各類主流網路安全產品,如殺毒、入侵檢測/防禦、漏洞掃描、深度包檢測。Oday漏洞和遠程加密通信都意味著沒有特徵,或者說還沒來得及積累特徵,這是基於特徵匹配的邊界防護技術難以應對的。
2、長期持續性的攻擊
現代網路安全產品把實時性作為衡量系統能力的一項重要指標,追求的目標就是精準的識別威脅,並實時的阻斷。而對於APT這種Salami式的攻擊,則是基於實時時間點的檢測技術難以應對的。
3、內網攻擊
任何防禦體系都會做安全域劃分,內網通常被劃成信任域,信任域內部的通信不被監控,成為了盲點。需要做接入側的安全方案加固,但不在本文討論范圍。

大數據怎麼解決問題
大數據可總結為基於分布式計算的數據挖掘,可以跟傳統數據處理模式對比去理解大數據:
1、數據采樣——>全集原始數據(Raw Data)
2、小數據+大演算法——>大數據+小演算法+上下文關聯+知識積累
3、基於模型的演算法——>機械窮舉(不帶假設條件)
4、精確性+實時性——>過程中的預測
使用大數據思想,可對現代網路安全技術做如下改進:
1、特定協議報文分析——>全流量原始數據抓取(Raw Data)
2、實時數據+復雜模型演算法——>長期全流量數據+多種簡單挖掘演算法+上下文關聯+知識積累
3、實時性+自動化——>過程中的預警+人工調查
通過傳統安全防禦措施很難檢測高級持續性攻擊,企業必須先確定日常網路中各用戶、業務系統的正常行為模型是什麼,才能盡早確定企業的網路和數據是否受到了攻擊。而安全廠商可利用大數據技術對事件的模式、攻擊的模式、時間、空間、行為上的特徵進行處理,總結抽象出來一些模型,變成大數據安全工具。為了精準地描述威脅特徵,建模的過程可能耗費幾個月甚至幾年時間,企業需要耗費大量人力、物力、財力成本,才能達到目的。但可以通過整合大數據處理資源,協調大數據處理和分析機制,共享資料庫之間的關鍵模型數據,加快對高級可持續攻擊的建模進程,消除和控制高級可持續攻擊的危害。

6. (1)什麼是安全大數據

安全數據的大數據化主要體現在以下三個方面:
一、數據量越來越大:網路已經從千兆邁向了萬兆,網路安全設備要分析的數據包數據量急劇上升。此外,隨著APT等新型威脅的興起,全包捕獲技術逐步應用,海量數據處理問題也日益凸顯。

二、速度越來越快:對於網路設備而言,包處理和轉發的速度需要更快;對於安管平台、事件分析平台而言,數據源的事件發送速率(EPS,EventperSecond,事件數每秒)越來越快。

三、種類越來越多:除了數據包、日誌、資產數據,安全要素信息還加入了漏洞信息、配置信息、身份與訪問信息、用戶行為信息、應用信息、業務信息、外部情報信息等。

我們需要大數據安全分析

安全數據的大數據化,以及傳統安全分析所面臨的挑戰和發展趨勢,都指向了同一個技術——大數據分析。正如Gartner在2011年明確指出,「信息安全正在變成一個大數據分析問題」。

於是,業界出現了將大數據分析技術應用於信息安全的技術——大數據安全分析(BigDataSecurityAnalysis,簡稱BDSA),也有人稱做針對安全的大數據分析(BigDataAnalysisforSecurity)。

藉助大數據安全分析技術,能夠更好地解決天量安全要素信息的採集、存儲的問題,藉助基於大數據分析技術的機器學習,能夠更加智能地洞悉信息與網路安全的態勢,更加主動、彈性地去應對新型復雜的威脅和未知多變的風險。