当前位置:首页 » 安全设置 » 网络安全大数据处理
扩展阅读
号码无网络连接 2025-09-18 02:04:59
苹果电脑还能用多少年 2025-09-18 01:59:49

网络安全大数据处理

发布时间: 2023-01-15 08:02:28

1. 网络安全与大数据技术应用探讨论文

网络安全与大数据技术应用探讨论文

摘要: 随着互联网技术的高速发展与普及,现如今互联网技术已经广泛应用于人们工作与生活之中,这给人们带来了前所未有的便利,但与此同时各种网络安全问题也随之显现。基于此,本文主要介绍了大数据技术在网络安全领域中的具体应用,希望在网络系统安全方面进行研究的同时,能够为互联网事业的持续发展提供可行的理论参考。

关键词: 网络安全;大数据技术;应用分析

前言

随着近年来互联网技术的不断深入,网络安全事故也随之频频发生。出于对网络信息安全的重视,我国于2014年成立了国家安全委员会,正式将网络安全提升为国家战略部署,这同时也表示我国网络信息安全角势不容乐观,网络攻击事件处于高发状态。木马僵尸病毒、恶意勒索软件、分布式拒绝服务攻击、窃取用户敏感信息等各类网络攻击事件的数量都处于世界前列。时有发生的移动恶意程序、APT、DDOS、木马病毒等网络攻击不仅会严重阻碍网络带宽、降低网络速度、并且对电信运营商的企业声誉也会产生一定影响。根据大量数据表明,仅仅依靠传统的网络防范措施已经无法应对新一代的网络威胁,而通过精确的检测分析从而在早期预警,已经成为现阶段网络安全能力的关键所在。

1网络安全问题分析

网络安全问题不仅涉及公民隐私与信息安全,更关乎国事安全,例如雅虎的信息泄露,导致至少五亿条用户信息被窃;美国棱镜门与希拉里邮件门等等事件都使得网络安全问题进一步升级、扩大。随着互联网构架日益复杂,网络安全分析的数据量也在与日俱增,在由TB级向PB级迈进的过程,不仅数据来源丰富、内容更加细化,数据分析所需维度也更为广泛。伴随着现阶段网络性能的增长,数据源发送速率更快,对安全信息采集的速度要求也就越高,版本更新延时等导致的Odav等漏洞日渐增多,网络攻击的影响范围也就进一步扩大;例如APT此类有组织、有目标且长期潜伏渗透的多阶段组合式攻击更加难以防范,唯有分析更多种类的安全信息并融合多种手段进行检测抵御。在传统技术架构中,大多使用结构化数据库来进行数据存储,但由于数据存储的成本过高,系统往往会将原始数据进行标准化处理后再进行存储,如此易导致数据的丢失与失真以及历史数据难以保存而造成的追踪溯源困难;同时对于嘈杂的大型、非结构化数据集的执行分析以及复杂查询效率很低,导致数据的实时性及准确性难以保证,安全运营效率不高,因此传统网络安全技术已经难以满足现阶段网络安全分析的新要求。大数据技术这一概念最初由维克托.迈尔.舍恩伯格与肯尼斯.库克耶在2008年出版的《大数据时代》一书中提出的,大数据是指不采用随机分析法,而是对所有的数据进行综合分析处理。大数据技术作为现阶段信息架构发展的趋势之首,其独有的高速、多样、种类繁多以及价值密度低等特点,近年来被广泛应用于互联网的多个领域中。大数据的战略意义在于能够掌握庞大的数据信息,使海量的原始安全信息的存储与分析得以实现、分布式数据库相比传统数据库的存储成本得以降低,并且数据易于在低廉硬件上的水平扩展,极大地降低了安全投入成本;并且伴随着数据挖掘能力的大幅提高,安全信息的采集与检测响应速度更加快捷,异构及海量数据存储的支持打造了多维度、多阶段关联分析的基础,提升了分析的深度与广度。对于网络安全防御而言,通过对不同来源的数据进行综合管理、处理、分析、优化,可实现在海量数据中极速锁定目标数据,并将分析结果实时反馈,对于现阶段网络安全防御而言至关重要。

2大数据在网络安全中的应用

将大数据运用到网络安全分析中,不仅能够实现数据的优化与处理,还能够对日志与访问行为进行综合处理,从而提高事件处理效率。大数据技术在网络安全分析的效果可从以下几点具体分析:

2.1数据采集效率

大数据技术可对数据进行分布式地采集,能够实现数百兆/秒的采集速度,使得数据采集速率得到了极大的提高,这也为后续的关联分析奠定了基础。

2.2数据的存储

在网络安全分析系统中,原始数据的存储是至关重要的,大数据技术能够针对不同数据类型进行不同的数据采集,还能够主动利用不同的方式来提高数据查询的效率,比如在对日志信息进行查询时适合采用列式的存储方式,而对于分析与处理标准化的数据,则适合采用分布式的模式进行预处理,在数据处理后可将结果存放在列式存储中;或者也可以在系统中建立起MapRece的查询模块,在进行查询的时候可直接将指令放在指定的节点,完成处理后再对各个节点进行整理,如此能够确保查询的速度与反应速度。

2.3实时数据的分析与后续数据的处理

在对实时数据的分析中,可以采用关联分析算法或CEP技术进行分析,如此能够实现对数据的采集、分析、处理的综合过程,实现了更高速度以及更高效率的处理;而对于统计结果以及数据的处理,由于这种处理对时效性要求不高,因此可以采用各种数据处理技术或是利用离线处理的方式,从而能够更好地完成系统风险、攻击方面的分析。

2.4关于复杂数据的分析

在针对不同来源、不同类型的复杂数据进行分析时,大数据技术都能够更好的完成数据的分析与查询,并且能够有效完成复杂数据与安全隐患、恶意攻击等方面的处理,当网络系统中出现了恶意破坏、攻击行为,可采用大数据技术从流量、DNS的角度出发,通过多方面的数据信息分析实现全方位的防范、抵御。

3基于大数据技术构建网络系统安全分析

在网络安全系统中引入大数据技术,主要涉及以下三个模块:

3.1数据源模块

网络安全系统中的`数据及数据源会随着互联网技术的进步而倍增技术能够通过分布式采集器的形式,对系统中的软硬件进行信息采集,除了防火墙、检测系统等软件,对设备硬件的要求也在提高,比如对服务器、存储器的检查与维护工作。

3.2数据采集模块

大数据技术可将数据进行对立分析,从而构建起分布式的数据基础,能够做到原始数据从出现到删除都做出一定说明,真正实现数据的访问、追溯功能,尤其是对数据量与日俱增的今天而言,分布式数据存储能够更好地实现提高数据库的稳定性。

3.3数据分析模块

对网络安全系统的运营来说,用户的业务系统就是安全的最终保障对象,大数据分析能够在用户数据产生之初,及时进行分析、反馈,从而能够让网络用户得到更加私人化的服务体验。而对于用户而言,得其所想也会对网络系统以及大数据技术更加的信任,对于个人的安全隐私信息在系统上存储的疑虑也会大幅降低。当前网络与信息安全领域正在面临着全新的挑战,企业、组织、个人用户每天都会产生大量的安全数据,现有的安全分析技术已经难以满足高效率、精确化的安全分析所需。而大数据技术灵活、海量、快速、低成本、高容量等特有的网络安全分析能力,已经成为现阶段业界趋势所向。而对互联网企业来说,实现对数据的深度“加工处理”,则是实现数据增值的关键所在,对商业运营而言是至关重要的。

4结语

在当下时代,信息数据已经渗透到各个行业及业务领域中,成为重要的社会生产因素。正因如此,互联网数据产生的数量也在与日倍增中,这给网络安全分析工作带来了一定难度与压力,而大数据技术则能够很好的完善这一问题。在网络系统中应用大数据技术不仅能够满足人们对数据处理时所要求的高效性与精准性,并且能够在此基础上构建一套相对完善的防范预警系统,这对维护网络系统的安全起着非常关键的作用,相信大数据技术日后能够得到更加广泛的应用。

参考文献:

[1]鲁宛生.浅谈网络安全分析中大数据技术的应用[J].数码世界,2017.

[2]王帅,汪来富,金华敏等.网络安全分析中的大数据技术应用[J].电信科学,2015.

[3]孙玉.浅谈网络安全分析中的大数据技术应用[J].网络安全技术与应用,2017.

;

2. 信息与网络安全需要大数据安全分析

信息与网络安全需要大数据安全分析
毫无疑问,我们已经进入了大数据(Big Data)时代。人类的生产生活每天都在产生大量的数据,并且产生的速度越来越快。根据IDC和EMC的联合调查,到2020年全球数据总量将达到40ZB。2013年,Gartner将大数据列为未来信息架构发展的10大趋势之首。Gartner预测将在2011年到2016年间累计创造2320亿美元的产值。
大数据早就存在,只是一直没有足够的基础实施和技术来对这些数据进行有价值的挖据。随着存储成本的不断下降、以及分析技术的不断进步,尤其是云计算的出现,不少公司已经发现了大数据的巨大价值:它们能揭示其他手段所看不到的新变化趋势,包括需求、供给和顾客习惯等等。比如,银行可以以此对自己的客户有更深入的了解,提供更有个性的定制化服务;银行和保险公司可以发现诈骗和骗保;零售企业更精确探知顾客需求变化,为不同的细分客户群体提供更有针对性的选择;制药企业可以以此为依据开发新药,详细追踪药物疗效,并监测潜在的副作用;安全公司则可以识别更具隐蔽性的攻击、入侵和违规。
当前网络与信息安全领域,正在面临着多种挑战。一方面,企业和组织安全体系架构的日趋复杂,各种类型的安全数据越来越多,传统的分析能力明显力不从心;另一方面,新型威胁的兴起,内控与合规的深入,传统的分析方法存在诸多缺陷,越来越需要分析更多的安全信息、并且要更加快速的做出判定和响应。信息安全也面临大数据带来的挑战。安全数据的大数据化
安全数据的大数据化主要体现在以下三个方面:
1) 数据量越来越大:网络已经从千兆迈向了万兆,网络安全设备要分析的数据包数据量急剧上升。同时,随着NGFW的出现,安全网关要进行应用层协议的分析,分析的数据量更是大增。与此同时,随着安全防御的纵深化,安全监测的内容不断细化,除了传统的攻击监测,还出现了合规监测、应用监测、用户行为监测、性能检测、事务监测,等等,这些都意味着要监测和分析比以往更多的数据。此外,随着APT等新型威胁的兴起,全包捕获技术逐步应用,海量数据处理问题也日益凸显。
2) 速度越来越快:对于网络设备而言,包处理和转发的速度需要更快;对于安管平台、事件分析平台而言,数据源的事件发送速率(EPS,Event per Second,事件数每秒)越来越快。
3) 种类越来越多:除了数据包、日志、资产数据,安全要素信息还加入了漏洞信息、配置信息、身份与访问信息、用户行为信息、应用信息、业务信息、外部情报信息等。
安全数据的大数据化,自然引发人们思考如何将大数据技术应用于安全领域。
传统的安全分析面临挑战
安全数据的数量、速度、种类的迅速膨胀,不仅带来了海量异构数据的融合、存储和管理的问题,甚至动摇了传统的安全分析方法。
当前绝大多数安全分析工具和方法都是针对小数据量设计的,在面对大数据量时难以为继。新的攻击手段层出不穷,需要检测的数据越来越多,现有的分析技术不堪重负。面对天量的安全要素信息,我们如何才能更加迅捷地感知网络安全态势?
传统的分析方法大都采用基于规则和特征的分析引擎,必须要有规则库和特征库才能工作,而规则和特征只能对已知的攻击和威胁进行描述,无法识别未知的攻击,或者是尚未被描述成规则的攻击和威胁。面对未知攻击和复杂攻击如APT等,需要更有效的分析方法和技术!如何做到知所未知?
面对天量安全数据,传统的集中化安全分析平台(譬如SIEM,安全管理平台等)也遭遇到了诸多瓶颈,主要表现在以下几方面:
——高速海量安全数据的采集和存储变得困难
——异构数据的存储和管理变得困难
——威胁数据源较小,导致系统判断能力有限
——对历史数据的检测能力很弱
——安全事件的调查效率太低
——安全系统相互独立,无有效手段协同工作
——分析的方法较少
——对于趋势性的东西预测较难,对早期预警的能力比较差
——系统交互能力有限,数据展示效果有待提高
从上世纪80年代入侵检测技术的诞生和确立以来,安全分析已经发展了很长的时间。当前,信息与网络安全分析存在两个基本的发展趋势:情境感知的安全分析与智能化的安全分析。
Gartner在2010年的一份报告中指出,“未来的信息安全将是情境感知的和自适应的”。所谓情境感知,就是利用更多的相关性要素信息的综合研判来提升安全决策的能力,包括资产感知、位置感知、拓扑感知、应用感知、身份感知、内容感知,等等。情境感知极大地扩展了安全分析的纵深,纳入了更多的安全要素信息,拉升了分析的空间和时间范围,也必然对传统的安全分析方法提出了挑战。
同样是在2010年,Gartner的另一份报告指出,要“为企业安全智能的兴起做好准备”。在这份报告中,Gartner提出了安全智能的概念,强调必须将过去分散的安全信息进行集成与关联,独立的分析方法和工具进行整合形成交互,从而实现智能化的安全分析与决策。而信息的集成、技术的整合必然导致安全要素信息的迅猛增长,智能的分析必然要求将机器学习、数据挖据等技术应用于安全分析,并且要更快更好地的进行安全决策。
信息与网络安全需要大数据安全分析
安全数据的大数据化,以及传统安全分析所面临的挑战和发展趋势,都指向了同一个技术——大数据分析。正如Gartner在2011年明确指出,“信息安全正在变成一个大数据分析问题”。
于是,业界出现了将大数据分析技术应用于信息安全的技术——大数据安全分析(Big Data Security Analysis,简称BDSA),也有人称做针对安全的大数据分析(Big Data Analysis for Security)。
借助大数据安全分析技术,能够更好地解决天量安全要素信息的采集、存储的问题,借助基于大数据分析技术的机器学习和数据挖据算法,能够更加智能地洞悉信息与网络安全的态势,更加主动、弹性地去应对新型复杂的威胁和未知多变的风险。

3. 大数据环境下的网络安全分析

大数据环境下的网络安全分析
“大数据”一词常被误解。事实上,使用频率太高反而使它几乎没有什么意义了。大数据确实存储并处理大量的数据集合,但其特性体现远不止于此。

在着手解决大数据问题时,将其看作是一种观念而不是特定的规模或技术非常有益。就其最简单的表现来说,大数据现象由三个大趋势的交集所推动:包含宝贵信息的大量数据、廉价的计算资源、几乎免费的分析工具。
大数据架构和平台算是新事物,而且还在以一种非凡的速度不断发展着。商业和开源的开发团队几乎每月都在发布其平台的新功能。当今的大数据集群将会与将来我们看到的数据集群有极大不同。适应这种新困难的安全工具也将发生变化。在采用大数据的生命周期中,业界仍处于早期阶段,但公司越早开始应对大数据的安全问题,任务就越容易。如果安全成为大数据集群发展过程中的一种重要需求,集群就不容易被黑客破坏。此外,公司也能够避免把不成熟的安全功能放在关键的生产环境中。
如今,有很多特别重视不同数据类型(例如,地理位置数据)的大数据管理系统。这些系统使用多种不同的查询模式、不同的数据存储模式、不同的任务管理和协调、不同的资源管理工具。虽然大数据常被描述为“反关系型”的,但这个概念还无法抓住大数据的本质。为了避免性能问题,大数据确实抛弃了许多关系型数据库的核心功能,却也没犯什么错误:有些大数据环境提供关系型结构、业务连续性和结构化查询处理。
由于传统的定义无法抓住大数据的本质,我们不妨根据组成大数据环境的关键要素思考一下大数据。这些关键要素使用了许多分布式的数据存储和管理节点。这些要素存储多个数据副本,在多个节点之间将数据变成“碎片”。这意味着在单一节点发生故障时,数据查询将会转向处理资源可用的数据。正是这种能够彼此协作的分布式数据节点集群,可以解决数据管理和数据查询问题,才使得大数据如此不同。
节点的松散联系带来了许多性能优势,但也带来了独特的安全挑战。大数据数据库并不使用集中化的“围墙花园”模式(与“完全开放”的互联网相对而言,它指的是一个控制用户对网页内容或相关服务进行访问的环境),内部的数据库并不隐藏自己而使其它应用程序无法访问。在这儿没有“内部的”概念,而大数据并不依赖数据访问的集中点。大数据将其架构暴露给使用它的应用程序,而客户端在操作过程中与许多不同的节点进行通信。
规模、实时性和分布式处理:大数据的本质特征(使大数据解决超过以前数据管理系统的数据管理和处理需求,例如,在容量、实时性、分布式架构和并行处理等方面)使得保障这些系统的安全更为困难。大数据集群具有开放性和自我组织性,并可以使用户与多个数据节点同时通信。验证哪些数据节点和哪些客户应当访问信息是很困难的。别忘了,大数据的本质属性意味着新节点自动连接到集群中,共享数据和查询结果,解决客户任务。
嵌入式安全:在涉及大数据的疯狂竞赛中,大部分的开发资源都用于改善大数据的可升级、易用性和分析功能上。只有很少的功能用于增加安全功能。但是,你希望得到嵌入到大数据平台中的安全功能。你希望开发人员在设计和部署阶段能够支持所需要的功能。你希望安全功能就像大数据集群一样可升级、高性能、自组织。问题是,开源系统或多数商业系统一般都不包括安全产品。而且许多安全产品无法嵌入到Hadoop或其它的非关系型数据库中。多数系统提供最少的安全功能,但不足以包括所有的常见威胁。在很大程度上,你需要自己构建安全策略。
应用程序:面向大数据集群的大多数应用都是Web应用。它们利用基于Web的技术和无状态的基于REST的API。虽然全面讨论大数据安全的这个问题超出了本文的范围,但基于Web的应用程序和API给这些大数据集群带来了一种最重大的威胁。在遭受攻击或破坏后,它们可以提供对大数据集群中所存储数据的无限制访问。应用程序安全、用户访问管理及授权控制非常重要,与重点保障大数据集群安全的安全措施一样都不可或缺。
数据安全:存储在大数据集群中的数据基本上都保存在文件中。每一个客户端应用都可以维持其自己的包含数据的设计,但这种数据是存储在大量节点上的。存储在集群中的数据易于遭受正常文件容易感染的所有威胁,因而需要对这些文件进行保护,避免遭受非法的查看和复制。

4. 大数据与云计算,信息网络安全

  1. 大数据技术是指从各种各样类型的数据中,快速获得有价值信息的能力。适用于大数据的技术,包括大规模并行处理(MPP)数据库,数据挖掘电网,分布式文件系统,分布式数据库,云计算平台,互联网,和可扩展的存储系统。

    大数据的应用:大数据是信息产业持续高速增长的新引擎,几乎各个行业都会逐步引入大数据技术,尤其是那些将要实现互联网信息化转型的传统企业。面向大数据市场的新技术、新产品、新服务、新业态会不断涌现。在硬件与集成设备领域,大数据将对芯片、存储产业产生重要影响,还将催生一体化数据存储处理服务器、内存计算等市场。在软件与服务领域,大数据将引发数据快速处理分析、数据挖掘技术和软件产品的发展。

    2.云计算是基于互联网的相关服务的增加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且经常是虚拟化的资源。云是网络、互联网的一种比喻说法。过去在图中往往用云来表示电信网,后来也用来表示互联网和底层基础设施的抽象。

    云计算的主要应用:云物联,“物联网就是物物相连的互联网”。这有两层意思:第一,物联网的核心和基础仍然是互联网,是在互联网基础上的延伸和扩展的网络;第二,其用户端延伸和扩展到了任何物品与物品之间,进行信息交换和通信。

如果你的基础不是很好,再加上网络安全角势的严峻,国家政策对网络安全的偏向,个人建议可以选择网路安全方向,希望可以帮到您,谢谢!

5. 如何利用大数据来处理网络安全攻击

“大数据”已经成为时下最火热的IT行业词汇,各行各业的大数据解决方案层出不穷。究竟什么是大数据、大数据给信息安全带来哪些挑战和机遇、为什么网络安全需要大数据,以及怎样把大数据思想应用于网络安全技术,本文给出解答。
一切都源于APT
APT(Advanced Persistent Threat)攻击是一类特定的攻击,为了获取某个组织甚至是国家的重要信息,有针对性的进行的一系列攻击行为的整个过程。APT攻击利用了多种攻击手段,包括各种最先进的手段和社会工程学方法,一步一步的获取进入组织内部的权限。APT往往利用组织内部的人员作为攻击跳板。有时候,攻击者会针对被攻击对象编写专门的攻击程序,而非使用一些通用的攻击代码。此外,APT攻击具有持续性,甚至长达数年。这种持续体现在攻击者不断尝试各种攻击手段,以及在渗透到网络内部后长期蛰伏,不断收集各种信息,直到收集到重要情报。更加危险的是,这些新型的攻击和威胁主要就针对国家重要的基础设施和单位进行,包括能源、电力、金融、国防等关系到国计民生,或者是国家核心利益的网络基础设施。
现有技术为什么失灵
先看两个典型APT攻击案例,分析一下盲点在哪里
1、 RSA SecureID窃取攻击
1) 攻击者给RSA的母公司EMC的4名员工发送了两组恶意邮件。邮件标题为“2011 Recruitment Plan”,寄件人是[email protected],正文很简单,写着“I forward this file to you for review. Please open and view it.”;里面有个EXCEL附件名为“2011 Recruitment plan.xls”;
2) 很不幸,其中一位员工对此邮件感到兴趣,并将其从垃圾邮件中取出来阅读,殊不知此电子表格其实含有当时最新的Adobe Flash的0day漏洞(CVE-2011-0609)。这个Excel打开后啥也没有,除了在一个表单的第一个格子里面有个“X”(叉)。而这个叉实际上就是内嵌的一个Flash;
3) 该主机被植入臭名昭着的Poison Ivy远端控制工具,并开始自BotNet的C&C服务器(位于 good.mincesur.com)下载指令进行任务;
4) 首批受害的使用者并非“位高权重”人物,紧接着相关联的人士包括IT与非IT等服务器管理员相继被黑;
5) RSA发现开发用服务器(Staging server)遭入侵,攻击方随即进行撤离,加密并压缩所有资料(都是rar格式),并以FTP传送至远端主机,又迅速再次搬离该主机,清除任何踪迹;
6) 在拿到了SecurID的信息后,攻击者就开始对使用SecurID的公司(例如上述防务公司等)进行攻击了。
2、 震网攻击
遭遇超级工厂病毒攻击的核电站计算机系统实际上是与外界物理隔离的,理论上不会遭遇外界攻击。坚固的堡垒只有从内部才能被攻破,超级工厂病毒也正充分的利用了这一点。超级工厂病毒的攻击者并没有广泛的去传播病毒,而是针对核电站相关工作人员的家用电脑、个人电脑等能够接触到互联网的计算机发起感染攻击,以此 为第一道攻击跳板,进一步感染相关人员的U盘,病毒以U盘为桥梁进入“堡垒”内部,随即潜伏下来。病毒很有耐心的逐步扩散,利用多种漏洞,包括当时的一个 0day漏洞,一点一点的进行破坏。这是一次十分成功的APT攻击,而其最为恐怖的地方就在于极为巧妙的控制了攻击范围,攻击十分精准。
以上两个典型的APT攻击案例中可以看出,对于APT攻击,现代安全防御手段有三个主要盲点:

1、0day漏洞与远程加密通信
支撑现代网络安全技术的理论基础最重要的就是特征匹配,广泛应用于各类主流网络安全产品,如杀毒、入侵检测/防御、漏洞扫描、深度包检测。Oday漏洞和远程加密通信都意味着没有特征,或者说还没来得及积累特征,这是基于特征匹配的边界防护技术难以应对的。
2、长期持续性的攻击
现代网络安全产品把实时性作为衡量系统能力的一项重要指标,追求的目标就是精准的识别威胁,并实时的阻断。而对于APT这种Salami式的攻击,则是基于实时时间点的检测技术难以应对的。
3、内网攻击
任何防御体系都会做安全域划分,内网通常被划成信任域,信任域内部的通信不被监控,成为了盲点。需要做接入侧的安全方案加固,但不在本文讨论范围。

大数据怎么解决问题
大数据可总结为基于分布式计算的数据挖掘,可以跟传统数据处理模式对比去理解大数据:
1、数据采样——>全集原始数据(Raw Data)
2、小数据+大算法——>大数据+小算法+上下文关联+知识积累
3、基于模型的算法——>机械穷举(不带假设条件)
4、精确性+实时性——>过程中的预测
使用大数据思想,可对现代网络安全技术做如下改进:
1、特定协议报文分析——>全流量原始数据抓取(Raw Data)
2、实时数据+复杂模型算法——>长期全流量数据+多种简单挖掘算法+上下文关联+知识积累
3、实时性+自动化——>过程中的预警+人工调查
通过传统安全防御措施很难检测高级持续性攻击,企业必须先确定日常网络中各用户、业务系统的正常行为模型是什么,才能尽早确定企业的网络和数据是否受到了攻击。而安全厂商可利用大数据技术对事件的模式、攻击的模式、时间、空间、行为上的特征进行处理,总结抽象出来一些模型,变成大数据安全工具。为了精准地描述威胁特征,建模的过程可能耗费几个月甚至几年时间,企业需要耗费大量人力、物力、财力成本,才能达到目的。但可以通过整合大数据处理资源,协调大数据处理和分析机制,共享数据库之间的关键模型数据,加快对高级可持续攻击的建模进程,消除和控制高级可持续攻击的危害。

6. (1)什么是安全大数据

安全数据的大数据化主要体现在以下三个方面:
一、数据量越来越大:网络已经从千兆迈向了万兆,网络安全设备要分析的数据包数据量急剧上升。此外,随着APT等新型威胁的兴起,全包捕获技术逐步应用,海量数据处理问题也日益凸显。

二、速度越来越快:对于网络设备而言,包处理和转发的速度需要更快;对于安管平台、事件分析平台而言,数据源的事件发送速率(EPS,EventperSecond,事件数每秒)越来越快。

三、种类越来越多:除了数据包、日志、资产数据,安全要素信息还加入了漏洞信息、配置信息、身份与访问信息、用户行为信息、应用信息、业务信息、外部情报信息等。

我们需要大数据安全分析

安全数据的大数据化,以及传统安全分析所面临的挑战和发展趋势,都指向了同一个技术——大数据分析。正如Gartner在2011年明确指出,“信息安全正在变成一个大数据分析问题”。

于是,业界出现了将大数据分析技术应用于信息安全的技术——大数据安全分析(BigDataSecurityAnalysis,简称BDSA),也有人称做针对安全的大数据分析(BigDataAnalysisforSecurity)。

借助大数据安全分析技术,能够更好地解决天量安全要素信息的采集、存储的问题,借助基于大数据分析技术的机器学习,能够更加智能地洞悉信息与网络安全的态势,更加主动、弹性地去应对新型复杂的威胁和未知多变的风险。