當前位置:首頁 » 安全設置 » 深度學習與未知網路安全威脅
擴展閱讀
電腦屏幕黑屏好修嗎 2025-07-29 00:15:52
樂視共享網路在哪裡 2025-07-29 00:11:29

深度學習與未知網路安全威脅

發布時間: 2022-07-28 22:20:37

A. 我們要最大限度或者極限使用深度學習其中兩個暴力是指什麼

脅的或實際發生的,針對自己、他人,或針對群體或社群的故意使用實際武力(force)或權力(power),其結果是,或很可能是傷害、死亡、心理創傷、畸形發展、剝奪」。這是一個很有用的定義,因為它在一般關於暴力的「武力」之外還考慮到了「權力」(「支配力」),例如,限制言論自由不一定要用武力,而是可以通過實際的「支配力」來做到。在這個定義中,暴力包括兩個方面:意願和為達到意願的行動,與結果並不一定有關。例如,一個人朝你開槍,雖然沒有擊中你,但仍然行使了暴力。但是,另一方面,暴力又經常是指實際的傷害後果,即使沒有加害別人的意思,如果事實上造成傷害,也仍然還是暴力。例如,父母體罰子女,政府強行維穩,動機再好,造成實質傷害,也照樣還是暴力。
暴力包括由於「權力關系」(power relationship)而造成的傷害,例如威脅、脅迫、恐嚇、壓制、歧視、壓迫、剝奪。

B. 日本防衛省研發人工智慧用深度學習防禦網路攻擊

據日本《產經新聞》1月7日報道稱,日本防衛省於6日宣布:為強化對網路攻擊的應對能力,已經確定要將人工智慧(AI)引入日本自衛隊信息通信網路的防禦系統中。預計將於明年開始為期兩年的調查研究,於2020年著手進行軟體開發,2022年實際運用,並且也開始考慮在日本政府全體的網路防禦系統中應用AI。

目前,軍方人員介入網路安全戰場早已成為常態,美國著名的網路安全公司Cybereason其創辦人正是來自以色列國防部下屬精英網路部隊8200部隊。值得注意的是,2015年該公司接受了來自日本軟銀的為數1億美元的融資,不知《產經新聞》提到的「以色列技術」是否來自該公司呢?

C. 什麼是深度學習

隨著阿爾法狗、無人駕駛、智能翻譯的橫空出世,「人工智慧」這個已經存在60多年的詞語,彷彿一夜之間重新成為熱詞。同時被科技圈和企業界廣泛提及的還有「機器學習」「深度學習」「神經網路」…… 但事實是,如此喧囂熱烈的氣氛之下,大部分人對這一領域仍是一知半解。

如果要說誰有資格談論目前正在進行的「人工智慧革命」,特倫斯·謝諾夫斯基(Terry Sejnowski)必然是其中一個。

在智能翻譯、無人駕駛、阿爾法狗、微軟小冰還被認為是遠在天邊的願景時,謝諾夫斯基就已經在為深度學習領域奠定基礎了。

《深度學習:智能時代的核心驅動力量》

中信出版集團 2019.2

Q:首先,我想問一下定義。人們幾乎可以互換地使用「人工智慧」,「神經網路」,「深度學習」和「機器學習」等詞語。 但這些是不同的東西。你能解釋一下嗎?

人工智慧可以追溯到1956年的美國,那時工程師們決定編寫一個試圖仿效智能的計算機程序。

在人工智慧中,一個新領域成長起來,稱為機器學習。不是編寫一個按部就班的程序來做某事——這是人工智慧中的傳統方法——而是你收集了大量關於你試圖理解的事物的數據。例如,設想您正在嘗試識別對象,因此您可以收集大量它們的圖像。然後,通過機器學習,這是一個可以剖析各種特徵的自動化過程,就可以確定一個物體是汽車,而另一個是訂書機。

機器學習是一個非常大的領域,其歷史可以追溯到更久遠的時期。最初,人們稱之為「模式識別」。後來演算法在數學上變得更加廣泛和復雜。

在機器學習中有受大腦啟發的神經網路,然後是深度學習。深度學習演算法具有特定的體系結構,其中有許多層數據流經的網路。

基本上,深度學習是機器學習的一部分,機器學習是人工智慧的一部分。

Q: 有什麼「深度學習」能做而其他程序不能做的嗎?

編寫程序非常耗費人力。在過去,計算機是如此之慢,內存非常昂貴,以至於人們採用邏輯,也就是計算機的工作原理,來編寫程序。他們通過基礎機器語言來操縱信息。計算機太慢了,計算太貴了。

但現在,計算力越來越便宜,勞動力也越來越昂貴。而且計算力變得如此便宜,以至於慢慢地,讓計算機學習會比讓人類編寫程序更有效。在那時,深度學習會開始解決以前沒有人編寫過程序的問題,比如在計算機視覺和翻譯等領域。

機器學習是計算密集型的,但你只需編寫一個程序,通過給它不同的數據集,你可以解決不同的問題。並且你不需要是領域專家。因此,對於存在大量數據的任何事物,都有對應的大量應用程序。

Q:「深度學習」現在似乎無處不在。 它是如何變得如此主導潮流?

我可以在歷史上精確地找到這一特定時刻:2012年12月在NIPS會議(這是最大的AI會議)上。在那裡,計算機科學家Geoff Hinton和他的兩個研究生表明你可以使用一個名為ImageNet的非常大的數據集,包含10,000個類別和1000萬個圖像,並使用深度學習將分類錯誤減少20%。

通常,在該數據集上,錯誤在一年內減少不到1%。 在一年內,20年的研究被跨越了。

這真的打開了潮水的閘門。

Q:深度學習的靈感來自大腦。那麼計算機科學和神經科學這些領域如何協同工作呢?

深度學習的靈感來自神經科學。最成功的深度學習網路是由Yann LeCun開發的卷積神經網路(CNN)。

如果你看一下CNN的架構,它不僅僅是很多單元,它們以一種基本上鏡像大腦的方式連接起來。大腦中被研究的最好的一部分在視覺系統,在對視覺皮層的基礎研究工作中,表明那裡存在簡單和復雜細胞。如果你看一下CNN架構,會發現有簡單細胞和復雜細胞的等價物,這直接來自我們對視覺系統的理解。

Yann沒有盲目地試圖復制皮質。他嘗試了許多不同的變種,但他最終收斂到的方式和那些自然收斂到的方式相同。這是一個重要的觀察。自然與人工智慧的趨同可以教給我們很多東西,而且還有更多的東西要去探索。

Q:我們對計算機科學的理解有多少取決於我們對大腦的理解程度?

我們現在的大部分AI都是基於我們對大腦在60年代的了解。 我們現在知道的更多,並且更多的知識被融入到架構中。

AlphaGo,這個擊敗圍棋冠軍的程序不僅包括皮質模型,還包括大腦的一部分被稱為「基底神經節」的模型,這對於制定一系列決策來實現目標非常重要。 有一種稱為時間差分的演算法,由Richard Sutton在80年代開發,當與深度學習相結合時,能夠進行人類以前從未見過的非常復雜的玩法。

當我們了解大腦的結構,並且當我們開始了解如何將它們集成到人工系統中時,它將提供越來越多的功能,超越我們現在所擁有的。

Q:人工智慧也會影響神經科學嗎?

它們是並行的工作。創新神經技術已經取得了巨大的進步,從一次記錄一個神經元到同時記錄數千個神經元,並且同時涉及大腦的許多部分,這完全開辟了一個全新的世界。

我說人工智慧與人類智能之間存在著一種趨同。隨著我們越來越多地了解大腦如何工作,這些認識將反映到AI中。 但與此同時,他們實際上創造了一整套學習理論,可用於理解大腦,讓我們分析成千上萬的神經元以及他們的活動是如何產生的。 所以神經科學和人工智慧之間存在這種反饋循環,我認為這更令人興奮和重要。

Q:你的書討論了許多不同的深度學習應用,從自動駕駛汽車到金融交易。你覺得哪個特定領域最有趣?

我完全被震撼到的一個應用是生成對抗網路,或稱GANS。使用傳統的神經網路,你給出一個輸入,你得到一個輸出。 GAN能夠在沒有輸入的情況下開展活動 - 產生輸出。

是的,我在這些網路創建假視頻的故事背景下聽說過這個。他們真的會產生看似真實的新事物,對吧?

從某種意義上說,它們會產生內部活動。事實證明這是大腦運作的方式。你可以看某處並看到一些東西,然後你可以閉上眼睛,你可以開始想像出那裡沒有的東西。你有一個視覺想像,當周圍安靜時,你鬧鍾聲會浮現想法。那是因為你的大腦是生成性的。現在,這種新型網路可以生成從未存在過的新模式。所以你可以給它,例如,數百張汽車圖像,它會創建一個內部結構,可以生成從未存在的汽車的新圖像,並且它們看起來完全像汽車。

Q:另一方面,您認為哪些想法可能是過度炒作?

沒有人可以預測或想像這種新技術的引入會對未來的事物組織方式產生什麼影響。當然這其中有炒作。我們還沒有解決真正困難的問題。我們還沒有通用智能,就有人說機器人將不久後會取代我們,其實機器人遠遠落後於人工智慧,因為復制身體被發現比復制大腦更復雜。

讓我們看一下這一種技術進步:激光。它是在大約50年前發明的,當時占據了整個房間。從占據整個房間到我現在演講時使用的激光筆需要50年的技術商業化。它必須被推進到體積足夠小並可以用五美元購買它的程度。同樣的事情將發生在像自動駕駛汽車這樣的被炒作的技術上。它並不被期望在明年或者未來10年,就變得無處不在。這過程可能需要花費50年,但重點是,在此過程中會有逐步推進,使它越來越靈活,更安全,更兼容我們組織運輸網路的方式。炒作的錯誤在於人們的時標設定錯了。他們期待太多事情太快發生,其實事物只在適當的時候。

關於深度學習的問題可以看下這個網頁的視頻講解:AI深度學習---中科院公開課。

D. 深度學習與神經網路有什麼區別

深度學習與神經網路關系

2017-01-10

最近開始學習深度學習,基本上都是zouxy09博主的文章,寫的蠻好,很全面,也會根據自己的思路,做下刪減,細化。

五、Deep Learning的基本思想

假設我們有一個系統S,它有n層(S1,…Sn),它的輸入是I,輸出是O,形象地表示為: I =>S1=>S2=>…..=>Sn => O,如果輸出O等於輸入I,即輸入I經過這個系統變化之後沒有任何的信息損失(呵呵,大牛說,這是不可能的。資訊理論中有個「信息逐層丟失」的說法(信息處理不等式),設處理a信息得到b,再對b處理得到c,那麼可以證明:a和c的互信息不會超過a和b的互信息。這表明信息處理不會增加信息,大部分處理會丟失信息。當然了,如果丟掉的是沒用的信息那多好啊),保持了不變,這意味著輸入I經過每一層Si都沒有任何的信息損失,即在任何一層Si,它都是原有信息(即輸入I)的另外一種表示。現在回到我們的主題Deep Learning,我們需要自動地學習特徵,假設我們有一堆輸入I(如一堆圖像或者文本),假設我們設計了一個系統S(有n層),我們通過調整系統中參數,使得它的輸出仍然是輸入I,那麼我們就可以自動地獲取得到輸入I的一系列層次特徵,即S1,…, Sn。

對於深度學習來說,其思想就是對堆疊多個層,也就是說這一層的輸出作為下一層的輸入。通過這種方式,就可以實現對輸入信息進行分級表達了。

另外,前面是假設輸出嚴格地等於輸入,這個限制太嚴格,我們可以略微地放鬆這個限制,例如我們只要使得輸入與輸出的差別盡可能地小即可,這個放鬆會導致另外一類不同的Deep Learning方法。上述就是Deep Learning的基本思想。

六、淺層學習(Shallow Learning)和深度學習(Deep Learning)

淺層學習是機器學習的第一次浪潮。

20世紀80年代末期,用於人工神經網路的反向傳播演算法(也叫Back Propagation演算法或者BP演算法)的發明,給機器學習帶來了希望,掀起了基於統計模型的機器學習熱潮。這個熱潮一直持續到今天。人們發現,利用BP演算法可以讓一個人工神經網路模型從大量訓練樣本中學習統計規律,從而對未知事件做預測。這種基於統計的機器學習方法比起過去基於人工規則的系統,在很多方面顯出優越性。這個時候的人工神經網路,雖也被稱作多層感知機(Multi-layer Perceptron),但實際是種只含有一層隱層節點的淺層模型。

20世紀90年代,各種各樣的淺層機器學習模型相繼被提出,例如支撐向量機(SVM,Support Vector Machines)、 Boosting、最大熵方法(如LR,Logistic Regression)等。這些模型的結構基本上可以看成帶有一層隱層節點(如SVM、Boosting),或沒有隱層節點(如LR)。這些模型無論是在理論分析還是應用中都獲得了巨大的成功。相比之下,由於理論分析的難度大,訓練方法又需要很多經驗和技巧,這個時期淺層人工神經網路反而相對沉寂。

深度學習是機器學習的第二次浪潮。

2006年,加拿大多倫多大學教授、機器學習領域的泰斗Geoffrey Hinton和他的學生RuslanSalakhutdinov在《科學》上發表了一篇文章,開啟了深度學習在學術界和工業界的浪潮。這篇文章有兩個主要觀點:1)多隱層的人工神經網路具有優異的特徵學習能力,學習得到的特徵對數據有更本質的刻畫,從而有利於可視化或分類;2)深度神經網路在訓練上的難度,可以通過「逐層初始化」(layer-wise pre-training)來有效克服,在這篇文章中,逐層初始化是通過無監督學習實現的。

當前多數分類、回歸等學習方法為淺層結構演算法,其局限性在於有限樣本和計算單元情況下對復雜函數的表示能力有限,針對復雜分類問題其泛化能力受到一定製約。深度學習可通過學習一種深層非線性網路結構,實現復雜函數逼近,表徵輸入數據分布式表示,並展現了強大的從少數樣本集中學習數據集本質特徵的能力。(多層的好處是可以用較少的參數表示復雜的函數)

而為了克服神經網路訓練中的問題,DL採用了與神經網路很不同的訓練機制。傳統神經網路(這里作者主要指前向神經網路)中,採用的是back propagation的方式進行,簡單來講就是採用迭代的演算法來訓練整個網路,隨機設定初值,計算當前網路的輸出,然後根據當前輸出和label之間的差去改變前面各層的參數,直到收斂(整體是一個梯度下降法)。而deep learning整體上是一個layer-wise的訓練機制。這樣做的原因是因為,如果採用back propagation的機制,對於一個deep network(7層以上),殘差傳播到最前面的層已經變得太小,出現所謂的gradient diffusion(梯度擴散)。這個問題我們接下來討論。

八、Deep learning訓練過程

8.1、傳統神經網路的訓練方法為什麼不能用在深度神經網路

BP演算法作為傳統訓練多層網路的典型演算法,實際上對僅含幾層網路,該訓練方法就已經很不理想。深度結構(涉及多個非線性處理單元層)非凸目標代價函數中普遍存在的局部最小是訓練困難的主要來源。

BP演算法存在的問題:

(1)梯度越來越稀疏:從頂層越往下,誤差校正信號越來越小;

(2)收斂到局部最小值:尤其是從遠離最優區域開始的時候(隨機值初始化會導致這種情況的發生);

(3)一般,我們只能用有標簽的數據來訓練:但大部分的數據是沒標簽的,而大腦可以從沒有標簽的的數據中學習;

8.2、deep learning訓練過程

如果對所有層同時訓練,時間復雜度會太高;如果每次訓練一層,偏差就會逐層傳遞。這會面臨跟上面監督學習中相反的問題,會嚴重欠擬合(因為深度網路的神經元和參數太多了)。

2006年,hinton提出了在非監督數據上建立多層神經網路的一個有效方法,簡單的說,分為兩步,一是每次訓練一層網路,二是調優,使原始表示x向上生成的高級表示r和該高級表示r向下生成的x'盡可能一致。方法是:

1)首先逐層構建單層神經元,這樣每次都是訓練一個單層網路。

2)當所有層訓練完後,Hinton使用wake-sleep演算法進行調優。

將除最頂層的其它層間的權重變為雙向的,這樣最頂層仍然是一個單層神經網路,而其它層則變為了圖模型。向上的權重用於「認知」,向下的權重用於「生成」。然後使用Wake-Sleep演算法調整所有的權重。讓認知和生成達成一致,也就是保證生成的最頂層表示能夠盡可能正確的復原底層的結點。比如頂層的一個結點表示人臉,那麼所有人臉的圖像應該激活這個結點,並且這個結果向下生成的圖像應該能夠表現為一個大概的人臉圖像。Wake-Sleep演算法分為醒(wake)和睡(sleep)兩個部分。

1)wake階段:認知過程,通過外界的特徵和向上的權重(認知權重)產生每一層的抽象表示(結點狀態),並且使用梯度下降修改層間的下行權重(生成權重)。也就是「如果現實跟我想像的不一樣,改變我的權重使得我想像的東西就是這樣的」。

2)sleep階段:生成過程,通過頂層表示(醒時學得的概念)和向下權重,生成底層的狀態,同時修改層間向上的權重。也就是「如果夢中的景象不是我腦中的相應概念,改變我的認知權重使得這種景象在我看來就是這個概念」。

deep learning訓練過程具體如下:

1)使用自下上升非監督學習(就是從底層開始,一層一層的往頂層訓練):

採用無標定數據(有標定數據也可)分層訓練各層參數,這一步可以看作是一個無監督訓練過程,是和傳統神經網路區別最大的部分(這個過程可以看作是feature learning過程):

具體的,先用無標定數據訓練第一層,訓練時先學習第一層的參數(這一層可以看作是得到一個使得輸出和輸入差別最小的三層神經網路的隱層),由於模型capacity的限制以及稀疏性約束,使得得到的模型能夠學習到數據本身的結構,從而得到比輸入更具有表示能力的特徵;在學習得到第n-1層後,將n-1層的輸出作為第n層的輸入,訓練第n層,由此分別得到各層的參數;

2)自頂向下的監督學習(就是通過帶標簽的數據去訓練,誤差自頂向下傳輸,對網路進行微調):

基於第一步得到的各層參數進一步fine-tune整個多層模型的參數,這一步是一個有監督訓練過程;第一步類似神經網路的隨機初始化初值過程,由於DL的第一步不是隨機初始化,而是通過學習輸入數據的結構得到的,因而這個初值更接近全局最優,從而能夠取得更好的效果;所以deep learning效果好很大程度上歸功於第一步的feature learning過程。

E. 有哪些人工智慧安全風險

在分析之前,讓我們簡要介紹一下人工智慧的應用。人工智慧因其在數據分析、知識提取和自主學習方面的突出優勢,被廣泛應用於網路保護、數據管理、信息審查、智能安全、金融風險控制和輿情監測等領域。在這些領域,往往會出現一些安全風險,常見風險如下:


1、人工智慧安全風險——框架的安全風險


近年來,著名的深度學習框架TensorFlow和Caffe及其依賴庫多次被發現存在安全漏洞,被攻擊者利用,導致系統安全問題。以生成模型[3]為例。原始工作原理是:將輸入X映射到低維表示的Z編碼器,再映射回高維重構的X解碼器,表示如下圖所示:


如果輸入是7,攻擊後的輸出可能是8。如圖所示:


此外,人工智慧可以用來編寫計算機病毒和木馬。原始的惡意腳本是手動編寫的。人工智慧技術可以通過插入拮抗樣本[4],繞過安全檢測,實現這些過程的自動化。同樣,人工智慧技術也可以自動生成智能僵屍網路[5],它可以在不等待僵屍網路控制命令的情況下對其他系統進行大規模、自動的攻擊,大大提高了網路攻擊的破壞程度。(頁面)


2、人工智慧安全風險——數據安全風險


攻擊者可以通過網路的內部參數得到網路訓練的數據集。人工智慧技術還將增強數據挖掘能力,提高隱私泄露風險,比如2018年3月的Facebook數據泄露事件。


3、人工智慧安全風險——演算法的安全風險


深度學習網路目標函數的定義不準確、不合理或不正確,可能會導致錯誤甚至有害的結果。錯誤的目標函數、代價過高的目標函數以及表達能力有限的網路都可能導致網路產生錯誤的結果。例如,2018年3月,一輛優步自動駕駛汽車發生事故,機器人視覺系統未能及時識別突然出現在道路上的行人,導致行人發生碰撞並死亡。演算法的偏差和人工智慧的不可解釋性也是主要問題。在美國,人工智慧演算法被用來預測罪犯,一些列表顯示許多無辜的人受到了傷害,其中大部分是黑人,甚至系統的開發者也沒有合理的解釋這個決定。拮抗樣本的存在也會導致演算法的誤判。通過給下面的圖片添加一點雜訊,人工智慧將很有信心地確認熊貓是長臂猿。


4、人工智慧安全風險——信息安全風險


有了足夠的訓練數據,人工智慧可以產生用於非法活動的虛假信息。比如人工智慧面部修飾DeepFakes,以及最近推出的DeepNude。一些罪犯使用假聲音和假視頻進行詐騙。現在谷歌已經發明了一種聊天機器人,它可以完全愚弄人們在電話上聊天。


以上就是《人工智慧安全風險有哪些?安全在這個行業竟然這么重要》,在分析之前,讓我們先簡單介紹一下人工智慧的應用。人工智慧由於其在數據分析、知識提取和自主學習方面的突出優勢,如果你想知道更多的人工智慧安全的發展,可以點擊本站的其他文章進行學習。

F. 隧道安全監控報警系統最大的作用是什麼

1.告警精確度高
智能視頻分析系統內置智能演算法,能排除氣候與環境因素的干擾,有效彌補人工監控的不足,減少視頻監控系統整體的誤報率和漏報率。
2.實時識別報警
基於智能視頻分析和深度學習神經網路技術,對隧道監控區域內的異常行為進行監測,報警信息可顯示在監控客戶端界面,也可將報警信息推送到移動端。
3.全天候運行 穩定可靠
智能視頻監控系統可對監控畫面進行7×24不間斷的分析,大大提高了視頻資源的利用率,減少人工監控的工作強度。
4.告警存儲功能
對隧道監控區域內的異常行為實時識別預警,並將報警信息存儲到伺服器資料庫中,包括時間、地點、快照、視頻等。