當前位置:首頁 » 無線網路 » 神經網路圖像信號融合
擴展閱讀
蘋果電腦彎曲後自動黑屏 2025-10-01 10:32:36
手機套圖軟體 2025-10-01 10:27:30
移動硬碟如何共享網路 2025-10-01 10:10:43

神經網路圖像信號融合

發布時間: 2022-10-19 18:59:12

『壹』 神經網路可以進行信息融合嗎

如果信息融合對應說的是多變數線性或非線性函數的話,神經網路是拿手的。

『貳』 多感測器信息融合和神經網路(RBF)是什麼關系

兩者間不具有明顯的關系,前者是一類需要解決的問題,即將處於不同層次或相同層次的感測器信息進行全局性或局部性的融合。(加權平均就是一種最簡單的融合)。
神經網路(NN)是人工智慧演算法中的一種方法,其可以用於解決諸如多感測器信息融合這樣的一類問題,其應用領域多種多樣。
總而言之,兩者間非必須的一種組合,但是兩者相結合也是一種處理問題的方法。
RBF(radial
basis
functions)徑向基網路也只是神經網路的一種類型,其是前饋型網路的一種。

『叄』 神經網路可以進行信息融合嗎

信息融合,你能說具體些么。
看你想要實現到什麼程度和預期目標

『肆』 如何通過人工神經網路實現圖像識別

人工神經網路(Artificial Neural Networks)(簡稱ANN)系統從20 世紀40 年代末誕生至今僅短短半個多世紀,但由於他具有信息的分布存儲、並行處理以及自學習能力等優點,已經在信息處理、模式識別、智能控制及系統建模等領域得到越來越廣泛的應用。尤其是基於誤差反向傳播(Error Back Propagation)演算法的多層前饋網路(Multiple-Layer Feedforward Network)(簡稱BP 網路),可以以任意精度逼近任意的連續函數,所以廣泛應用於非線性建模、函數逼近、模式分類等方面。

目標識別是模式識別領域的一項傳統的課題,這是因為目標識別不是一個孤立的問題,而是模式識別領域中大多數課題都會遇到的基本問題,並且在不同的課題中,由於具體的條件不同,解決的方法也不盡相同,因而目標識別的研究仍具有理論和實踐意義。這里討論的是將要識別的目標物體用成像頭(紅外或可見光等)攝入後形成的圖像信號序列送入計算機,用神經網路識別圖像的問題。

一、BP 神經網路

BP 網路是採用Widrow-Hoff 學習演算法和非線性可微轉移函數的多層網路。一個典型的BP 網路採用的是梯度下降演算法,也就是Widrow-Hoff 演算法所規定的。backpropagation 就是指的為非線性多層網路計算梯度的方法。一個典型的BP 網路結構如圖所示。

我們將它用向量圖表示如下圖所示。

其中:對於第k 個模式對,輸出層單元的j 的加權輸入為

該單元的實際輸出為

而隱含層單元i 的加權輸入為

該單元的實際輸出為

函數f 為可微分遞減函數

其演算法描述如下:
(1)初始化網路及學習參數,如設置網路初始權矩陣、學習因子等。
(2)提供訓練模式,訓練網路,直到滿足學習要求。
(3)前向傳播過程:對給定訓練模式輸入,計算網路的輸出模式,並與期望模式比較,若有誤差,則執行(4);否則,返回(2)。
(4)後向傳播過程:a. 計算同一層單元的誤差;b. 修正權值和閾值;c. 返回(2)

二、 BP 網路隱層個數的選擇
對於含有一個隱層的三層BP 網路可以實現輸入到輸出的任何非線性映射。增加網路隱層數可以降低誤差,提高精度,但同時也使網路復雜化,增加網路的訓練時間。誤差精度的提高也可以通過增加隱層結點數來實現。一般情況下,應優先考慮增加隱含層的結點數。

三、隱含層神經元個數的選擇
當用神經網路實現網路映射時,隱含層神經元個數直接影響著神經網路的學習能力和歸納能力。隱含層神經元數目較少時,網路每次學習的時間較短,但有可能因為學習不足導致網路無法記住全部學習內容;隱含層神經元數目較大時,學習能力增強,網路每次學習的時間較長,網路的存儲容量隨之變大,導致網路對未知輸入的歸納能力下降,因為對隱含層神經元個數的選擇尚無理論上的指導,一般憑經驗確定。

四、神經網路圖像識別系統
人工神經網路方法實現模式識別,可處理一些環境信息十分復雜,背景知識不清楚,推理規則不明確的問題,允許樣品有較大的缺損、畸變,神經網路方法的缺點是其模型在不斷豐富完善中,目前能識別的模式類還不夠多,神經網路方法允許樣品有較大的缺損和畸變,其運行速度快,自適應性能好,具有較高的解析度。
神經網路的圖像識別系統是神經網路模式識別系統的一種,原理是一致的。一般神經網路圖像識別系統由預處理,特徵提取和神經網路分類器組成。預處理就是將原始數據中的無用信息刪除,平滑,二值化和進行幅度歸一化等。神經網路圖像識別系統中的特徵提取部分不一定存在,這樣就分為兩大類:① 有特徵提取部分的:這一類系統實際上是傳統方法與神經網路方法技術的結合,這種方法可以充分利用人的經驗來獲取模式特徵以及神經網路分類能力來識別目標圖像。特徵提取必須能反應整個圖像的特徵。但它的抗干擾能力不如第2類。② 無特徵提取部分的:省去特徵抽取,整副圖像直接作為神經網路的輸入,這種方式下,系統的神經網路結構的復雜度大大增加了,輸入模式維數的增加導致了網路規模的龐大。此外,神經網路結構需要完全自己消除模式變形的影響。但是網路的抗干擾性能好,識別率高。
當BP 網用於分類時,首先要選擇各類的樣本進行訓練,每類樣本的個數要近似相等。其原因在於一方面防止訓練後網路對樣本多的類別響應過於敏感,而對樣本數少的類別不敏感。另一方面可以大幅度提高訓練速度,避免網路陷入局部最小點。
由於BP 網路不具有不變識別的能力,所以要使網路對模式的平移、旋轉、伸縮具有不變性,要盡可能選擇各種可能情況的樣本。例如要選擇不同姿態、不同方位、不同角度、不同背景等有代表性的樣本,這樣可以保證網路有較高的識別率。
構造神經網路分類器首先要選擇適當的網路結構:神經網路分類器的輸入就是圖像的特徵向量;神經網路分類器的輸出節點應該是類別數。隱層數要選好,每層神經元數要合適,目前有很多採用一層隱層的網路結構。然後要選擇適當的學習演算法,這樣才會有很好的識別效果。在學習階段應該用大量的樣本進行訓練學習,通過樣本的大量學習對神經網路的各層網路的連接權值進行修正,使其對樣本有正確的識別結果,這就像人記數字一樣,網路中的神經元就像是人腦細胞,權值的改變就像是人腦細胞的相互作用的改變,神經網路在樣本學習中就像人記數字一樣,學習樣本時的網路權值調整就相當於人記住各個數字的形象,網路權值就是網路記住的內容,網路學習階段就像人由不認識數字到認識數字反復學習過程是一樣的。神經網路是按整個特徵向量的整體來記憶圖像的,只要大多數特徵符合曾學習過的樣本就可識別為同一類別,所以當樣本存在較大雜訊時神經網路分類器仍可正確識別。在圖像識別階段,只要將圖像的點陣向量作為神經網路分類器的輸入,經過網路的計算,分類器的輸出就是識別結果。

五、模擬實驗
1、實驗對象
本實驗用MATLAB 完成了對神經網路的訓練和圖像識別模擬。從實驗資料庫中選擇0~9 這十個數字的BMP 格式的目標圖像。圖像大小為16×8 像素,每個目標圖像分別加10%、20%、30%、40%、50%大小的隨機雜訊,共產生60 個圖像樣本。將樣本分為兩個部分,一部分用於訓練,另一部分用於測試。實驗中用於訓練的樣本為40個,用於測試的樣本為20 個。隨機雜訊調用函數randn(m,n)產生。
2、網路結構
本試驗採用三層的BP 網路,輸入層神經元個數等於樣本圖像的象素個數16×8 個。隱含層選24 個神經元,這是在試驗中試出的較理想的隱層結點數。輸出層神經元個數就是要識別的模式數目,此例中有10 個模式,所以輸出層神經元選擇10 個,10 個神經元與10 個模式一一對應。
3、基於MATLAB 語言的網路訓練與模擬
建立並初始化網路

1
2
3
4
5
6
7
8

% ================
S1 = 24;% 隱層神經元數目S1 選為24
[R,Q] = size(numdata);
[S2,Q] = size(targets);
F = numdata;
P=double(F);
net = newff(minmax(P),[S1 S2],{'logsig'
'logsig'},'traingda','learngdm')

這里numdata 為訓練樣本矩陣,大小為128×40, targets 為對應的目標輸出矩陣,大小為10×40。
newff(PR,[S1 S2…SN],{TF1 TF2…TFN},BTF,BLF,PF)為MATLAB 函數庫中建立一個N 層
前向BP 網路的函數,函數的自變數PR 表示網路輸入矢量取值范圍的矩陣[Pmin max];S1~SN 為各層神經元的個數;TF1~TFN 用於指定各層神經元的傳遞函數;BTF 用於指定網路的訓練函數;BLF 用於指定權值和閥值的學習函數;PF 用於指定網路的性能函數,預設值為『mse』。
設置訓練參數

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15

net.performFcn = 'sse'; %平方和誤差
性能函數
net.trainParam.goal = 0.1; %平方和誤
差目標
net.trainParam.show = 20; %進程顯示
頻率
net.trainParam.epochs = 5000;%最大訓
練步數
net.trainParam.mc = 0.95; %動量常數
網路訓練
net=init(net);%初始化網路
[net,tr] = train(net,P,T);%網路訓練
對訓練好的網路進行模擬
D=sim(net,P);
A = sim(net,B);

B 為測試樣本向量集,128×20 的點陣。D 為網路對訓練樣本的識別結果,A 為測試樣本的網路識別結果。實驗結果表明:網路對訓練樣本和對測試樣本的識別率均為100%。如圖為64579五個數字添加50%隨機雜訊後網路的識別結果。

六、總結
從上述的試驗中已經可以看出,採用神經網路識別是切實可行的,給出的例子只是簡單的數字識別實驗,要想在網路模式下識別復雜的目標圖像則需要降低網路規模,增加識別能力,原理是一樣的。

『伍』 CNN(卷積神經網路)、RNN(循環神經網路)、DNN(深度神經網路)的內部網路結構有什麼區別

如下:

1、DNN:存在著一個問題——無法對時間序列上的變化進行建模。然而,樣本出現的時間順序對於自然語言處理、語音識別、手寫體識別等應用非常重要。對了適應這種需求,就出現了另一種神經網路結構——循環神經網路RNN。

2、CNN:每層神經元的信號只能向上一層傳播,樣本的處理在各個時刻獨立,因此又被稱為前向神經網路。

3、RNN:神經元的輸出可以在下一個時間戳直接作用到自身,即第i層神經元在m時刻的輸入,除了(i-1)層神經元在該時刻的輸出外,還包括其自身在(m-1)時刻的輸出!

介紹

神經網路技術起源於上世紀五、六十年代,當時叫感知機(perceptron),擁有輸入層、輸出層和一個隱含層。輸入的特徵向量通過隱含層變換達到輸出層,在輸出層得到分類結果。早期感知機的推動者是Rosenblatt。

在實際應用中,所謂的深度神經網路DNN,往往融合了多種已知的結構,包括卷積層或是LSTM單元。

『陸』 神經網路的特點

不論何種類型的人工神經網路,它們共同的特點是,大規模並行處理,分布式存儲,彈性拓撲,高度冗餘和非線性運算。因而具有很髙的運算速度,很強的聯想能力,很強的適應性,很強的容錯能力和自組織能力。這些特點和能力構成了人工神經網路模擬智能活動的技術基礎,並在廣闊的領域獲得了重要的應用。例如,在通信領域,人工神經網路可以用於數據壓縮、圖像處理、矢量編碼、差錯控制(糾錯和檢錯編碼)、自適應信號處理、自適應均衡、信號檢測、模式識別、ATM流量控制、路由選擇、通信網優化和智能網管理等等。
人工神經網路的研究已與模糊邏輯的研究相結合,並在此基礎上與人工智慧的研究相補充,成為新一代智能系統的主要方向。這是因為人工神經網路主要模擬人類右腦的智能行為而人工智慧主要模擬人類左腦的智能機理,人工神經網路與人工智慧有機結合就能更好地模擬人類的各種智能活動。新一代智能系統將能更有力地幫助人類擴展他的智力與思維的功能,成為人類認識和改造世界的聰明的工具。因此,它將繼續成為當代科學研究重要的前沿。

『柒』 神經網路可以進行信息融合嗎

感測器是一種能把物理量或化學量轉變成便於利用的電信號的器件。目前對於信息融合有多種不同的定義。其中美國國防部JDL(Joint Directors of Laboratories)的定義為:把來自許多感測器和信息源的數據和信息加以聯合(Association)、相關(Combination)、組合(Correlation),以獲得精確的位置估計(Position Estimation)和身份估計(Identity Estimation),以及對戰場情況威脅及其重要程度進行適時的完整評價。學者Edward Waltz和James Llinas的定義為:是一種多層次的、多方面的處理過程,這個過程是對多源數據進行檢測、結合、相關、估計和組合以達到精確的狀態估計和身份估計,以及完整、及時的態勢評估(situation assessment)和威脅估計

最廣泛的定義是指把來自多感測器的數據和信息,根據既定的規則,分析、結合為一個全面的情報,並在此基礎上為用戶提供需求信息,諸如:決策、任務和航跡等。

信息融合最初是針對多感測器系統中多源異構信息的處理和集成而開展的一個研究領域,隨著多感測器系統的廣泛應用,便出現了多感測器信息的處理和使用問題,多感測器數據融合技術應運而生,它是利用計算機技術對按時序獲得的若干感測器的觀測信息,以及資料庫和知識庫的信息,在一定準則下加以自動匯集、相關、分析、綜合為一種表示形式,以完成所需要的估計和決策任務所進行的信息處理過程。

由於多感測器信息的冗餘性、互補性、時效性和低代價,使得多感測器信息融合系統克服了單一感測器的局限,從而具有較強的魯棒性和較高的置信度。

數據融合由多感測器融合問題發展而來,目前已不局限於感測器數據的融合,目前的數據融合技術不僅涵蓋了聲、光、電等物理層的處理,而且涉及了資料庫、網頁、視頻、資訊、自然語言等較高層次的信息整合。

『捌』 圖像分割模型U—Net融合淺層特徵的方式是什麼

摘要 提出一種將殘差結構與U-Net網路融合的視盤分割方法。殘差模塊的跳躍連接能將淺層特徵傳遞給更深一層網路,實現淺層特徵的重復使用,增強了圖像細節學習。將該方法在兩個公開數據集Messidor和Kaggle上進行驗證,在干擾較多的Kaggle數據集上,其AUC和MAP分別達到0.952 1和0.838 8,證明該方法可同時學習圖像細節特徵和全局結構特徵,能更好地區分眼底視盤與亮病灶

『玖』 神經網路演算法和卡爾曼濾波可以同時應用於信息融合嗎

可以的,可以預先用卡爾曼對信號進行濾波 ,去除一定的雜訊 然後再進行樣本神經網路訓練,不過網路實際用時也需先進行卡爾曼濾波

『拾』 人工神經網路的發展趨勢

人工神經網路特有的非線性適應性信息處理能力,克服了傳統人工智慧方法對於直覺,如模式、語音識別、非結構化信息處理方面的缺陷,使之在神經專家系統、模式識別、智能控制、組合優化、預測等領域得到成功應用。人工神經網路與其它傳統方法相結合,將推動人工智慧和信息處理技術不斷發展。近年來,人工神經網路正向模擬人類認知的道路上更加深入發展,與模糊系統、遺傳演算法、進化機制等結合,形成計算智能,成為人工智慧的一個重要方向,將在實際應用中得到發展。將信息幾何應用於人工神經網路的研究,為人工神經網路的理論研究開辟了新的途徑。神經計算機的研究發展很快,已有產品進入市場。光電結合的神經計算機為人工神經網路的發展提供了良好條件。
神經網路在很多領域已得到了很好的應用,但其需要研究的方面還很多。其中,具有分布存儲、並行處理、自學習、自組織以及非線性映射等優點的神經網路與其他技術的結合以及由此而來的混合方法和混合系統,已經成為一大研究熱點。由於其他方法也有它們各自的優點,所以將神經網路與其他方法相結合,取長補短,繼而可以獲得更好的應用效果。目前這方面工作有神經網路與模糊邏輯、專家系統、遺傳演算法、小波分析、混沌、粗集理論、分形理論、證據理論和灰色系統等的融合。
下面主要就神經網路與小波分析、混沌、粗集理論、分形理論的融合進行分析。
與小波分析的結合
1981年,法國地質學家Morlet在尋求地質數據時,通過對Fourier變換與加窗Fourier變換的異同、特點及函數構造進行創造性的研究,首次提出了小波分析的概念,建立了以他的名字命名的Morlet小波。1986年以來由於YMeyer、S.Mallat及IDaubechies等的奠基工作,小波分析迅速發展成為一門新興學科。Meyer所著的小波與運算元,Daubechies所著的小波十講是小波研究領域最權威的著作。
小波變換是對Fourier分析方法的突破。它不但在時域和頻域同時具有良好的局部化性質,而且對低頻信號在頻域和對高頻信號在時域里都有很好的解析度,從而可以聚集到對象的任意細節。小波分析相當於一個數學顯微鏡,具有放大、縮小和平移功能,通過檢查不同放大倍數下的變化來研究信號的動態特性。因此,小波分析已成為地球物理、信號處理、圖像處理、理論物理等諸多領域的強有力工具。
小波神經網路將小波變換良好的時頻局域化特性和神經網路的自學習功能相結合,因而具有較強的逼近能力和容錯能力。在結合方法上,可以將小波函數作為基函數構造神經網路形成小波網路,或者小波變換作為前饋神經網路的輸入前置處理工具,即以小波變換的多解析度特性對過程狀態信號進行處理,實現信噪分離,並提取出對加工誤差影響最大的狀態特性,作為神經網路的輸入。
小波神經網路在電機故障診斷、高壓電網故障信號處理與保護研究、軸承等機械故障診斷以及許多方面都有應用,將小波神經網路用於感應伺服電機的智能控制,使該系統具有良好的跟蹤控制性能,以及好的魯棒性,利用小波包神經網路進行心血管疾病的智能診斷,小波層進行時頻域的自適應特徵提取,前向神經網路用來進行分類,正確分類率達到94%。
小波神經網路雖然應用於很多方面,但仍存在一些不足。從提取精度和小波變換實時性的要求出發,有必要根據實際情況構造一些適應應用需求的特殊小波基,以便在應用中取得更好的效果。另外,在應用中的實時性要求,也需要結合DSP的發展,開發專門的處理晶元,從而滿足這方面的要求。
混沌神經網路
混沌第一個定義是上世紀70年代才被Li-Yorke第一次提出的。由於它具有廣泛的應用價值,自它出現以來就受到各方面的普遍關注。混沌是一種確定的系統中出現的無規則的運動,混沌是存在於非線性系統中的一種較為普遍的現象,混沌運動具有遍歷性、隨機性等特點,能在一定的范圍內按其自身規律不重復地遍歷所有狀態。混沌理論所決定的是非線性動力學混沌,目的是揭示貌似隨機的現象背後可能隱藏的簡單規律,以求發現一大類復雜問題普遍遵循的共同規律。
1990年Kaihara、T.Takabe和M.Toyoda等人根據生物神經元的混沌特性首次提出混沌神經網路模型,將混沌學引入神經網路中,使得人工神經網路具有混沌行為,更加接近實際的人腦神經網路,因而混沌神經網路被認為是可實現其真實世界計算的智能信息處理系統之一,成為神經網路的主要研究方向之一。
與常規的離散型Hopfield神經網路相比較,混沌神經網路具有更豐富的非線性動力學特性,主要表現如下:在神經網路中引入混沌動力學行為;混沌神經網路的同步特性;混沌神經網路的吸引子。
當神經網路實際應用中,網路輸入發生較大變異時,應用網路的固有容錯能力往往感到不足,經常會發生失憶現象。混沌神經網路動態記憶屬於確定性動力學運動,記憶發生在混沌吸引子的軌跡上,通過不斷地運動(回憶過程)一一聯想到記憶模式,特別對於那些狀態空間分布的較接近或者發生部分重疊的記憶模式,混沌神經網路總能通過動態聯想記憶加以重現和辨識,而不發生混淆,這是混沌神經網路所特有的性能,它將大大改善Hopfield神經網路的記憶能力。混沌吸引子的吸引域存在,形成了混沌神經網路固有容錯功能。這將對復雜的模式識別、圖像處理等工程應用發揮重要作用。
混沌神經網路受到關注的另一個原因是混沌存在於生物體真實神經元及神經網路中,並且起到一定的作用,動物學的電生理實驗已證實了這一點。
混沌神經網路由於其復雜的動力學特性,在動態聯想記憶、系統優化、信息處理、人工智慧等領域受到人們極大的關注。針對混沌神經網路具有聯想記憶功能,但其搜索過程不穩定,提出了一種控制方法可以對混沌神經網路中的混沌現象進行控制。研究了混沌神經網路在組合優化問題中的應用。
為了更好的應用混沌神經網路的動力學特性,並對其存在的混沌現象進行有效的控制,仍需要對混沌神經網路的結構進行進一步的改進和調整,以及混沌神經網路演算法的進一步研究。
基於粗集理論
粗糙集(Rough Sets)理論是1982年由波蘭華沙理工大學教授Z.Pawlak首先提出,它是一個分析數據的數學理論,研究不完整數據、不精確知識的表達、學習、歸納等方法。粗糙集理論是一種新的處理模糊和不確定性知識的數學工具,其主要思想就是在保持分類能力不變的前提下,通過知識約簡,導出問題的決策或分類規則。目前,粗糙集理論已被成功應用於機器學習、決策分析、過程式控制制、模式識別與數據挖掘等領域。
粗集和神經網路的共同點是都能在自然環境下很好的工作,但是,粗集理論方法模擬人類的抽象邏輯思維,而神經網路方法模擬形象直覺思維,因而二者又具有不同特點。粗集理論方法以各種更接近人們對事物的描述方式的定性、定量或者混合性信息為輸入,輸入空間與輸出空間的映射關系是通過簡單的決策表簡化得到的,它考慮知識表達中不同屬性的重要性確定哪些知識是冗餘的,哪些知識是有用的,神經網路則是利用非線性映射的思想和並行處理的方法,用神經網路本身結構表達輸入與輸出關聯知識的隱函數編碼。
在粗集理論方法和神經網路方法處理信息中,兩者存在很大的兩個區別:其一是神經網路處理信息一般不能將輸入信息空間維數簡化,當輸入信息空間維數較大時,網路不僅結構復雜,而且訓練時間也很長;而粗集方法卻能通過發現數據間的關系,不僅可以去掉冗餘輸入信息,而且可以簡化輸入信息的表達空間維數。其二是粗集方法在實際問題的處理中對雜訊較敏感,因而用無雜訊的訓練樣本學習推理的結果在有雜訊的環境中應用效果不佳。而神經網路方法有較好的抑制雜訊干擾的能力。
因此將兩者結合起來,用粗集方法先對信息進行預處理,即把粗集網路作為前置系統,再根據粗集方法預處理後的信息結構,構成神經網路信息處理系統。通過二者的結合,不但可減少信息表達的屬性數量,減小神經網路構成系統的復雜性,而且具有較強的容錯及抗干擾能力,為處理不確定、不完整信息提供了一條強有力的途徑。
目前粗集與神經網路的結合已應用於語音識別、專家系統、數據挖掘、故障診斷等領域,將神經網路和粗集用於聲源位置的自動識別,將神經網路和粗集用於專家系統的知識獲取中,取得比傳統專家系統更好的效果,其中粗集進行不確定和不精確數據的處理,神經網路進行分類工作。
雖然粗集與神經網路的結合已應用於許多領域的研究,為使這一方法發揮更大的作用還需考慮如下問題:模擬人類抽象邏輯思維的粗集理論方法和模擬形象直覺思維的神經網路方法更加有效的結合;二者集成的軟體和硬體平台的開發,提高其實用性。
與分形理論的結合
自從美國哈佛大學數學系教授Benoit B. Mandelbrot於20世紀70年代中期引入分形這一概念,分形幾何學(Fractal geometry)已經發展成為科學的方法論--分形理論,且被譽為開創了20世紀數學重要階段。現已被廣泛應用於自然科學和社會科學的幾乎所有領域,成為現今國際上許多學科的前沿研究課題之一。
由於在許多學科中的迅速發展,分形已成為一門描述自然界中許多不規則事物的規律性的學科。它已被廣泛應用在生物學、地球地理學、天文學、計算機圖形學等各個領域。
用分形理論來解釋自然界中那些不規則、不穩定和具有高度復雜結構的現象,可以收到顯著的效果,而將神經網路與分形理論相結合,充分利用神經網路非線性映射、計算能力、自適應等優點,可以取得更好的效果。
分形神經網路的應用領域有圖像識別、圖像編碼、圖像壓縮,以及機械設備系統的故障診斷等。分形圖像壓縮/解壓縮方法有著高壓縮率和低遺失率的優點,但運算能力不強,由於神經網路具有並行運算的特點,將神經網路用於分形圖像壓縮/解壓縮中,提高了原有方法的運算能力。將神經網路與分形相結合用於果實形狀的識別,首先利用分形得到幾種水果輪廓數據的不規則性,然後利用3層神經網路對這些數據進行辨識,繼而對其不規則性進行評價。
分形神經網路已取得了許多應用,但仍有些問題值得進一步研究:分形維數的物理意義;分形的計算機模擬和實際應用研究。隨著研究的不斷深入,分形神經網路必將得到不斷的完善,並取得更好的應用效果。?