優(yōu)勝從選擇開始,我們是您最好的選擇!—— 中州期刊聯(lián)盟(新鄉(xiāng)市博翰文化傳媒有限公司)
0373-5939925
2851259250@qq.com
我要檢測 我要投稿 合法期刊查詢
您的位置:網站首頁 > 優(yōu)秀論文 > 科技論文 > 正文

結合SML與差分圖像的多聚焦圖像融合算法

作者:廖麗娜 李偉彤 項穎來源:《液晶與顯示》日期:2023-05-31人氣:1514

由于光學系統(tǒng)景深的限制,很難將處于不同景深的目標都清晰地顯示在所拍攝的圖像上。多聚焦圖像融合是解決這一問題的有效途徑。多聚焦圖像融合將來自同一場景不同聚焦區(qū)域的兩幅或多幅圖像進行融合,從而產生一幅全清晰的圖像,融合后的圖像與任何一幅輸入圖像相比都具有更大的信息量。多聚焦圖像融合多應用于圖像處理、視覺感知和計算機視覺等領域[1]。

多聚焦圖像融合算法可以大致分為基于空間域的算法以及基于變換域的算法。其中,基于變換域的方法包括3個階段:圖像變換、系數融合以及逆變換[2]。在此類算法中,常用的有基于多尺度分解下的融合方法例如金字塔變換[3]、小波變換[4]、非下采樣Shearlet變換[5]等,以及不同于傳統(tǒng)變換域方法的基于稀疏表示(SR)[6]和基于梯度域(GD)[7]的方法?;谧儞Q域的方法需要進行融合圖像逆變換,計算復雜度高,而基于空間域的方法直接對源圖像進行融合,易于實現圖像融合的實時性。這類方法可以大致分為3種:基于塊的方法、基于區(qū)域的方法以及基于像素的方法[8]。在基于塊的方法中,首先將源圖像劃分成大小相等的塊,然后對每一塊進行聚焦度量。然而塊的大小的劃分影響融合結果,容易產生塊效應。在基于區(qū)域的算法中,利用分割技術對源圖像進行區(qū)域劃分,再計算每一個區(qū)域的清晰度。但這一類算法的性能受到分割技術的限制,融合圖像易產生偽影。為此,Zhang等人[9]提出了一種基于邊界的多聚焦圖像融合算法,將聚焦區(qū)域的檢測任務視為從源圖像中找到聚焦區(qū)域和散焦區(qū)域之間的邊界,根據找到的邊界,生成具有良好視覺效果的融合圖像,但其中的分水嶺算法對于尖銳的梯度敏感限制了該算法的性能。Li等人[10]提出一種基于引導濾波的多聚焦圖像融合算法,能夠保存多個輸入圖像的原始信息和互補信息,但由于不能夠正確識別出圖像的聚焦區(qū)域,造成融合圖像邊緣模糊。

針對上述算法出現的問題,本文提出一種結合改進拉普拉斯能量和(SML)和差分圖像的多聚焦圖像融合算法。SML在處理圖像邊緣和紋理細節(jié)上有較大的優(yōu)勢,但不能充分利用圖像的局部信息。針對這個不足,本文在進行SML聚焦檢測后再利用引導濾波,得到更精確的聚焦度量結果。由于單一的SML聚焦檢測并不能夠識別圖像的全部顯著特征,因此結合差分圖像算法對源圖像進行聚焦度量。通過兩種方法結合能夠提取更多的圖像特征,并通過對融合決策圖進行不一致性處理,能夠較好地區(qū)分圖像邊界周圍的細節(jié)信息。實驗證明,該算法能夠保留圖像的邊緣、紋理等顯著特征,并在邊界融合上具有更好的視覺效果,融合時間較短,保證了算法的實時性。

2 所提出方法

本文算法流程如圖1所示,融合過程主要分為3個步驟。首先,利用SML和濾波差分對源圖像分別進行聚焦區(qū)域檢測,得到聚焦特征圖像;接著,對聚焦特征圖像取絕對值最大得到初始融合決策圖,通過小區(qū)域去除策略消除噪點,并對聚焦區(qū)域進行不一致處理,得到最終融合決策圖;最后,根據決策圖對源圖像逐像素加權平均,得到融合圖像。


圖1  融合算法框架


Fig.1  Framework of image fusion algorithm


下載: 原圖 | 高精圖 | 低精圖

2.1 聚焦區(qū)域檢測

聚焦度量用于評估局部像素銳度。對于一幅多聚焦圖像,聚焦區(qū)域比散焦區(qū)域更尖銳,聚焦度量的最大值意味著產生最佳的聚焦圖像,因此,在多聚焦融合領域,源圖像的聚焦區(qū)域必須產生最大的聚焦度量值,散焦區(qū)域必須產生最小的聚焦度量值[11]。在這種情況下,正確檢測源圖像的聚焦區(qū)域非常重要。本節(jié)提出的聚焦區(qū)域檢測主要包括SML聚焦度量和差分圖像兩部分。

2.1.1 SML聚焦度量


在空間域中常用的聚焦度量方法有方差(Variance)、空間頻率(Spatial frequency,SF)、梯度能量和(Energy of gradient,EOG)、改進的拉普拉斯能量和(SML)、雙邊梯度強度法(Tenengrad)等[12]。文獻[13]對不同聚焦度量方法區(qū)分清晰圖像塊和模糊圖像塊的能力進行評估,實驗結果表明,SML能夠代替SF作為圖像清晰度的測量,并且相比于其他方法提供了一種更好的相鄰像素的顯著相關性。故本研究最終選擇SML用來實現對源圖像的聚焦度量,其定義如下:

ML(x,y)=|2I(x,y)?I(x?step,y)?I(x+step,y)|+|2I(x,y)?I(x,y?step)?I(x,y+step)|

 , (1)

式(1)中:ML為改進的拉普拉斯算子;I(x,y)為源圖像的像素值;step是像素間的可變間距,受圖像噪聲和亮度變化影響,噪聲越小,亮度變化越小,則step就越小,這里step=1。

SML(x,y)=∑p=?PP∑q=?QQML(x+p,y+q)

 , (2)

其中:SML為點(x,y)處的聚焦度量,(2P+1)×(2Q+1)為聚焦度量的窗口大小。

首先利用式(3)和式(4)對源圖像I1(圖2(a1)虛線左側為散焦區(qū)域,右側為聚焦區(qū)域)和I2(圖2(a2))進行聚焦度量,得到聚焦圖S1和S2,如圖2(b)所示。

S1(x,y)=SML(I1(x,y))

 , (3)

S2(x,y)=SML(I2(x,y))

 . (4)


圖2  SML聚焦檢測結果圖。(a)源圖像;(b)SML聚焦圖;(c)引導濾波優(yōu)化結果。


Fig.2  Results of SML. (a) Source images;(b) Focus maps of SML;(c) Refined maps of SML by guided filter.


下載: 原圖 | 高精圖 | 低精圖

為了解決SML不能充分利用圖像局部信息的問題,采用復雜低并且具有局部特征保持特性的引導濾波器。當引導圖像和輸入圖像不同時,高頻信息在引導圖像中直接輸出,使得輸入圖像擁有引導圖像的部分特征[14]。

He等人[15]提出了具有保邊平滑特性的引導濾波器,其關鍵在于構造引導圖像I和濾波輸出圖像Q之間的局部線性模型,具體公式如式(5)所示:

Qi=akIi+bk , ?i∈ωk

 , (5)

其中:i、k為像素索引;ωk是以像素k為中心、r為半徑的一個局部窗口;ak、bk為線性系數,在ωk中為常數。P為輸出圖像Q受到噪聲等污染后退化的圖像,通過最小化P和Q之間的誤差E,可求解出ak和bk的值。

E(ak,bk)=∑i∈ωk((akIi+bk?Pi)2+εa2k)

 , (6)

式中:ε>0,為正則化參數,其作用是防止ak的值過大。

使用引導濾波后得到的聚焦圖像為MS1和MS2,如圖2(c)所示,該過程如式(7)和式(8)所示:

MS1(x,y)=Gr,ε(I1(x,y),S1(x,y),r,ε)

 , (7)

MS2(x,y)=Gr,ε(I2(x,y),S2(x,y),r,ε)

 , (8)

其中:Gr,ε表示引導濾波運算,ε為使用引導濾波后的模糊程度,值越大,平滑效果越明顯。本文設置r=5,ε=0.3。

2.1.2 差分圖像


在多聚焦圖像中,聚焦區(qū)域比散焦區(qū)域包含更多的顯著特征信息,單純利用SML聚焦度量無法有效識別圖像的顯著特征,所融合生成的圖像質量不佳,因此在利用SML進行聚焦檢測的同時,本文結合濾波差分[16]對源圖像進行聚焦檢測。

首先利用均值濾波對源圖像I1和I2進行濾波處理,過程如式(9)和式(10)所示:

A1(x,y)=I1(x,y)*fm

 , (9)

A2(x,y)=I2(x,y)*fm

 . (10)

其中:fm為均值濾波器,*表示卷積操作。

再將濾波后的圖像A1和A2與源圖像作差分取其絕對值,提取源圖像在像素點(x,y)的高頻信息D1和D2,如圖3(b)所示,該過程如式(11)和式(12)所示:


圖3  差分圖像聚焦檢測結果圖。(a)源圖像;(b)差分圖像;(c)引導濾波優(yōu)化結果。


Fig.3  Results of difference image. (a) Source images;(b) Difference images;(c) Refined maps of difference image by guided filter.


下載: 原圖 | 高精圖 | 低精圖

D1(x,y)=|I1(x,y)?A1(x,y)|

 , (11)

D2(x,y)=|I2(x,y)?A2(x,y)|

 . (12)

引導濾波通過計算引導圖像的內容進行濾波輸出,能夠較好地保持邊緣、紋理等圖片信息[15]。因此,在濾波差分的基礎上,本文采用引導濾波得到聚焦圖像MD1和MD2,如圖3(c)所示,獲得了更多的高頻信息。該過程如式(13)和式(14)所示:

MD1(x,y)=Gr,ε(I1(x,y),D1(x,y),r,ε)

 , (13)

MD2(x,y)=Gr,ε(I2(x,y),D2(x,y),r,ε)

 , (14)

其中:Gr,ε表示對濾波差分后的圖像D1和D2進行引導濾波運算,引導濾波參數設置與SML聚焦度量的引導濾波參數設置相同。

2.2 融合決策圖生成

2.2.1 初始融合決策圖生成


通過上述聚焦區(qū)域檢測,分別計算得到源圖像I1和I2在兩種聚焦度量方法的聚焦度映射圖MS1、MS2、MD1和MD2。根據式(15)和式(16)生成初始決策圖IS和ID,如圖4(a)~(b)所示。


圖4  初始決策圖生成過程。(a)SML的初始決策圖;(b)差分圖像的初始決策圖;(c)圖4(a)經小區(qū)域去除后的結果;(d)圖4(b)小區(qū)域去除后的結果。


Fig.4  Generation process of initial decision map. (a) Initial decision map of SML;(b) Initial decision map of difference image;(c) Result of Fig.4 (a) with small region removal strategy;(d) Result of Fig.4 (b) with small region removal strategy.


下載: 原圖 | 高精圖 | 低精圖

IS(x,y)={1,  if  MS1(x,y)>MS2(x,y)0,  otherwise

 , (15)

ID(x,y)={1,  if  MD1(x,y)>MD2(x,y)0,  otherwise

 . (16)

初始決策圖IS和ID中還有一些沒有檢測出的噪點(圖4紅色框內),使得黑色背景中包含白色像素,而在白色背景中也同樣還有黑色像素,其原因在于,在沒有高頻信息的區(qū)域下聚焦和散焦的狀態(tài)是相似的。因此,對初始決策圖分別利用小區(qū)域去除策略來解決這些問題,其計算公式如式(17)和式(18)所示:

FS(x,y)=bwareaopen(IS(x,y),SAREA)

 , (17)

FD(x,y)=bwareaopen(ID(x,y),SAREA)

 . (18)

Bwareaopen函數用于刪除二值圖像中面積小于SAREA的對象,其中SAREA=R×H×W,R是比率因子,H為源圖像高度,W為源圖像寬度。R的值決定了被刪除的區(qū)域大小,這里R=0.01。FS和FD分別為初始決策圖IS和ID采用小區(qū)域去除策略校正錯誤檢測像素后的圖像,結果如圖4(c)~(d)所示。

2.2.2 決策圖優(yōu)化


基于空間域的多聚焦圖像融合算法在邊界處理上常出現塊效應或邊界模糊等問題,文獻[17]在聚焦區(qū)域檢測時將兩種聚焦度量方法相結合得到粗略的聚焦圖像,但不能很好地區(qū)分圖像邊界周圍的細節(jié)信息,造成融合邊緣模糊。因此本文借助文獻[18]的方法在生成融合決策圖后,再通過不一致處理對融合決策圖進行校正,使得對邊緣信息處理更為準確,能夠更好地區(qū)分聚焦區(qū)域和散焦區(qū)域。

首先,對融合決策圖FS或FD進行不一致檢查,過程如式(19)所示:

FI(x,y)={1,   if  FS(x,y)≠FD(x,y)0,   otherwise

 . (19)

接著,對于所有滿足FI(x,y)=1的不一致區(qū)域,選擇以(i,j)為中心的區(qū)域,記為RS和RD,計算公式如式(20)所示:

{FS(i,j)=1?FS(i,j),   if  std(RS)≠0FD(i,j)=1?FD(i,j),   otherwise

 , (20)

其中std表示標準差運算。

最后,得到最終決策圖FC如圖5(a)所示,過程如式(21)所示:

FC(x,y)=FS(x,y)=FD(x,y)

 . (21)


圖5  最終決策圖生成和圖像融合結果。(a)最終決策圖;(b)融合圖像。


Fig.5  Generation process of final decision map and result of image fusion. (a) Final decision map; (b) Fused image.


下載: 原圖 | 高精圖 | 低精圖

2.3 圖像融合

基于最終決策圖FC利用像素加權平均規(guī)則進行融合,得到融合圖像F,結果如圖5(b)所示,其表達式為:

F(x,y)=FC(x,y)I1(x,y)+(1?FC(x,y))I2(x,y)

 . (22)

3 實驗結果與分析

3.1 實驗設置

為了評估所提出算法的性能,選取公共數據集中的30對多聚焦圖像作為測試圖像,如圖6所示,其中20對為彩色圖像來自Lytro多聚焦數據集,其余10對為灰度圖像,分別從主觀視覺效果和客觀定量評估對融合結果進行分析。實驗計算機配置為:Intel(R) Core(TM) i7-5500U CPU,實驗平臺為Matlab2020a。將所提出算法與DSIFT[19]、CNN[20]、SIGPRO[21]、FGF[22]、CDL[23]等目前具有代表性的5種方法進行了對比實驗,對比方法中的參數設置均與各對應文獻保持一致。


圖6  實驗中使用的數據集圖像


Fig.6  Images of dataset used in experiment


下載: 原圖 | 高精圖 | 低精圖

3.2 聚焦度量評估

為了驗證所提出的聚焦度量方法的有效性,選擇7組經典且具有參考圖像的多聚焦圖像,將所提出的SML結合引導濾波的聚焦度量方法與EOG[24]、Tenengrad[25]、SF[26]、Variance、SML[27]等5種經典聚焦度量方法進行實驗對比。利用融合圖像與參考圖像間的結構相似性(SSIM)值作為聚焦度量評估指標,衡量不同聚焦度量方法區(qū)分聚焦區(qū)域和散焦區(qū)域的能力。具體過程如下:

(1)計算多聚焦圖像A和B的聚焦程度,分別用MA和MB表示。

(2)根據式(23)得到源圖像的決策圖:

M(x,y)={1,   if  MA(x,y)>MB(x,y)0,   otherwise

 . (23)

(3)根據決策圖對源圖像進行加權平均得到融合圖像。

(4)計算融合圖像與參考圖像之間的SSIM值。

不同聚焦度量方法融合以圖像“l(fā)ab”為示例,結果如圖7所示。從圖7可以看出,所提出的方法得到的融合圖像獲得了較高的融合質量,能夠較好地處理圖像邊緣信息,邊緣輪廓也更加清晰。


圖7  不同聚焦度量方法融合“l(fā)ab”圖像


Fig.7  Fusion results of“l(fā)ab”image by different focus measures


下載: 原圖 | 高精圖 | 低精圖

表1為不同聚焦度量方法下的SSIM值,其中最好的結果用粗體顯示。由表1可以看出,所提出的聚焦度量方法在7組圖像對中均取得更優(yōu)的結果,這進一步證明了所提出聚焦度量方法的有效性。

表1  不同聚焦度量方法下7組圖像的SSIM值

Tab.1  SSIM values of 7 groups by different focus measures

EOG Tenengrad SF Variance SML Proposed

book 0.971 3 0.989 9 0.971 1 0.977 5 0.984 9 0.996 2

Jug 0.955 6 0.978 8 0.955 5 0.982 1 0.945 0 0.988 0

rose 0.905 8 0.946 9 0.905 4 0.895 9 0.945 5 0.989 4

clock 0.957 0 0.977 8 0.957 2 0.965 1 0.969 5 0.982 0

disk 0.938 8 0.963 3 0.938 0.967 5 0.960 4 0.983 7

lab 0.970 0 0.982 1 0.970 0.989 4 0.978 7 0.993 5

pepsi 0.943 7 0.964 7 0.944 1 0.974 3 0.945 3 0.980 4

下載: 導出CSV

3.3 聚焦區(qū)域檢測評估

將一組彩色圖像和一組灰度圖像作為測試圖像,用以比較不同算法區(qū)分聚焦區(qū)域和散焦區(qū)域的性能,結果如圖8所示。由圖8可以看出,SIGPRO方法和CDL方法檢測到的聚焦區(qū)域不夠準確,將聚焦區(qū)域的高頻信息錯誤識別成散焦區(qū)域內的像素;DSIFT方法受到背景區(qū)域梯度信息的影響,分割出的聚焦區(qū)域邊緣處理比較粗糙;雖然CNN和FGF方法能夠獲得較好的融合結果,但融合邊緣模糊。相較之下,所提出的方法通過結合兩種不同聚焦度量算法對邊緣信息處理更為準確,能夠準確區(qū)分聚焦區(qū)域和散焦區(qū)域,融合邊界輪廓更為清晰完整。


圖8  不同聚焦檢測方法所得到的融合結果和決策圖


Fig.8  Fusion result and decision map of different methods


下載: 原圖 | 高精圖 | 低精圖

3.4 主觀視覺評價

在多聚焦圖像融合領域,良好的視覺效果意味著有效的融合。實驗選取1對彩色多聚焦圖像“Diver”和1對灰度圖像“Book”作為示例進行視覺評估,實驗結果分別如圖9、圖10所示。


圖9  “Diver”融合圖像與殘差圖像


Fig.9  Fusion results and residual images for “Diver” image


下載: 原圖 | 高精圖 | 低精圖


圖10  “Book”融合圖像與殘差圖像


Fig.10  Fusion results and residual images for “Book” image


下載: 原圖 | 高精圖 | 低精圖

圖9給出了不同融合方法下“Diver”彩色圖像的融合結果。為了更直觀地區(qū)分不同算法的融合性能,在融合結果下方列出了融合圖像與左聚焦源圖像進行差分得到的差值圖像以及部分標記區(qū)域的放大圖像。由圖9融合圖像可以看出,CNN方法和FGF方法在潛水器上方有一塊模糊區(qū)域,在鏡框邊緣、潛水器邊緣存在不同程度的模糊,影響整體圖像的融合效果;DSIFT方法在潛水器邊緣融合效果不佳,在潛水器上方較源圖像有輕微凹陷,整體看起來比較突兀;SIGPRO和CDL等方法的整體融合效果較好,但在圖像邊緣存在輕微模糊現象。此外,由圖9的差值圖像以及部分標記區(qū)域的放大圖像還可以看出,FGF、CDL等方法存在不同程度的信息殘余(箭頭指出),即源圖像中散焦部分像素被轉移到其融合圖像中;DSIFT、CNN、SIGPRO、CDL以及本文提出的算法則沒有產生信息殘余。與其他方法相比,本文提出的方法融合效果較好,并未出現圖像模糊、邊緣偽影等問題,在圖像背景部分和邊界區(qū)域附近幾乎沒有信息殘留,具有更良好的視覺效果。

不同融合方法在灰度圖像“Book”的融合結果如圖10所示。為了更好地對比不同算法的融合性能,在融合結果下方列出了融合圖像與左聚焦源圖像進行差分得到的差值圖像以及部分標記區(qū)域的放大圖像。通過觀察圖10的融合圖像可知,SIGPRO、FGF、CDL等方法的融合圖像在書頁處因為沒能夠正確識別出清晰區(qū)域,導致在融合結果圖中出現一小塊模糊區(qū)域;DSIFT方法的融合圖像沒能很好地進行圖像邊緣配準,在圖中大寫字母O處出現邊緣缺失,損失了部分邊緣梯度信息;而CNN和本文提出的方法的整體融合效果較好。在圖10的差值圖像以及部分標記區(qū)域的放大圖像中,SIGPRO、FGF、CNN等方法在書頁邊緣存在錯誤檢測像素,造成融合圖像邊緣模糊和不自然;DSIFT和本文提出的算法能夠有效檢測聚焦區(qū)域,在殘差圖像左側像素值為0。這表明本文所提出的方法能夠較好地保留源圖像中的有用信息,融合邊界更完整清晰,同時有效避免了偽影問題。

3.5 客觀定量評價

為了更好地對融合圖像進行全面評估,除了通過主觀視覺評估之外,還采用客觀評價指標對融合結果進行定量分析。不同的多聚焦圖像融合算法在不同的評估指標上可能有很大的差異,為了減少單個指標的不完備性,使用多個指標來評估融合圖像質量。本文選取7個常用的融合質量評估指標來廣泛地評估其融合效果[28],將這7個指標分為4類,分別是基于信息論的QNCIE、QMI、QFMI;基于圖像特征的QG、QM;基于結構相似性的QY;以及基于人類感知的QCB。選取的所有指標均為數值越大,融合效果越好。

表2和表3為不同融合算法在彩色數據集和灰度數據集上的客觀性能。對于每種算法,分別取兩個數據集上所有圖像對的指標平均值,并將每個指標平均值中取得最優(yōu)的算法進行字體加粗。

表2  不同方法下20組彩色圖像的平均評價指標

Tab.2  Average evaluation metrics of 20 groups of color images under difference methods

QNCIE QMI QFMI QG QM QY QCB

DSIFT

CNN

SIGPRO

FGF

CDL

Proposed

0.845 4

0.842 9

0.844 8

0.843 0

0.844 7

0.845 6

1.187 6

1.151 2

1.178 8

1.132 7

1.177 5

1.189 7

0.608 0

0.605 2

0.607 5

0.601 6

0.595 1

0.610 3

0.726 5

0.725 0

0.726 1

0.720 7

0.707 9

0.727 3

2.640 4

2.396 5

2.592 5

2.172 6

2.642 6

2.641 2

0.987 6

0.987 0

0.987 8

0.985 5

0.975 4

0.988 7

0.809 3

0.808 3

0.810 4

0.799 9

0.790 1

0.809 5

下載: 導出CSV

表3  不同方法下10組灰度圖像的平均評價指標

Tab.3  Average evaluation metrics of 10 groups of gray images under difference methods

QNCIE QMI QFMI QG QM QY QCB

DSIFT

CNN

SIGPRO

FGF

CDL

Proposed

0.848 3

0.847 1

0.848 1

0.846 0

0.848 0

0.849 0

1.251 3

1.231 0

1.244 5

1.211 2

1.247 7

1.260 1

0.656 3

0.660 5

0.657 5

0.659 4

0.647 4

0.665 1

0.719 8

0.723 5

0.719 7

0.722 5

0.710 1

0.725 9

2.524 7

2.428 4

2.515 6

2.302 2

2.541 5

2.539 4

0.972 1

0.981 8

0.979 5

0.980 5

0.962 5

0.980 4

0.797 3

0.801 9

0.795 0

0.797 6

0.774 8

0.798 0

下載: 導出CSV

從表2和表3可以看出,在彩色圖像中,本文所提出方法的QNCIE、QMI、QFMI、QG和QY均優(yōu)于其他5種算法,僅在QM和QCB略低于其他算法。在灰度圖像中,本文所提出方法的QNCIE、QMI、QFMI和QG均優(yōu)于其他5種算法,僅在QM、QY和QCB略低于其他算法。即本文所提出的方法在基于信息論、基于圖像特征、基于結構相似性的指標上都基本優(yōu)于其他算法,在基于人類特征感知中的指標平均值也僅以微小差距低于其他方法。綜合上述分析,在客觀評價指標上所提出方法的性能優(yōu)于其他方法。

實驗結果表明,本文所提出方法在主觀和客觀評價獲得了一致的結果,較好地保留了源圖像的信息量,融合圖像清晰程度較高,能夠有效地提取邊緣信息,總體取得了較好的融合效果。

3.6 時間成本

本節(jié)主要是計算出在灰度和彩色圖像上不同算法的平均時間,比較不同融合算法在時間成本上的差異,具體數值如表4所示,將運行時間最短的算法進行字體加粗。

表4  不同融合算法計算的平均時間

Tab.4  Average consuming time calculated by different algorithms( s )

DSIFT CNN SIGPRO FGF CDL Proposed

Color images 6.745 4 165.177 8 26.832 2 13.913 8 2.649 7 0.395 9

Grayscale images 11.911 1 163.302 8 10.212 5 4.553 0 2.293 5 0.462 1

下載: 導出CSV

從表4可以看出,不同算法在彩色和灰度圖像上耗時不同,本文所提出的方法與其他算法相比,不論是在彩色圖像還是在灰度圖像上,運行時間都是最短,并且運行時間小于0.5 s,能夠保證算法的融合實時性。

4 結論

根據聚焦區(qū)域檢測方法在多聚焦圖像融合算法上的優(yōu)勢,提出了一種基于SML和差分圖像的多聚焦圖像算法。通過結合兩種聚焦檢測方法,能夠更準確識別多聚焦圖像的聚焦區(qū)域,生成高質量的融合圖像。不同圖像得到的仿真實驗結果表明,所提出的方法在主觀與客觀評估指標都表現出較好的融合結果,互信息QMI、特征互信息QFMI和圖像梯度特征QG在彩色圖像上分別提高了0.17%、0.38%和0.11%,在灰度圖像上分別提高了0.7%、0.69%和0.33%,并且融合所需的時間最短。此外,該方法能夠減少細節(jié)信息和邊緣信息的丟失,在聚焦區(qū)域銜接處無偽影產生,并且運行時間較短,證明了所提出算法的有效性和實時性。


網絡客服QQ: 沈編輯

投訴建議:0373-5939925????投訴建議QQ:

招聘合作:2851259250@qq.com (如您是期刊主編、文章高手,可通過郵件合作)

地址:河南省新鄉(xiāng)市金穗大道東段266號中州期刊聯(lián)盟 ICP備案號:豫ICP備2020036848

【免責聲明】:中州期刊聯(lián)盟所提供的信息資源如有侵權、違規(guī),請及時告知。

版權所有:中州期刊聯(lián)盟(新鄉(xiāng)市博翰文化傳媒有限公司)

關注”中州期刊聯(lián)盟”公眾號
了解論文寫作全系列課程

核心期刊為何難發(fā)?

論文發(fā)表總嫌貴?

職院單位發(fā)核心?

掃描關注公眾號

論文發(fā)表不再有疑惑

論文寫作全系列課程

掃碼了解更多

輕松寫核心期刊論文

在線留言