close
4.5 Histogram Matching
貼圖:把多張圖貼在一起,堆疊
要先讓兩張圖的亮度值得分布相似才不會讓它重疊後的圖顏色變得很奇怪
p104


(Y1-1/3-1)=(2-1/4-1)……Y1=1.7
(Y2-2/5-4)=(3-2/6-4)……Y2=2.5
如果兩張圖的pixel的點個數不同時,則要以比例加成對應

Chapter 5     Geometric Enhancement Using Image Domain Techniques
1.      利用周圍的點來使點改變
2.      每j個點做運算是根據一個template(板子)做運算的
3.      作用:
(1)   平滑化
(2)   突顯邊界(edge)
(3)   強化邊界(edge)
4.      影像的平滑處理:將變化快速的視象去除,變成平滑
(1)   留下頻率低(週期大)
(2)   去除頻率低(週期小)
※平均值處理:
九個點相加除於九,其值取代中間的值,然後每個點都這樣做,期周圍會變的比較平滑
t(m,n)=1/MN
r(i,j) = (1/MN)Σ Σ φ(m,n)
當 │φ(i,j)- r(i,j)│<T(臨界值,自訂)

r(i,j) =φ(i,j)………如此做可以把邊界保留下來,而且可以避免某些特徵被smooth
※中位數處理:
中間的值用中位數取代
(1)可以保留圖像上的邊界,又有點smooth但無法清除較小的雜訊
(2)可以移掉突如其來的雜訊
◎    亮度落差很大的稱為邊界,期差值可以自訂
◎    r(i,j) = Σ Σ φ(m,n) t(m,n),直接對應相乘,運算完要取絕對值,如果大則為邊界,小為非邊界
◎    smooth的目的在於處理雜訊
1.      突顯,強化邊界:
主要的方法:
(1)   利用一個可以察覺出邊界的板子
(2)   算出他空間的變量
(3)   減去一個smooth




方法:一個點,其周圍3*3的矩陣和上面的矩陣相乘,其值,在取代原值
p123:可以強化邊界
◎位置直接對應
◎不同的角度方向型態的邊界,則要用不同的templates真正能突顯出邊界出來

※空間變量之計算    




                            
│v│=√(▽12+▽22)                               
1=dφ/dx={φ(i,j+1) -φ(i,j-1)}/2                         
2=dφ/dy={φ(i+1,j) -φ(i-1,j)}/2                      
◎    可以不除2,定邊界大小時,在放大或縮小,可以節省程式運算時間
◎    φ為空間上之變率,是向量非純量
◎    白或黑色的邊界上會特別出現一個邊界
…….如果其值小於某個特定值,則定為0
…….如果其值大於某個特定值,則定為255
※p127
(1)   original
(2)   original-smooth
(3)   =(2)+(1)=2 original-smooth

Chapter 6     Multispectral Transformations of Image Date
針對一張圖在做處理,比較量張圖再不同波段下的相關性
主要計算:
X1….為第一張圖
X2….為第二張圖…….其兩張圖波段不一樣
Step1:做平均值
M1….為第一張圖的平均值
M2….為第二張圖的平均值
 
Step2:做變異數(矩陣)
           V11 V12          V11={Σ(X1j - m1 )2 }/k-1
Σx=|  V21  V22|        V21={Σ(X2j – m2 ) (X1j - m1 )}/k-1                   
 
Setp3:做相關係數(矩陣)
        ρ11 ρ12     ρ11 = V11 / √ V11 * V11     
R=  |ρ21 ρ22|    ρ21 = V21 / √ V21 * V21    
 
Setp4:y=Gx(矩陣)x為M之eigenvector(特徵向量)
 Y1        G11 G12      x1                       
 |Y2|  = | G21 G22|   .|.x2|                                         
….
Y1 = G11 x 1 +  G12 x2                   
Y2 = G21 x1 .+  G22 x2     
 
Setp5:│Σx –λI│=0 (矩陣) λ為M之eigenvalue(特徵值)
 
       V11 V12                 1  0  
=   |  V21  V22 |  -  λ |   0  1 |  =0
 
         V11-λ V12        
=     | V21    V22-λ|   =0   (行列式)
 
λ=最大的數(第一組成分),第二個數(第二組成分)
 
setp6:│Σx –λI│G1 =0 (矩陣)
p138:例子
.          1.9   1.1
Σx= | 1.1   1.1 |

…..
    1.9  1.1    G11             .1 0    G11
   | 1.1  1.1|  | G12|   - λ| .0 1 |  | G12 | =0
1.9 G11  +1.1 G21  =2.67 G11  
1.1  G11  +1.1 G21  =2.67 G21  
再加一個條件:G112  + G212  =1
由此可求出G1
同理,將第二組成分代入setp6,可求出G2
然後再將G做轉置矩陣(行與列調換)
得出的G值帶回原方程式setp4為解
會求出兩個函數,一個為比較有相關性,一個比較沒有相關性

Chapter 8     Supervised Classification Techniques
監督式的分類:
事先要知道分哪幾類,每一類的特性為何,規則事先好的,就可以對未知的東西做分類(自動分類)
非監督式的分類:
告訴她一個規則,任由他自己分類,先前未知的,等分出來後在判斷那為何
◎    一般影像做分類蠻重要的
如:資源衛星要分類
如:一張Avhrroch4的或許可以分類成陸地,海洋,雲。有時肉眼可分,有時不行
◎    對圖分類:
如:海洋….水色
clear,浮游生物多,工廠廢水,黃色物質,…
但是實際上相當困難,因為要用實際去取得光譜分析的資料,近岸要用小船,經費不足很難去做,對陸地的分類較多,如陸地,農地。多用統計的方法分類

Chapter 9     Clustering and Unsupervised Classification
非監督式的分類:對影像一點概念都沒有的分類
自動分類:任定兩個平均數,看已知點和哪個點較近,即為哪一類,再由分類後的結果找出新的平均數p232……..一次次找出最佳的群聚
p233
如此分類有時可能要合併或刪除,如:某類的個數特別少
合併或刪除:出現的差異點太多或太少
分開:若某類特別多則要分開


89/6/23衛星影像處理期末考考古題
1.      何謂edge detection?其基本處理原則為何?
Ans:   P122:
邊界強化是用一種特別簡單而且有效的數值(mean)對影像上做幾何的處理,而它在原來的影像之後利用增加鄰近邊界的對比或者提高或充滿黑色,白色或其他顏色來覆蓋其邊緣
基本處理原則為:
a.       利用一個edge detecting template
b.      計算其空間的變量
c.       從它原來的影像減去一個smooth


2.      何謂image smoothing?請列舉兩種常用的方法。
Ans:   p118:
影像的平滑處理,因為影像中包含了隨機性的noise,借用此種方法,可以快速的將noise去除
  方法:
a.       平均值法  mean value smoothing
b.      中位數法  median filtering



3.      請以兩頻道之影像為例,說明principal components transformation之意義
ans:   p137
1.將座標軸中有值的部分,做旋轉座標軸                               
,並將原先x座標系統轉換成y座標系                            
統,使得轉換後相關係數=0           
2.座標軸的轉換,將x1,x2 共同的特性x                            
在y1上相關性強的表現出來,而 y2將                      
相關性弱的表現於此。                                      
方法:  Step1:做平均值 m                             
           Step2:做變異數(矩陣) Σx                                
           Setp3:做相關係數(矩陣)R                                
                Setp4:y=Gx(矩陣)   x為M之eigenvector(特徵向量)
           Setp5:│Σx –λI│=0 (矩陣)  λ為M之eigenvalue(特徵值)
           setp6:│Σx –λI│G1 =0 (矩陣)
           再加一個條件:G112  + G212  =1…….解G1 , G2
    後會求出兩個函數,一個為比較有相關性,一個比較沒有相關性







4.      請說明supervised classification technique 之基本處理步驟
ans:   p181
1.      決定一個範圍來覆蓋一個已經分割的圖像,並且可以分類
2.      選擇具代表性,已知覆蓋型態的樣品位置,此稱為訓練區域,並藉由一個邊界所圍住

3.      利用這些資料及機率和方程式來評估一個特定的類別
4.      影像資料組中的每一個像元在與每個分類數值判讀關鍵數值化的方式比較以求每個像元為”看起來最像”來分類,並將這些分類記載於判讀分類的相應矩陣中
5.      輸出這些相應的矩陣,列表或主題式的地圖,來概述這些分類
◎訓練階段→分類階段→輸出階段


5.      在unsupervised classification 中請說明下列兩種方法之觀念及差異性
a.      iterative optimization clustering algorithm
b.      single pass algorithm
ans:  p231
a.        一張圖同一個波段,分兩類
1.      先任意定兩個平均值m1,m2 在看已知點和m1,m2 的距離,最近的即為那一類,分類後,在比較平均值於此類個點的距離,並求出新的平均值
2.      反覆上述動作,直到新的平均值和此類各點的距離相等,及最佳化不在移動即為所求

arrow
arrow
    全站熱搜

    呼呼 發表在 痞客邦 留言(1) 人氣()