GRİ SEVİYE EŞ-OLUŞUM MATRİSİ TABANLI AVUÇ İÇİ TANIMA SİSTEMİ
PALMPRINT RECOGNITION SYSTEM BASED ON GRAY LEVEL CO-
OCCURRENCE MATRIX
Abidin ÇALIŞKAN1, Burhan ERGEN
2
1. Bilgisayar Mühendisliği Bölümü
Batman Üniversitesi [email protected]
2. Bilgisayar Mühendisliği Bölümü
Fırat Üniversitesi [email protected]
ÖZETÇE
Bir biyometrik sistem, bireyleri sahip oldukları karakteristik
veya eşsiz bir özelliğe dayalı olarak otomatik tanımlamayı
sağlar. Avuç içi biyometri sistemi, sahip olduğu avantajlar
nedeniyle biyometrik tanıma sistemleri arasında önemli bir
yere sahiptir. Bu çalışmada, doku tipi imge tanılamada
başarılı sonuçlar veren Gri Seviye Eş-Oluşum Matrisi tabanlı
avuç içi tanıma sistemi önerilmiştir. İlk olarak, özellik
çıkarımında görüntü uyumunu kolaylaştırmak için koordinat
sistemi belirlenmiştir. Sonra, ilgilenilen bölge avuç içi
imgesinden alınmıştır. Geliştirilen sistem ile ilgilenilen
bölgenin özellikleri belirlenmiş ve tanıma için sınıflandırıcıya
verilmiştir.
Anahtar Kelimeler: Biyometrik sistem, Avuç içi tanıma, Gri
Seviye Eş-Oluşum Matrisi.
ABSTRACT
A biometric system provides automatic identification of
individuals based on a unique feature or characteristic of the
individuals. Palmprint biometric system has an important
place among biometric identification systems because of its
advantages. In this study, Gray Level Co-Occurence Matrix
based palmprint recognition system which provides successful
results for tissue type of image identifying has been proposed.
Firstly, image coordinate system has been defined to facilitate
image alignment for feature extraction. Then, region of
interest is cropped from the palmprint images. The properties
of the interested region have been determined using the
developed system and it has been given to the classifier for
recognition.
Keywords: Biometric system, Palmprint recognition, Gray
Level Co-occurrence Matrix.
1. GİRİŞ
Son yıllarda bilgisayarlı görme teknolojilerinin yaygınlaşması
ve güvenlik problemlerinin artması kişi tanımada biyometriyi
ön plana çıkarmıştır. Biyometri, kişisel kimlik doğrulaması
için avuç içi, parmak izi, iris, retina, yüz, imza, yürüme ve ses
gibi kişilerin fizyolojik ve davranışsal özelliklerini kullanır[1].
Biyometrik olmayan şifre, pin, kimlik kartları gibi birçok
yöntemden daha avantajlıdır. Bankacılık, e-ticaret ve güvenlik
gibi birçok alanda gerekli bir teknolojidir.
Biyometrik yaklaşımlar içinde avuç içi tanıma, diğer
modellere göre yeni bir biyometrik özelliktir [2]. Diğer
biyometrik sistemlere göre bazı avantajları vardır:
Düşük çözünürlüklü görüntülemede kullanılabilir,
Düşük maliyetli kameralar görüntüyü elde etmek için
yeterlidir,
Avuç içinin taklit edilmesi zordur,
Avuç içi özellikleri karakteristik ve kalıcıdır.
Bu nedenlerden dolayı avuç içi tanıma sistemleri son
zamanlarda araştırmacıların ilgisini çekmektedir.
Yapılmış çalışmalardan, el geometrisi tanıma sisteminde
başta avuç içi tanıma için çizgiye dayalı [3], özellik noktaları
[4], fourier spektrumu [5], eigen avuç özellikleri [6], sobel ve
morfolojik özellikler [7], doku enerjisi [8], dalgacık özellikleri
[9], gabor fazı [10], füzyon kodu [11] gibi çeşitli yöntemlere
dayanan birçok yaklaşım mevcuttur.
Yapılan bu çalışma, Hong Kong Politeknik Üniversitesine
(PolyU) ait veri tabanı kullanılarak gerçekleştirilmiştir [12].
Geliştirilmiş olan avuç içi tanıma sistemi Şekil 1’deki gibi
orijinal imgenin veri tabanından okunması, ana hatların
belirlenmesi, avuç içi kısmının seçilmesi, ilgilenilen bölgenin
(Region of Interest – ROI) alınması, özellik çıkartımı ve
karşılaştırma aşamalarından oluşmaktadır.
Avuç içi tanıma sisteminin blok diyagram aşamaları
aşağıda tanımlandığı gibidir:
Orijinal İmge: Avuç içi imgesi veri tabanından okunur.
Ana Hatların Belirlenmesi: Elin kenarları ve parmak
arası boşluklar belirlenir.
Avuç İçi Kısmının Seçilmesi: Koordinat sisteminde
128*128’lik ROI bölgesi belirlenir.
Avuç İçinin Çıkartılması: ROI alanı çıkartılır.
Özellik Çıkartımı: Her bir el imgesinden elde edilen
ROI alanı, Gri Seviye Eş- Oluşum Matrisi (GSEM)
metodu ile özellik vektörü oluşturulur.
Özelliklerin Karşılaştırılması: Çok Katmanlı Algılayıcı
(ÇKA) Yapay Sinir Ağı sınıflandırma tekniği
kullanılarak karşılaştırma işlemi yapılır.
Bu çalışmada kullanılan imgeler renkli “bmp” formatında
3 boyutlu olduğundan, görüntüler 2 boyutlu gri seviye imge
formatına dönüştürülerek kullanılmıştır. Daha sonra gri seviye
imgelere ilişkin GSEM matrisi elde edilerek öznitelik çıkartma
için istatistiksel yöntemlerden faydalanılmıştır.
Veri tabanından alınan imgelerin GSEM kullanılarak
öznitelikler belirlendikten sonra, bu öznitelikler GSEM Yapay
Sinir Ağı sınıflandırıcısına verilip başarım oranları elde
edilmiştir.
Sunulan bu çalışma da avuç içine dayalı tanıma sistemi
PolyU veri tabanı üzerinde GSEM ile denenmiştir. Performans
değerleri yapılan çalışmanın avuç içi tanıma sistemi için
başarılı sonuçlar elde ettiği görülmüştür.
978-1-4799-4874-1/14/$31.00 ©2014 IEEE
826
2014 IEEE 22nd Signal Processing and Communications Applications Conference (SIU 2014)
2. MATERYAL VE METOT
PolyU avuç içi veri tabanı, 386 farklı avuç imgesine ait bmp
formatlı 7752 gri seviye imgeden oluşmaktadır. Avuç
imgelerinin her birinden iki oturumda yaklaşık 20 görüntü
alınmıştır. Sırasıyla, ilk oturumda 10 örnek ikinci oturumda ise
diğer örnekler alınmıştır. İlk oturum ile ikinci oturum arasında
ortalama süreç 69 gündür. Bütün imgelerin boyutları
384*284’lük 75 dpi çözünürlüktedir [10].
Bu çalışmada önerilen çalışma yöntemimiz, imgelerden
ROI bölgesinin elde edilmesi, bu bölgeye ait GSEM’nin elde
edilip özniteliklerin belirlenmesi ve ÇKA ile sınıflandırma
adımlarından oluşmaktadır. Önerilen yöntem için blok
diyagramı Şekil 1’de sunulmuştur.
Şekil 1: Avuç içi tanıma sisteminin blok diyagramı
Öznitelik çıkartımı ve kodlama aşamasından önce veri
tabanı içerisindeki bütün imgelerden ilgilenilen bölge olarak
her bir avuç içinin merkez bölgesinin belirlenmesi gerekir
[13]. Koordinat sisteminde belirlenen ROI bölgesi çıkartılır.
Şekil 2’de orijinal bir el imgesinin ön işlem süreci
görülmektedir.
(a) (b)
(c) (d)
(e)
Şekil 2: Bir imgeden ROI alanının elde edilmesi, a) Orijinal
imge, b) İkili imge, c) Kenar çıkarma ve parmak arası
boşlukların belirlenmesi, d) İmge’nin orta kısmının
çıkarılması, e) Avuç imgesinden çıkartılan bölge
2.1. ROI Bölgesinin Elde Edilmesi
El imgelerinden ROI bölgesinin düzgün çıkartılabilmesi için
koordinat sisteminin doğru bir şekilde belirlenmesi gerekiyor.
Parmak arası boşluklar koordinat sistemi için referans noktası
olarak belirlenmiştir [13,14].
Ön işlem sürecindeki temel adımlar:
1.Adım: İmge Gauss alçak geçiren filtreden geçirilip eşik
değeri belirlendikten sonra ikili imge’ye dönüştürülür.
2.Adım: İkili imgeden kenar bilgileri elde edilir. Parmak
arası boşlukların dip noktaları Şekil 2c’deki gibi belirlenir.
(Fixj, Fiyj), (i=1, 2).
3.Adım: Belirlenen noktalar arasındaki tanjant hesaplanır.
(x1, y1) ve (x2, y2) sırasıyla (F1xj, F1yj) ve (F2xj, F2yj)’nin
herhangi iki noktalarıdır.
4.Adım: (x1, y1) ve (x2, y2) noktaları avuç içi koordinat
sisteminde y ekseni üzerinde sıralanıp avuç içi bölgesinin orta
kısmına doğru dik bir çizgi çizilir. Son olarak da koordinat
sisteminin başlangıç noktaları belirlenir.
5.Adım: Koordinat sisteminde boyutu belirlenmiş olan alt
imge çıkarılır. Alt imge özellik çıkartımı için kullanılan el
imgesinin orta kısmında yer alır.
2.2. Öznitelik Çıkartımı ve Kodlama
Avuç içi tanıma sisteminde düşük çözünürlükteki görüntülerin
iyi bir şekilde ayırt edilebilmesi, düşük maliyetli kameraların
görüntüyü elde etmede yeterli olması, avuç içinin taklit
edilmesinin zorluğu, avuç içinin karakteristik ve kalıcı bir
özellik olması büyük bir avantajdır.
Örüntü tanıma uygulamalarında, örnekler sınıflandırıcıya
doğrudan verilmezler. Örneğin, nesne tanıma problemlerinde
kameralar sayesinde elde edilen görüntüler sayısal koda
dönüştürülür. Kamera ile elde edilen görüntüler, bilgisayar
ortamında sayısal bir görüntü olup, orijinal görüntü olarak
adlandırılır. Bu görüntülerin sayısal karşılığı çok boyutlu
uzayda bir vektördür. Elde edilen orijinal görüntüler, çoğu
zaman çok boyutlu olduğundan, örneklerin bu şekilde
sınıflandırıcılara verilmesi sorun oluşturabilir. Artan boyut
sayısına paralel olarak, oluşturulacak eğitim setininde artan
sayıda örnekten oluşması gerekmektedir. İkinci problem ise,
çok boyutlu olan ham görüntülerde bilginin işlenmesi uzun
zaman alacaktır. Bundan dolayı, orijinal görüntülerden en işe
yarar özellikler çıkartılıp, daha küçük boyuttaki bir uzaya
indirgenmeleri gerekmektedir.
2.3. Gri Seviye Eş-Oluşum Matrisi
GSEM görüntünün iki farklı pikseli arasındaki gri seviye
farklılıklarını karşılaştıran özellik çıkartma yöntemidir. İlk
piksel referans olarak, ikinci piksel ise komşu piksel olarak
bilinir [15].
Bu çalışmada Haralick tarafından tanımlanan GSEM
özellikleri ve iki adet istatiksel yöntem kullanılmıştır. Açı ve
sıklık bilgisi taşıyan matrise eş-oluşum matrisi denir. Bu
matris P(i, j | d, θ) olup, alt pencere içindeki pikseller
arasındaki açısal ilişkinin ve mesafenin fonksiyonundan
oluşur. Pikseller arasındaki uzaklık d, açı ise θ iken P(i, j) gri
seviyesi i’den gri seviyesi j’ye geçiş olasılığını gösterir [15].
45°’lik aralıklarla açılar için normalize edilmemiş sıklık
değerleri her mesafe için dört tane matris elde edilir:
)d,135(P),d,90(P),d,45(P),d,0(P 0000
Şekil 3’de seçilen piksel etrafında 45°’lik açıların yönleri
gösterilmiştir. Her bir d ve θ değerleri için ayrı bir N×N kare
matrisi oluşturulur. Hesap yükünün fazla olmasından dolayı,
genellikle d=1 ve 2 piksel, θ = 0°, 45°, 90°, ve 135° açı
değerleri için matrisler oluşturulur. Görüntünün gri-ton adedi
azaltılarak hesap yükünü hafifletmek mümkündür. Ancak, bu
Orijinal
İmge
Ana Hatların
Belirlenmesi
Avuç İçi
Kısmının
Seçilmesi
Avuç İçinin
Çıkartılması
Özellik
Çıkartımı
Sınıflandırıcı
827
2014 IEEE 22nd Signal Processing and Communications Applications Conference (SIU 2014)
durumda bir miktar dokusal bilgi kaybının olacağınıda
unutmamak gerekir. Aşağıda, eş-oluş hesabıyla ilgili d=1 için
bir örnek verilmiştir.
Şekil 3: Seçilen piksel için açıların gösterimi
Eş-oluşum matrisi, doku görüntüsünde gri seviyelerin
uzaysal dağılımları hakkında bazı bilgilere sahiptir. Dokuya ait
bu bilgiler N*N boyutlu bir eş-oluşum matrisinin
tanımlanması için Haralick tarafından oluşturulmuştur.
M. Haralick tarafından görüntü hakkında bilgi içeren,
homojenlik, entropi, enerji, kontrast gibi 14 tane doku özelliği
tanımlanmıştır [16,17]. Bu özellikler görüntü alma, biyolojik
uygulamalar gibi birçok alanda uygulanmaktadır.
Bu çalışmada 5 adet haralick özelliği, 2 adet de istatiksel
özellik kullanılmıştır.
Kullanılan 5 adet Haralick özellikleri şöyle verilebilir:
Kontrast: Referans piksel ve onun komşusu arasındaki,
yoğunluk veya gri seviye varyasyonlarının ölçümüdür.
Denklem (1) de i ve j satır-sütun indislerini gösterir.
),(2
,jiPji
ji (1)
Korelasyon: Eş oluşum matrisi içindeki gri seviye
değerlerinin lineer bağımlılığını hesaplar. Bunun yanında,
referans pikselininde komşusuyla ne şekilde bağlantılı
olduğunu gösterir.
Denklem (2)’de görülen korelasyon denkleminde P ise
indislerin belirttiği GSEM elemanını, standart sapmayı,
ortalamayı gösterir.
yx
ji
yxjiPij
,
),()(
(2)
Enerji: Görüntünün homojenliğinin ölçüsüdür. Görüntü ne
kadar homojen olursa enerji değeri o kadar büyük olur.
ji
jiP,
2),( (3)
Homojenlik: Görüntünün farklı bölgelerindeki
benzerliğinin bir ölçüsüdür.
jiji
jiP
,1
),( (4)
Entropi: Görüntü sıkıştırma için gerekli olan görüntünün
bilgi miktarını gösterir.
ji
jiPjiP
,
),(log),( (5)
Yüksek entropili bir görüntü, bir pikselden onun
komşusuna doğru çok büyük bir kontrasta sahiptir ve düşük
entropili bir görüntü gibi sıkıştırılamaz. Çünkü düşük entropili
bir görüntünün kontrast değeride küçüktür.
Kullanılan 2 adet istatiksel özellikte şöyledir:
Ortalama: Matris elemanlarının ortalaması alınır.
N
i
M
j
ij jiIMN
m ),(1 (6)
Standart Sapma: Matris elemanlarının yayılımının
özetlenmesi için kullanılan bir ölçüdür. Varyans’ın
kareköküdür. Veri değerlerinin aritmetik ortalamadan
farklarının karelerinin toplamının veri sayısı -1’e
bölümünün kareköküdür. Yani verilerin ortalamadan
sapmalarının kareler ortalamasının karekökü olarak alınır.
ijij
M
i
N
j
ijij ImIMN
s 2)(1
(7)
2.4. Sınıflandırma Sisteminin Mimarisi
Sınıflandırmada tasarlanan modelin yapısı bir imge için Şekil
4’de GSEM tabanlı giriş parametreleri gösterilmiştir. Bu
parametreler sırasıyla kontrast, korelasyon, enerji, homojenlik,
entropi, ortalama ve standart sapma değerleridir. İmgeleri
sınıflandırmak için oluşturulan sistemin giriş parametreleri
imgelere ilişkin öz nitelik vektörü olup sistemin girişine
uygulanan parametreler, sınıflandırıcı türüne göre
normalizasyon aşamasından sonra [0,1] değer aralığına
dönüştürülmüştür. Son olarak, ÇKA sınıflandırıcı sistemi
eğitim ve test aşamasına tabi tutularak başarı oranları
görülmüştür.
Toplam 7752 imgeden, 5814 adet imge (%75’i) eğitim seti
için, kalan 1938 adet imge ise (%25’i) test seti olarak
kullanılmıştır. Eğitim ve test setlerinin imgeleri rastgele
seçilerek belirlenmiştir.
Şekil 4: GSEM tabanlı sınıflandırma sisteminin yapısı
3. UYGULAMA VE BAŞARIMLAR
GSEM tabanlı özellik vektörü kullanılarak, ÇKA
sınıflandırıcılarının farklı topolojileri için performans bilgileri
Tablo 1’de görüldüğü gibidir. ÇKA ağ yapısı 7-n-1 olup, en
iyi performansı sağlayacak yapının bulunabilmesi için n değeri
değişken olarak [10-80] değer aralığında alınmıştır.
ÇKA sınıflandırıcı sistemine göre, Tablo 1’de görüldüğü
gibi öznitelik parametreleri kullanılarak, belirtilen
sınıflandırıcıya ilişkin performans değerlerinin ortalaması
hesaplanmıştır.
İmge
(3 Boyut)
İmge
(2 Boyut)
Ön İşlem
GLCM
Normalizasyon
Eğitim & Test
Süreci
(ÇKA)
828
2014 IEEE 22nd Signal Processing and Communications Applications Conference (SIU 2014)
Ağırlıklar (0,1) aralığında rastgele belirlenmiş, öğrenme
faktörü 0.8, momentum katsayısı 0.1 ve tüm katmanlarda
aktivasyon fonksiyonu olarak logsig kullanılmıştır.
Tablo 1: GSEM tabanlı farklı ÇKA ağ
sınıflandırıcısının performans değerleri
ÇKA
Yapısı
Performans
(%)
7-10-1 87,5 7-20-1 88 7-30-1 89,25
7-40-1 92,5 7-50-1 91,25 7-60-1 90,75 7-70-1 91,5 7-80-1 90,25
ÇKA performans değerlerine bakıldığında, Tablo 1’de
görüldüğü gibi başarı değerleri %87,5-%92,5 aralığında
gözlemlenmiştir.
Sınıflandırma aşamasından sonra, en yüksek performansın
7-40-1 ağ topolojisi tarafından %92,5 olarak sağlandığı
gözlemlenmiştir.
Yapılan çalışma literatürdeki diğer çalışmalar ile
karşılaştırıldığında Zhang D. [10] ve Lu J. [18] çalışmalarında
ortalama başarı oranlarını %97, Tao J. [19] en yüksek başarı
oranını %98,4, Hu D. [20] %86 ve You J. [21] ortalama başarı
oranını %91 olarak elde etmişlerdir.
Sonuç olarak yapılan çalışma, literatürdeki diğer
çalışmalar ile karşılaştırıldığında sonuçların makul düzeyde
olduğu görülmektedir.
4. SONUÇLAR
Bu çalışmada, avuç içi imgeleri kullanılarak GSEM özellik
çıkartma yöntemi kullanılarak avuç içi imgelerinin ÇKA
Yapay Sinir Ağı sınıflandırma tekniği ile sınıflandırılması
amaçlanmıştır.
Sistem analizinin ilk aşamasında, GSEM öznitelik
parametreleri kullanılarak sistem eğitilmiş ve sınıflandırıcı
sistemin performans değerleri görülmüştür.
Yapılan çalışma ÇKA Yapay Sinir Ağı için farklı ağ
topolojileri kullanılarak verilerin sınıflandırılması
amaçlanmıştır. Sonuçlar her ne kadar kabul edilebilir sınırlar
içerisinde olsa da, daha sonra yapılacak çalışmalarda,
öznitelik vektörü belirlemek için kullanılan istatistiksel
yöntemler ve sınıflandırıcı değiştirilerek yöntemin başarısı
artırılmaya çalışılacaktır.
5. KAYNAKÇA
[1] Jain, A. K., Bolle R.M., and Pankanti S., Biometrics:
Personal Identification in Networked Society, Norwell,
MA: Kluwer, 1999.
[2] Brunelli, R., Falavigna, D., 1995. Person identification
using multiple cues, IEEE Trans. Pattern Anal. Mach.
Intell. 955–966.
[3] Zhang D., and Shu W., “Two Novel Characteristics in
Palmprint Verification: Datum Point Invariance and Line
Feature Matching,” Pattern Recognition, vol. 32, no. 4,
pp. 691-702, 1999.
[4] Duta N., Jain A.K., and Mardia K.V., “Matching of
Palmprint”, Pattern Recognition Letters, vol. 23, no. 4,
pp. 477-485, 2001.
[5] Li W., Zhang D., and Xu Z., “Palmprint Identification by
Fourier Transform,” International Journal of PRAI, vol.
16, no. 4, pp. 417-432, 2002.
[6] Lu G., Zhang D., and Wang K., "Palmprint Recognition
Using Eigenpalms Features", Pattern Recognition Letters,
vol. 24, issues 9-10, pp. 1463-1467, 2003.
[7] Han C.C., Cheng H.L., Fan K.C., and Lin C.L.,
“Personal Authentication Using Palmprint Features,”
Pattern Recognition, vol. 36, no 2, pp. 371-381, 2003.
[8] You J., Kong W.K., Zhang D., and Cheung K., “On
Hierarchical Palmprint Coding with Multi-features for
Personal Identification in Large Databases”, IEEE
Transactions on Circuit Systems for Video Technology,
vol. 14, no. 2, pp. 234-243, 2004.
[9] Zhang L., and Zhang D., "Characterization of Palmprints
by Wavelet Signatures via Directional Context
Modeling", IEEE Trans. on SMC-B, Vol. 34, No. 3, pp.
1335-1347, June 2004.
[10] Zhang D., Kong W., You J., and Wong M., “On-line
Palmprint Identification”, IEEE Trans. on PAMI, vol. 25,
no. 9, pp. 1041-1050, 2003.
[11] Kong W.K., and Zhang D., “Feature-Level Fusion for
Effective Palmprint Authentication”, Proc. of the 1st.
ICBA, LNCS 3072, pp.761-767, 2004.
[12] PolyU Palmprint Database,
http://www4.comp.polyu.edu.hk/~biometrics/index.htm.
[13] Sun Z., Tan T., Wang Y., Li Z. S., "Ordinal Palmprint
Representation for Personal Identification", Proceedings
of IEEE International Conference on Computer Vision
and Pattern Recognition, Vol.1, 2005, pp.279-284.,
Orlando , USA .
[14] Kong K. W., Zhang D., Li W., “Palmprint feature
extraction using 2-D Gabor filters”, Pattern Recognition
36 (2003) 2339–2347.
[15] Horng, M. H., Huang, X. J., and Zhuang, J. H., Texture
Feature Coding Method for Texture Analysis and It's
Application, Journal of Optical Engineering 42 (2003),
no. 1, 228-238.
[16] Roumi, M., 2009, Implementing Texture Feature
Extraction Algorithms on FPGA, The Netherlands, MSc
Thesis, Faculty of Electrical Engineering, Mathematics
and Computer Science.
[17] Haralick, R. M., Shanmugam, K. S., and Dinstein, I.,
“Textural featuresfor image classification,” IEEE Trans.
Syst., Man, Cybern., vol. SMC-3,pp. 610–621, 1973.
[18] Lu J., Zhang E., Kang X., Xue Y., Chen Y., Palmprint
Recognition Using Wavelet Decomposition and 2D
Principal Component Analysis, IEEE, pp. 2133-2136,
2006.
[19] Tao J., Jiang W., Gao Z., Chen S., Wang C., Palmprint
Recognition Based on 2-Dimensional PCA, IEEE
ICIICI’06, vol. 1, pp. 326-330, 2006.
[20] Hu D., Feng G., Zhou Z., Two-Dimensional Locality
Preserving Projections with Its Application to Palmprint
Recognition , Journal of the Pattern Recognition Soc.,
vol.40, pp. 339-342, 2007.
[21] You J., Li W., Zhang D., Hierarchical palmprint
identification via multiple feature extraction, Pattern
Recognition, vol. 35-4 pp. 847-859, 2002.
829
2014 IEEE 22nd Signal Processing and Communications Applications Conference (SIU 2014)