BAB 5

[KEMBALI KE MENU SEBELUMNYA]


Bahan Presentasi Ini Dibuat Untuk Memenuhi 
Tugas Mata Kuliah Jaringan Syaraf Tiruan


Dosen : Darwison, M.T


Oleh :
Muhammad Firman Putra Tanjung
1710952018



Jurusan Teknik Elektro
Fakultas Teknik
Universitas Andalas
Padang
2020 


The Madaline

DAFTAR ISI
5.1. Madaline Training
5.2. Madaline Case Study
     5.2.1. Problem statement
     5.2.2. Design of network
     5.2.3. Training of the network
     5.2.4. Results
     5.2.5. Conclusions and observations
     5.2.6.  MATLAB code for implementing



5.1. Madaline Training

Madaline menggunakan prosedur pelatihan yang dikenal sebagai Madaline Rule II, yang didasarkan pada Prinsip Gangguan Minimum, sebagai berikut:
  1. Semua bobot diinisialisasi dengan nilai acak rendah. Selanjutnya, satu set pelatihan L input vektor xi (i = 1, 2,., L) diterapkan satu vektor pada satu waktu ke input.
  2. Jumlah nilai bipolar yang salah pada lapisan keluaran dihitung dan ini angka dilambangkan sebagai kesalahan e per vektor input yang diberikan.
  3. Untuk semua neuron pada lapisan output:                               
  4. Ulangi Langkah 3 untuk semua layer kecuali untuk layer input
  5. Untuk semua neuron pada lapisan keluaran: Terapkan Langkah 3, 4 untuk sepasang neuron yang analog-outputs z paling dekat dengan nol, dll. 
  6. Untuk semua neuron pada lapisan keluaran: Terapkan Langkah 3, 4 untuk triplet neuron yang analog-output-nya paling dekat dengan nol, dll.
  7. Pergi ke vektor berikutnya hingga vektor L.
  8. Ulangi untuk kombinasi lebih lanjut dari vektor L sampai pelatihan memuaskan.

Diskusi di atas dari jaringan saraf Madeline (NN) menunjukkan bahwa Madeline adalah NN yang intuitif tetapi agak primitif dan tidak efisien. Itu juga sangat sensitif  terhadap kebisingan.

5.2. Madaline Case Study

 Character Recognition

5.2.1. Problem statementMerancang Jaringan Saraf Madaline (Multi Adaline) untuk mengenali 3 karakter 0, C dan F yang disediakan dalam format biner dan direpresentasikan menggunakan kisi 6 × 6. Itu Neural Network harus dilatih dan diuji dengan berbagai pola dan total tingkat kesalahan dan jumlah konvergensi harus diperhatikan





5.2.2. Design of network
Jaringan Madaline seperti pada Gambar 5.A.2 diimplementasikan dengan 3 layer, input (6 neuron), tersembunyi (3 neuron), dan output (2 neuron), lapisan. 36 input dari kisi berisi karakter 0, C atau F diberikan sebagai input ke jaringan. 15 input tersebut set diberikan, masing-masing 5 untuk 3 dan 0. Bobot jaringan awalnya diatur dalam mode acak dalam kisaran {−1, 1}.

5.2.3. Training of the network


 5.2.4. Results
5.2.5. Conclusions and observations
  • Jaringan Saraf Tiruan dilatih dan diuji untuk berbagai pola tes dan pelatihan. Dalam semua kasus, jumlah konvergensi dan tingkat kesalahan diamati.
  • Konvergensi sangat tergantung pada lapisan tersembunyi dan jumlah neuron di setiap lapisan tersembunyi.
  • Angka di setiap lapisan tersembunyi tidak boleh terlalu rendah atau terlalu tinggi.

5.2.6.  MATLAB code for implementing

Main Function:
% Training Patterns
X = train_pattern;
nu = 0.04;
% Displaying the 15 training patterns
figure(1)
for i = 1:15,
subplot(5,3,i)
display_image(X(:,i),6,6,1);
end
% Testing Patterns
Y = test_pattern;
nu = 0.04;
% Displaying the 15 testing patterns
figure(2)
for i = 1:15,
subplot(5,3,i)
display_image(Y(:,i),6,6,1);
end
% Initializations
index = zeros(2,6);
counter1 = 0;
counter2 = 0;
% Assign random weights initially at the start of training
w_hidden = (rand(6,36)-0.5)*2
w_output = (rand(2,6)-0.5)*2
%load w_hidden.mat
%load w_output.mat
% Function to calculate the parameters (z,y at the hidden and output
layers given the weights at the two layers)
[z_hidden, w_hidden, y_hidden, z_output, w_output, y_output, counter] =
calculation(w_hidden, w_output, X);
disp(‘Before Any Changes’)
w_output
z_output
y_output
save z_output z_output;
save z_hidden z_hidden;
save y_hidden y_hidden;
save y_output y_output;
counter
January 30, 2007 16:24 World Scientific Book - 9.75in x 6.5in ws-book975x65
The Madaline 47
%i = 1;
%min_z_output = min(abs(z_output));
disp(‘At counter minimum’)
if (counter~= 0),
[w_output_min,z_index] =
min_case(z_output,w_output,counter,y_hidden,nu);
[z_hidden_min, w_hidden_min, y_hidden_min, z_output_min,
w_output_min, y_output_min, counter1] = calculation(w_hidden, w_output_min, X);
counter1
end
w_output_min;
z_output_min;
y_output_min;
if (counter > counter1),
%load w_output.mat;
%load z_output.mat;
%load y_output.mat;
counter = counter1;
w_output = w_output_min;
z_output = z_output_min;
y_output = y_output_min;
index(2,z_index) = 1;
end
[w_output_max,z_ind] = max_case(z_output,w_output,counter,y_hidden,nu);
[z_hidden_max, w_hidden_max, y_hidden_max, z_output_max, w_output_max,
y_output_max, counter2] = calculation(w_hidden, w_output_max, X);
disp(‘At Counter minimum’)
counter2
w_output_max;
z_output_max;
y_output_max;
if (counter2<counter),
counter = counter2;
w_output = w_output_max;
z_output = z_output_max;
y_output = y_output_max;
index(2,z_ind) = 1;
end
% Adjusting the weights of the hidden layer
hidden_ind = zeros(1,6);
z_hid_asc = sort(abs(z_hidden));
for i = 1:6,
for k = 1:6,
if z_hid_asc(i) == abs(z_hidden(k)),
January 30, 2007 16:24 World Scientific Book - 9.75in x 6.5in ws-book975x65
48 Principles of Artificial and Neural Networks
hidden_ind(i) = k;
end
end
end




Tidak ada komentar:

Posting Komentar

MICROPROCESSOR & MICROCONTROLLER O L E H Muhammad Firman Putra Tanjung 1710952018 Dosen Pembimbing Darwison,M....