Khóa luận Mạng neural RBF và ứng dụng nhận dạng chữ viết tay

ĐẠI HỌC QUỐC GIA HÀ NỘI  
TRƯỜNG ĐẠI HỌC CÔNG NGHỆ  
Lê Tiến Mười  
MẠNG NEURAL RBF  
VÀ  
ỨNG DỤNG NHẬN DẠNG CHỮ VIẾT TAY  
KHOÁ LUẬN TỐT NGHIỆP ĐẠI HỌC HỆ CHÍNH QUY  
Ngành: Công nghệ thông tin  
HÀ NỘI - 2009  
ĐẠI HỌC QUỐC GIA HÀ NỘI  
TRƯỜNG ĐẠI HỌC CÔNG NGHỆ  
Lê Tiến Mười  
MẠNG NEURAL RBF  
VÀ  
ỨNG DỤNG NHẬN DẠNG CHỮ VIẾT TAY  
KHOÁ LUẬN TỐT NGHIỆP ĐẠI HỌC HỆ CHÍNH QUY  
Ngành: Công nghệ thông tin  
Cán bộ hướng dẫn: PGS.TS Hoàng Xuân Huấn  
HÀ NỘI - 2009  
LỜI CẢM ƠN  
Tôi muốn bày tỏ sự cảm ơn sâu sắc của mình tới thầy Hoàng Xuân Huấn, thuộc  
bộ môn Khoa học máy tính, khoa Công nghệ thông tin, trường Đại học Công nghệ,  
ĐHQGHN. Trong thời gian thực hiện khóa luận, thầy đã nhiệt tình hướng dẫn và giúp  
đỡ tôi rất nhiều. Ngoài thời gian tìm hiểu và cung cấp tài liệu, thầy cũng chỉ ra những  
vướng mắc trong qua trình làm, giúp đỡ tôi khắc phục để đạt hiệu quả cao hơn. Thầy  
cũng đã tận tình giúp đỡ tôi có một chỗ làm việc yên tĩnh trong suốt quá trình làm  
khóa luận.  
Tôi cũng muốn bày tỏ sự cảm ơn của mình tới các các thầy, các cô trong bộ  
môn, cũng như các thầy, các cô trong khoa, trường đã hết sức tạo điều kiện tốt và giúp  
đỡ cho tôi hoàn thành khóa luận của mình.  
TÓM TẮT NỘI DUNG  
Mặc dù đã được nghiên cứu từ rất lâu, nhưng đến nay bài toán nội suy và xấp  
xỉ hàm nhiều biến vẫn còn có rất ít công ctoán học để giải quyết. Mạng Neural nhân  
tạo là một phương pháp hay để giải quyết bài toán nội suy, xấp xỉ hàm nhiều biến.  
Năm 1987 M.J.D. Powell đã đưa ra một cách tiếp cận mới để giải quyết bài toán nội  
suy hàm nhiều biến sử dụng kỹ thuật hàm cơ sở bán kính (Radial Basis Function -  
RBF), năm 1988 D.S. Bromhead và D. Lowe đề xuất kiến trúc mạng Neural RBF và  
đã trmột công cụ hữu hiệu để giải quyết bài toán nội suy và xấp xỉ hàm nhiều  
biến(xem [11]).  
Nội dung chính của khóa luận là trình bày khảo cứu về mạng Neural RBF để  
giải quyết bài toán nội suy, xấp xỉ hàm nhiều biến sau đó ứng dụng cơ sở lý thuyết trên  
để xây dựng phần mềm nhận dạng chữ số viết tay.  
MỤC LỤC  
MỞ ĐẦU................................................................................................................... 1  
Chương 1 BÀI TOÁN NỘI SUY, XẤP XỈ HÀM SỐ VÀ MẠNG NEURAL RBF 1  
1.1 PHÁT BIỂU BÀI TOÁN NỘI SUY VÀ XẤP XỈ HÀM S............................ 1  
1.1.1 Bài toán nội suy.......................................................................................... 1  
1.1.1.1 Nội suy hàm một biến số ...................................................................... 1  
1.1.1.2 Bài toán nội suy hàm nhiều biến .......................................................... 2  
1.1.2 Bài toán xấp xỉ ........................................................................................... 2  
1.1.3 Các phương pháp giải quyết bài toán nội suy và xấp xỉ hàm s.................. 2  
1.2 MẠNG NEURAL NHÂN TẠO....................................................................... 3  
1.2.1 Giới thiệu mạng Neural nhân to................................................................ 3  
1.2.1.1 Mạng Neural sinh học.......................................................................... 4  
1.2.1.2 Mạng Neural nhân tạo......................................................................... 5  
1.3 MẠNG NEURAL RBF..................................................................................... 8  
1.3.1 Giới thiệu mạng Neural RBF...................................................................... 8  
1.3.1.1 Bài toán nội suy nhiều biến và kỹ thuật hàm cơ sở bán kính................. 8  
1.3.1.2 Kiến trúc mạng Neural RBF............................................................... 10  
1.3.1.3 Ứng dụng của mạng Neural RBF....................................................... 10  
1.4 CÁC PHƯƠNG PHÁP HUẤN LUYỆN MẠNG NEURAL RBF ................... 11  
1.4.1 Phương pháp huấn luyện một pha............................................................. 11  
1.4.2 Phương pháp huấn luyện hai pha.............................................................. 12  
1.4.3 Phương pháp huấn luyện 2 pha HDH ....................................................... 13  
1.4.4 Phương pháp huấn luyện ba pha đầy đủ.................................................... 16  
1.5 KẾT QUẢ THỰC NGHIỆM .......................................................................... 16  
1.5.1 Kết quả..................................................................................................... 16  
1.5.2 Nhận xét................................................................................................... 19  
Chương 2 NHẬN DẠNG CHỮ VIẾT TAY........................................................... 20  
2.1 NHẬN DẠNG MẪU ...................................................................................... 20  
2.1.1 Nhận dạng mẫu ........................................................................................ 20  
2.1.1.1 Mẫu là gì ? ........................................................................................ 20  
2.1.1.2 Nhận dạng mẫu là gì ?...................................................................... 20  
2.1.1.3 Lch sử của lĩnh vực nhận dạng mẫu.................................................. 21  
2.1.1.4 Ứng dụng của nhận dạng mẫu ........................................................... 21  
2.1.1.5 Các bài toán nhận dạng mẫu ............................................................. 22  
2.1.1.6 Các bước xử lý trong hệ thống nhận dạng mẫu ................................. 22  
2.2 BÀI TOÁN NHẬN DẠNG CHỮ VIẾT TAY................................................. 24  
2.2.1 Tình hình chung về nhận dạng chữ viết tay............................................... 24  
2.2.2 Giới thiệu bài toán nhận dạng chữ viết tay................................................ 24  
2.2.3 Hướng giải quyết cho bài toán nhận dạng ký tự viết tay ........................... 24  
2.3 CÁC PHƯƠNG PHÁP TRÍCH CHỌN ĐẶC TRƯNG CHỮ VIẾT TAY ....... 25  
2.2.1 Phương pháp trích chọn đặc trưng kết hợp biến đổi DCT và thuật toán phân  
tích thành phần chính PCA................................................................................ 25  
2.2.1.1 Thuật toán PCA ................................................................................. 26  
2.2.1.2 Phương pháp trích chọn đặc trưng kết phép biến đổi DCT và thuật  
toán PCA....................................................................................................... 27  
2.2.2 Phương pháp trích đặc trưng sử dụng Momen Legendre........................... 28  
2.2.2.1 Momen và Momen Legendre............................................................. 28  
2.2.2.2 Phương pháp trích chọn đặc trưng chữ viết tay bằng Momen Legendre30  
2.2.3 Phương pháp sử dụng mạng Neural nhân chập(Convolution neural  
network)............................................................................................................ 32  
2.2.3.1 Khái niệm cơ s................................................................................. 32  
2.2.3.2 Phương pháp trích đặc trưng sử dụng mạng Neural nhân chập ......... 33  
2.4 THỰC NGHIỆM ............................................................................................ 34  
2.4.1 Kết quả..................................................................................................... 35  
2.4.2 Nhận xét................................................................................................... 35  
Chương 3 CÁC PHƯƠNG PHÁP CẢI THIỆN HIỆU SUẤT CỦA MẠNG  
NEURAL RBF........................................................................................................ 36  
3.1 CÁC PHƯƠNG PHÁP CẢI THIỆU HIỆU SUẤT CỦA MẠNG NEURAL  
RBF...................................................................................................................... 36  
3.1 CÁC PHƯƠNG PHÁP CẢI THIỆU HIỆU SUẤT CỦA MẠNG NEURAL  
RBF...................................................................................................................... 36  
3.1.1 Tăng tập dữ liệu huấn luyện ..................................................................... 36  
3.1.1.1 Tăng tập dữ liệu bằng các phép biến đổi hình học ............................. 36  
3.1.2 Phương pháp học tập hợp ......................................................................... 37  
3.1.2.1 Phương pháp học tập hợp cải tiến...................................................... 38  
3.1.3 Phương pháp tăng tốc độ nhận dạng ......................................................... 39  
3.1.3.1 Phương pháp bộ nhận dạng ba lớp .................................................... 40  
3.2 THỰC NGHIỆM ............................................................................................ 41  
Chương 4 GIỚI THIỆU CHƯƠNG TRÌNH NHẬN DẠNG CHỮ SỐ VIẾT TAY  
TỔNG KẾT...................................................................................................... 42  
4.1 GIỚI THIỆU CHƯƠNG TRÌNH NHẬN DẠNG CHỮ SỐ VIẾT TAY.......... 42  
4.1.1 Chương trình nhận dạng chữ viết tay........................................................ 42  
4.1.1.1 Giới thiệu chương trình...................................................................... 42  
4.2 TỔNG KẾT VÀ PHƯƠNG HƯỚNG PHÁT TRIỂN CỦA ĐỀ TÀI............... 43  
4.2.1 Tổng kết................................................................................................... 43  
4.2.1.1 Những công việc đã làm được............................................................ 43  
4.2.2.2 Hướng phát triển của đề tài ............................................................... 44  
TÀI LIỆU THAM KHẢO...................................................................................... 45  
BẢNG DANH MỤC CÁC HÌNH MINH HỌA  
Hình 1: Minh họa bài toán nội suy hàm một biến..............................................................1  
Hình 2: Minh họa một Neuron thần kinh sinh học.............................................................4  
Hình 3: Cấu tạo một Neural nhân tạo................................................................................5  
nh 4: Đồ thị hàm ngưỡng ..............................................................................................6  
Hình 5: Đồ thị hàm tuyến tính...........................................................................................6  
Hình 7: Đồ thị hàm tanh....................................................................................................6  
Hình 8: Đồ thị hàm Gauss.................................................................................................7  
Hình 9: Kiến trúc mạng Neural truyền tới.........................................................................7  
Hình 10: Minh họa sự ảnh hưởng của hàm bán kính .........................................................9  
Hình 11: Kiến trúc của mạng RBF..................................................................................10  
Hình 12: Quá trình hội tụ đến giá trị cực tiểu của thuật toán Gradient.............................12  
Hình 13: Thuật toán HDH huấn luyện mạng RBF...........................................................15  
Hình 14: Các bước xử lý trong hệ thống nhận dạng mẫu.................................................22  
Hình 15 : Các bước giải quyết bài toán nhận dạng chữ viết tay .......................................25  
Hình 16: Ảnh hưởng của vector riêng, giá trị riêng lên tập dữ liệu..................................26  
Hình 17 : Các bước thực hiện của thuật toán PCA ..........................................................27  
Hình 18: Các bước trích chọn đặc trưng bằng biến DCT kết hợp PCA............................27  
Hình 19: Biến đổi DCT và cách lấy dữ liệu theo đường zigzag.......................................28  
Hình 21: Các bước thực hiện của phương pháp trích chọn đặc trưng sử dung momen  
Legendre.........................................................................................................................32  
Hình 22: Thao tác nhân chập ..........................................................................................33  
Hình 23: Quá trình trích chọn đặc trưng sử dụng mạng Neural nhân chập.......................34  
Hình 24: Minh họa quá trình lấy đặc trưng bằng mạng Neuron nhân chập ......................34  
Hình 21: Ma trận vector cho phép biến đổi Elastic..........................................................37  
Hình 22: Ví dụ về phép biến đổi Elastic..........................................................................37  
Hình 23: Kiến trúc của phương pháp học tập hợp cải tiến...............................................39  
Hình 24: Kiến trúc của bộ nhận dạng ba lớp ...................................................................40  
Hình 25: Biểu đồ so sánh độ chính xác nhận dạng và thời gian huấn luyện của các  
phương pháp huấn luyện khác nhau ................................................................................41  
Hình 26: Giao diện chính của chương trình.....................................................................43  
Hình27: Bảng thông báo kết quả nhận dạng....................................................................43  
BẢNG DANH MỤC TỪ VIẾT TẮT  
Ký hiệu  
ANN  
Nghĩa tiếng Anh  
Nghĩa tiếng Việt  
Mạng nơ-ron nhân tạo  
Biến đổi cosin rời rạc  
Artificial neural network  
Discrete cosin transform  
Integrated Development  
Environment  
DCT  
IDE  
MLP  
PCA  
PDA  
Môi trường thiết kế hợp nhất  
Mạng nơ-ron truyền thẳng nhiều  
tầng  
Multi layer perceptron  
Principal component  
analysis  
Phân tích thành phần chính  
Thiết bị hỗ trợ cá nhân(thường  
ám chcác máy tính cầm tay)  
Hàm cơ sở bán kính  
Personal Digital Assistant  
RBF  
Radial Basis Function  
SVM  
Support Vector Machine  
Máy vec-tơ hỗ trợ  
MỞ ĐẦU  
Bài toán nội suy và xấp xỉ hàm số đã được biết đến từ lâu vì nó có ứng dụng trong rất  
nhiều lĩnh vực trong khoa học kỹ thuật cũng như đời sống. Ngày nay bài toán nội suy  
xấp xỉ hàm nhiều biến đã trthành một vấn đề thời sự vì để giải quyết được các bài  
toán ứng dụng (ví dụ trong nhận dạng mẫu) nhiều khi buộc con người phải giải quyết  
được bài toán nội suy, xấp xỉ hàm nhiều biến. Trong toán học bài toán nội suy, xấp xỉ  
hàm một biến đã được giải quyết khá đầy đủ bằng rất nhiều các phương pháp khác  
nhau. Tuy nhiên bài toán nội suy, xấp xỉ hàm nhiều biến thì các công cụ toán học vẫn  
còn rất hạn chế.  
Khái niệm mạng “Neural nhân tạo” xuất hiện đầu thế kỷ 20 trong thời kỳ con người  
tìm cách để chế tạo ra những bộ máy có khả năng suy nghĩ, tư duy như con người. Trải  
qua một thời gian dài phát triển và nghiên cứu thì cơ sở lý thuyết cũng như thực  
nghiệm về mạng Neural nhân tạo đã đạt được những kết quả rất khả quan. Nhờ khả  
tính toán mạnh của máy tính, mạng Neural nhân tạo ngày nay là một công cụ rất tốt để  
giải quyết bài toán nội suy và xấp xỉ hàm nhiều biến. Vì thế mạng Neural nhân tạo  
được sử dụng rất nhiều trong các lĩnh vực tính toán, nhận dạng mẫu cũng như trong  
các lĩnh vực khoa học quan trọng khác (xem [11]-chapter 4). Là một loại mạng Neural  
nhân tạo, mạng Neural RBF cũng là một công cụ hiệu quả để giải quyết bài toán nội  
suy và xấp xỉ hàm nhiều biến với điểm mạnh hơn hẳn các loại mạng Neural khác ở chỗ  
nó có thời gian huấn luyện rất nhanh.  
Bài toán nhận dạng chữ viết tay là một bài toán quen thuộc và có ứng dụng rất lớn  
trong thực tế vì thế từ lâu nó đã thu hút rất nhiều người nghiên cứu. Mặc dù đã đạt  
được những kết quả rất cao trong bài toán nhận dạng chữ viết tay (mạng Neural nhân  
chập đã đạt độ chính xác 99.61% trên bộ dữ liệu MNIST [8]) song ngày nay người ta  
vẫn tiếp tục nghiên cứu những phương pháp nhận dạng tốt hơn hướng đến dùng cho  
các thiết bị di động, và các bài toán thời gian thực.  
Tcác nhận xét trên, với lòng đam mê muốn nghiên cứu, học hỏi về kiến trúc của  
mạng Neural nhân tạo (cụ thể ở đây là mạng Neural RBF) qua đó ứng dụng để viết  
phần mềm nhận dạng chữ viết tay, được sự chỉ bảo và giúp đỡ tận tình của thầy giáo  
PGS.TS Hoàng Xuân Huấn tôi đã tiến hành thực hiện khóa luận tốt nghiệp với đề tài  
Mạng Neural RBF và ứng dụng nhận dạng chữ viết tay”.  
Nội dung của khóa luận sẽ đi sâu nghiên cứu những vấn đề sau:  
- Khảo cứu về mạng Neural RBF.  
- Tìm hiểu bài toán nhận dạng chữ viết tay và các phương pháp trích chọn đặc  
trưng chữ viết tay.  
- Nghiên cứu các phương pháp cải tiến hiệu suất của mạng Neural RBF áp dụng  
cho bài toán nhận dạng chữ viết tay.  
- Tiến hành cài đặt các ứng dụng để thực hiện so sánh hiệu suất các phương pháp  
huấn luyện mạng Neural RBF, hiệu suất các phương pháp trích chọn giá trị đặc  
trưng, cài đặt các phương pháp để cải thiện hiệu suất của mạng RBF áp dụng  
cho bài toán nhận dạng chữ viết tay.  
- Tiến hành viết chương trình nhận dạng chữ số viết tay nhận dạng chữ viết tay  
tổng hợp tất cả các phần kiến thức đã nghiên cứu.  
Với mục tiêu dẫn dắt từ cơ slý thuyết mạng Neural RBF đến ứng dụng nhận dạng  
chữ viết tay, bài khóa luận được phân thành bốn chương lớn:  
+Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
Chương này sẽ cung cấp những khái niệm cơ bản nhất về bài toán nội suy, xấp xỉ hàm  
cũng như vẽ nên bức tranh tổng quan về mạng Neural nhân tạo. Phần lớn nội dung của  
chương này sẽ tập trung đi sâu nghiên cứu về mạng Neural RBF bao gồm kiến trúc và  
các phương pháp huấn luyện mạng. Phần cuối chương (1.4) giới thiệu kết quả thực  
nghiệm so sánh hiệu suất các phương pháp huấn luyện mạng Neural RBF thông qua  
bài toán phân tích thành phần trong ống dầu.  
+Chương 2: Nhận dạng chữ viết tay  
Phần đầu chương sẽ trình bày sơ lược về bài toán nhận dạng mẫu, ở phần tiếp theo của  
chương sẽ làm rõ hơn về các bước để giải quyết bài toán nhận dạng chữ viết tay. Phần  
lớn nội dung của chương sẽ tập trung nghiên cứu các phương pháp lấy đặc trưng chữ  
viết tay. Phần cuối chương đưa ra kết quả thực nghiệm so sánh hiệu suất các phương  
pháp trích chọn đặc trưng chữ viết tay khác nhau.  
+Chương 3: Các phương pháp tăng hiệu suất mạng Neural RBF  
Nội dung chủ yếu của chương này là giới thiệu một số phương pháp nhằm cải thiện  
hiệu suất mạng Neural RBF áp dụng cho bài toán nhận dạng chữ viết tay. Phần đầu  
chương giới thiệu phương pháp làm tăng số lượng dữ liệu huấn luyện sử dụng các  
phương pháp biến đổi ảnh affine, elastic. Tiếp đó sẽ giới thiệu phương pháp làm tăng  
tốc độ và độ chính xác nhận dạng bằng cách sử dụng bộ nhận dạng ba tầng. Phương  
pháp học tập hợp (Ensemble Learning) để cải thiện độ chính xác nhận dạng cũng được  
đề cập ở chương này. Ở chương này tôi xin đề xuất phương pháp học tập hợp cải tiến  
đạt độ chính xác nhận dạng gần 98% cho bộ dữ liệu MNIST và có thời gian huấn  
luyện rất nhanh. Ở cuối chương sẽ giới thiệu kết quả thực nghiệm so sánh hiệu suất  
nhận dạng của phương pháp hợp cải tiến so với các phương pháp thông thường.  
+Chương 4: Giới thiệu chương trình nhận dạng chữ số viết tay và kết luận  
Phần đầu chương giới thiệu phần mềm nhận dạng ký tự chữ số viết tay mà tôi đã xây  
dựng dựa trên cơ sở tổng hợp toàn bộ nền tảng lý thuyết của bài khóa luận. Cuối cùng  
là phần tổng kết của khóa luận.  
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
CHƯƠNG 1  
BÀI TOÁN NỘI SUY, XẤP XỈ HÀM SỐ  
MẠNG NEURAL RBF  
Nội dung chương này gồm có:  
1.1 Phát biểu bài toán nội suy và xấp xỉ hàm số  
1.2 Mạng Neural nhân tạo  
1.3 Mạng Neural RBF  
1.4 Các thuật toán huấn luyện mạng Neural RBF  
1.5 Kết quả thực nghiệm và đánh giá  
1.1 PHÁT BIỂU BÀI TOÁN NỘI SUY VÀ XẤP XỈ HÀM SỐ  
1.1.1 Bài toán nội suy  
1.1.1.1 Nội suy hàm một biến số  
Bài toán nội suy hàm một biến tổng quát được đặt ra như sau: Một hàm sy f  
x
chưa biết và chỉ xác định được tại các điểm x0 a x1 K xN b với các giá trị yi=  
f(x ). Ta cần tìm một biểu thức giải tích (x) để xác định gần đúng giá trị y x tại  
   
i
các điểm x  
biết (với x  
a,b  
của hàm f(x) sao cho tại các điểm xi thì hàm số trùng với giá trị yi đã  
a,b  
ta gọi là ngoại suy). Về phương diện hình học, ta cần tìm hàm (x)  
có dạng đã biết sao cho đồ thị của nó đi qua các điểm(xi,yi) với mọi i=0,1,...,N.  
f(x)  
(x)  
f(x0)  
xn  
Hình 1: Minh họa bài toán nội suy hàm một biến  
x0  
x1  
1
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
Hàm f thường là hàm thực nghiệm hoặc các hàm khó tính giá trị hàm số nên chỉ đo  
N
được ở các điểm nhất định. Các điểm x  
sẽ gọi là các mốc nội suy.  
   
i
i0  
1.1.1.2 Bài toán nội suy hàm nhiều biến  
Xét một hàm chưa biết f : D(Rn ) Rm và một tập huấn luyện  
N
xk , yk  
; xk Rn , yk Rm sao cho f (xk ) yk ;k 1, N . Chúng ta cần tìm một  
k1  
hàm sở một dạng đã biết để thỏa mãn điều kiện nội suy đó là :  
(xk ) yk ;k 1, N  
1.1.2 Bài toán xấp xỉ  
Hàm y f  
x
đo được tại N điểm thuộc đoạn  
   
a,b  
x x L x ; y f x  
1
2
N
i
i
Với k N 1, ta tìm hàm  
(1)  
x   c ,K ,c , x  
   
1
k
Trong đó là hàm cho trước, cj là các tham số cần tìm sao cho sai số trung bình  
N
2
1
bình phương  
nhỏ nhất khi các tham số cj thay đổi. Khi đó ta  
x y  
   
i   
N   
i
i1  
nói  
x
là hàm xấp xỉ tốt nhất của y trong lớp hàm có dạng (1) theo nghĩa bình phư-  
ơng tối thiểu. Thường thì bài toán tìm cực tiểu toàn cục của sai số trung bình bình ph-  
ương là bài toán khó. Trong trường hợp là hàm tuyến tính của các cj thì cực trị  
toàn cục có thể xác định nhờ giải hệ phương trình tuyến tính của điều kiện các đạo  
hàm cấp một triệt tiêu.  
N
(2)  
c ,K ,c , x c x  
k    
1
k
k
k1  
trong đó k  
x
là các hàm đơn giản và độc lập tuyến tính.  
1.1.3 Các phương pháp giải quyết bài toán nội suy và xấp xỉ hàm số  
Bài toán nội suy hàm một biến là một lĩnh vực nghiên cứu nghiên cứu khá quan trọng  
trong ngành giải tích thế kỷ 18. Đầu tiên bài toán nội suy được giải quyết bằng phương  
pháp sử dụng đa thức nội suy: đa thức Lagrange, đa thức Chebysev... tuy nhiên khi số  
2
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
mốc nội suy lớn thì nội suy bằng đa thức thường xảy ra hiện tượng phù hợp trội(over-  
fitting) do bậc của đa thức thường tăng theo số mốc nội suy. Để giải quyết hiện tượng  
phù hợp trội thay vì tìm đa thức nội suy người ta chỉ tìm đa thức xấp xỉ (thường giải  
quyết bằng phương pháp xấp xỉ bình phương tối thiểu của Gauss...) Một phương pháp  
khác được đề xuất vào đầu thế kỷ 20 đó là phương pháp nội suy Spline. Trong đó hàm  
nội suy được xác định nhờ ghép trơn các hàm nội suy dạng đơn giản (thường dùng đa  
thức bậc thấp) trên từng đoạn con. Phương hay được áp dụng niều trong kỹ thuât. Để  
hiểu hơn về các phương pháp trên xem [1,14].  
Cùng với phát triển của các ứng dung CNTT, bài toán nội suy nhiều biến được quan  
tâm giải quyết và đạt nhiều tiến bộ trong khoảng 30 năm gần đây, với các cách tiếp  
cận như:  
-Học dựa trên mẫu, bao gồm các phương pháp: k-láng giềng gần nhất với trọng số  
nghịch đảo khoảng cách và hồi quy trọng số địa phương.  
-Mạng neural truyền thẳng MLP  
-Mạng neural RBF  
Để hơn về các phương pháp trên xem [11].  
1.2 MẠNG NEURAL NHÂN TẠO  
1.2.1 Giới thiệu mạng Neural nhân tạo  
Bộ não con người chứa đựng những bí mật mà đến bây giờ khoa học vẫn chưa giải đáp  
được, chính nhờ có bộ não hoàn chỉnh mà con người đã trở thành động vật bậc cao  
thống trị muôn loài. Đã từ lâu con người đã nghiên cứu cấu trúc đặc biệt của bộ não từ  
đó ứng dụng để giải quyết những bài toán khoa học kỹ thuật. Người ta đã phát hiện ra  
rằng bộ não con người là mạng lưới chằng chịt các Neural liên kết với nhau, đây là cơ  
shình thành nên cấu trúc của mạng Neural nhân tạo.  
Vbản chất toán học thì mạng Neural nhân tạo như là một mặt trong không gian đa  
chiều để xấp xỉ một hàm chưa biết nào đấy. Nhưng mạng Neural nhân tạo lại giống  
mạng Neural sinh học ở chỗ đó là khả năng có thể huấn luyện (học), đây là đặc điểm  
quan trọng nhất của mạng Neural nhân tạo. Chính vì đặc điểm này mà mạng Neural  
nhân tạo có khả năng thực hiện tốt các công việc sau khi đã được huấn luyện, và đến  
3
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
khi môi trường thay đổi ta lại có thể huấn luyện lại mạng Neural nhân tạo để nó thích  
nghi với điều kiện mới.  
1.2.1.1 Mạng Neural sinh học  
Mạng Neural sinh học là một mạng lưới (plexus) các Neuron có kết nối hoặc có liên  
quan về mặt chức năng trực thuộc hệ thần kinh ngoại biên (peripheral nervous system)  
hay hệ thần kinh trung ương (central nervous system).  
Hình 2: Minh họa một Neuron thần kinh sinh học  
Trên đây là hình nh của một tế bào thần kinh (Neuron thần kinh), ta chú ý thấy rằng  
một tế bào thần kinh có ba phần quan trọng:  
-Phần đầu cũng có nhiều xúc tu (Dendrite) là nơi tiếp xúc với các với các điểm kết  
nối(Axon Terminal) của các tế bào thần kinh khác  
-Nhân của tế bào thần kinh (Nucleus) là nơi tiếp nhận các tín hiệu điện truyền từ xúc  
tu. Sau khi tổng hợp và xử lý các tín hiệu nhận được nó truyền tín hiệu kết quả qua  
trục cảm ứng (Axon) đến các điểm kết nối (Axon Terminal) ở đuôi.  
-Phần đuôi có nhiều điểm kết nối (Axon Terminal) để kết nối với các tế bào thần kinh  
khác.  
Khi tín hiệu vào ở xúc tu kích hoạt nhân Neuron có tín hiệu ra ở trục cảm ứng thì  
Neuron được gọi là cháy. Mặc dù W. Mculloch và W.Pitts (1940) đề xuất mô hình  
mạng neural nhân tạo khá sớm nhưng định đề Heb (1949) mới là nền tảng lý luận cho  
mạng neural nhân tạo.  
4
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
Định đề Heb: Khi một neuron (thần kinh) A ở gần neuron B, kích hoạt thường xuyên  
hoặc lặp lại việc làm cháy nó thì phát triển một quá trình sinh hoá ở các neuron làm  
tăng tác động này.  
1.2.1.2 Mạng Neural nhân tạo  
Mạng Neural nhân tạo được thiết kế để mô hình một số tính chất của mạng Neural sinh  
học, tuy nhiên, khác với các mô hình nhận thức, phần lớn các ứng dụng lại có bản chất  
kỹ thuật. Mạng Neural nhân tạo (ANN) là máy mô phỏng cách bộ não hoạt động thực  
hin các nhiệm vụ của nó. Một mạng Neural là bộ xử lý song song phân tán lớn, nó  
giống bộ não người về 2 mặt:  
-Tri thức được nắm bắt bởi Neural thông qua quá trình học.  
-Độ lớn của trọng số kết nối Neural đóng vai trò khớp nối cất giữ thông tin.  
a) Cấu tạo một Neuron trong mạng Neural nhân tạo  
x1  
x2  
xN  
w1  
w2  
w0  
Y
F
wN  
Hình 3: Cấu tạo một Neural nhân tạo  
Một neuron bao gồm các liên kết nhận tín hiệu vào bng số có các trọng số kết nối wi  
tương ứng với tín hiệu xi, hàm F gọi là hàm kích hoạt để tạo tín hiệu ra dựa trên giá trị  
hàm tổng có trọng số của các giá trị đầu vào, Y là giá trị đầu ra của Neuron. Ta có thể  
N
biểu diễn một Neural nhân tạo theo công thức toán học như sau:  
Y F w x w  
0
i
i
i1  
Tùy vào thực tế bài toán hàm F là một hàm cụ thể nào đấy, trong quá trình huấn luyện  
(học) thì các tham swi được xác định. Trên thực tế F thường được chọn trong những  
hàm sau:  
5
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
1.5  
1) Hàm ngưỡng  
1
0.5  
1x 0  
1x 0  
F(x) (x)   
0
-0.5  
-1  
-6  
-4  
-2  
0
2
4
6
-1.5  
Hình 4: Đồ thị hàm ngưỡng  
4
3
2
1
0
2) Hàm tuyến tính  
F(x) ax  
-6  
-4  
-2  
0
2
4
6
-1  
-2  
-3  
-4  
Hình 5: Đồ thị hàm tuyến tính  
1
3) Hàm sigmoid  
0.5  
1
F(x)   
1ex  
0
-6  
-4  
-2  
0
2
4
6
Hình 6: Đồ thị hàm sigmoid  
1
4) Hàm tanh  
0.5  
0
1ex  
1ex  
F(x)   
-6  
-4  
-2  
0
2
4
6
-0.5  
-1  
Hình 7: Đồ thị hàm tanh  
6
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
1
0.5  
0
5) Hàm bán kính  
(Gauss)  
2
F(x) ex  
-6  
-4  
-2  
0
2
4
6
Hình 8: Đồ thị hàm Gauss  
Trên thực tế thì các họ hàm sigmoid thường dùng cho mạng Neural truyền thẳng nhiều  
tầng MLP vì các hàm này dễ tính đạo hàm: f '(x) f (x)(1f (x)), trong khi đó mạng  
Neural RBF lại dùng hàm kích hoạt là hàm bán kính.  
b) Kiến trúc của mạng Neural nhân tạo  
Kiến trúc của mạng Neural nhân tạo lấy  
tư tưởng chính của mạng Neural sinh học  
đó là sự kết nối của các Neuon. Tuy  
HIDDEN  
nhiên, mạng Neural nhân tạo có kiến trúc  
INPUT  
đơn giản hơn nhiều, về cả số lượng  
Neuron và cả kiến trúc mạng, trong khi ở  
OUTPUT  
mạng Neural tự nhiên một Neuron có thể  
kết nối với một Neuron khác bất kỳ ở  
trong mạng thì ở mạng Neural nhân tạo  
các Neuron được kết nối sao cho nó có  
thể dễ dàng được biểu diễn bởi một mô  
hình toán học nào đấy. Ví dụ trong mạng  
Hình 9: Kiến trúc mạng Neural truyền tới  
Neural truyền tới các Neuron được phân  
thành nhiều lớp, các Neuron ở lớp trước  
chỉ được kết nối với các Neuron ở lớp  
sau.  
c) Quá trình học  
Như đã nói ở trên mạng Neural nhân tạo có khả năng huấn luyện được (học), quá trình  
huấn luyện là quá trình mà mạng Neural nhân tạo tự thay đổi mình dưới sự kích thích  
7
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
của môi trường (bộ dữ liệu huấn luyện) để phù hợp với điều kiện của môi trường. Quá  
trình huấn luyện chỉ có thể được thực hiện khi mạng Neural nhân tạo đã xây dựng  
được kiến trúc cụ thể, và hàm kích hoạt F đã được xác định. Về bản chất quá trình học  
là quá trình xác định các tham swi của các Neuron trong mạng Neural. Có ba kiểu  
học chính, mỗi kiểu mẫu tương ứng với một nhiệm vụ học trừu tượng. Đó là học có  
giám sát, học không có giám sát và học tăng cường. Dưới đây xin nêu ra phương pháp  
học có giám sát các phương pháp khác xem thêm [10] – chapter 4.  
Học có giám sát  
Trong học có giám sát, ta được cho trước một tập ví dụ gồm các cặp  
(xi , yi ,i 1..N), xX, y Y và mục tiêu là tìm một hàm f : X Y (trong lớp các  
hàm được phép) khớp với các ví dụ. Trên thực tế người ta thường tìm hàm f sao cho  
N
2
tổng bình bình phương sai số đạt giá trị nhỏ nhất trên tập ví dụ:  
.
E   
f (xi ) yi  
i1  
1.3 MẠNG NEURAL RBF  
1.3.1 Giới thiệu mạng Neural RBF  
Hàm cơ sở bán kính được giới thiệu bởi M.J.D. Powell để giải quyết bài toán nội suy  
hàm nhiều biến năm 1987. Ngày nay, đây là vấn đề hết sức quan trọng được nghiên  
cứu trong ngành giải tích số. Trong lĩnh vực mạng Neural, mạng Neural RBF được đề  
xuất bởi D.S. Bromhead và D. Lowe năm 1988 cho bài toán nội suy và xấp xỉ hàm  
nhiều biến (xem [12]).  
1.3.1.1 Kỹ thuật hàm cơ sở bán kính  
Bài toán nội suy hàm nhiều biến đã được giới thiệu ở phần 1.1.1.2, như đã nói ở trên  
để giải quyết bài toán này D. Powell đã đề xuất dạng của hàm là hàm cơ sở bán  
kính. Dưới đây sẽ trình bày sơ lược kỹ thuật sử dụng hàm cơ sở bán kính để giải quyết  
bài toán nội suy hàm nhiều biến.  
Kỹ thuật hàm cơ sở bán kính  
Không mất tính tổng quát giả sử m=1 khi đó hàm có dạng như sau :  
8
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
N
(x) w (x) w  
(1)  
k
k
0
k1  
ở đây k là hàm cơ sở bán kính thứ k. Thông thường k có những dạng sau:  
2
xvk  
k2  
(2)  
k (x) e  
2
k (x) x vk k2  
(3)  
(4)  
1
k (x)   
2
x vk k2  
Trên thực tế thì người ta thường cho k ở dạng (2) và trong khuôn khổ khóa luận này  
chỉ xét k ở dạng (2).  
2
xvk  
N
k2  
k (x) e  
chú ý rằng ở đây ta dùng chuẩn ||.|| là chuẩn Euclide u  
u 2 ;  
vk  
i
i1  
là tâm của mỗi hàm cơ sở bán kính k ; k là bán kính của k . Với mỗi k thì giá trị  
của bán kính k điều khiển miền ảnh hưởng của hàm bán kính k . Nếu  
x vk 3k  
thì giá hàm k (x) là rất nhỏ, không có ý nghĩa.  
Hình 10: Minh họa sự ảnh hưởng của hàm bán kính  
Ví dụ như ở hình trên một vòng tròn to tượng trưng cho một hàm cơ sở bán kính, các  
hàm này chỉ ảnh hưởng đến các điểm bên trong bán kính của nó.  
Thay công thức (2) vào (1) ta được biểu diễn toán học của kỹ thuật hàm cơ sở bán kính  
như sau:  
2
x j vk  
N
N
k2  
(xj ) w (xj ) w w e  
w0 y j  
(6)  
k
k
0
k
k1  
k1  
9
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
Một đặc điểm rất lợi thế khi sử dụng hàm bán kính để giải quyết bài toán nội suy hàm  
N
2
nhiều biến, đó là khi xét giá trbình phương sai số  
thì người ta đã  
E   
xi yi  
   
i1  
chứng minh được rằng E chỉ có một cực trị duy nhất. Do vậy việc tìm các tham scủa  
các hàm cơ sở bán kính( wk ,vk ,k ) để cho E đạt cực tiểu sẽ được giải quyết rất nhanh  
và hiệu quả.  
1.3.1.2 Kiến trúc mạng Neural RBF  
Mạng RBF là một loại mạng Neural nhân tạo truyền thẳng gồm có ba lớp. Nó bao gồm  
n nút của lớp đầu vào cho vector đầu vào  
n , N neuron ẩn (giá trị của neuron ẩn  
xR  
thk chính là giá trị trả về của hàm cơ sở bán kính k ) và m neuron đầu ra.  
k  
xi  
w0  
wi  
w0  
Y
X
HIDDEN  
Hình 11: Kiến trúc của mạng RBF  
Như đã nêu ở trên mạng RBF có thể biểu diễn bằng công thức toán học sau:  
2
x j vk  
N
N
k2  
(xj )   
w (x j ) w  
0k   
wke  
w0k y j  
  
k
k
k1  
k1  
1.3.1.3 Ứng dụng của mạng Neural RBF  
Nhờ ưu điểm vượt trội là có thời gian huấn luyện mạng rất ngắn ngày nay mạng  
Neural RBF được sử dụng trong rất nhiều lĩnh vực:  
-Xử lý ảnh  
-Nhận dạng tiếng nói  
10  
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
-Xử lý tín hiệu số  
-Xác định mục tiêu cho Radar  
-Chuẩn đoán y học  
-Quá trình phát hiện lỗi  
-Nhận dạng mẫu  
1.4 CÁC PHƯƠNG PHÁP HUẤN LUYỆN MẠNG NEURAL RBF  
Huấn luyện mạng Neural RBF thực ra là quá trình tìm các tham s( wk ,vk ,k ) của các  
hàm bán kính để phù hợp với bài toán nào đấy. So với các mạng Neural khác mạng  
Neural RBF có điểm mạnh hơn hẳn đó có có thời gian huấn luyện ngắn. Xét tổng bình  
N
phương sai số  
2 , do E chỉ có một cực trị duy nhất, vì thế nên việc  
E   
xi yi  
   
i1  
đi tìm điểm cực trị cho E sẽ rất nhanh chóng do không có cực trị địa phương. Có rất  
nhiều phương pháp huấn luyện mạng hầu hết các phương pháp này đều có đặc điểm  
chung là đều có xu hướng cực tiểu hóa giá trị bình phương sai số E cho tập dữ liệu  
huấn luyện. Có thể chia các kiểu huấn luyện mạng RBF ra thành ba loại: huấn luyện  
một pha, huấn luyện hai pha và huấn luyện ba pha (huấn luyện đầy đủ) (xem [4,5]).  
1.4.1 Phương pháp huấn luyện một pha  
N
Xét tập dữ liệu huấn luyện xk , yk  
; xk Rn , yk Rm ở phương pháp này, người ta  
k1  
vk  
thường chọn tâm  
của các hàm bán kính là một tập con của tập dữ liệu huấn luyện  
N
xk  
, còn các bán kính k được gán giá trị là một hằng số nào đấy, trên cơ sở thực  
   
k1  
1
nghiệm người ta thường đặt k   
(trong đó M là số hàm cơ sở bán kính, n là số  
(2M )1  
n
Neural đầu vào). Giá trị của các tham swk thường được tìm ra bằng các phương pháp  
học có giám sát như là phương pháp giả nghịch đảo hoặc phương pháp tụt dốc  
Gradient. Về bản chất thì hai phương pháp này đều tìm các trong swk để giá trị bình  
phương sai số E đạt cực tiểu.  
1) Phương pháp giả nghịch đảo  
11  
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
N
Với tập huấn luyện xk , yk  
; xk Rn , yk Rm , giả sử mạng RBF của ta có M  
k1  
2
xi vk  
k  
Neuron ở tầng ẩn. Ta xét ma trận HNM như sau H(i,k) k (xi ) e  
Y là ma trận hàng các yk khi đó giá trị của các wk được tính như sau :  
và ma trận  
trong đó H (HT H)1 HT .  
W HY  
2) Phương pháp tụt dốc Gradient  
Với phương pháp này, đầu tiên các tham swk được tạo ra ngẫu nhiên sau đó các tham  
số này được cập nhật bằng công thức sau :  
wk (i 1) wk (i) wk  
N
w xi yi xi  
chú ý ở đây ta xét mạng RBF có một Neural ở đầu ra. Hệ  
   
   
k
k
i1  
sđược gọi là tốc độ học, nếu nhthì giá trị của các trọng số w tiến chậm đến  
điểm cực tiểu, nhưng nếu lớn thì giá trị của các trong số w thường có xu hướng dao  
động quanh điểm cực tiểu, nói chung để tìm được giá trị hợp lí thì phải qua quá  
trình thực nghiệm. Thông thường người ta vẫn chọn có giá trị nhỏ để đảm bảo quá  
trình lặp sẽ hội tụ về giá trị cực tiểu cho dù hơi mất thời gian.  
Hình 12: Quá trình hội tụ đến giá trị cực tiểu của thuật toán Gradient,  
đường nét đứt ứng với giá trị lớn,  
đường nét liền ứng với giá trị nhỏ  
1.4.2 Phương pháp huấn luyện hai pha  
Với phương pháp huấn luyện hai pha thông thường các giá trtâm vk và bán kính k  
của hàm cơ sở bán kính k được tính bằng các thuật toán phân cụm như thuật toán  
12  
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
phân cụm k-mean, k-mean có ngưỡng… Sau đó giá trị của các trọng số wk được tính  
bằng các phương pháp giả nghịch đảo, hay tụt dốc Gradient như đã nêu ở trên.  
1) Thuật toán phân cụm k-mean  
-Phát biểu bài toán: Cho tập dữ liệu X x , x ..., x ;x Rd chúng ta cần phân tập  
n
  
1
2
i
k
k
dữ liệu này thành k tập S ,S ,..S : k n; S  ; S X sao cho thỏa mãn:  
k   
I
U
1
2
i
i
i1  
i1  
k
argmin  
xj i 2 với i là tâm của tập Si .  
   
S
i1 xjSi  
Về mặt toán học thì bài toán phân cụm trên thuộc loại NP-khó tuy nhiên trên thực tế  
thì người ta thường giải bài toán bằng phương pháp heuristic như sau:  
Đầu tiền ta khởi tạo ngẫu nhiên tập ,,...sau đó thực hiện vòng lặp qua hai  
k
  
1
2
bước sau:  
+Bước 1: tạo các cụm  
S(t) x : x x ;i* 1,k  
i
j
j
i
j
i*  
+Bước 2: điều chỉnh lại tâm  
1
Si(t)  
i(t1)  
xj  
xjSi(t )  
Thuật toán sẽ dừng cho đến khi tập ,,...không còn có sự thay đổi giá trị(để  
k
  
1
2
hiu chi tiết hơn về thuật toán phân cụm k-mean có thể tham khảo thêm [18]).  
Sau khi chạy thuật toán k-mean ta sẽ chọn tâm vk của các hàm cơ sở bán kính k chính  
1
là tập ,,...còn bán kính   
k
  
|| x ||.  
1
2
k
j
k
Sk  
xjSk  
1.4.3 Phương pháp huấn luyện 2 pha HDH  
N
Xét tập huấn luyện xk , yk  
; xk Rn , yk Rm , không mất tính tổng quát, ở đây ta  
k1  
xét mạng RBF có một Neuron output (m=1), khi đó biểu diễn toán học của mạng RBF  
là:  
13  
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
N
(1)  
(xi ) w (xi ) w yi  
k
k
0
k1  
i
k
2
2
k
Xét ma trận  
trong đó k,i k (xi ) e||x x || /, chú ý rằng ở đây ta chọn  
    
k,i
  
NN  
tâm của các hàm cơ sở bán kính chính là tất cả các điểm thuộc tập dữ liệu input X.  
w
z
1   
1   
Ta ký hiệu I là ma trận đơn vị cấp N ; W= ... , Z= ... là các véc tơ trong không  
wN  
zN  
gian N-chiều RN trong đó:  
(2)  
(3)  
zk = yk w0,  
k N  
và đặt  
  I    k, j  
NN  
thì  
(4)  
0k j  
k, j  
j
k
2
2
e||x x || /k j  
k
Khi đó hệ phương trình (1) tương đương với hệ :  
W= W +Z  
(5)  
Với các tham số k đã chọn và w0 tùy ý, hệ (1) và do đó hệ (5) luôn có duy nhất  
nghiệm W. Về sau giá trị w0 được chn là trung bình cộng của các giá trị yk:  
N
(6)  
(7)  
1
w0 =  
yk  
N   
k1  
Với mỗi kN, ta có hàm qk của k xác định như sau:  
N
q   
k
k, j  
j1  
Hàm qk là đơn điệu tăng và với mọi số dương q < 1 luôn tồn tại giá trị k sao cho  
qk(k )=q.  
tả thuật toán.  
Với sai số và các hằng số dương q, <1 cho trước, thuật toán bao gồm 2 pha để  
xác định các tham số k và W*. Trong pha thứ nhất, ta sẽ xác định các để qk q và  
k
gần với q nhất (nghĩa là nếu thay k=k/thì qk>q). Vì vậy, với mọi k, chuẩn của ma  
trận tương ứng với chuẩn vector . * (cho bởi công thức (16) dưới đây) thuộc đoạn  
này. Pha sau tìm nghiệm gần đúng W* của (5) bằng phương pháp lặp đơn giản. Thuật  
toán được đặc tả trong hình 13.  
14  
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
Proceduce Thuật toán 2 pha huấn luyện mạng RBF  
for k=1 to N do  
Xác định các k để qk q, và nếu thay k=k/thì qk>q; // Pha 1  
Tìm W* bằng phương pháp lặp đơn (hoặc phương pháp lặp Seidel); //Pha 2  
End  
Hình 13: Thuật toán HDH huấn luyện mạng RBF  
Để tìm nghiệm W* của hệ (5) ta thực hiện thủ tục lặp như sau.  
Khởi tạo W0=Z ;  
Tính  
Wk+1= W k +Z ;  
(8)  
Nếu điều kiện kết thúc chưa thỏa mãn thì gán W0 := W1 và trở lại bước 2 ;  
N
Với mỗi vectơ N-chiều u, ta ký hiệu chuẩn u u , điều kiện kết thúc có thể chọn  
j
*
j1  
một trong biểu thức sau.  
a)  
q
(9)  
W 1 W 0   
*
1q  
b)  
(1q)  
(10)  
ln  
Z
lnln Z ln(1q)  
*
*
t   
, với t là số lần lặp.  
ln q  
ln q  
Đặc tính hội tụ.  
Với mỗi vectơ N-chiều u, ta ký hiệu chuẩn u cho bởi công thức :  
*
N
(11)  
(12)  
u   
u
j
*
j1  
Thì thuật toán trên luôn kết thúc sau hữu hạn bước và đánh giá sau đúng.  
W 1 W *  
*
Ký hiệu chuẩn của ma trận tương ứng với chuẩn vectơ (11) là :  
*
(13)  
(14)  
=  
q  
qk [q,q]  
max  
*
kN  
ta có đánh giá :  
qt1  
qt1  
W1 W*  
u1 u0  
Z
*
*
*
1q  
1q  
15  
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
Biểu thức (10) tương đương với vế phải của (14) nhỏ hơn hoặc bằng . Mặt khác ở  
bước cuối của pha 2, nếu áp dụng (14) cho t=0 ; u0 W 0 ;u1 W1 ; áp dụng (14) cho  
t=0 thì ta có :  
(15)  
q
W1 W*  
w1 w0  
*
*
1q  
Thuật toán này có ưu điểm là cài đặt rất đơn giản và tốc độ hội tụ rất nhanh và ta có  
thể điều chỉnh giá trị sai số nội suy nhỏ tùy ý. Song do kiến trúc mạng phức tạp nên  
thường xy ra hiện tượng phù hợp trội(over-fitting) cho tập dữ liệu huấn luyện. Để  
hiểu chi tiết hơn về thuật toán HDH xem thêm [2,3].  
1.4.4 Phương pháp hun luyện ba pha đầy đủ  
Phương pháp này sử dụng phương pháp tụt dốc Gradient để tìm kiếm cả ba tham số  
dùng các công thức lặp dưới đây:  
Q
J
E  
wmj  
Q
2  
M
1   
w w   
w   
(k(q)) z(jq) y(q)  
1   
  
mj  
mj  
mj  
j
m
q1  
j1  
J
22  
k q  
q
q
m
q
n
m
n
  zj  
w
mj   
yxv  
vn(m) vn(m)  
  
j
M2  
q1  
j1  
2
q
q
q
wmjm xv  
Q
J
M
23  
M
k q  
q
2
2
  
m m   
w  zj  
   
j
4
2m  
m1   
q1  
j1  
Q
Chú ý ở đây ta dùng tập dữ liệu huấn luyện xk , yk  
; xk Rn , yk Rm trong đó  
k1  
k(q) là dữ liệu huấn luyện thứ q. Để rõ hơn về phương pháp trên xem [5]. Nhìn chung  
phương pháp này cho kết quả huấn luyện khá tốt, song nhược điểm là thời gian huấn  
luyện dài nên không phù hợp với các bài toán có dữ liệu lớn.  
1.5 KẾT QUTHỰC NGHIỆM  
1.5.1 Kết quả  
Dưới đây tôi xin giới thiệu kết quả thực nghiệm khi tiến hành cài đặt các phương pháp  
khác nhau để huấn luyện mạng RBF. Bộ dữ liệu huấn luyện ở đây là dữ liệu được lấy  
từ bài toán phân tích thành phần trong ống dầu. Phương pháp lấy dữ liệu như sau:  
16  
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
người ta dùng tia gamma chiếu vào ng dầu để thu được các đặc trưng khác nhau đồng  
thời tại thời điểm đó người ta phân tích tỉ lệ dầu và nước có trong ống dầu. Do tlệ  
thành phần dầu và nước có liên quan đến các đặc trưng thu được khi chiếu tia gamma,  
người ta mong muốn dự đoán được thành phần dầu và nước dựa vào các đặc trưng thu  
được khi chiếu tia gamma vào ống dầu. Bộ dữ liệu bao gồm 900 bộ dữ liệu huấn luyện  
và 100 bộ dữ liệu kiểm tra. Mỗi dữ liệu bao gồm 12 giá trị đầu vào (các đặc trưng thu  
được khi chiếu tia gamma) và 2 giá trị đầu ra (tỉ lệ dầu và nước), tất cả đều được biểu  
diễn bằng số thực. Dữ liệu được tải từ địa chỉ:  
Tôi đã tiến hành xây dựng mạng Neural RBF với kiến trúc như sau: 12 neuron đầu  
o, 2 neuron đầu ra, còn số lượng neuron tầng ẩn tùy vào thuật toán huấn luyện. Sau  
đó tiến hành huấn luyện với 4 phương pháp huấn luyện khác nhau để so sánh hiệu  
suất(thời gian huấn luyện, sai số của bộ dữ liệu huấn luyện, sai số của bộ dữ liệu kiểm  
tra) của chúng. Các phương pháp dùng để huấn luyện đó là:  
1) Phương pháp huấn luyện 2 pha HDH(xem 1.4.3)  
2) Phương pháp huấn 3 pha đầy đủ(xem 1.4.4)  
3) Phương pháp huấn luyện 1 pha, sử dụng phương pháp giả nghịch đảo để tìm  
tham swi.(xem 1.4.1)  
4) Phương pháp huấn luyện 2 pha, sử dụng phương pháp giả nghịch đảo để tìm  
tham swi. (xem 1.4.2)  
Chương trình được chạy trên máy cấu hình như sau: HĐH Windows XP Professinal,  
CPU Intel Core 2 Duo E6300 1.86GHz, Ram 1G. Sau đây là bảng kết quả so sánh hiệu  
suất các phương pháp huấn luyện:  
17  
Chương 1: Bài toán nội suy, xấp xỉ hàm số và mạng Neural RBF  
Sai số trên tập dữ liệu Sai số trên tập dữ liệu  
Thời gian huấn  
luyện(giây)  
Phương pháp huấn luyện  
kiểm tra(tổng bình  
huấn luyện(tổng bình  
phương sai số)  
phương sai số)  
Phương pháp huấn luyện 2 pha HDH  
q=0.9, alpha=0.7, epsilon= 1e-5  
q=0.9, alpha=0.75, epsilon= 1e-5  
q=0.9, alpha=0.9, epsilon= 1e-5  
q=0.99, alpha=0.7, epsilon= 1e-5  
q=0.99, alpha=0.8, epsilon= 1e-5  
q=0.99, alpha=0.9, epsilon= 1e-5  
Phương pháp huấn luyện 3 pha đầy đủ  
Số neuron tầng ẩn 20, loop = 1000  
Số neuron tầng ẩn 50, loop = 500  
Số neuron tầng ẩn 100, loop = 500  
Phương pháp huấn luyện 1 pha + giả nghịch đảo  
Số neuron tầng ẩn 180  
3.095031  
2.929305  
2.275569  
2.93460  
2.47516  
2.13895  
3.2938e-11  
2.8989e-11  
2.9517e-11  
3.7486e-11  
1.0336e-11  
1.2286e-11  
1.921000  
1.859000  
2.609000  
1.703000  
2.750000  
1.984000  
0.40966  
0.38691  
0.38206  
0.18352  
0.17951  
0.24483  
1312.266000  
4198.204000  
11961.4530  
0.2270  
1.0226  
0.54680  
0.3864  
1.968000  
2.437000  
2.828000  
Số neuron tầng ẩn 280  
0.14226  
0.091694  
Số neuron tầng ẩn 350  
Phương pháp huấn luyện 2 pha + giả nghịch đảo  
Số neuron tầng ẩn 180  
0.2666  
1.2269  
0.9048  
0.5255  
2.093000  
2.593000  
3.046000  
Số neuron tầng ẩn 280  
0.17365  
0.20062  
Số neuron tầng ẩn 350  
Bảng 1: Kết quả thực nghiệm hiệu suất các phương pháp huấn luyện mạng Neural RBF  
18  

Tải về để xem bản đầy đủ

pdf 58 trang yennguyen 25/05/2025 170
Bạn đang xem 30 trang mẫu của tài liệu "Khóa luận Mạng neural RBF và ứng dụng nhận dạng chữ viết tay", để tải tài liệu gốc về máy hãy click vào nút Download ở trên.

File đính kèm:

  • pdfkhoa_luan_mang_neural_rbf_va_ung_dung_nhan_dang_chu_viet_tay.pdf