Luận văn Tìm hiểu phương pháp học tích cực và ứng dụng cho bài toán lọc thư rác

ĐẠI HC QUC GIA HÀ NI  
TRƯỜNG ĐẠI HC CÔNG NGHỆ  
NGUYN THHNG HU  
TÌM HIỂU PHƯƠNG PHÁP HỌC TÍCH CC VÀ  
NG DNG CHO BÀI TOÁN LỌC THƯ RÁC  
LUẬN VĂN THẠC SĨ  
Hà Ni - 2011  
ĐẠI HC QUC GIA HÀ NI  
TRƯỜNG ĐẠI HC CÔNG NGHỆ  
NGUYN THHNG HU  
TÌM HIỂU PHƯƠNG PHÁP HỌC TÍCH CC VÀ  
NG DNG CHO BÀI TOÁN LỌC THƯ RÁC  
Ngành: Công nghthông tin  
Chuyên ngành: Hthng thông tin  
Mã s: 60 48 05  
LUẬN VĂN THẠC SĨ  
NGƯỜI HƯỚNG DN KHOA HC: TS. NGUYN TRÍ THÀNH  
Hà Ni - 2011  
1
MỤC LỤC  
DANH SÁCH CÁC BẢNG BIỂU..................................................................4  
CHƯƠNG I: GIỚI THIỆU.............................................................................5  
1.1 Giới thiệu đề tài......................................................................................5  
1.1.1 Lý do chọn đề tài...................................................................................5  
1.1.2 Mục tiêu của đề tài................................................................................6  
1.1.3 Các giai đoạn thực hiện đề tài...............................................................7  
1.2 Cấu trúc của luận văn............................................................................8  
CHƯƠNG II - TỔNG QUAN VỀ HỌC TÍCH CỰC.................................10  
2.1 Giới thiệu học tích cực.........................................................................10  
2.2 Phương pháp học tích cực...................................................................13  
2.3 Kịch bản học tích cực...........................................................................15  
2.3.1 Stream_based Sampling .....................................................................15  
2.3.2 Pool-based Sampling..........................................................................15  
2.4 Các chiến lược truy vấn trong học tích cực.......................................15  
2.4.1 Lấy mẫu không chắc chắn...................................................................16  
2.4.2 Truy vấn dựa vào hội đồng.................................................................17  
2.5 So sánh học tích cực học thụ động......................................................17  
2.6 Miền ứng dụng của học tích cực.........................................................18  
2.7 Kết luận.................................................................................................19  
CHƯƠNG III - MỘT SỐ THUẬT TOÁN HỌC TÍCH CỰC ..................20  
3.1 Học tích cực dựa trên perceptron.......................................................20  
3.1.1 Giới thiệu ............................................................................................20  
3.1.2 Thuật toán perceptron .........................................................................20  
3.1.3 Cải tiến bước cập nhật perceptron ......................................................23  
3.1.4 Perceptron chỉnh sửa tích cực.............................................................25  
2
3.2.1 Giới thiệu ............................................................................................27  
3.2.2 Máy hỗ trợ vector................................................................................27  
3.2.3 Version space......................................................................................30  
3.2.4 Học tích cực với SVM ........................................................................33  
3.3 Kết luận.................................................................................................39  
CHƯƠNG 4. ỨNG DỤNG HỌC TÍCH CỰC CHO BÀI TOÁN LỌC  
THƯ RÁC.......................................................................................................40  
4.1 Giới thiệu...............................................................................................40  
4.2 Học tích cực trong bài toán lọc thư rác..............................................41  
4.3 Thử nghiệm và kết qu........................................................................43  
4.3.1. Cài đặt chương trình thử nghiệm.....................................................43  
4.3.2. Thu thập và biểu diễn dữ liệu ..........................................................45  
4.3.3. Xây dựng chương trình biểu diễn và tiền xừ lý dữ liệu...................48  
4.3.4. Kết quả thử nghiệm..........................................................................51  
4.4 Kết luận.................................................................................................57  
KẾT LUẬN ....................................................................................................58  
TÀI LIỆU THAM KHẢO ............................................................................60  
3
DANH SÁCH HÌNH VẼ  
Hình 2.1 Lược đồ chung cho bộ học thụ động  
Hình 2.2 Lược đồ chung cho bộ học tích cực  
Hình 2.3 Lược đồ tổng thể của học tích cực  
Hình 3.1 Thuật toán perceptron chuẩn  
Hình 3.2 Thuật toán cải tiến percepron chuẩn  
Hình 3.3 Quy tắc học tích cực là truy vấn các nhãn cho các điểm x trong L  
Hình 3.4. Phiên bản tích cực của Perceptron đã chỉnh sửa.  
Hình 3.5  
(a) Máy hỗ trợ vector tuyến tính đơn giản.  
(b) Máy hỗ trợ vector và máy hỗ trợ vector transaction  
Hình 3.6 Máy hỗ trợ vector sử dụng hàm nhân đa thức bậc 5  
Hình 3.7  
(a) Tính đối ngẫu trong version space  
(b) Một bộ phân lớp SVM trên một version space  
Hình 3.8 (a) Lề đơn giản truy vấn b (b) Lề đơn giản truy vấn a  
Hình 3.9 (a) Lề MaxMin truy vấn b (b) Lề MaxRatio truy vấn e.  
Hình 4.1 Bộ lọc thư rác áp dụng phương pháp học tích cực  
Hình 4.2 Bộ lọc thư rác tích cực dựa trên Perceptron/SVM active  
Hình 4.3 Giao diện chính của chương trình  
Hình 4.4 Giao diện lựa chọn thư mục chứ dữ liệu  
Hình 4.5 Thông báo quá trình làm sạch dữ liệu thành công  
Hình 4.6 Giao diện thông báo kết quả xử lý  
Hình 4.7 Kết quả thuật toán perceptron  
Hình 4.8 Cấu trúc file cấu hình của chương trình ActiveExperiment  
Hình 4.9 Kết quả chạy thuật toán SIMPLE  
Hình 4.10 Kết quả chạy thuật toán SELF_CONF  
Hình 4.11 Kết quả chạy thuật toán KFF  
Hình 4.12. Kết quả chạy thuật toán BALANCE_EE  
 
4
DANH SÁCH CÁC BẢNG BIỂU  
Bảng 4.1 Ví dụ nội dung của bốn thư  
Bảng 4.2 Từ điển và chỉ số cho dữ liệu trong bảng 4.1  
Bảng 4.3 Biểu diễn vector cho dữ liệu trong bảng 4.1  
Bảng 4.4 Kết quả chạy qua 20 lần truy vấn của các thuật toán  
 
5
CHƯƠNG I: GIỚI THIỆU  
1.1 Gii thiu đtài  
1.1.1 Lý do chọn đề tài  
Ngày nay thư điện tử (email) đã trở thành một công cụ đắc lực phục vụ  
cho nhu cầu trao đổi thông tin của các cơ quan tổ chức, doanh nghiệp cũng  
như mỗi cá nhân. Email giúp con người có thể kết nối mọi nơi, mọi lúc với  
công việc và cuộc sống cá nhân. Tuy nhiện thư điển tử cũng đang bị lợi dụng  
để phát tán thư rác (spam) lây lan virus máy tính và lừa đảo trực tuyến, gây  
thiệt hại lớn cho người sử dụng.  
Thư rác là thư điện tử được gửi hàng loạt với nội dung mà người nhận  
không mong đợi, không muốn xem, hay chứa những nội dung không liên  
quan đến người nhận và thường được sử dụng để gửi thông tin quảng cáo. Do  
có giá thành tương đối thấp so với các phương pháp quảng cáo khác, thư rác  
hiện chiếm một tỷ lệ lớn và ngày càng tăng trong tổng số thư điện tử được gửi  
qua Internet. Sự xuất hiện và gia tăng thư rác không những gây khó chịu và  
làm mất thời gian của người nhận mà còn ảnh hưởng tới đường truyền  
Internet và làm chậm tốc độ xử lý của máy chủ thư điện tử, gây thiệt hại lớn  
về kinh tế.  
Thư rác là một trong những thách thức lớn nhất hiện nay mà khách  
hàng và các nhà cung cấp dịch vụ phải đối phó. Spam đã trở thành một hình  
thức quảng cáo chuyên nghiệp, phát tán virus, ăn cắp thông tin... với nhiều thủ  
đoạn và mánh khóe cực kỳ tinh vi. Người dùng sẽ phải mất khá nhiều thời  
gian để xóa những thư điện tử “không mời mà đến”, nếu vô ý còn có thể bị  
nhiễm virus, trojan, spyware ... và nặng nề hơn là mất thông tin như thẻ tín  
dụng, tài khoản ngân hàng qua các email dạng thư lừa người dùng tưởng đó là  
thư hợp lệ (phishing).  
Để loại bỏ hoặc giảm thiểu ảnh hưởng của thư rác, nhiều cách tiếp cận  
khác nhau đã được nghiên cứu và sử dụng. Giải pháp đấu tranh với thư rác rất  
đa dạng, bao gồm từ các cố gắng về pháp lý trong việc xây dựng luật ngăn  
chặn phát tán thư rác cho tới những giải pháp kỹ thuật nhằm phát hiện và  
     
6
ngăn chặn thư rác trong những giai đoạn khác nhau của quá trình tạo và phát  
tán thư.  
Tất nhiên, những kẻ gửi thư rác sẽ liên tục cải thiện chiến thuật/cách  
thức của chúng, do đó, điều quan trọng là biện pháp ngăn chặn thư rác phải  
“học” cách thức thay đổi của thư rác theo thời gian để giúp việc ngăn chặn có  
hiệu quả. Và việc ngăn chặn thư rác phải được thực hiện nhanh nhất có thể để  
không làm ảnh hưởng đến hệ thống, công việc khác.  
Từ những đặc điểm của hệ thống thư điện tử như có sự tương tác với  
người sử dụng và sự biến đổi của thư rác, luận văn nghiên cứu về học tích cực  
và xác định được sự phù hợp cho bài toán lọc thư rác. Đề tài “Tìm hiểu  
phương pháp học tích cực và ứng dụng cho bài toán lọc thư rác” được tiến  
hành nhằm đưa ra được phương pháp xây dựng bộ lọc thư rác có thể “học”  
được cách thức thay đổi của thư rác và tận dụng được sự tương tác với người  
dùng để đưa ra các truy vấn phân loại cho thư điện tử giúp cho việc phân loại  
thư rác đạt hiệu quả và chính xác cao.  
Trong phạm vi đề tài, luận văn tiến hành nghiên cứu một số giải pháp  
học thư rác dựa vào các phương pháp học tích cực (bộ lọc tích cực). Nội dung  
nghiên cứu bao gồm cả thử nghiệm trên dữ liệu thực làm rõ khả năng lọc thư  
của các bộ lọc tích cực, so sánh hiệu quả của các phương pháp được áp dụng  
trong bộ lọc.  
1.1.2 Mục tiêu của đề tài  
Để loại bỏ thư rác, các nhà cung cấp dịch vụ thư điện tử đã tích hợp  
nhiều chương trình lọc thư rác vào dịch vụ thư điện tử. Các chương trình lọc  
thư rác chủ yếu dựa vào các phương pháp học máy thông qua một bộ học.  
Tuy nhiên dựa vào thực tế: thư điện tử là một dịch vụ online, các thư điện tử  
được cập nhật thay đổi theo thời gian và có sự tương tác của người sử dụng  
hòm thư với hệ thống vì vậy đề tài đã tập trung vào nghiên cứu bộ học tích  
cực và áp dụng cho bài toán lọc thư rác.  
 
7
Trên cơ sở xác định loại hình nghiên cứu của đề tài là nghiên cứu lý  
thuyết và ứng dụng thực nghiệm, mục tiêu của đề tài là tìm hiểu về phương  
pháp học tích cực và tìm giải giải pháp cho bài toán lọc thư rác, chọn mô hình  
thích hợp để áp dụng vào bài toán lọc thư rác với các tiêu chí:  
-
-
Lọc thư rác nhanh, phát hiện chính xác thư rác (spam mail).  
Tận dụng được khả năng tương tác với người sử dụng dịch vụ  
mail, sự phân loại mail của người dùng để tăng thêm lượng mail đã gán nhãn  
cũng như chất lượng của dữ liệu gán nhãn.  
-
Có khả năng thích nghi với các biến thể của thư rác, chủ động lọc  
loại ra các thư rác ngày một hoạt động tinh vi hơn.  
Giống như trong lĩnh vực phòng chống virus máy tính, hacker luôn tìm  
cách để chống lại các chương trình diệt virus, thì trong chương trình lọc thư  
rác, những người gửi thư rác luôn tìm cách để tránh được bộ lọc thư rác một  
cách hữu hiệu. Vì vậy mà thư rác luôn luôn được biến đổi, cải tiến hơn do  
những người gửi thư rác. Sử dụng phương pháp học tích cực cho bài toán lọc  
thư rác làm phong phú thêm tập lời giải cho bài toán nhận dạng các đối tượng  
biến đổi.  
Bộ lọc thư rác tích cực giảm chi phí và thời gian thu thập dữ liệu, bởi vì  
nó được xây dựng dựa trên sự tương tác giữa bộ học và người dùng là nhận  
dạng thư rác hay thư thường.  
Với mục tiêu đã nêu ở trên luận văn chủ yếu tập trung nghiên cứu vào  
phương pháp học tích cực, áp dụng được các bộ học để tìm ra lời giải cho bài  
toán lọc thư rác. Để kiểm tra và đánh giá kết quả, luận văn sử dụng các  
chương trình thực nghiệm đã cài đặt sẵn các bộ học mà luận văn nghiên cứu,  
thu thập dữ liệu thực tế, xây dựng chương trình xử lý dữ liệu thành các tri  
thức để huấn luyện các bộ học thực nghiệm nhằm phát hiện ra các thư rác một  
cách chính xác và đạt hiệu quả cao.  
1.1.3 Các giai đoạn thực hiện đề tài  
Quá trình nghiên cứu của luận văn được thực hiện qua các giai đoạn  
sau:  
 
8
Giai đoạn 1 – Nghiên cứu lý thuyết: Thu thập tài liệu, các bài viết liên  
quan đến học tích cực và phương pháp lọc mail. Nghiên cứu tài liệu, tìm hiểu  
phương pháp học học máy nói chung và phương pháp học tích cực nói riêng.  
Tìm hiểu cụ thể vào pương pháp học tích cực dựa vào perceptron và học tích  
cực với SVM. Tìm hiểu một số phương pháp lọc mail, tham khảo một số mô  
hình lọc mail đã được xây dựng. Trên cơ sở khoa học và lý thuyết đã tìm hiểu  
lựa chọn phương pháp và áp dụng trong thực tế.  
Giai đoạn 2 – Xây dựng chương trình tiền xử lý dữ liệu để làm dữ liệu  
cho bài toán lọc mail. Tìm hiểu và cài đặt các công cụ có ứng dụng cho bài  
toán lọc mail. Thu thập dữ liệu từ thực tế, sử dụng chương trình có sẵn, xử lý  
dữ liệu và chạy thực nghiệm dữ liệu trên các công cụ đã cài đặt được. Phân  
tích đánh giá và nhận xét kết quả thực nghiệm  
Giai đoạn 3 – Tổng kết: Khái quát hóa và rút ra kết luận chung cho đề  
tài. Viết báo cáo, công bố kết quả nghiên cứu trong đề tài.  
1.2 Cấu trúc của luận văn  
Luận văn gồm bốn chương: Chương 1 dẫn nhập và giới thiệu chung về  
luận văn, lý do chọn đề tài, mục tiêu của đề tài và ý nghĩa của đề tài. Chương  
này cũng trình bày các giai đoạn thực hiện luận văn và cấu trúc của luận văn.  
Chương 2: trình bày các cơ sở lý thuyết phục vụ cho bài toán lọc mai.  
Cụ thể chương 2 sẽ giới thiệu về phương pháp học tích cực. Đưa ra mô hình  
học tích cực, so sánh giữa hai mô hình học thụ động và học tích cực. Từ đó  
nêu ra được ưu điểm của học tích cực và các miền ứng dụng.  
Chương 3: sẽ trình bày về các mô hình học tích cực. Đầu tiên, Chương  
3 trình bày cơ sở lý thuyết của phương pháp học tích cực dựa vào perceptron  
sử dụng cải tiến bước cập nhật. Cuối Chương 3 trình bày về học tích cực với  
SVM, giới thiệu ba phương pháp truy vấn trong bộ học SVM: Simple Margin,  
MaxMin Margin và Ratio Margin.  
Chương 4: Giới thiệu bài toán lọc thư rác, phương pháp học tích cực  
trong bài toán lọc thư rác. Chương 4 sử dụng phương pháp học tích cực dựa  
vào Perceptron và SVM active vào xây dựng mô hình cho bài toán lọc thư rác.  
 
9
Phần cuối chương 4: Cài đặt các tool thực nghiệm và xây dựng chương  
trình xử lý dữ liệu thu thập được về dạng dữ liệu đầu vào cho các tool thực  
nghiệm. Phân tích, đánh giá và nhận xét kết quả thực nghiệm.  
Phần Kết luận: tổng kết lại những kết quả đã thực hiện được trong luận  
văn và đưa ra phương hướng phát triển luận văn trong tương lai.  
10  
CHƯƠNG II - TỔNG QUAN VỀ HỌC TÍCH CỰC  
2.1 Gii thiu hc tích cc  
Mục đích chính của học máy là thu được những mẫu chung từ một  
lượng dữ liệu hữu hạn [36]. Học máy được chia thành 2 loại: học có giám sát  
và học không giám sát.  
Nhiệm vụ của học giám sát là dự đoán thêm những các đặc trưng của  
một đối tượng đầu vào [36]. Ví dụ: đơn giản là bài toán dự doán cân nặng của  
một người khi biết chiều cao của họ, còn những bài toán phức tạp hơn có thể  
là dự đoán chủ đề của hình ảnh khi biết các giá trị của điểm ảnh. Một lĩnh vực  
trọng tâm của học giám sát là bài toán phân lớp. Phân lớp là bài toán học có  
giám sát mà ở đó đặc trưng nữa của một đối tượng mà chúng ta mong muốn  
dự đoán là các giá trị rời rạc. Ta gọi đặc trưng này là nhãn. Mục đích của phân  
lớp là tạo ra một ánh xạ các đối tượng đầu vào tới các nhãn.Ví dụ, phân loại  
các tài liệu trong đó chúng ta mong muốn gán nhãn tự động cho một tài liệu  
mới với một vài chủ để đã xác định trước (ví dụ thể thao, chính trị, kinh  
doanh…). Hướng tiếp cận của học máy để giải quyết được vấn đề này là  
chúng ta phải thu thập được tập huấn luyện (trainning set) bằng cách gán nhãn  
tự động một số các tài liệu. Tiếp theo chúng sử dụng một bộ học (learner)  
thực hiện trên tập huấn luyện đã được gán nhãn để sinh ra một ánh xạ từ các  
tài liệu đến chủ đề. Chúng ta gọi ánh xạ này là bộ phân lớp (classifier). Chúng  
ta có thể dùng bộ phân lớp (classifier) để gán nhãn cho các tài liệu mới.  
Một lĩnh vực lớn nữa của học máy là học không giám sát. Khoảng cách  
giữa học giám sát và học không giám sát cũng không hoàn toàn rõ ràng. Tuy  
nhiên bản chất của học không giám sát là chúng ta sẽ không nhận được thông  
tin cụ thể về cách thức thực hiện như thế nào. Nói cách khác, trong bài toán  
phân lớp chúng ta nhận được tập dữ liệu huấn luyện đã được gán nhãn tự  
động. Học không giám sát bao gồm bài toán phân cụm (Ở đây chúng ta sẽ cố  
tìm nhóm dữ liệu tương tự nhau) và xây dựng mô hình (chúng ta cố gắng xây  
dựng một mô hình miền từ một tập dữ liệu).  
Tất cả các bài toán học giám sát và không giám sát, đầu tiên là thu thập  
   
11  
đầy đủ lượng dữ liệu sao cho được đánh mẫu tự động từ sự phân bố mật độ cơ  
bản và sau đó chúng ta quy vào một lớp hay một mô hình. Phương pháp này  
được gọi là học thụ động. Bộ học thụ động nhận dữ liệu một cách ngẫu nhiên  
từ thế giới (hình 2.1) và sau đó đưa ra mô hình để phân lớp.  
Thông thường những bài toán mất nhiều thời gian và chi phí trong các  
ứng dụng là thu thập dữ liệu. Trong một số trường hợp, chúng ta có giới hạn  
các tài nguyên cho việc thu thập dữ liệu. Do đó, rất là quan trọng khi xác định  
cách để chúng ta có thể sử dụng những tài nguyên này càng nhiều càng tốt.  
Hầu như trong tất cả các trường hợp chúng ta đều cho rằng thu thập các thể  
hiện dữ liệu một cách ngẫu nhiên là độc lập và phân bố tương tự nhau. Tuy  
nhiên, trong một số trường hợp chúng ta có thể có cách hướng dẫn quá trình  
lấy mẫu. Ví dụ, trong bài toán phân lớp tài liệu, thường rất dễ thu thập một  
lượng lớn các tài liệu chưa gán nhãn. Thay vì lựa chọn tài liệu một cách ngẫu  
nhiên để gán nhãn cho tập huấn luyện, chúng ta có quyền lựa chọn (yêu cầu)  
cẩn thận một số tài liệu để gán nhãn. Trong bài toán ước lượng tham số và  
phát hiện cấu trúc, giả sử chúng ta nghiên cứu bệnh ung thư phổi trong ngành  
y:  
v Chúng ta có một danh sách sơ bộ ban đầu về tuổi và sở thích hút thuốc  
của những người có khả năng mắc bệnh để chúng ta có quyền lựa chọn  
hướng kiểm tra thêm.  
v Chúng ta có khả năng đưa ra chỉ với một số người bản kiểm tra chi tiết.  
Thay vì chọn ngẫu nhiên một số người để kiểm tra thì ta đặt ra yêu cầu với  
những người phù hợp với các đặc điểm nào đó. Ví dụ Chúng ta muốn kiểm  
tra những người hút thuốc và trên 50 tuổi.  
v Hơn nữa, chúng ta không cần phải đưa ra các danh sách câu hỏi trước.  
Chúng ta có thể chọn câu hỏi tiếp theo dựa trên các câu trả lời của các câu  
hỏi trước. Quá trình hướng dẫn các bước lấy mẫu bằng câu hỏi cho một số  
trường hợp nào đó căn cứ vào dữ liệu mà chúng ta đã được cung cấp gọi là  
học tích cực.  
12  
Mô hình hoặc  
bộ phân lớp  
Bộ học thụ  
động  
Thế giới  
Dữ liệu  
Dữ liệu ra  
Hình 2.1 Lược đồ chung cho bộ học thụ động  
Dữ liệu đã gán  
nhãn/chưa gán  
nhãn  
Truy vấn  
Mô hình /Bộ  
phân lớp  
Dữ liệu  
ra  
Bộ học tích  
cực  
Thế giới  
Phản hồi  
Hình 2.2: Lược đồ chung cho bộ học tích cực.  
Học tích cực (đôi khi còn được gọi là học truy vấn hay thiết kế thực  
nghiệm tối ưu trong các bài toán thống kê) là một lĩnh vực nhỏ của học máy  
nói riêng và trong trí tuệ nhân tạo nói chung. Giả thiết chính là nếu thuật toán  
học được phép chọn dữ liệu từ những gì nó học thì nó sẽ thực hiện tốt hơn  
ngay cả khi được huấn luyện ít hơn.  
Hệ thống học tích cực cố gắng vượt qua những hạn chế trong việc gán  
nhãn bằng cách đưa ra các truy vấn để các dữ liệu chưa gán nhãn sẽ được  
người sử dụng hay chuyên gia gán nhãn. Bằng cách này, bộ học tích cực  
hướng đến việc đạt được độ chính xác cao trong việc sử dụng dữ liệu gán  
nhãn càng ít càng tốt, do đó sẽ giảm thiểu được chí phí trong việc thu thập dữ  
liệu có nhãn. Học tích cực được coi là một hướng tiếp cận có mục đích tốt  
trong các bài toán học máy hiện đại mà dữ liệu có thể bị dư thừa nhưng các  
nhãn thì khan hiếm hoặc là tốn chi phí mới có được.  
Học tích cực là một trong những phương pháp học giám sát [7] tạo ra  
những dữ liệu được gán nhãn với sự giúp đỡ của con người trong những vòng  
lặp có phản hồi [5]. Bộ học tập trung vào việc huấn luyện sử dụng một lượng  
nhỏ dữ liệu đã gán nhãn và làm giảm số các nhãn mà người sử dụng có để  
13  
phân lớp bằng cách chọn các dữ liệu có nhiều thông tin nhất. Điều này chỉ ra  
rằng ta chỉ cần một phần nhỏ dữ liệu trong tập dữ liệu lớn phải gán nhãn để  
huấn luyện một bộ học sao cho đạt được bộ phân lớp tốt.  
Vì trong học giám sát dữ liệu cần thiết phải sử dụng dữ liệu đã gán  
nhãn, nên bài toán gán nhãn thường rất tốn thời gian và chi phí. Động lực  
đằng sau học tích cực là tối đa hóa hiệu suất bằng cách giảm thiểu công sức  
của con người trong việc gán nhãn dữ liệu càng nhiều càng tốt [9]. Một đặc  
điểm nữa của học tích cực là nó là một quá trình lặp đi lặp lại [5]. Trong mỗi  
lần lặp, đầu tiên bộ học được huấn luyện với dữ liệu huấn luyện, sau đó một  
tập nhỏ dữ liệu chưa có nhãn được lựa chọn và đưa cho người sử dụng (hoặc  
chuyên gia) gán nhãn cho chúng, và cuối cùng dữ liệu vừa được gán nhãn sẽ  
được thêm vào tập huấn luyện ban đầu và bộ học sẽ lại được huấn luyện lại.  
Quá trình này được lặp đi lặp lại cho đến khi chấm dứt.  
2.2 Phương pháp học tích cực  
Bước chính trong phương pháp học tích cực là định nghĩa khái niệm  
mô hình M và chất lượng mô hình (mô hình tổn thất, Loss(M)). Định nghĩa  
mô hình và chất lượng mô hình tương ứng sẽ được thay đổi phù hợp đối với  
từng bài toán riêng.  
Với khái niệm tổn thất của mô hình đã đưa ra, chúng ta lựa chọn câu  
truy vấn tiếp theo sao cho nó sẽ đưa đến một mô hình mới với độ tổn thất của  
mô hình là thấp nhất.  
Khi đang xem xét việc đưa ra câu truy vấn tiềm năng q, ta cần ước định  
độ tổn thất của mô hình tiếp theo M’. Mô hình M’ là mô hình M được cập  
nhật với câu truy vấn q và câu trả lời x. Vì không biết câu trả lời x có đúng với  
câu truy vấn tiếp theo không, nên ta phải thực hiện một số phép tổng hợp và  
phép tính trung bình. Một phương pháp tự nhiên là duy trì bộ phân phối các  
câu trả lời hợp với mỗi câu truy vấn. Ta có thể tính được độ tổn thất kỳ vọng  
của mô hình sau khi đưa ra câu truy vấn mà chúng ta đạt được độ kỳ vọng ở  
câu trả lời cho câu truy vấn đó:  
 
14  
ꢃ ꢅ  
ꢀꢁꢂꢂ ꢄ ꢆ ꢇꢀꢁꢂꢂꢃꢉ ꢅ  
(2.1)  
Nếu sử dụng định nghĩa này trong thuật toán học tích cực thì có thể  
chọn các câu truy vấn sao cho độ tổn thất kỳ vọng của mô hình là thấp nhất.  
Dựa vào nhưng phân tích ở trên Tong [36] đã đưa ra lược đồ tổng thể của học  
tích cực như trong hình 2.3  
For i:=1 to totalQueries  
ForEach q in potentialQueries  
Evaluate Loss(q)  
EndForEach  
Ask truy vấn q sao cho Loss(q) là thất nhất  
Update cập nhật mô hình M với truy vấn q và phản hồi x  
EndFor  
Return mô hình  
Hình 2.3 Lược đồ tổng thể của học tích cực [36]  
Trong thống kê, sự lựa chọn chuẩn để tối thiểu độ tổn thất kỳ vọng  
chínhlà tối thiểu được độ tổn thất cực đại [3]. Nói các khác, nếu giả sử các  
trường hợp đều là xấu nhất: điều này có nghĩa là câu trả lời x sẽ luôn là câu  
trả lời cho độ tổn thất của mô hình là cao nhất.  
ꢃ ꢅ  
ꢀꢁꢂꢂ ꢄ ꢆ ꢋꢌꢍꢎꢋꢏꢀꢁꢂꢂꢃꢉꢅ  
(2.2)  
Nếu chúng ta sử dụng định nghĩa độ tổn thất này cho câu truy vấn trong  
thuật toán học tích cực thì chúng ta nên lựa chọn câu truy vấn cho kết quả đạt  
độ tổn thất mô hình lớn nhất.  
15  
2.3 Kịch bản học tích cực  
Có một vài kịch bản học trong một số bài toán khác nhau, trong đó bộ  
học có thể đưa ra câu truy vấn. Tuy nhiên có hai kịch bản chính, khá phổ biến  
trong các nghiên cứu và thường xuyên được sử dụng trong các bài toán áp  
dụng phương pháp học tích cực. Hai kịch bản học đó là stream-based  
sampling và pool-based sampling.  
2.3.1 Stream-based sampling  
Trong kịch bản ‘stream-based sampling’, bộ học lấy một mẫu tại một  
thời điểm nào đó từ các dữ liệu phân tán và cố gắng đưa ra một quyết định  
trên mẫu này là có lựa chọn và đem nó ra để hỏi người dùng ghi nhãn cho nó  
hoặc sẽ bỏ qua nó.  
2.3.2 Pool-based sampling  
Trong kịch bản ‘pool-based sampling’, đầu tiên bộ học lấy tất cả các  
mẫu và xếp hạng chúng tăng dần dựa trên dự đoán của bộ phân lớp. Sau đó,  
bộ học sẽ chọn k mẫu đầu tiên của danh sách xếp hạng trong mỗi lần lặp và  
đưa chúng cho từng người sử dụng một để ghi nhãn.  
Trong kịch bản ‘pool-based sampling’, dữ liệu chưa gán nhãn là cố  
định và không thay đổi; trong khi kịch bản ‘stream-based scenario’ là một  
phiên bản trực tuyến của kịch bản ‘pool-based sampling’ vì ngay lập tức nó  
yêu cầu người sử dụng gán nhãn sau khi nó được phân lớp [44]. Chúng ta có  
thể kết luận rằng kịch bản ‘stream-based scenario’ khác biệt với kịch bản  
‘pool-based sampling’ về việc liệu trong mô hình các mẫu được chọn có  
được hỏi người sử dụng nhãn ngay lập tức không hoặc lúc đầu tất cả các mẫu  
được xếp hạng và từ dữ liệu đã xếp hạng này có được lựa chọn để được gán  
nhãn.  
2.4 Các chiến lược truy vấn trong học tích cực  
Các mẫu được chọn phải có rất nhiều thông tin có hiệu quả cho bài  
   
16  
toán. Để làm được việc lựa chọn mẫu, có một số phương pháp truy vấn độc  
lập với kịch bản học tích cực đã giới thiệu giới thiệu ở trên.  
Trong số các phương pháp truy vấn được sử dụng trong các ứng dụng  
khác nhau của phương pháp học tích cực, Settles [6][7] đã trình bày việc  
phân loại hoàn chỉnh nhất và toàn diện nhất cho các phương pháp truy vấn  
này. Trong đó có hai phương pháp được sử dụng rộng rãi nhất đó là lấy mẫu  
không chắc chắn và truy vấn dựa trên hội đồng (Query by committee).  
2.4.1 Lấy mẫu không chắc chắn  
Phương pháp lựa chọn mẫu nổi tiếng nhất và đơn giản là "lấy mẫu  
không chắc chắn" (Uncertainty Sampling) được giới thiệu bởi Lewis và Gale  
[14]. Trong phương pháp này, bộ học tích cực đưa ra các mẫu tới người sử  
dụng là không chắc chắn. Xét các dự đoán của bộ phân lớp cho dữ liệu không  
có nhãn, ta sẽ có một đường biên giữa các mẫu không có thông tin và các  
mẫu có chứa thông tin. Các mẫu không có thông tin là những mẫu cần có sự  
dự đoán chắc chắn cao nhất cho việc gán nhãn; vì thế các mẫu kiểu này  
không phải là hữu ích cho học tích cực và cũng không cần thiết để hỏi nhãn  
cho chúng. Các mẫu có thông tin là các mẫu mà bộ phân lớp không cần phải  
có một dự đoán tốt cho việc gán nhãn với sự tự tin cao. Do vậy những dữ liệu  
có độ chắc chắn thấp hơn sẽ hữu ích cho bộ học tích cực.  
Đường biên giữa các mẫu chứa thông tin và mẫu không chứa thông tin  
có thể được định nghĩa với một số điểm như độ tin cậy của bộ phân lớp cho  
các nhãn mà nó đã gán. Trong thực tế ‘độ tin cậy’ là sự dự đoán của bộ phân  
lớp với xác suất cao nhất cho các nhãn của mẫu [5]. Vì nó có thể được nhận  
ra, nên trong việc lấy mẫu không chắc chắn chỉ có một bộ phân lớp là cần  
thiết cho mô hình [21].  
Có một số cách tính độ tin cậy mà bộ phân lớp sử dụng. Trong số đó,  
có ‘entropy’ được Shannon [11] đề xuất là một trong những cách phổ biến  
nhất. Sử dụng entropy là độ tin cậy, các mẫu có entropy cao sẽ là các mẫu  
chứa thông tin nhiều nhất vì dự đoán của bộ phân lớp cho các mẫu đó là thấp  
 
17  
và các mẫu này sẽ là các ứng cử viên tốt nhất được lựa chọn và đưa ra cho  
người sử dụng gán nhãn.  
2.4.2 Truy vấn dựa vào hội đồng  
Seung cùng cộng sự [20] và Freund cùng cộng sự [45] đề xuất một  
phương pháp truy vấn được sử dụng rộng rãi được gọi là truy vấn dựa vào  
hội đồng (query by committee). Trong phương pháp này nhiều hơn một bộ  
phân lớp được sử dụng và mỗi bộ phân lớp cố gắng để lấy các mẫu chứa  
nhiều thông tin nhất. Trong số các mẫu chứa thông tin được lựa chọn cho mỗi  
bộ phân lớp, các mẫu mà có độ bất đồng lớn nhất giữa các bộ phân lớp sẽ  
được lựa chọn và đưa ra cho người sử dụng gán nhãn.  
2.5 So sánh học tích cực học thụ động  
Bộ học  
Một bộ học tích cực thu thập thông tin bằng cách đưa ra các câu truy  
vấn và nhận lại các câu trả lời. Sau đó nó đưa ra bộ phân lớp hoặc mô hình có  
thể sử dụng được cho bài toán của mình. Bộ học tích cực khác với bộ học thụ  
động ở chỗ bộ học thụ động nhận thông tin một cách ngẫu nhiên và sau đó  
đưa ra bộ phân lớp và mô hình. Một điểm khác nữa là bộ học thụ động chuẩn  
giống như một sinh viên thu thập thông tin bằng cách chỉ ngồi và lắng nghe  
giáo viên trong khi bộ học tích cực là người đặt ra câu hỏi cho giáo viên, nghe  
câu trả lời và hỏi thêm dựa trên câu trả lời của giáo viên. Rất hợp lý khi đưa ra  
câu hỏi dựa trên câu trả lời trước đó sẽ cho phép bộ học tích cực thực hiện tốt  
hơn bộ học thụ động.  
Thành phần truy vấn  
Điểm khác chủ yếu giữa bộ học tích cực và bộ học thụ động là khả  
năng đặt câu hỏi vào câu hỏi và câu trả lời trước. Khái niệm về câu hỏi và câu  
trả lời chính xác là gì sẽ phụ thuộc vào các bài toán cụ thể tiếp theo. Khả năng  
sử dụng phương pháp học tích cực sẽ được lựa chọn tùy vào từng trường hợp,  
từng bài toán cụ thể.  
   
18  
2.6 Miền ng dng ca hc tích cc  
Học tích cực được áp dụng trong rất nhiều ứng dụng khác nhau, nhưng  
đặc biệt gần đây người ta lại chú ý đến phương pháp học tích cực trong lĩnh  
vực xử lý ngôn ngữ tự nhiên. Ngoài ra học tích cực cũng được sử dụng trong  
nhiều ứng dụng như:  
Nhận dạng giọng nói (Hakkani-Tür et al., 2002), hiểu ngôn ngữ nói (Tur et  
al., 2003; 2005).  
Phân tích cú pháp (Thompson và cộng sự, 1999; Hwa, 2000; Tang và cộng  
sự, 2002;. Hwa và cộng sự, 2003;. Steedman và cộng sự, 2003;.  
Baldbridge và Osborne, 2003; 2004; 2006; Osborne và Baldridge, 2004,  
Becker và Osborne, 2005)  
Khai thác thông tin (Thompson et al., 1999; Settles and Craven, 2008), tìm  
kiếm thông tin (Zhang and Chen, 2002; Yu, 2005),  
Phân lớp tài liệu (Schohn and Cohn, 2000; Roy and McCallum, 2001),  
Lọc thư rác (Sculley, 2008)  
Tìm kiếm hình ảnh (Tong, Simon Tong 2001)  
Phân lớp văn bản (Lewis and Gale, 1994; McCallum and Nigam, 1998;  
Tong and Koller, 2001; Zhu et al., 2003; Baldbridge and Osborne, 2006;  
Zhu et al., 2008ab, Lewis and Catlett, 1994; Liere and Tadepalli, 1997;  
Hoi et al., 2006),  
Phân đoạn tài liệu (Settles and Craven, 2008),  
Phân đoạn từ vựng (Sassano, 2002), word sense disambiguation (Fujii et  
al., 1998; Dang, 2004; Chen et al., 2006; Chan and Ng, 2007; Zhu and  
Hovy, 2007; Zhu et al., 2008ab),  
Nhận dạng chữ số viết tay (Zhu et al., 2003),  
Dịch máy (machine translation) (Haffari and Sarkar, 2009; Haffari et al.,  
2009),  
Nhận dạng thực thể ghi tên (Shen et al., 2004; Laws and Schütze, 2008),  
 
19  
2.7 Kết lun  
Trong chương này đã trình bày cơ sở lý thuyết của học tích cực. Giới  
thiệu học tích cực là gì, phương pháp học tích cực, các kịch bản và các phương  
pháp truy vấn.  
Tóm lại, phương pháp học tích cực được tóm tắt lại như sau: Đầu tiên  
chúng ta chọn một mô hình và độ tổn thất mô hình thích hợp với bài toán học.  
Sau đó chúng ta cũng chọn một phương pháp cho việc tính độ tổn thất mô hình  
tiềm năng đưa ra câu truy vấn tiềm năng. Với mỗi câu truy vấn chúng ta đánh  
giá độ tổn thất tiềm năng và chúng ta lựa chọn để đưa ra câu truy vấn, câu truy  
vấn này sẽ đưa ra được độ tổn thất mô hình tiềm năng thấp nhất.  
 
20  
CHƯƠNG III - MỘT SỐ THUẬT TOÁN HỌC TÍCH  
CỰC  
Chương này sẽ giới thiệu một số thuật toán học tích cực. Cụ thể sẽ đi vào giới  
thiệu hai thuật toán phổ biến là perceptron và Active SVM.  
3.1 Học tích cực dựa trên perceptron  
3.1.1 Giới thiệu  
Một trong những phương pháp tiếp cận ra đời sớm nhất cho vấn đề  
phân lớp tuyến tính trong học máy là thuật toán Perceptron. Perceptron được  
Rosenblatt đề xuất năm 1958 [17], chiếm một vị trí quan trọng trong lịch sử  
của các thuật toán nhận dạng mẫu.Perceptron là một bộ phân lớp tuyến tính và  
là một phần của học máy kể từ những năm 1958 và đã có nhiều phân tích lý  
thuyết về nó. Phần này sẽ trình bày thuật toán học tích perceptron chuẩn và  
thuật toán perceptron tích cực có cải tiến bước cập nhật do Dasgupta đề xuất  
năm 2005 [32].  
3.1.2 Thuật toán perceptron  
ꢑꢃ  
Cho tập dữ liệu học ꢐ ꢆ ꢔ ꢕꢔ ꢖ ꢆ ꢗꢔ ꢘ ꢔ ꢙ với ꢛ ꢜ ꢛ  
ꢞꢗꢔ ꢟꢗ là một số nguyên xác định là dữ liệu dương (+1) hay âm (-1).  
Một tài liệu được gọi là dữ liệu dương nếu nó thuộc lớp ; được gọi là  
dữ liệu âm nếu nó không thuộc lớp . Bộ phân lớp tuyến tính được xác định  
bằng siêu phẳng chia dữ liệu thành vào các lớp thuộc tính. Tập các giả thiết  
như vậy ta có:  
ꢃ ꢅ  
ꢒꢡ ꢢ ꢒ ꢆ ꢣ ꢒ ꢟ ꢣꢆ ꢦ  
(3.1)  
Trong đó ꢣ ꢛ ꢜꢛ ꢜ là các hệ số có thể điều chỉnh đóng vai trò  
là tham số của mô hình. Hàm phân lớp nhị phân h: Rm → {0,1}, có thể thu  
được bằng cách xác định dấu của ꢧꢃꢒꢅ:  
       
21  
ꢃ ꢅ  
ꢗꢪꢙếꢫꢪꢢ ꢒ ꢬ ꢦ  
ꢨ ꢆ ꢩ  
ꢦꢪꢙếꢫꢪꢢ ꢒ ꢭ ꢦ  
ꢃ3.2ꢅꢪ  
ꢃ ꢅ  
Như vậy việc học mô hình phân lớp chính là việc xác định siêu phẳng  
từ dữ liệu. Với thuật toán này, mỗi dữ liệu được xem là một điểm trong mặt  
phẳng. Dữ liệu học là tách rời tuyến tính (linearly separable) nếu tồn tại một  
siêu phẳng sao cho hàm phân lớp phù hợp với tất cả các nhãn, tức là  
ꢃ ꢅ  
ꢢ ꢒꢬ ꢦ với mọi i = 1,...,n. Với giả thuyết này, Rosenblatt đã đưa ra một  
thuật toán lặp đơn giản để xác định siêu phẳng:  
Mục đích của thuật toán Perceptron là tìm ra được một siêu phẳng bằng  
cách làm giảm thiểu đi khoảng cách của các điểm dữ liệu phân lớp nhầm  
(misclassified) tới đường biên quyết định. Nó bắt đầu với việc dự đoán các  
tham số ban đầu cho mặt phẳng phân cách, và sau đó khi có những sai lầm  
xảy ra thì nó cập nhật lại việc dự đoán trước đó.  
Perceptron  
Khởi tạo các giả thiết ban đầuv0  
For t=0 to n do  
Dự đoán: if . ꢒꢰ ꢦꢪthen ꢆ ꢲꢳꢴꢃꢢ. ꢒelse ꢆ ꢞꢲꢳꢴꢃ. ꢒꢅ  
Bước lọc: quyết định hỏi nhãn yt của điểm xt  
Cập nhật:  
If . ꢒꢵ ꢦ then  
ꢯꢶꢷ ꢆ ꢢꢟ ꢕ. ꢒꢯ  
Bước lọc phù hợp  
else ꢯꢶꢷ ꢆ ꢢꢯ  
Hình 3.1 Thuật toán perceptron chuẩn [32]  
22  
Thuật toán chọn tập các giả thiết như là mô hình của thuật toán và lỗi  
tổng quát của mỗi giả thiết làm độ tổn thất của mô hình. Với giả thiết bất kỳ  
d
thuộc R sẽ có miền lỗi ξꢆ ꢒ ꢛ ꢲꢸꢲꢳꢴꢃꢢ. ꢒꢅ ꢹ ꢲꢳꢴꢃꢫ. ꢒꢅ , u là vector  
đơn vị. Do đó thuật toán sẽ lựa chọn các dữ liệu sao cho giảm miền lỗi của giả  
thiết càng nhiều càng tốt.  
Bước cập nhật  
Rosenblatt [17] là người đầu tiên phân tích hoạt động hội tụ của bước  
cập nhật perceptron, nó bao gồm qui tắc đơn giản sau đây:  
if (xt, yt) bị phân lớp nhầm (misclassified), then ꢯꢶꢷ ꢆ ꢢꢟ ꢕ.  
Vì vậy, thay vì sử dụng một biến của nguyên tắc cập nhật, theo  
Motzkin và Schoenberg [40] đã cải tiến bước cập nhật theo quy tắc sau:  
if (xt, yt) bị phân lớp nhầm, then vt+1 = vt −2(vt . xt)xt  
Giả sử xt đã chuẩn hóa theo đơn vị chiều dài. Lưu ý rằng bản cập nhật  
cũng có thể viết như vt+1 = vt+2yt|vt . xt| xt, chỉ khi bản cập nhật được thực  
hiện trên những sai lầm, trong trường hợp này theo định nghĩa ytSGN (vt .  
xt). Vì vậy Motzkin và Schoenberg [40] đang chia mức độ các bản cập nhật  
sau của perceptron chuẩn theo một thừa số 2|vt .xt| để tránh những dao động  
gây ra bởi các điểm gần một nửa không gian đại diện bởi các giả thuyết hiện  
thời. Motzkin và Schoenberg đã giới thiệu quy tắc này, trong bối cảnh giải  
quyết các bất đẳng thức tuyến tính, và gọi nó là phương pháp "phản xạ"  
(Reflexion). Sau đó, Hampson và Kibler [34] áp dụng nó để học tập bộ phân  
tách tuyến tính, trong một khuôn khổ phân tích khác với chúng ta. Cùng một  
quy tắc, nhưng không có tham số 2, đã được sử dụng trong nhiều nghiên cứu  
trước đây [4] nghiên cứu về việc học các bộ phân lớp tuyến tính từ dữ liệu  
nhiễu, trong một thiết lập khối. Hai ông có thể chỉ ra rằng công thức của họ có  
sự thực hiện tổng quát trong một thiết lập giám sát (không tích cực).  
Bước lọc  
23  
Với giới hạn mà thuật toán đã đưa ra, thì luật lọc tự nhiên là truy vấn  
các điểm xt khi |vt . xt| nhỏ hơn ngưỡng st. Sự lựa chọn st là rất quan trọng.  
Nếu nó là quá lớn, sau đó chỉ một phần nhỏ rất ít các điểm đã truy vấn sẽ thực  
sự bị phân lớp sai - hầu như tất cả các nhãn sẽ bị lãng phí. Nói cách khác, nếu  
st quá bé, thì thời gian chờ đợi cho một truy vấn có thể khá cao, và khi một  
bản cập nhật thực sự được thực hiện, thì độ lớn của nó có thể lại rất nhỏ.  
Vì vậy, tác giả thiết lập ngưỡng cho phù hợp: tác giả bắt đầu với st có  
giá trị cao, và chia nó cho 2 cho đến khi đạt được mức mà có đủ bộ phân lớp  
sai các điểm đã truy vấn. Áp dùng chiến lược này vào bản cập nhật Perceptron  
đã chỉnh sửa, chúng ta nhận được một thuật toán học tích cực (hình 3.5) với  
độ phức tạp nhãn ꢺꢃꢼ ꢽꢾꢍ ), tạo ra ꢺꢃꢼ ꢽꢾꢍ ) lỗi và có lỗi ≤ε.  
3.1.3 Cải tiến bước cập nhật perceptron  
Phần này mô tả một thuật toán Perceptron đã đượcc cải tiến. Không  
giống như Perceptron chuẩn, thuật toán Perceptron cải tiến đảm bảo rằng vt.u  
tăng nghĩa là lỗi của vt giảm đơn điệu. Một sự khác biệt nữa của bản cải tiến  
chuẩn (so với các bản khác) là độ lớn của các giả thuyết hiện thời luôn luôn là  
1. Điều này rất thuận lợi cho việc phân tích.  
Perceptron cải tiến  
chiều d và số lần cập nhật M  
ꢆ ꢒ. ꢕ--với dữ liệu đầu tiên ꢔ ꢕꢷ  
For t=1 to M:  
ꢔ ꢕlà dữ liệu tiếp theo với ꢕ ꢒꢔ ꢭ ꢦ  
ꢯꢶꢷ ꢆ ꢢꢞ 2ꢃꢢ. ꢒꢅꢒꢯ  
Hình 3.2 Thuật toán cải tiến percepron chuẩn  
 
24  
Trong thuật toán perceptron chuẩn hình 3.1, bước cập nhật perceptron  
chuẩn vt+1 = vt + xt.yt là cùng hướng nhưng khác độ lớn (được chia theo hệ số  
2|vt.xt|)  
Các thuật toán Perceptron cải tiến chuẩn được đưa ra trong hình 3.2. Ta có  
||vt||=1  
(3.3)  
(3.4)  
ꣀ ꣀꣁ  
ꢯꢶꢷ ꢆ ꢢꢟ ꣂꢃꢢ. ꢒꢅ ꢒꢞ ꣂꢃꢢ. ꢒꢆ ꢗ.  
ꣀ ꣀꣁ  
Và  
Ngược lại, đối với bản cải tiến Perceptron chuẩn, mức độ của vt tăng đều đặn.  
Với bản cải tiến đã sửa, lỗi có thể chỉ giảm bởi vì vt.u cũng chỉ giảm.  
ꢅ ꢃ  
ꢸꢸ  
ꢯꢶꢷ ꢟ ꢫ ꢆ ꢢ. ꢫ ꢞ 2 . ꢒ. ꢒ. ꢫ ꢆ ꢢ. ꢫ ꢟ 2 ꢢ. ꢒ. ꢫ .  
(3.5)  
Biểu thức thứ 3.4 xảy ra theo thực tế là vt phân lớp nhầm xt. Do vậy vt.u tăng,  
ꢸꢸ  
và sự tăng có thể bị chặn từ dưới bằng cách chỉ ra . ꢒ. ꢫ là lớn.  
Trước đây Hamson và Kibler đã từng sử dụng bản cập nhật này cho việc học  
bộ phân tách tuyến tính [34], gọi là “Reflection” (Sự phản ánh), dựa trên  
phương pháp “Reflexion” của Motzkin and Schoenberg [40].  
ꢅꢃ  
. ꢢꢯꢶꢷ ꢆ ꢒ. ꢢꢞ 2 . ꢢ. ꢒꢆ ꢞꢃꢒ. ꢢꢅ  
(3.6)  
Nói chung, biểu thức (3.6) có thể coi là bản cập nhật sửa của dạng ꢯꢶꢷ  
ꢞ ꣃꢃꢢ. ꢒꢅꢒ, dạng này tương đương với phương pháp “Reflexion” trong  
việc giải bất đẳng thức tuyến tính [30][40]. Khi α≠2, vector vt không còn giữ  
độ dài cố định nữa, tuy nhiên cũng có thể xác minh được rằng các vector đơn  
vị tương ứng thỏa mãn:  
ꢸꢸ  
ꢯꢶꢷ. ꢫ ꢆ ꢃ. ꢫ ꢟ ꣃ . ꢒ. ꢫ ꢅ꣄ꣅꢗ ꢞ ꣃ 2 ꢞ ꣃ . ꢒ, (3.7)  
Và do vậy bất kỳ sự lựa chọn nào α∈[0,2] cũng đảm bảo rằng lỗi không tăng.  
Blum và cộng sự[4] đã sử dụng α=1 bảo đảm rằng sự phát triển trong mẫu số  
(phân tích của họ đã không dựa vào tiến bộ trong tử số) miễn là . ꢫ và  
25  
. ꢒbị chặn ở 0. Phương pháp tiếp cận của họ được sửa dụng một loạt  
như là một phần của thuật toán phức tạp hơn cho học noise_tolerant. Trong  
ꢸꢸ  
khung làm việc tuần tự, có thể chặn . ꢒ. ꢫ bởi 0, dưới sự phân tán  
thống nhất, và do đó sự lựa chọn α=2 là thuận lợi nhất, nhưng α=1 sẽ có thể  
tốt hơn.  
Hình 3.3 Quy tắc học tích cực là truy vấn các nhãn cho các điểm x trong L, L  
được xác định bởi ngưỡng st trên |vt.xt| [32]  
3.1.4 Perceptron chỉnh sửa tích cực  
Mục đích trong việc thiết kế luật học tích cực là giảm thiểu phức tạp  
nhãn được đưa vào câu truy vấn chỉ cho các nhãn trên các điểm trong miền lỗi  
ξt. Tuy nhiên không có tri thức của u, thuật toán sẽ không biết vị trí của ξt.  
Theo trực giác thì luật học tích cực là xấp xỉ với miền lỗi, với thông tin đã cho  
thuật toán có vt. Trong hình 3.3, vùng đã gán nhãn L đơn giản là miền được  
hình thành bởi việc tạo ngưỡng cho các lề của một ví dụ ứng viên đối với vt.  
Phiên bản tích cực của thuật toán Perceptron cải tiến được chỉ ra trong  
hình 3.4. Thuật toán này tương tự thuật toán của phần trước trong các bước  
cập nhật. Đối với quy tắc lọc, sẽ duy trì một ngưỡng st và chỉ yêu cầu cho các  
nhãn của các ví dụ có . ꢒ ꢵ ꢂ. Miền xấp xỉ lỗi đạt được bằng cách chọn  
ngưỡng st thích hợp, để quản lý sự cân bằng giữa vùng L đang quá lớn, gây ra  
nhiều nhãn bị lãng phí mà không tìm được ξt, và L chỉ chứa các điểm có lề rất  
 
26  
nhỏ đối với vt, vì bước cập nhật sẽ tạo ra sự cải tiến rất nhỏ trên các điểm như  
thế. Thuật toán giảm ngưỡng thích ứng với thời gian, bắt đầu với s =1/ và  
1
giảm ngưỡng đi 2 lần cho đến khi nào có thể thực hiện các ví dụ đã gán nhãn  
trên ngưỡng là đúng.  
Chúng ta giới hạn cận dưởi của st đối với lỗi chỉ ra rằng với xác suất cao thì  
ngưỡng st không bao giờ là nhỏ.  
Perceptron cải tiến  
chiều d, số lượng nhãn L và R  
ꢆ ꢒ. ꢕcho dữ liệu đầu tiên ꢔ ꢕꢷ  
ꢆ ꢗ꣄꣆ꢼ  
For t=1 to L:  
Chờ dữ liệu tiếp theo x: ꢒ. ꢢꢵ ꢂvà truy vấn nhãn của x.  
Gọi dữ liệu đã gán nhãn ꢔ ꢕꢯ  
If . ꢢꢭ ꢦ, then:  
ꢯꢶꢷ ꢆ ꢢꢞ 2 . ꢒꢯ  
ꢯꢶꢷ ꢆ ꢂꢯ  
else  
ꢯꢶꢷ ꢆ ꢢꢯ  
If các dự đoán là đúng trên R dữ liệu đã gán nhãn liên tiếp  
(vd: . ꢢꢰ ꢦꢪ꣇ꢖ ꢛ ꣈ ꢞ ꢜ ꢟ ꢗꢔ ꣈ ꢞ ꢜꢔ ꢘ ꢔ ꣈ ),  
then ꢯꢶꢷ ꢆ ꢂ꣄2 else ꢯꢶꢷ ꢆ ꢂꢯ  
Hình 3.4. Một phiên bản tích cực của Perceptron đã chỉnh sửa. [32]  
27  
Thuật toán trong hình 3.4 đã được Dasgupta đã trình bày bằng cách cải  
tiến bước cập nhật của thuật toán perceptron [32], thu được một thuật toán  
đơn giản hơn, đạt được lỗi mục tiêu ε bằng cách sử dụng số lượng nhãn xác  
định ꢺꢃꢼ ꢽꢾꢍ .  
Trong lý thuyết phát triển của học tập tích cực, các kịch bản không tầm  
thường và cụ thể nhất mà trong đó học tập tích cực đã được thể hiện để cung  
cấp cho một sự cải tiến hàm số mũ trong độ phức tạp mẫu là học một một bộ  
phân tách tuyến tính cho các dữ liệu phân bố đều trên mặt cầu đơn vị.  
3.2 Học tích cực với SVM  
3.2.1 Giới thiệu  
Bộ phân loại SVM đã được sử dụng rộng rãi trong rất nhiều bài toán  
phân lớp. Tuy nhiên chúng chỉ được sử dụng với tập dữ liệu huấn luyện đã  
được lựa chọn ngẫu nhiên. Trong mục này sẽ trình bày thuật toán Active  
Support Vector Machines (Acitve SVM) có thể làm giảm đi dung lượng cũng  
như sự cần thiết của tập dữ liệu huấn luyện.  
3.2.2 Máy hỗ trợ vector  
3.2.2.1 Máy vector hỗ trợ sử dụng phương pháp qui nạp  
Máy vector hỗ trợ [41] có các cơ sở lý thuyết vững chắc và đạt được  
những thành công thực nghiệm xuất sắc. Chúng cũng được áp dụng cho  
những bài toán như: nhận dạng số viết bằng tay [24], nhận dạng đối tượng  
[13], và phân lớp văn bản [37][33].  
Hãy xét thuật toán SVM cho bài toán phân lớp nhị phân. Cho tập huấn  
d
luyện ꢔ ꢒꢔ ꢘ ꢔ ꢒlà các vector trong không gian XR và tập các nhãn  
ꢔ ꢕꢔ ꢘ ꢔ ꢕvới yi{-1,1}. Theo cách hiểu thông thường nhất, thì SVMs là  
các siêu phẳng chia tập dữ liệu huấn luyện bằng một lề cực đại. Tất cả các  
vector nằm trên một mặt của siêu phẳng đều được gán nhãn là -1, và tất cả các  
     
28  
vector nằm trên mặt kia đều được gán nhãn là 1. Các vector huấn luyện gần  
siêu phẳng nhất gọi là vector hỗ trợ (support vector).  
Hình 3.5 (a) Máy hỗ trợ vector tuyến tính đơn giản. (b) Máy hỗ trợ vector  
(đường nét đứt) và máy hỗ trợ vector hồi quy (đường nét liền). Những vòng  
tròn biểu diễn dữ liệu chưa được gán nhãn.  
Nói chung, SVMs cho phép chiếu dữ liệu huấn luyện gốc trong không gian X  
sang một không gian đặc trưng F nhiều chiều hơn thông qua một phép phân  
Mercer K. Nói cách khác chúng ta có tập các bộ phân lớp như sau:  
ꢃ ꢅ  
ꢧ ꢒ ꣋ ꣃ꣌ꢃꢒꢔ ꢒꢅ꣎ꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢃ3.꣏ꢅ  
ꢓ꣍ꢥ  
ꢃ ꢅ  
Khi K thỏa mãn điều kiện Mercer [12] thì ꣌ ꣐ꢔ ꣑ ꢆ Φ ꣐ . Φꢃ꣑ꢅ trong đó Φ:  
XY và “” là phép tích trong (inner product). Ta có thể viết lại như sau:  
ꢃ ꢅ  
ꢃ ꢅ  
ꢪꢧ ꢒ ꢆ ꣒. Φ ꢒ ꢔ  
꣓ꢌꢾ꣔ꢍꢪ꣕꣖ꢪꢪ꣒ ꢆ ꣋ ꣃΦꢃꢒꢅꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢪꢃ3.꣗ꢅ  
ꢓ꣍ꢥ  
Do vậy, bằng cách sử dụng K chúng ta có thể ánh xạ dữ liệu huấn luyện  
sang một không gian đặc trưng (thường là nhiều chiều hơn). Siêu phẳng lề  
cực đại được chỉ ra trong biểu thức 3.8. Sau đó SVM tính các αi tương ứng  
với siêu phẳng có lề cực đại trong không gian F. Khi chọn các hàm nhân khác  
nhau thì có thể ánh xạ dữ liệu huấn luyện từ không gian X sang F sao cho các  

Tải về để xem bản đầy đủ

pdf 65 trang yennguyen 29/04/2025 130
Bạn đang xem 30 trang mẫu của tài liệu "Luận văn Tìm hiểu phương pháp học tích cực và ứng dụng cho bài toán lọc thư rác", để tải tài liệu gốc về máy hãy click vào nút Download ở trên.

File đính kèm:

  • pdfluan_van_tim_hieu_phuong_phap_hoc_tich_cuc_va_ung_dung_cho_b.pdf