Lựa chọn biến trong chẩn đoán ổn định động hệ thống điện dùng mạng neural
Bạn đang xem tài liệu "Lựa chọn biến trong chẩn đoán ổn định động hệ thống điện dùng mạng neural", để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên
Tài liệu đính kèm:
lua_chon_bien_trong_chan_doan_on_dinh_dong_he_thong_dien_dun.pdf
Nội dung text: Lựa chọn biến trong chẩn đoán ổn định động hệ thống điện dùng mạng neural
- LỰA CHỌN BIẾN TRONG CHẨN ĐOÁN ỔN ĐỊNH ĐỘNG HỆ THỐNG ĐIỆN DÙNG MẠNG NEURAL FEATURE SELECTION FOR DYNAMIC STABILITY PREDICTION OF POWER SYSTEM USING NEURAL NETWORK Nguyễn Ngọc Âu, Quyền Huy Ánh, Phan Viết Thịnh Trường Đại Học Sư Phạm Kỹ Thuật Thành Phố Hồ Chí Minh TÓM TẮT Bài toán chẩn đoán ổn định động hệ thống điện gặp phải vấn đề số biến lớn của tập dữ liệu, nhưng không phải tất cả các biến đều hữu ích. Các biến thừa sẽ gây nhiễu làm giảm tính năng của bộ phân lớp hay chẩn đoán. Lựa chọn biến nhằm mục đích chọn số ít biến đặc trưng cho bộ phân lớp giúp cải thiện độ chính xác nhận dạng. Bài báo đề nghị áp dụng giải thuật Relief để lựa chọn biến và so sánh với phương pháp chọn biến sử dụng hai hàm khoảng cách Fisher và Divergence. Hai bộ nhận dạng được tiến cử để đánh giá độ chính xác nhận dạng là mạng neural GRNN (Generalized Regression Neural Network) và MLPNN (Multilayer Perceptron Neural Network). Kết quả kiểm tra trên sơ đồ IEEE 39-bus cho thấy giải thuật chọn biến Relief với bộ nhận dạng GRNN cho kết quả có số biến nhỏ hơn và độ chính xác kiểm tra cao hơn các phương pháp còn lại. Giải thuật Relief cho số biến giảm đáng kể trong khi độ chính xác nhận dạng được nâng cao hơn so với toàn tập biến. Từ khóa: chẩn đoán ổn định động, hệ thống điện, mạng neural nhân tạo, lựa chọn biến. ABSTRACT Dynamic stability prediction of power system is faced with a large number of features, but not all features are useful. The redundant features will cause noise and reduce the performances of classifier. Feature selection aims to select a feature subset for classifier and improve recognition accuracy. This paper suggested the application of Relief algorithm for the feature selection. It was compared with two methods of feature selection that are Fisher discrimination and Divergence. Two models recommending for recognition accuracy are GRNN (Generalized Regression Neural Network) and MLPNN (Multilayer Perceptron Neural Network).Tested on IEEE 39-bus diagram showed that the Relief algorithm with GRNN has yielded the results with smaller number of features and higher accuracy prediction than the others. Relief algorithm has significantly reduced the number of features while the recognition accuracy was improved over all featues. Keywords: Dynamic stability prediction, power system, neural network, feature selection. 1. GIỚI THIỆU Trong những năm gần đây, Artificial Hệ thống điện (HTĐ) hiện đại bị áp lực Neural Network (ANN) được áp dụng như vận hành rất gần với giới hạn biên ổn định, là một phương pháp thay thế để giải quyết trong khi đó HTĐ luôn phải đối mặt với các những vấn đề khó khăn mà những phương kích động bất thường dễ gây ra mất ổn định. pháp phân tích truyền thống không giải Do tính chất phi tuyến của hành vi HTĐ rất quyết được về tốc độ tính toán toán cũng cao, các phương pháp phân tích truyền như hiệu suất [1]. Bằng quá trình học cơ sở thống tốn nhiều thời gian giải nên gây chậm dữ liệu, mối quan hệ phi tuyến vào ra giữa trễ trong việc ra quyết định. Vì vậy, phát những thông số vận hành HTĐ và tình trạng hiện nhanh mất ổn định HTĐ giúp hệ thống ổn định có thể tính toán nhanh chóng [2]. điều khiển ra quyết định kịp thời trở thành Đây là đặc điểm quan trọng, đặc trưng của yếu tố then chốt đảm bảo vận hành HTĐ ổn ANN. Tuy nhiên, ANN làm việc nhanh và định. hiệu quả thì số biến đầu vào phải nhỏ. Vì
- vậy, những biến được chọn phải đặc trưng, và bao trùm các trạng thái vận hành của loại bỏ các biến thừa, gây nhiễu, điều này HTĐ. Biến đặc trưng của HTĐ ở chế độ còn giúp giảm số cảm biến đo lường, giảm quá độ hay chế độ động là độ thay đổi công thời gian tính toán, và nâng cao độ chính suất máy phát, độ thay đổi công suất tải, độ xác nhận dạng. thay đổi công suất trên các đường dây Trong bài báo này, chúng tôi đề nghị áp truyền tải, độ sụt điện áp tại các nút, ngay dụng giải thuật Relief để chọn biến đầu vào trong thời điểm xảy ra sự cố. đặc trưng cho ANN trong chẩn đoán ổn 2.1.2. Tìm kiếm biến đặc trưng ứng viên định động HTĐ. Giải thuật Relief được so Bước này gồm quá trình tìm kiếm sánh với phương pháp chọn biến sử dụng những tập con biến ứng viên cho đầu vào hai hàm khoảng cách Fisher và Divergence. bộ phân lớp. Nó chi phối về thời gian tính Kết quả kiểm tra trên sơ đồ IEEE 39-bus toán của toàn bộ quá trình lựa chọn biến. với hai bộ nhận dạng GRNN và MLPNN, Các chiến lược tìm kiếm gồm tìm kiếm tối cùng số biến đặc trưng, giải thuật Relief với ưu toàn cục, tìm kiếm tối ưu cục bộ và dựa bộ nhận dạng GRNN cho kết quả có số biến trên kinh nghiệm. Tìm kiếm tối ưu toàn cục nhỏ hơn và độ chính xác kiểm tra cao hơn có khả năng tìm ra các tập con biến tốt nhất. các phương pháp còn lại. Tuy nhiên, chi phí tính toán của nó là rất 2. LỰA CHỌN BIẾN ĐẶC TRƯNG lớn nên không khả thi trong thực hiện với Trong các giai đoạn thiết kế mô hình tập biến có số biến ban đầu lớn. Tìm kiếm chẩn đoán ổn định động HTĐ dùng ANN, tối ưu cục bộ có chi phí tính toán thấp, khả lựa chọn biến đặc trưng là rất quan trọng vì thi trong thực hiện, nên được nhiều công nó ảnh hưởng trực tiếp đến thời gian huấn trình đề nghị áp dụng [2,3,4]. Xếp hạng là luyện và độ chính xác chẩn đoán của mô một phương pháp đơn giản nhất trong tìm hình. Biến đặc trưng được lựa chọn cần có kiếm tối ưu cục bộ, thực thi nhanh do chỉ độ tách biệt dữ liệu giữa lớp ổn định và tính toán dựa trên độ đo hay tiêu chuẩn cho không ổn định cao sẽ giúp nâng cao độ đơn biến. Trong phương pháp này, các biến chính xác nhận dạng. đặc trưng ban đầu được đánh giá tiêu chuẩn cho từng đơn biến. Kết quả được xếp hạng 2.1. Quy trình lựa chọn biến đặc trưng thứ tự quan trọng các biến từ cao đến thấp Quy trình được chia thành 4 bước, được và chọn ra số biến đặc trưng yêu cầu. trình bày như Hình 2.1. 2.1.3. Đánh giá biến đặc trưng ứng viên Trong bài báo này, biến đặc trưng ứng viên được đánh giá qua giải thuật Relief và phương pháp chọn biến sử dụng hai hàm khoảng cách Fisher và Divergence. Dữ liệu được chuẩn hoá trước khi thực hiện. 2.1.4. Tiêu chuẩn dừng Thông qua thực nghiệm huấn luyện nhiều lần để tìm tập con biến với độ chính xác nhận dạng kỳ vọng. Việc tìm kiếm và đánh giá biến sẽ dừng khi số biến đạt giá trị yêu cầu và độ chính xác nhận dạng cao Hình 2.1: Quy trình lựa chọn biến đặc trưng nhất, đạt giá trị kỳ vọng. 2.1.1. Lựa chọn biến đặc trưng ban đầu 2.2. Các phương pháp xếp hạng Bước này xác định một tập biến đặc 2.2.1. Hàm khoảng cách Fisher trưng đại diện cho cơ sở dữ liệu để huấn Dựa trên hàm khoảng cách tuyến tính luyện ANN. Những biến đặc trưng ban đầu Fisher tìm kiếm độ tách biệt tối ưu tuyến này biểu thị những thông số vận hành HTĐ tính giữa hai lớp dữ liệu. Một tập dữ liệu D
- gồm n mẫu huấn luyện x1, x2, , xn với n1 giữa mẫu gần nhất trong xk đến mẫu của lớp mẫu trong lớp C1 và n2 mẫu trong lớp C2, không ổn định U. Sau đó giải thuật cập nhật T tác vụ là tìm kiếm ánh xạ cực đại y= w x. giá trị trọng số cho tất cả các biến Fi (i = 1, Điều này tương ứng với việc tìm kiếm 2, , N). Trọng số của các biến phụ thuộc đường thẳng khi chiếu tập dữ liệu lên vào giá trị xk, xH và xM. Nếu xk và xH của đường thẳng cho độ tách biệt tối đa. Các biến Fi có giá trị sai lệch thì hai mẫu cùng biến có giá trị F(w) lớn hơn thì khả năng lớp là tách biệt, đây là giá trị không mong tách biệt dữ liệu giữa 2 lớp cao hơn [2,3]. muốn nên trọng số sẽ giảm. Ngược lại, nếu 2 m m xk và xM của biến Fi có giá trị sai lệch thì F(w) 1 2 (1) 2 2 hai mẫu khác lớp là tách biệt, đây là giá trị 1 2 mong muốn nên trọng số sẽ tăng. Toàn bộ Trong đó: m1 là giá trị trung bình của quy trình được lặp lại m lần. 2 lớp C1 và 2 là phương sai của lớp C2. Giải thuật Relief cơ bản như sau: 2.2.2. Hàm khoảng cách Divergence Input: Tập biến F[N,M] có N biến M mẫu Thiết lập số mẫu ngẫu nhiên x , Divergence là tiêu chuẩn đo lường độ k k=[1,m], m ≤ M phân tán giữa hai lớp dữ liệu. Khoảng cách Output: Vec-tơ trọng số W[i] của biến F : D giữa 2 lớp được trình bày ở biểu thức (2). i −1 ≤ W[i] ≤ 1 Biến có khoảng cách D càng lớn thì dữ liệu W[i] = 0.0 giữa 2 lớp càng phân tán [2,4]. for k = 1 : m 1 σ2 σ2 1 1 1 2 1 2 (2) D = ( 2 + 2 - 2) + (m1 - m2 ) ( 2 + 2 ) for i = 1 : N 2 σ1 σ2 2 σ1 σ2 W[i]=W[i]–diff(i,xk,xH)/m+diff(i,xk,xM)/m 2 2 Trong đó: 1, 2 là phương sai của end lớp 1 và lớp 2 của biến; m1, m2 là trung bình end của lớp 1 và lớp 2 của biến. Hàm diff(i,xj,xk) tính toán khoảng cách 2.2.3. Giải thuật Relief giữa mẫu xk và xj của biến Fi, được tính Giải thuật Relief đánh giá thống kê theo công thức (3). giá trị trọng số của biến dựa trên mẫu. Các x x diff(i,x , x ) j,i k,i (3) biến tốt là biến có các mẫu cùng lớp gần j k max(F) min(F ) nhau hơn, các mẫu không cùng lớp thì tách i i biệt hơn [2,5]. Trong đó: max(Fi) và min(Fi) là giá trị mẫu lớn nhất và nhỏ nhất của biến i. 3. MẠNG MLPNN VÀ GRNN 3.1. MLPNN MLPNN cơ bản như Hình 3.1 gồm có lớp ngõ vào, một hay nhiều lớp ẩn và lớp ngõ ra. Hình 2.2: Mô tả giải thuật Relief Ý tưởng của giải thuật Relief được trình bày ở hình 2.2 [5]. Cho tập học M mẫu gồm S mẫu ổn định và U mẫu không ổn định, chọn ngẫu nhiên xk (k = 1, 2, , Hình 3.1: Mạng MLPNN m) có m mẫu học từ M mẫu, (m ≤ M). Số lớp ẩn có thể thay đổi trong quá Relief tính toán khoảng cách nearest hit xH trình huấn luyện tùy thuộc dữ liệu bài toán. giữa mẫu gần nhất trong xk đến mẫu của lớp Các nút ngõ ra có giá trị thay đổi phụ thuộc ổn định S và khoảng cách nearest miss xM vào lớp ngõ ra mục tiêu. Quy trình huấn
- luyện phổ biến nhất là học có giám sát với 3.3. Luật đầu ra của bộ phân loại giải thuật lan truyền ngược. Giải thuật lan Kết quả tính toán ngõ ra của bộ phân truyền ngược thực thi phương pháp giảm loại có sai số với giá trị nhị phân của đầu ra gradient nhằm cực tiểu sai số trung bình đã gán nhãn. Ngõ ra được quy định như các bình phương giữa ngõ ra và ngõ ra mong trường hợp sau. muốn [6]. Có nhiều giải thuật huấn luyện, Trường hợp 1: Nếu mã hóa ngõ ra {1} trong đó thuật toán Levenberg-Marquardt là ‘ổn định’, và {0} là ‘không ổn định’ có hiệu suất cao hơn và tốc độ hội tụ nhanh thì: hơn [6]. Thông số mạng ban đầu là ngẫu Nếu y > 0.5 → y = 1 ổn định nhiên, quá trình huấn luyện dừng khi số (4) vòng lặp đạt giá trị tối đa, sai số đạt một Nếu y ≤ 0.5 → y = 0 không ổn định mức cho phép hoặc sai số không tăng nữa. Trường hợp 2: Ma trận ngõ ra M lớp 3.2. GRNN như sau: GRNN là biến thể của RBFN (Radial F (x) Basis Function Network), là công cụ mạnh F (x) F(x) = (5) trong ứng dụng cho bài toán nhận dạng. So ⋮ với MLPNN, GRNN yêu cầu nhiều số F (x) neural hơn nhưng thời gian huấn luyện ít hơn [7]. GRNN cơ bản như Hình 3.2 gồm Ngõ ra tuân theo luật số lớn [9], kết quả lớp ngõ vào, lớp ẩn hàm xuyên tâm và lớp nhận dạng được xếp vào lớp thứ k nếu: ngõ ra tuyến tính. GRNN giống như RBFN F (x) F (x) j k (6) k j nhưng có chút ít thay đổi hơi đặc biệt là ở Trong đó: F (x) và F (x) là kết quả tính lớp hàm tổng (summation layer). k j toán từ hàm ánh xạ mạng neural. 3.4. Huấn luyện và đánh giá mô hình nhận dạng Quá trình huấn luyện và kiểm tra được thực hiện k lần. Phần trăm độ chính xác nhận dạng của mô hình trong huấn luyện hoặc kiểm tra được tính trung bình trong k lần thực hiện. Hiệu suất của bộ phân loại được Hình 3.2: Mạng GRNN đánh giá theo tỷ lệ phần trăm huấn luyện Lớp đầu vào kết nối với lớp ẩn, trong đúng hoặc kiểm tra đúng và được xác định đó mỗi neural đại diện cho một mẫu huấn theo phương trình (7). luyện và đầu ra của nó là khoảng cách của R biến đầu vào và tâm. Mỗi neural của lớp ẩn Classification_Rate% .100 (7) S kết nối với hai neural của lớp đặc biệt là Trong đó: R là số mẫu đúng, S là tổng neural S (S-summation) và neural D số mẫu. Giá trị kỳ vọng độ chính xác nhận (D-summation). Neural S tính toán tổng dạng của mô hình được đề nghị trong [10] trọng số đầu ra của lớp ẩn, trong khi neural phải đạt hơn 90%. D tính đầu ra phi trọng số của lớp ẩn. 4. ÁP DỤNG ĐÁNH GIÁ ỔN ĐỊNH Trọng số kết nối của neural lớp ẩn và ĐỘNG HTĐ IEEE 10 MÁY 39-BUS neural S là giá trị ngõ ra mục tiêu tương ứng với mẫu đầu vào. Đối với neural D, 4.1. Sơ đồ IEEE 10 máy 39-bus trọng số kết nối là đơn vị. Giá trị tính toán HTĐ IEEE 39-bus New England là một của lớp đầu ra tương ứng với vec-tơ mẫu HTĐ tương đương của các hệ thống con đầu vào là tỉ số của mỗi đầu ra S với mỗi của vùng đông bắc Hoa Kỳ và Canada [11]. đầu ra D. Vận hành của neural D kể đến Hệ thống gồm có 39 bus, trong đó 10 bus thông số spread mà giá trị tối ưu được xác máy phát, 12 máy biến áp, 10 máy phát, 34 định qua thực nghiệm thử sai [8].
- đường dây truyền tải và 19 tải. 10 máy phát phát, độ lệch công suất tải, độ sụt điện áp được kết nối từ bus 30 đến bus 39, trong đó tại các bus, độ lệch công suất phân bố trên bus 31 được coi là bus Slack, 9 bus được các đường dây truyền tải, x={ Pgen Qgen gọi là bus PV, 29 bus còn lại được gọi là Vbus Pload Qload Pflow Qflow}. Biến đầu bus PQ, có 2 cấp điện áp là 345kV và 20kV. 1 ra y được gán nhãn cho lớp 1 hay Hệ thống được cho như ở Hình 4.1. 0 0 lớp ‘ổn định’, cho lớp 2 hay lớp 1 ‘không ổn định’. Do sai số trong tính toán, ngõ ra của bộ nhận dạng sẽ được bầu chọn theo luật số lớn như công thức (6). Tổng số biến đầu vào là 189 biến và 2 biến đầu ra. 4.4. Phân chia dữ liệu Tập dữ liệu được chia ngẫu nhiên thành 6 tập con, kích thước bằng nhau. Mỗi tập gồm 303 mẫu (239 mẫu ổn định, 64 mẫu không ổn định). Như vậy, mỗi tập huấn luyện có 1516 mẫu (1197 mẫu ổn định, 319 mẫu không ổn định) và tập kiểm tra có 303 mẫu (239 mẫu ổn định, 64 mẫu không ổn Hình 4.1: HTĐ IEEE 39-bus New England định). 4.2. Tạo cơ sở dữ liệu 4.5. Kết quả tính toán xếp hạng biến Mô phỏng để tạo cơ sở dữ liệu với sự Kết quả tính toán và xếp hạng biến trợ giúp của phần mềm PowerWorld được của các hàm Fisher, Divergence, Relief thực hiện trên hệ thống IEEE 10 máy được trình bày ở Hình 4.2. 39-bus, xét sự cố ngắn mạch 3 pha cân bằng 0.8 8 0.04 tại các bus và dọc các đường dây truyền tải 0.6 6 0.02 ở những vị trí 25%, 50% và 75% đường dây, 0.4 4 0 với các mức tải từ 20% đến 120% tải cơ 0.2 2 Relief Weight Fisher Fisher Discimination 0 DisciminationDivergence 0 -0.02 bản. Thuộc tính động của HTĐ trong quá 0 100 200 0 100 200 0 100 200 Feature Feature Feature trình ngắn mạch dựa trên quan sát mối quan hệ giữa các góc công suất của các máy phát a) b) c) điện. HTĐ ổn định nếu bất kỳ góc công Hình 4.2: Kết quả xếp hạng biến suất tương đối của máy phát thứ i i so với 0 a) Fisher b) Divergence c) Relief máy phát thứ j j không vượt quá 180 . Ngược lại, nếu góc công suất tương đối 4.6. Kết quả nhận dạng chính xác vượt quá 1800 thì HTĐ mất ổn định. Các MLPNN được chọn có 3 lớp là lớp đầu mẫu dữ liệu thu thập tương ứng được xếp vào, lớp ẩn và lớp ra. Giải thuật học và cập vào lớp ổn định và không ổn định. nhật trọng số được chọn là thuật toán Kết quả mô phỏng thu được tập mẫu Levenberg-Marquardt. Hàm kích hoạt lớp gồm 1819 mẫu, trong đó 1436 mẫu ổn định, ẩn và lớp ngõ ra là hàm tansig và purelin. 383 mẫu không ổn định. Toàn bộ dữ liệu Việc huấn luyện mạng là công việc khó được chuẩn hoá trước khi huấn luyện. khăn, trong đó việc chọn số neural trong 4.3. Biến đầu vào và biến đầu ra lớp ẩn cho MLPNN và chọn hệ số spread cho GRNN là rất quan trọng, vì nó ảnh Mỗi mẫu dữ liệu trong tập mẫu học hưởng rất lớn đến độ chính xác. Bằng được biểu diễn dưới dạng vec-tơ bao gồm phương pháp thực nghiệm thử sai huấn những biến đầu vào là độ lệch công suất luyện nhiều lần với số neural ẩn và giá trị
- 97 hệ số spread khác nhau để tìm kết quả tốt GRNN-Fisher nhất. Kết quả thực thi được trình bày ở hình 96 95 4.3, 4.4, 4.5, 4.6, 4.7 và 4.8. 94 95 93 92 94 91 93 Correct ClassificationCorrect (%) Rate 90 0 0.05 0.1 0.15 0.2 0.25 0.3 92 Spread Factor 91 Hình 4.8: Kết quả huấn luyện với hệ số MLPNN-Relief Correct ClassificationCorrect (%) Rate 90 0 5 10 15 20 25 30 35 40 45 50 55 spread thay đổi của GRNN-Fisher Number of Hidden Layer Neurals Hình 4.3: Kết quả huấn luyện với số neural Hình 4.9 và hình 4.10 trình bày kết quả ẩn thay đổi của MLPNN-Relief so sánh độ chính xác nhận dạng của các phương pháp Relief, Divergence và Fisher 95 sử dụng mạng GRNN và MLPNN. 94 100 Relief 93 98 Divergence 92 Fisher 96 91 94 MLPNN-Divergence Correct ClassificationCorrect Rate (%) 90 0 5 10 15 20 25 30 35 40 45 50 55 92 Number of Hidden Layer Neurals ClassificationCorrect Rate (%) 90 0 20 40 60 80 100 120 140 160 180 200 Hình 4.4: Kết quả huấn luyện với số neural Feature ẩn thay đổi của MLPNN-Divergence Hình 4.9: So sánh độ chính xác nhận dạng 95 MLPNN-Fisher cho các phương pháp sử dụng GRNN 94 100 Relief 93 98 Divergence Fisher 92 96 91 94 Correct ClassificationCorrect Rate (%) 90 92 0 5 10 15 20 25 30 35 40 45 50 55 Number of Hidden Layer Neurals ClassificationCorrect Rate (%) 90 0 20 40 60 80 100 120 140 160 180 200 Hình 4.5: Kết quả huấn luyện với số neural Feature ẩn thay đổi của MLPNN-Fisher Hình 4.10: So sánh độ chính xác nhận dạng 97 96 cho các phương pháp sử dụng MLPNN 95 94 Kết quả so sánh độ chính xác nhận dạng 93 của hai mạng GRNN và MLPNN tại số 92 biến là 15 với các phương pháp Relief, 91 GRNN-Relief Divergence, Fisher trình bày ở Bảng 5.1. So Correct ClassificationCorrect (%)Rate 90 0 0.05 0.1 0.15 0.2 0.25 0.3 sánh độ chính xác nhận dạng của GRNN- Spread Factor Hình 4.6: Kết quả huấn luyện với hệ số Relief tại 15 biến và 189 biến trình bày ở spread thay đổi của GRNN-Relief Bảng 5.2. So sánh thời gian huấn luyện 97 MLPNN-Relief và GRNN-Relief được GRNN-Divergence 96 trình bày ở Bảng 5.3. 95 94 Bảng 5.1: Độ chính xác nhận dạng kiểm tra 93 của GRNN và MLPNN 92 Số 91 Mạng Relief Divergence Fisher Correct ClassificationCorrect Rate (%) 90 biến 0 0.05 0.1 0.15 0.2 0.25 0.3 Spread Factor GRNN 15 95.27% 95.10% 93.40% Hình 4.7: Kết quả huấn luyện với hệ số MLPNN 15 93.07% 92.02% 91.97% spread thay đổi của GRNN-Divergence
- Bảng 5.2: So sánh độ chính xác nhận dạng Bảng 5.2, GRNN-Relief với 15 biến thì của GRNN-Relief tại 15 biến và 189 biến độ chính xác kiểm tra là 95.27%, trong khi Số biến 15 189 189 biến độ chính xác kiểm tra là 93.56%, GRNN-Relief 95.27% 93.56% hay số biến giảm đến 12.6 lần, độ chính xác nâng cao 1.71%, điều này cho thấy áp dụng Bảng 5.3: So sánh thời gian huấn luyện giải thuật Relief loại được các biến thừa, MLPNN-Relief và GRNN-Relief gây nhiễu, nâng cao độ chính xác. Số biến MLPNN-Relief GRNN-Relief Bảng 5.3, GRNN-Relief có thời gian 189 121.73s 1.49s huấn luyện nhanh hơn đáng kể so với 15 5.6s 0.84s MLPNN-Relief, cụ thể tại số biến 189 và 5. BÀN LUẬN 15 biến thì thời gian huấn luyện giảm 81.6 Hình 4.3 đến 4.5 và Hình 4.6 đến 4.8 và 6.6 lần. Kết quả này thể hiện rõ sự khác cho độ chính xác nhận dạng cao nhất tại tập biệt trong cơ chế học của GRNN và biến có số biến là 15, số neural ẩn của MLPNN. MLPNN với giải thuật lan truyền MLPNN là 20 và hệ số spread của GRNN ngược phải tính sai số qua nhiều vòng lặp là 0.1. Kết quả thấy giải thuật chọn biến mới kết thúc quá trình huấn luyện, trong khi Relief với bộ nhận dạng GRNN cho kết quả GRNN chỉ cần tính tâm của hàm bán kính số biến nhỏ hơn, độ chính xác kiểm tra cao là cho ra kết quả ngõ ra. Vì vậy, GRNN có hơn các phương pháp còn lại. thời gian huấn luyện nhanh hơn rất nhiều so với MLPNN. Kết quả từ Hình 4.9, 4.10 và Bảng 5.1 cho thấy: 6. KẾT LUẬN Đối với GRNN: phương pháp Relief, Bài báo đề nghị áp dụng giải thuật Divergence và Fisher, khi số biến đặc Relief để lựa chọn biến và so sánh với trưng là 15 biến, độ chính xác nhận phương pháp chọn biến sử dụng hai hàm dạng của GRNN lần lượt là 95.27%, khoảng cách Fisher và Divergence trong 95.10% và 93.40%. chẩn đoán nhanh ổn định động HTĐ. Đối với MLPNN: phương pháp Relief, Kết quả kiểm tra với hai bộ nhận dạng Divergence và Fisher, khi số biến đặc GRNN và MLPNN với cùng số biến đặc trưng là 15 biến, độ chính xác nhận trưng, GRNN-Relief cho độ chính xác cao dạng của MLPNN lần lược là 93.07%, hơn các phương pháp chọn biến còn lại. 92.02% và 91.97%. GRNN-Relief với số biến là 15 biến giảm Như vậy, GRNN-Relief cho độ chính đến 12.6 lần, độ chính xác nhận dạng nâng xác nhận dạng kiểm tra cao hơn cao 1.71%, thời gian huấn luyện giảm 81.6 GRNN-Divergence và GRNN-Fisher là lần, điều này cho thấy giải thuật Relief chọn 0.17% và 1.87%. MLPNN-Relief cho được các biến đặc trưng nhất, loại biến độ chính xác nhận dạng kiểm tra cao nhiễu giúp nâng cao độ chính xác, rút ngắn hơn MLPNN-Divergence và MLPNN thời gian huấn luyện. -Fisher là 1.05% và 1.1%. TÀI LIỆU THAM KHẢO [1]. M. R. Aghamohammadi, F. Mahdavizadeh, R. Bagheri, Power System Dynamic Security Classification Using Kohenen Neural Networks, 2009 IEEE, pp.1-7. [2]. Rui Zhang, Yan Xu, Zhao Yang Dong and David J Hill, Feature Selection For Intelligent Stability Assessment of Power Systems, 2012 IEEE, pp.1-7. [3]. C. A. Jensen and M. A. El-Sharkawi, Power system security assessment using neural networks: feature selection using Fisher discrimination, IEEE Trans. Power Systems, vol. 16, Nov. 2001, pp.757-763.
- [4]. K. Niazi, C. Arora, and S. Surana, Power system security evaluation using ann: feature selection using divergence, Electric Power Systems Research, vol. 69, Feb. 2004, pp.161-167. [5]. Taylor, Computational methods of feature selection, Edited by Huan Liu, Horoshi Motoda, 2008, pp.169-176. [6]. I. S. Isa, Z. Saad, S. Omar, M. K. Osman, K. A. Ahmad, Suitable MLP Network Activation Functions for Breast Cancer and Thyroid Disease Detection, 2010 IEEE, pp.39-44. [7]. Matlab R2011b, Neural Network Toolboox User’s Guide. [8]. Behnam Ababaei, Teymour Sohrabi and Farhad Mirzaei, Assessment of radial basis and generalized regression neural networks in daily reservoir inflow simulation, Elixir Comp. Sci. & Engg. 42, 2012, pp.6074-6077. [9]. Simon S. Haykin, Neural Networks A Comprehensive Foundation, 2nd Edition, 1999, pp.84-86. [10].Quyen Huy Anh, The application of pattern recognition methods for fast analysis of the dynamic stability of electrical power system, Electrical technology, No. 2, pp.1-13, 1994, Perganon. [11].Hussain Hassan Al Marhoon, A Practical Method for Power Systems Transient Stability and Security, B.S. University of New Orleans, 2008, pp.56-60. [12].Prabha Kundur, Power System Stability and Control, New York: McGraw Hill, 1994, pp.17-39.
- BÀI BÁO KHOA HỌC THỰC HIỆN CÔNG BỐ THEO QUY CHẾ ĐÀO TẠO THẠC SỸ Bài báo khoa học của học viên có xác nhận và đề xuất cho đăng của Giảng viên hướng dẫn Bản tiếng Việt ©, TRƯỜNG ĐẠI HỌC SƯ PHẠM KỸ THUẬT TP. HỒ CHÍ MINH và TÁC GIẢ Bản quyền tác phẩm đã được bảo hộ bởi Luật xuất bản và Luật Sở hữu trí tuệ Việt Nam. Nghiêm cấm mọi hình thức xuất bản, sao chụp, phát tán nội dung khi chưa có sự đồng ý của tác giả và Trường Đại học Sư phạm Kỹ thuật TP. Hồ Chí Minh. ĐỂ CÓ BÀI BÁO KHOA HỌC TỐT, CẦN CHUNG TAY BẢO VỆ TÁC QUYỀN! Thực hiện theo MTCL & KHTHMTCL Năm học 2016-2017 của Thư viện Trường Đại học Sư phạm Kỹ thuật Tp. Hồ Chí Minh.