Bài giảng Lý thuyết thông tin - Chương 3: Lượng tin, Entropi nguồn rời rạc - Bùi Văn Thành

pdf 20 trang phuongnguyen 2620
Bạn đang xem tài liệu "Bài giảng Lý thuyết thông tin - Chương 3: Lượng tin, Entropi nguồn rời rạc - Bùi Văn Thành", để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên

Tài liệu đính kèm:

  • pdfbai_giang_ly_thuyet_thong_tin_chuong_3_luong_tin_entropi_ngu.pdf

Nội dung text: Bài giảng Lý thuyết thông tin - Chương 3: Lượng tin, Entropi nguồn rời rạc - Bùi Văn Thành

  1. Trường Đại Học Công Nghệ Thông Tin KHOA MẠNG & TRUYỀN THÔNG LÝ THUYẾT THÔNG TIN Bùi Văn Thành thanhbv@uit.edu.vn 1 Tháng 7 năm 2013
  2. CHƯƠNG 3 Lượng tin, Entropi nguồn rời rạc 2
  3. 3.1 MốI LIÊN Hệ CủA LƯợNG TIN VÀ LÝ THUYếT XÁC SUấT  Sự tiếp xúc của con người với ngoại vật, nhận thức được ngoại vật là thông qua thông tin tiếp thu được. • Một tin đối với người nhận có 2 phần, hay 2 nội dung: 1. Độ bất ngờ của tin: rất liên quan đến các vấn đề cơ bản của hệ thống truyền tin. Ví dụ: một tin càng bất ngờ, sự xuất hiện của nó càng hiếm, thì rõ ràng thời gian nó chiếm trong một hệ thống truyền tin càng ít. Như vậy, muốn cho việc truyền tin có hiệu suất cao thì không thể coi các tin như nhau nếu chúng xuất hiện ít nhiều khác nhau. 2. Ý nghĩa (hàm ý) của tin: không ảnh hưởng đến các vấn đề cơ bản của hệ thống truyền tin như tốc độ hay độ chính xác. Nó 3 chính là ý nghĩa của những tin mà con người muốn trao đổi với nhau thông qua việc truyền tin.
  4. 3.1 MốI LIÊN Hệ CủA LƯợNG TIN VÀ LÝ THUYếT XÁC SUấT Về mặt truyền tin ta chỉ quan tâm đến độ bất ngờ của tin hay xác suất xuất hiện các ký hiệu. Xét mối liên hệ giữa khái niệm tin tức với lý thuyết xác suất: (k) o Một nguồn tin rời rạc x = (x1 , , xn ) là một ký hiệu ai bất kỳ (k) (k) thuộc nguồn A được gửi đi ở thời điểm tk . Tin x có dạng: x với xác suất xuất hiện p(x(k)). o Thực hiện phép biến đổi tổng quát trong một hệ thống truyền tin là phép biến đổi có cấu trúc thống kê của nguồn, ie, biến đổi cấu trúc thống kê của tập tin ở đầu vào khâu hệ thống trở thành một tập tin mới với một cấu trúc thống kê mong muốn ở đầu ra. {A,p(a)}  {B,p(b)} ,  quy luật biến đổi 4 o {A,p(a)}: nguồn vào với bộ chữ A, có phân bố xác suất p(a) o {B,p(b)}: nguồn ra với bộ chữ B, có phân bố xác suất p(b)
  5. 3.2 LƯỢNG TIN RIÊNG, LƯỢNG TIN TƯƠNG HỖ, LƯỢNG TIN CÓ ĐIỀU KIỆN 1  Lượng tin riêng: I(xi ) log p(xi )  Ở đầu vào của kênh là các tin x i X , các tin trong quá trình truyền lan trong kênh bị nhiễu phá hoại, làm cho sự chuyển đổi từ nguồn X sang nguồn Y không phải là 1-1 . Một tin x i X có thể chuyển thành một tin y j Y ở đầu ra của kênh với những xác suất chuyển đổi khác nhau tùy thuộc theo tính chất nhiễu trong kênh.  Bài toán truyền tin trong trường hợp này đặt ra là: Cho biết cấu trúc thống kê của nguồn X, tính chất tạp nhiễu của kênh biểu thị dưới dạng các xác suất chuyển đổi của tin, khi nhận được một tin y j Y , hãy xác định tin tương ứng của nguồn X.  Lời giải tìm được sẽ có dạng: Với tin y j Y nhận được, tin nào của nguồn X có nhiều khả năng đã được phát đi nhất. 5
  6. Để giải quyết vấn đề, phải qua hai bước: 1. Tính các lượng tin về một tin bất kỳ xi Xchứa trong tin y j Ynhận được, lượng tin đó gọi là lượng tin tương hỗ giữa xi và yi . Muốn xác định lượng tin tương hỗ ta phải tìm lượng tin ban đầu có trong xi , sau khi thực hiện quá trình truyền tin ta tìm lượng tin còn lại trong xi, hiệu hai lượng tin này cho ta thấy lượng tin đã truyền từ xi sang yi . Lượng tin có điều kiện, trong quá trình truyền tin, là lượng tin đã bị tạp nhiễu phá hủy không đến đầu thu được: 1 I(xi | y j ) log Lượng tin tương hỗ: p(xi | y j ) p(xi | y j ) I(xi , y j ) I(xi ) I(xi | y j ) log p(xi ) = log p(xi | y j ) /  p(y j ) p(xi | y j ) j 2. Đem so sánh các lượng tin tương hỗ với nhau, và lượng tin nào cực 6 đại sẽ cho biết tin xi có khả năng nhiều nhất chuyển thành yi trong quá trình truyền tin.
  7. TÍNH CHẤT CỦA LƯỢNG TIN . Tính chất 1: I(xi) ≥ 0 . Tính chất 2: I(xi) ≥ I(xi,yj) . Tính chất 3: I(xiyj) = I(xi) + I(yj) - I(xi,yj) . Khi cặp xi, yj độc lập thống kê với nhau thì I(xi; yi) = 0 7
  8. LƯợNG TIN TRUNG BÌNH . Lượng tin trung bình: là lượng tin tức trung bình chứa trong một ký hiệu bất kỳ của nguồn đã cho: I(A) p(ai )I(ai ) p(ai )logp(ai) ai A ai A . Lượng tin tương hỗ trung bình: p(x / y) I(X ,Y )  p(x, y)log x X ;y Y p(x) .Lượng tin riêng trung bình có điều kiện: H(X /Y) I(X)  p(x, y)logp(x/ y) XY .Quan hệ giữa các lượng tin trung bình: I ( X , Y ) I ( X ) I ( X | Y ) I (X ,Y ) I(Y, X ) 0 8
  9. VÍ Dụ Bài toán: Cho một nguồn tin U bao gồm 8 tin U = {u0, u1, u2, u3, u4, u5, u6, u7}, với các xác suất xuất hiện như sau: p(u0) p(u1) p(u2) p(u3) p(u4) p(u5) p(u6) p(u7) 1/4 1/4 1/8 1/8 1/16 1/16 1/16 1/16 Hãy cho biết lượng tin riêng của mỗi tin và lượng tin trung bình của nguồn này trong đơn vị bits. Giải: Lượng tin riêng của mỗi tin là I(u0) I(u1) I(u2) I(u3) I(u4) I(u5) I(u6) I(u7) 2 2 3 3 4 4 4 4
  10. VÍ Dụ (TT)  Lượng tin trung bình của nguồn là I(U) = (1/4) 2 + (1/4) 2 + (1/8) 3 + (1/8) 3 + (1/16) 4 + (1/16) 4 + (1/16) 4 + (1/16) 4 = 2,75 bits.  Điều này nói lên một ý nghĩa quan trọng rằng, chúng ta có thể biểu diễn mỗi tin trong nguồn U bằng một chuỗi có chiều dài trung bình là 2,75 bits. Nó sẽ tốt hơn so với trong trường hợp chúng ta không chú ý đến cấu trúc thống kê của nguồn. Lúc đó chúng ta sẽ biểu diễn mỗi tin trong 8 tin của nguồn bằng các chuỗi có chiều dài là 3 bits.
  11. TốC Độ LậP TIN Tốc độ thiết lập tin của nguồn: Lượng thông tin nguồn lập được trong một đơn vị thời gian: R= n0.H(X) (bps) + H(X): entropi của nguồn. + n0 : số ký hiệu được lặp trong một đơn vị thời gian Ví dụ: Cho nguồn tin X x 1 , x 2 , x 3 , x 4  với xác suất tương ứng là: p(x1 ) 1/ 2; p(x2 ) 1/ 4; p(x3 ) 1/8; p(x4 ) 1/8 H (X ) 7 / 8 Nếu có một tin gồm các ký hiệu: x 1 x 1 x 4 x 2 x 1 x 2 x 1 x 3 . Để có H(x) cực đại phải có xác suất các ký hiệu bằng nhau bằng 1/8 11
  12. VÍ Dụ (TT): x1 y0 Muốn vậy ta mã hoá nguồn X trên thành nguồn Ynhư sau: x2 y1 y0 x3 y1 y1 y0 x4 y1 y1 y1 Ta được dãy các ký hiệu của tin : y0 y0 y1 y1 y1 y1 y0 y0 y1 y0 y0 y1 y1 y0 H (Y ) 1 Nguồn này có : z1 y0 y0 Mã hoá nguồn này thành nguồn Z với các ký hiệu sau: z2 y0 y1 z3 y1 y0 Ta được dãy các ký hiệu của tin : z1z4 z4 z1z3 z2 z3 z4 y1 y1 Xác suất các ký hiệu của nguồn bằng nhau và bằng 1/4 nên: H (Z ) log 4 2 Vậy bằng phép mã hoá nguồn X thành nguồn Z ta có thể nâng Entropi của nguồn X là H(x) = 7/8 thành Entropi H(z) = 2 mà vẫn đảm bảo lượng tin trong các bản tin được bảo toàn và có cùng giá trị là1214 (bit)
  13. THÔNG LƯợNG KÊNH TRUYềN Thông lượng của kênh C là lượng thông tin tối đa kênh cho qua đi trong một đơn vị thời gian mà không gây sai nhầm (C(bps)). Thông thường R < C, để R tiến tới gần C ta dùng phép mã hoá thống kê tối ưu (sao cho R=C) để tăng Entrôpi. Thông lượng kênh rời rạc không nhiễu: C = Rmax = n0. H(X)max (bps) Rmax tốc độ lập tin đầu vào, lượng tin này nhận được nguyên vẹn ở đầu ra Nếu kênh có R < C thì ta có thể mã hoá để tăng R sao cho: C – R < ,  nhỏ tuỳ ý. Độ dư của nguồn: R H(X )max H(X ) Độ dư tương đối của nguồn: H (X ) H (X ) H (X ) r max 1 H (X )max H (X )max Dùng phương pháp mã hóa tối ưu để giảm độ dư của nguồn đến 0 hoặc sử dụng độ dư của nguồn để xây dựng mã hiệu chống nhiễu. 13
  14. THÔNG LƯợNG KÊNH TRUYềN (TT)  Thông lượng kênh rời rạc có nhiễu: R = noI(X;Y) = n0[H(X)-H(X/Y)] (bps)  Tốc độ lập tin cực đại trong kênh có nhiễu: C = Rmax = n0[H(X)-H(X/Y)]max (bps) Độ dư tương đối còn có thể được xác định theo công thức: R r 1 c C Hiệu quả sử dụng kênh: c 1 rc 14
  15. 3.4 ENTROPI CủA NGUồN RờI RạC Khái niệm: Khi ta nhận được một tin ta sẽ nhận được một lượng tin trung bình, đồng thời độ bất ngờ về tin đó cũng đã được giải thoát, cho nên độ bất ngờ và lượng tin về ý nghĩa vật lý trái ngược nhau, nhưng về số đo thì giống nhau và được xác định theo công thức sau: 1 H(x) log p(x) Độ bất ngờ trung bình của một tin thuộc nguồn (entropi của nguồn) được xác định theo công thức sau: H (X )  p(x)log p(x) x X 15
  16. ENTROPI CÓ ĐIỀU KIỆN Khi cần đánh giá sự ràng buộc thống kê giữa các cặp (x,y) ta dùng khái niệm entropi có điều kiện H ( X | Y ) hoặc H ( Y | X ) Đó là độ bất định trung bình của một ký hiệu bất kỳ x X khi đã biết bất kỳ một ký hiệu y Y . H (X | Y)  p(x.y)log p(x | y) x X ;y Y H (Y | X )  p(x.y)log p(y | x) x X ;y Y So sánh với các biểu thức định nghĩa cho các entropi, ta có quan hệ sau: H (X ,Y ) H (X ) H (Y | X ) H (X ,Y ) H (Y ) H (X | Y ) 16
  17. TÍNH CHấT CủA ENTROPI 1. Entropi là một đại lượng không âm: H(X) 0 2. H(X) = 0 khi nguồn có một ký hiệu bất kỳ có xác suất xuất hiện bằng 1 và xác suất xuất hiện tất cả các ký hiệu còn lại bằng không.  Nghĩa là nguồn có một tin luôn được xác định, như vậy giá trị thông tin của nguồn bằng không. 3. Entropi cực đại khi xác suất xuất hiện của các ký hiệu bằng nhau Chứng minh: Các giá trị làm cực đại hàm H ( X )  p ( x ) log p ( x ) x X Với điều kiện p ( x ) 1 cũng chính là các giá trị p ( x ) làm cực đại hàm x X - Các giá trị p(x) bằng nhau với tất cả các tin của nguồn, và khi đó giá trị cực đại của H(x) sẽ llogà m nếu lấy đơn vị là bít và nguồn có m tin. 2 17 - Nếu nguồn có m ký hiệu đẳng xác suất thì xác suất xuất hiện một ký hiệu là 1/m khi đóH: (X ) log m
  18. LƯợNG TIN TƯƠNG Hỗ TRUNG BÌNH VÀ ENTROPI p(x | y) I(X ,Y )  p(x, y) log  p(x, y)(log p(x | y) log p(x)) x X ; y Y p(x) x X ;y Y  p(x, y)log p(x | y)  p(x, y)log p(x) x X , y Y x X ,y Y H (X ) H (X | Y ) Vậy: I (X ,Y ) H (X ) H (X | Y ) I (X ,Y ) H (Y ) H (Y | X ) Suy ra: I (X ,Y ) H (X ) H (Y ) H (X ,Y ) Nếu X,Y độc lập thống kê : I(X ,Y ) 0 Và ta cũng chứng minh được: H (X ) H (X | Y ) H (Y ) H (Y | X ) 18
  19. VÍ Dụ: p(y | x ) x 0 0 Cho sơ đồ truyền tin: 0 y0 p(y1 | x0 ) p(y0 | x1 ) x1 1 3 y1 p( y1 | x1 ) Biết : p(x0 ) ; p(x1 ) 4 4 p(y0 | x0 ) p(y1 | x1) 2/3; p(y1 | x0 ) p(y0 | x1) 1/3 + Tính Entropi đầu vào của kênh: H(X ) ( p(x0 )log p(x0 ) p(x1 )log p(x1 )) 0,81 + Tính Entropi đầu ra: p(y0 ) p(x0 )p(y0 | x0 ) p(x1 )p(y0 | x1 ) 0,417 p(y1 ) p(x0 ) p(y1 | x0 ) p(x1 ) p(y1 | x1 ) 0,583 19 H(Y) ( p(y0 )log p(y0 ) p(y1 )log p(y1 )) 0,98
  20. Tính H(X,Y): Áp dụng công thức: H(X ,Y)  p(xy)log p(xy) x X ;y Y p(x0 y0 ) p(x0 ) p(y0 | x0 ) 0,17 p(x0 y1 ) p(x0 ) p(y1 | x0 ) 0,08 p(x1 y0 ) p(x1) p(y0 | x1) 0,25 p(x1 y1 ) p(x1 ) p( y1 | x1 ) 0,5 H ( X , Y ) 1 , 73 + Tính: H ( X | Y ) H (X | Y ) H (X ,Y ) H (Y ) 1,73 0,98 0,75 20