Bài giảng môn Kỹ thuật viễn thông - Mạng viễn thông - Lý thuyết thông tin

Tài liệu Bài giảng môn Kỹ thuật viễn thông - Mạng viễn thông - Lý thuyết thông tin: 9/12/2010 1 Mạng viễn thông - lý thuyết thông tin 29/12/2010 Outline • Giới thiệu Mạng viễn thông • Khái niệm cơ bản • Thông tin • Entropy • Mã hóa nguồn 39/12/2010 Giới thiệu • Viễn thông là gì? • Tiếng Hi Lạp : "tele” - xa; và và Latin, "communicate“ –chia sẻ . Viễn thông là truyền thông cự ly xa. • Bản chất của Viễn thông là truyền Thông tin đến 1 hay nhiều người dùng trong bất kỳ dạng nào có thể 49/12/2010 Viễn thông • Có xu hướng nghĩ Viễn thông là điện thoại, mạng máy tính, Internet, truyền hình cáp. • Bao gồm phương tiện điện, điện từ, và quang đã được nhắc đến, đồng thời Bao gồm dây dẫn đơn giản, radio, hay dạng khác. 59/12/2010 Viễn thông thời kỳ đầu • trống và còi • khói/Tín hiệu lửa • ánh sáng • bồ câu trống khói bồ câuTower using mirrors 69/12/2010 Viễn thông phát triển • điện tín (Morse) • điện thoại (Bell) • truyền thông không dây • truyền thông vệ tinh A BTS (Mobile Communication) VINASAT-1 satellite 79/12/2010 hệ thống ...

pdf51 trang | Chia sẻ: ntt139 | Lượt xem: 977 | Lượt tải: 0download
Bạn đang xem trước 20 trang mẫu tài liệu Bài giảng môn Kỹ thuật viễn thông - Mạng viễn thông - Lý thuyết thông tin, để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên
9/12/2010 1 Mạng viễn thơng - lý thuyết thơng tin 29/12/2010 Outline • Giới thiệu Mạng viễn thơng • Khái niệm cơ bản • Thơng tin • Entropy • Mã hĩa nguồn 39/12/2010 Giới thiệu • Viễn thơng là gì? • Tiếng Hi Lạp : "tele” - xa; và và Latin, "communicate“ –chia sẻ . Viễn thơng là truyền thơng cự ly xa. • Bản chất của Viễn thơng là truyền Thơng tin đến 1 hay nhiều người dùng trong bất kỳ dạng nào cĩ thể 49/12/2010 Viễn thơng • Cĩ xu hướng nghĩ Viễn thơng là điện thoại, mạng máy tính, Internet, truyền hình cáp. • Bao gồm phương tiện điện, điện từ, và quang đã được nhắc đến, đồng thời Bao gồm dây dẫn đơn giản, radio, hay dạng khác. 59/12/2010 Viễn thơng thời kỳ đầu • trống và cịi • khĩi/Tín hiệu lửa • ánh sáng • bồ câu trống khĩi bồ câuTower using mirrors 69/12/2010 Viễn thơng phát triển • điện tín (Morse) • điện thoại (Bell) • truyền thơng khơng dây • truyền thơng vệ tinh A BTS (Mobile Communication) VINASAT-1 satellite 79/12/2010 hệ thống chuyển mạch hệ thống truyền thơng quang hệ thống thoại và truyền hình Hệ thống truyền thơng vệ t hệ thống truyền thơng di động Hệ thống truyền thơng khơng dây hệ thống truyền thơng dữ liệu Mạng viễn thơng 89/12/2010 • Mạng viễn thơng là mạng gồm liên kết và nút mạng viễn thơng được sắp xếp để thơng tin chuyển từ 1 phần của mạng đến mạng khác qua nhiều kết nối và thơng qua chế độ khác nhau. 99/12/2010 Mạng viễn thơng • Mạng viễn thơng được chia thành: – thiết bị chuyển mạch và thiết bị truyền nhận cùng nhau hình thành mạng lõi – thiết bị đầu cuối hướng khách hàng kết nối đến mạng lõi thơng qua truy nhập mạng • truyền tải và chuyển mạch là 2 chức năng cơ bản để truyền tải Thơng tin người dùng. Transport thiết bị truyền nhận chuyển mạch Switch hay Exchange hay Central Office (CO) truy nhập thiết bị để truy nhập của thuê bao (truy nhập mạngs AN) Customer Premises Equipment (CPE) thiết bị đầu cuối thuê bao 109/12/2010 Transport AN AN N T N T AN N T AN N T Exchange truy nhập mạng (AN) với đầu cuối thuê bao (CPE) truyền tải kênh truyền(trao đổi liên kết kết nối): • trung kế để truyềnThơng tin người dùng • tín hiệu kết nối để truyền thơng tin điều khiển SIEMENS NIXDORF SIEMENS NIXDORF SIEMENS NIXDORF SIEMENS NIXDORF 119/12/2010 Khái niệm cơ bản • sơ đồ khối của hệ thống truyền thơng số mã hĩa nguồn mã hĩa kênh truyền bộ điều chế kênh truyền nhiễu bộ giải mã kênh bộ giải mã nguồn bộ giải điều chế nguồn đích 129/12/2010 lý thuyết thơng tin? • lý thuyết thơng tin cung cấp cách đo lường của nguồn Thơng tin, dung lương thơng tin của một kênh truyền • mã hĩa là phương tiện tối ưu hĩa dung lượng kênh truyền để lưu chuyển Thơng tin • lý thuyết mã hĩa của Shannon: “Nếu tốc độ của Thơng tin từ nguồn ko vượt quá dung lượng của kênh truyền thơng tin, thì tồn tại kỹ thuật mã hĩa mà Thơng tin được phát qua kênh truyền với xác suất lỗi nhỏ, bất chấp sự tồn tại của lỗi” 139/12/2010 đo lường Thơng tin • lý thuyết thơng tin: bao nhiêu Thơng tin – chứa trong tín hiệu? – hệ thống phát sinh? – một kênh truyền truyền tải? • Thơng tin là 1 dạng hàng hĩa sản xuất bởi nguồn để đến vài người dùng ở đích • Ví dụ : Barcelona vs GĐT-LA 149/12/2010 đo lường Thơng tin • 3 kết quả: thắng, hịa, thua • Sự kiện càng ít khả năng, càng chưa nhiều thơng tin • Thơng tin định nghĩa tốn học như thế nào? Cases sự kiệns Thơng tin khả năng 1 Barca thắng khơng cĩ Thơng tin ≈1, chắc chắn 2 Barca hịa với GĐT-LA Thơng tin nhiều hơn Tương đối thấp 3 Barca thua Lượng Thơng tin lớn Xác suất thấp xuất hiện trong tình huống đặc biệt i 159/12/2010 Thơng tin • xj là sự kiện với p(xj) là khả năng của sự kiện xj được chọn để truyền dẫn • Nếu xj xảy ra 1( ) log log ( ) ( )j a a jj I x p x p x = = − đơn vị của Thơng tin „ I(xj) được gọi self-information … I(xj)≥0 for 0≤ p(xj)≤1 … I(xj)→0 for p(xj)→1 … I(xj)>I(xi) for p(xj)<p(xi) (1) 169/12/2010 Thơng tin • cơ số của logarithm – 10 → đo lường của Thơng tin là hartley – e → đo lường của Thơng tin là nat – 2 → đo lường của Thơng tin là bit • Ví dụ : thí nghiệm ngẫu nhiên với 16 kết quả tương đương: – Thơng tin tương ứng với mỗi kết quả : • I(xj)=-log2(1/16)=log216=4 bits – Thơng tin là lớn hơn1 bit,do khả năng của mỗi kết quả là ít hơn ½. 179/12/2010 Entropy và Thơng tin tốc độ • xem xét nguồn Thơng tin phát 1 chuỗi symbols từ tập X={x1,x2..,xM} • mỗi symbol xi được xem như 1 thơng tin với khả năng p(xi) và self-informationI(xi) • Nguồn cĩ tốc độ trung bình r symbols/sec • Nguồn ko bộ nhớ gián đoạn • Lượng Thơng tin cung cấp bởi nguồn trong khoảng tùy ý symbol là biến X gián đoạn ngẫu nhiên . • Thơng tin trung bình mỗi symbol là n : • Entropy = Thơng tin = sự ko chắc chắn • Nếu tín hiệu là hồn tồn dự đốn được, nĩ cĩ 0 entropy và khơng cĩ Thơng tin • Entropy = số trung bình bits yêu cầu để truyền tải tín hiệu bit/symbo )(log)()}({)( 1 2∑ = −== M j jjj xpxpxIEXH (2) 189/12/2010 Ví dụ • biến ngẫu nhiên với phân bố chính tắc qua 32 kết quả – H(X) = - ∑ (1/32).log(1/32) = log 32 = 5 – # bits yêu cầu = log 32 = 5 bits! – do đĩ H(X) = số bits yêu cầu để đại diện sự kiện ngẫu nhiên • Bao nhiêu bits là cần thiết : – kết quả của thảy đồng xu – “ngày mai là Thứ 5 ” 199/12/2010 Entropy • giá trị của H(X) từ 1 nguồn phụ thuộc vào xác suất symbol p(xi) và M • Tuy nhiên , • Biên thấp tương xứng đến khơng cĩ sự ko chắc chắn • biên trên tương xứng đến sự ko chắc chắn lớn nhất, xảy ra khi mỗi symbol là tương đương cĩ thể xảy ra • chứng minh của sư khơng cân bằng được thể hiện trong [2] Chapter 15 MXH 2log)(0 ≤≤ (3) 209/12/2010 chứng minh • Biên thấp với tùy ý M dễ dàng chứng minh, ghi nhớ là a.log(a)→0 as a→0 • chứng minh của biên trên là phức tạp hơn • Dựa vào bất đẳng thức ln a ≤ (a-1) MXH 2log)(0 ≤≤ Mxpxp MxpxpXH M i ii X 2 1 2 log)(log).( log)(log.)()( ≤−= ≤−= ∑ ∑ = 219/12/2010 • xem xét: MXHMXH xp M eMXH xp M eMXH xpM xpe xpM xpe xpM xpxpMxpxp MxpxpMXH M i M i i M i i i M i i M i i i M i i i M i i M i ii X 22 1 1 22 1 22 1 2 1 2 1 2 1 2 1 2 22 log)(0log)( )(1loglog)( )(1.loglog)( 1 )(. 1).(.log )(. 1ln).(.log )(. 1log).()(.log)(log).( log)(log.)(log)( ≤⇒≤−⇔ ⎟⎠ ⎞⎜⎝ ⎛ −≤−⇔ ⎟⎠ ⎞⎜⎝ ⎛ −≤−⇒ ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ −≤= =−−= −−=− ∑ ∑ ∑ ∑∑ ∑∑∑ ∑ = = = == === chứng minh MXH 2log)(0 ≤≤ dấu bằng xảy ra khi: M xp xpM ii 1)(1 )(. 1 =⇒= 229/12/2010 Ví dụ • Với nguồn nhị phân (M=2), p(1)=α và p(0)=1-α = β. • từ (2), entropy nhị phân: • H(X)= -α.logα -(1-α).log(1-α) 239/12/2010 lý thuyết mã hĩa nguồn • Thơng tin từ 1 nguồn tạo ra symbols khác nhau diễn tả bởi entropy H(X) • tốc độ nguồn Thơng tin (bit/s): Rs = rH(X) (bit/s) – H(X): entropy nguồn (bits/symbol) – r: tốc độ symbol(symbols/s) • giả định nguồn là đầu vào đến một kênh truyền: – C: dung lượng (bits/symbol) – S: tốc độ symbol(symbols/s) – S.C: bits/s 249/12/2010 lý thuyết mã hĩa nguồn(t.t. ) • Thuyết Shannon(lý thuyết mã hĩa ko nhiễu ): – “Cho một kênh truyền và 1 nguồn phát sinh Thơng tin ở tốc độ ít hơn dung lượng kênh truyền, cĩ thể mã hĩa đầu ra của nguồn bằng cách phát thơng qua kênh truyền” • Biểu diễn của Mã hĩa nguồn bằng Ví dụ : nguồn nhị phân rời rạc mã hĩa nguồn kênh truyền nhị phân nguồn tốc độ symbol = r = 3.5 symbols/s C = 1 bit/symbol S = 2 symbols/s SC = 2 bits/s 259/12/2010 Ví dụ của Mã hĩa nguồn • nguồn nhị phân rời rạc: A(p=0.9), B(p=0.1) • nguồn tốc độ symbol (3.5) >dung lượng kênh truyền(2) Ư nguồn symbols cĩ thể ko được phát đi trực tiếp • Kiểm tra thuyết Shannon: – H(X)=-0.1 log20.1-0.9log20.9=0.469bits/symbol – Rs = rH(X) = 3.5(0.469)=1.642 bits/s < S.C = 2 bits/s • truyền dẫn cĩ thể dùng Mã hĩa nguồn để làm giảm tốc độ symbol trung bình 269/12/2010 Ví dụ của Mã hĩa nguồn(t.t. ) • Từ mã được gán nhĩm n-symbol của nguồn symbols • QUy luật: – Từ mã ngắn nhất đến nhĩm khả năng lớn nhất – Từ mã dài nhất đến nhĩm thấp khả năng nhất • Nhĩm n -symbol của nguồn symbols # mở rộng thứ n của nguồn nguyên gốc 279/12/2010 mở rộng thứ nhất • tốc độ symbol của bộ mã hĩa = tốc độ symbol của nguồn • lớn hơn của kênh truyền cĩ thể chứa nguồn symbol P () từ mã [P()].[số mã hĩa Symbols] A 0.9 0 0.9 B 0.1 1 0.1 L=1.0 289/12/2010 mở rộng thứ hai i i i lxpL n *)( 2 1 ∑ = = nguồn symbol P () từ mã [P()].[số của mã hĩa Symbols] AA 0.81 0 0.81 AB 0.09 10 0.18 BA 0.09 110 0.27 BB 0.01 111 0.03 L=1.29 L: trung bình chiều dài mã p(xi): khả năng symbol i th của nguồn mở rộng li : chiều dài của từ mã tương ứng với i th symbol nhĩm 2 nguồn symbols cùng 1 thời điểm : 299/12/2010 mở rộng thứ hai symbol urcesymbols/so code 645.0 2 29.1 == n L 258.2)645.0(5.3 == n Lr tốc độ symbol tại đầu ra bộ mã hĩa : vẫn lớn hơn 2 symbols/s của kênh truyền Tiếp tục với mở rộng thứ 3 mã hĩa symbols/sec >2 309/12/2010 mở rộng thứ ba nhĩm 3 nguồn symbols cùng 1 thời điểm : nguồn symbol P () từ mã [P()].[số của mã hĩa Symbols] AAA 0.729 0 0.729 AAB 0.081 100 0.243 ABA 0.081 101 0.243 BAA 0.081 110 0.243 ABB 0.009 11100 0.045 BAB 0.009 11101 0.045 BBA 0.009 11110 0.045 BBB 0.001 11111 0.005 L=1.598 319/12/2010 mở rộng thứ ba 533.0 3 598.1 == n L condsymbols/se code 864.1)533.0(5.3 == n Lr tốc độ symbol tại đầu ra bộ mã hĩa : tốc độ này là chấp nhận được bởi kênh truyền mã hĩa symbols/nguồn symbol 329/12/2010 hiệu quả của nguồn mã hĩa • Độ hiệu quả là cách đo khả năng của nguồn mã hĩa ∑ = == n i ii lxp L L Leff 1 minmin )( D XHL 2 min log )(= DL XHeff 2log )(= L XHeff )(= H(X): entropy của nguồn D: số symbols trong coding alphabet Trong đĩ ” or Cho alphabet nhị phân 339/12/2010 Entropy và hiệu quả của nguồn mở rộng nhị phân • Entropy mở rộng thứ n của nguồn rời rạc ko nhớ : H (X n)=n*H (X) • hiệu quả của nguồn mở rộng: L XHneff )(.= 349/12/2010 Biểu diễn của L/n n n L 1.0 0.8 0.6 0.4 0.2 0 0 1 3 42 0.469 H(X) ƒL/n luơn vượt quá entropy nguồn và hội tụ đến entropy nguồn khi n lớn ƒgiảm chiều dài trung bình từ mã dẫn đến tăng độ phức tạp của mã hĩa 359/12/2010 Mã hĩa Shannon-Fano [1] • Trình tự : 3 bước 1. liệt kê nguồn symbols theo thứ tự giảm xác suất 2. phân chia tập thành 2 tập con gần nhất cĩ thể. 0’s được gán đến tập trên và 1’s đến tập dưới 3. tiếp tục phân chia tập con cho đến khi ko thể phân chia được nữa • Ví dụ : 369/12/2010 Ví dụ Mã hĩa Shannon-Fano Ui pi 1 2 3 4 5 Từ mã U1 .34 U2 .23 U3 .19 U4 .1 U5 .07 U6 .06 U7 .01 0 0 1 1 1 1 1 1 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 00 01 10 110 1110 11110 11111 379/12/2010 Mã hĩa Shannon-Fano 41.2 7 1 ==∑ = i i ilpL 37.2log)( 2 7 1 =−= ∑ = i i i ppUH 98.0 41.2 37.2)( === L UHeff ƒ mã hĩa phát sinh là tiền mã hĩa do khả năng phân chia ƒ khơng dẫn đến tiền mã hĩa đặc biệt. nhiều tiền mã hĩa cĩ hiệu quả giống nhau. 389/12/2010 Mã Huffman [1][2][3] • Trình tự : 3 bước 1. liệt kê nguồn symbols theo thứ tự giảm xác suất. 2 nguồn symbols xác suất thấp nhất được gán a 0 và a 1. 2. 2 nguồn symbols kết hợp thành nguồn symbol mới với xác suất tương đương tổng của 2 xác suất nguyên gốc. xác suất mới đặt trong danh sách tương ứng với giá trị của nĩ. 3. lập lại cho đến khi khả năng cuối cùng của symbol kết hợp mới là 1.0. • Ví dụ : 399/12/2010 Ví dụ của Mã hĩa Huffman .01U7 .06U6 .07U5 .1U4 .19U3 .23U2 .34U1 piUi 0 1 .07 0 1 .14 0 1 .24 0 1 .42 0 1 .58 0 1 1.0 01011U7 01010U6 0100U5 011U4 11U3 10U2 00U1 Từ mãUi 409/12/2010 Mã hĩa Huffman : khuyết điểm • khi nguồn cĩ nhiều symbols (đầu ra/thơng tin ), mã hĩa trở thành cồng kềnhƯmã hĩa Hufman + chiều dài mã hĩa cố định . • vẫn cĩ dư thừa và dư thừa là lớn so với tập nhỏ thơng tin Ưnhĩm nhiều thơng tin đơc lập 419/12/2010 Mã hĩa Huffman : khuyết điểm • Ví dụ 9.8 và 9.9 ([2],pp. 437-438) • nhĩm tạo dư thừa nhỏ nhưng số Từ mã tăng lũy thừa, mã hĩa trở thành phức tạp hơn và trì hỗn phát sinh . 429/12/2010 Entropy Ví dụ 2 • Đua ngựa với 8 con ngựa, với xác suất thắng ½, ¼, 1/8, 1/16, 1/64, 1/64, 1/64, 1/64 • Entropy H(X) = 2 bits • Bao nhiêu bits cần thiết? • (a) Chỉ số mỗi con ngựaỴ log8 = 3 bits • (b) gán mã hĩa ngắn hơn đến con ngựa với khả năng cao hơn : 0, 10, 110, 1110, 111100, 111101, 111110, 111111 Ỵ chiều dài mơ tả trung bình = 2 bits! 439/12/2010 Entropy • Cần ít nhất H(X) bits để đại diện X • H(X) là Biên thấp on chiều dài miêu tả theo yêu cầu • Entropy = sự ko chắc chắn của biến ngẫu nhiên 449/12/2010 Entropy kết hợp và điều kiện • entropy kết hợp : H(X,Y) = ∑x ∑y p(x,y) log p(x,y) • mở rộng đơn giản của entropy đến 2 RVs • entropy điều kiện : H(Y|X) = ∑x p(x) H(Y|X=x) = ∑x ∑y p(x,y) log p(y|x) Ỵ“Entropy của Y Nếu X được biết?” • Dễ kiểm chứng: Ỵ Nếu X, Y độc lập , H(Y|X) = H(Y) Ỵ Nếu Y = X, H(Y|X) = 0 H(Y|X) = Thơng tin thêm giữa X & Y • Thực tế : H(X,Y) = H(X) + H(Y|X) 459/12/2010 Thơng tin tương hỗ • I(X;Y) = H(X) – H(X|Y) = suy giảm entropy do biến khác • I(X;Y) = ∑x ∑y p(x,y) log p(x,y)/{p(x)p(y)} • “Bao nhiêu Thơng tin về Y chứa trong X?” • Nếu X,Y độc lập , I(X;Y) = 0 • Nếu X,Y giống nhau , I(X;Y) = H(X) = H(Y) • đối xứng và khơng âm 469/12/2010 Thơng tin tương hỗ Quan hệ giữa entropy, Thơng tin kết hợp và tương hỗ 479/12/2010 Thơng tin tương hỗ • I(X;Y) đo lường sự tương tự giữa X và Y • sử dụng rộng rãi trong xử lý ảnh /tín hiệu • Ảnh y khoa Ví dụ : – đăng ký ảnh dựa trên MI • tại sao ? MI ko nhạy cảm với độ lợi và bias 489/12/2010 Bài tập về nhà 1 • tính tốn H(X) để nguồn rời rạc ko nhớ cĩ 6 symbols với xác suất : PA=1/2, PB=1/4, PC=1/8, PD=PE=1/20,PF=1/40 • tìm lượng Thơng tin chứa trong thơng tin ABABBA và FDDFDF và so sánh với lượng Thơng tin mong đợi trong 1 thơng điệp 6-symbol. 499/12/2010 Bài tập về nhà 2 • Một nguồn dữ liệu cĩ 16 symbols xác suất bằng nhau, mỗi symbol 1ms . Symbols phát sinh trong khối 15, cách nhau khoảng 5-ms. Tìm tốc độ nguồn symbol . 509/12/2010 Bài tập về nhà 3 • Tìm mã Shannon-Fano của nguồn trong Bài tập về nhà 1, và tính độ hiệu quả. 519/12/2010 Tham khảo [1]. R. E. Ziemer & W. H. Transter, “Information Theory and Coding”, Principles of Communications: Systems, Modulation, and Noise, 5th edition. John Wiley, pp. 667-720, 2002. [2]. A. Bruce Carlson, “Communications Systems”, Mc Graw-Hill, 1986, ISBN 0-07- 100560-9 [3]. S. Haykin, “Fundamental Limits in Information Theory”, Communication Systems, 4th edition, John Wiley & Sons Inc, pp. 567-625, 2001

Các file đính kèm theo tài liệu này:

  • pdftailieu.pdf
Tài liệu liên quan