Bài giảng Lý thuyết thông tin (Bản đẹp)

pdf 228 trang ngocly 710
Bạn đang xem 20 trang mẫu của tài liệu "Bài giảng Lý thuyết thông tin (Bản đẹp)", để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên

Tài liệu đính kèm:

  • pdfbai_giang_ly_thuyet_thong_tin_ban_dep.pdf

Nội dung text: Bài giảng Lý thuyết thông tin (Bản đẹp)

  1. Bài giảng: lý thuyết thông tin
  2. HỌC VIỆN CÔNG NGHỆ BƯU CHÍNH VIỄN THÔNG - - - - - - - - - - - - - - BÀI GIẢNG LÝ THUYẾT THÔNG TIN Biên soạn : PGS.Ts. NGUYỄN BÌNH Lưu hành nội bộ HÀ NỘI - 2006
  3. LỜI NÓI ĐẦU Giáo trình Lý thuyết thông tin là một giáo trình cơ sở dùng cho sinh viên chuyên ngành Điện tử – Viễn thông và Công nghệ thông tin của Học viện Công nghệ Bưu chính Viễn thông. Đây cũng là một tài liệu tham khảo hữu ích cho các sinh viên chuyên ngành Điện - Điện tử. Giáo trình này nhằm chuẩn bị tốt kiến thức cơ sở cho sinh viên để học tập và nắm vững các môn kỹ thuật chuyên ngành, đảm bảo cho sinh viên có thể đánh giá các chỉ tiêu chất lượng cơ bản của một hệ thống truyền tin một cách có căn cứ khoa học. Giáo trình gồm 6 chương, ngoài chương I có tính chất giới thiệu chung, các chương còn lại được chia thành 4 phần chính: Phần I: Lý thuyết tín hiệu ngẫu nhiên và nhiễu (Chương 2) Phần II: Lý thuyết thông tin và mã hóa (Chương 3 và Chương 4) Phần III: Lý thuyết thu tối ưu (Chương 5) Phần IV: Mật mã (Chương 6) Phần I: (Chương II). Nhằm cung cấp các công cụ toán học cần thiết cho các chương sau. Phần II: Gồm hai chương với các nội dungchủ yếu sau: - Chương III: Cung cấp những khái niệm cơ bản của lý thuyết thông tin Shannon trong hệ truyền tin rời rạc và mở rộng cho các hệ truyền tin liên tục. - Chương IV: Trình bày hai hướng kiến thiết cho hai định lý mã hóa của Shannon. Vì khuôn khổ có hạn của giáo trình, các hướng này (mã nguồn và mã kênh) chỉ được trình bày ở mức độ các hiểu biết cơ bản. Để có thể tìm hiểu sâu hơn những kết quả mới và các ứng dụng cụ thể sinh viên cần phải xem thêm trong các tài liệu tham khảo. Phần III: (Chương V) Trình bày vấn đề xây dựng các hệ thống thu tối ưu đảm bảo tốc độ truyền tin và độ chính xác đạt được các giá trị giới hạn. Theo truyền thống bao trùm lên toàn bộ giáo trình là việc trình bày hai bài toán phân tích và tổng hợp. Các ví dụ trong giáo trình được chọn lọc kỹ nhằm giúp cho sinh viên hiểu được các khái niệm một cách sâu sắc hơn. Các hình vẽ, bảng biểu nhằm mô tả một cách trực quan nhất các khái niệm và hoạt động của sơ đồ khối chức năng của các thiết bị cụ thể Phần VI: (Chương VI) Trình bày cơ sở lý thuyết các hệ mật bao gồm các hệ mật khóa bí mật và các hệ mật khóa công khai. Do khuôn khổ có hạn của giáo trình, một số vấn đề quan trọng còn chưa được đề cập tới (như trao đổi và phân phối khóa, xác thực, đảm bảo tính toàn vẹn ) Sau mỗi chương đều có các câu hỏi và bài tập nhằm giúp cho sinh viên củng cố được các kỹ năng tính toán cần thiết và hiểu sâu sắc hơn các khái niệm và các thuật toán quan trọng. Phần phụ lục cung cấp một số kiến thức bổ xung cần thiết đối với một số khái niệm quan trọng về một số số liệu cần thiết giúp cho sinh viên làm được các bài tập được ra ở các chương.
  4. Giáo trình được viết dựa trên cơ sở đề cương môn học Lỹ thuyết thông tin do Bộ Giáo dục và Đào tạo và được đúc kết sau nhiều năm giảng dạy và nghiên cứu của tác giả. Rất mong được sự đóng góp của bạn đọc. Các đóng góp ý kiến xin gửi về KHOA KỸ THUẬT ĐIỆN TỬ 1 - HỌC VIỆN CÔNG NGHỆ BƯU CHÍNH VIỄN THÔNG KM 10. ĐƯỜNG NGUYỄN TRÃI - THỊ XÃ HÀ ĐÔNG Email: KhoaDT1@hn.vnn.vn Hoặc nguyenbinh1999@yahoo.com Cuối cùng tôi xin chân thành cảm ơn GS. Huỳnh Hữu Tuệ đã cho tôi nhiều ý kiến quý báu trong các trao đổi học thuật có liên quan tới một số nội dung quan trọng trong giáo trình này. NGƯỜI BIÊN SOẠN
  5. Chương 1: Những vấn đề chung và những khái niệm cơ bản CHƯƠNG I: NHỮNG VẤN ĐỀ CHUNG VÀ NHỮNG KHÁI NIỆM CƠ BẢN 1.1. VỊ TRÍ, VAI TRÒ VÀ SƠ LƯỢC LỊCH SỬ PHÁT TRIỂN CỦA “LÝ THUYẾT THÔNG TIN” 1.1.1. Vị trí, vai trò của Lý thuyết thông tin Do sự phát triển mạnh mẽ của kỹ thuật tính toán và các hệ tự động, một ngành khoa học mới ra đời và phát triển nhanh chóng, đó là: “Lý thuyết thông tin”. Là một ngành khoa học nhưng nó không ngừng phát triển và thâm nhập vào nhiều ngành khoa học khác như: Toán; triết; hoá; Xibecnetic; lý thuyết hệ thống; lý thuyết và kỹ thuật thông tin liên lạc và đã đạt được nhiều kết quả. Tuy vậy nó cũng còn nhiều vấn đề cần được giải quyết hoặc giải quyết hoàn chỉnh hơn. Giáo trình “ Lý thuyết thông tin” này (còn được gọi là “Cơ sở lý thuyết truyền tin”) chỉ là một bộ phận của lý thuyết thông tin chung – Nó là phần áp dụng của “Lý thuyết thông tin” vào kỹ thuật thông tin liên lạc. Trong các quan hệ của Lý thuyết thông tin chung với các ngành khoa học khác nhau, ta phải đặc biệt kể đến mối quan hệ của nó với ngành Xibecnetic. Mối quan hệ giữa các hoạt động khoa học của con người và các quảng tính của vật chất được mô tả trên hình (1.1). Quảng tính của vật chất Thông tin Năng lượng Khối lượng Điều khiển học Năng lượng học Công nghệ học (Xibecnetic) Các lĩnh vực hoạt động khoa học của con người Hình 1.1. Quan hệ giữa hoạt động khoa học và quảng tính của vật chất - Năng lượng học: Là một ngành khoa học chuyên nghiên cứu các vấn đề liên quan tới các khái niệm thuộc về năng lượng. Mục đích của năng lượng học là làm giảm sự nặng nhọc của lao động chân tay và nâng cao hiệu suất lao động chân tay. Nhiệm vụ trung tâm của nó là tạo, truyền, thụ, biến đổi, tích luỹ và xử lý năng lượng. 3
  6. Chương 1: Những vấn đề chung và những khái niệm cơ bản - Xibecnetic: Bao gồm các ngành khoa học chuyên nghiên cứu các vấn đề có liên quan đến khái niệm thông tin và tín hiệu. Mục đích của Xibecnetic là làm giảm sự nặng nhọc của trí óc và nâng cao hiệu suất lao động trí óc. Ngoài những vấn đề được xét trong Xibecnetic như đối tượng, mục đích, tối ưu hoá việc điều khiển, liên hệ ngược. Việc nghiên cứu các quá trình thông tin (như chọn, truyền, xử lý, lưu trữ và hiển thị thông tin) cũng là một vấn đề trung tâm của Xibecnetic. Chính vì vậy, lý thuyết và kỹ thuật thông tin chiếm vai trò rất quan trọng trong Xibecnetic. - Công nghệ học: gồm các ngành khoa học tạo, biến đổi và xử lý các vật liệu mới. Công nghệ học phục vụ đắc lực cho Xibecnetic và năng lượng học. Không có công nghệ học hiện đại thì không thể có các ngành khoa học kỹ thuật hiện đại. 1.1.2. Sơ lược lịch sử phát triển Người đặt viên gạch đầu tiên để xây dựng lý thuyết thông tin là Hartley R.V.L. Năm 1928, ông đã đưa ra số đo lượng thông tin là một khái niệm trung tâm của lý thuyết thông tin. Dựa vào khái niệm này, ta có thể so sánh định lượng các hệ truyền tin với nhau. Năm 1933, V.A Kachenhicov chứng minh một loạt những luận điểm quan trọng của lý thuyết thông tin trong bài báo “Về khả năng thông qua của không trung và dây dẫn trong hệ thống liên lạc điện”. Năm 1935, D.V Ageev đưa ra công trình “Lý thuyết tách tuyến tính”, trong đó ông phát biểu những nguyên tắc cơ bản về lý thuyết tách các tín hiệu. Năm 1946, V.A Kachenhicov thông báo công trình “Lý thuyết thế chống nhiễu’ đánh dấu một bước phát triển rất quan trọng của lý thuyết thông tin. Trong hai năm 1948 – 1949, Shanon C.E công bố một loạt các công trình vĩ đại, đưa sự phát triển của lý thuyết thông tin lên một bước tiến mới chưa từng có. Trong các công trình này, nhờ việc đưa vào khái niệm lượng thông tin và tính đến cấu trúc thống kê của tin, ông đã chứng minh một loạt định lý về khả năng thông qua của kênh truyền tin khi có nhiễu và các định lý mã hoá. Những công trình này là nền tảng vững chắc của lý thuyết thông tin. Ngày nay, lý thuyết thông tin phát triển theo hai hướng chủ yếu sau: Lý thuyết thông tin toán học: Xây dựng những luận điểm thuần tuý toán học và những cơ sở toán học chặt chẽ của lý thuyết thông tin. Cống hiến chủ yếu trong lĩnh vực này thuộc về các nhà bác học lỗi lạc như: N.Wiener, A. Feinstain, C.E Shanon, A.N. Kanmôgorov, A.JA Khintrin. Lý thuyết thông tin ứng dụng: (lý thuyết truyền tin) Chuyên nghiên cứu các bài toán thực tế quan trọng do kỹ thuật liên lạc đặt ra có liên quan đến vấn đề chống nhiễu và nâng cao độ tin cậy của việc truyền tin. Các bác học C.E Shanon, S.O RiCe, D. Midleton, W. Peterson, A.A Khakevich, V. Kachenhicov đã có những công trình quý báu trong lĩnh vực này. 4
  7. Chương 1: Những vấn đề chung và những khái niệm cơ bản 1.2. NHỮNG KHÁI NIỆM CƠ BẢN - SƠ ĐỒ HỆ TRUYỀN TIN VÀ NHIỆM VỤ CỦA NÓ 1.2.1. Các định nghĩa cơ bản 1.2.1.1. Thông tin Định nghĩa: Thông tin là những tính chất xác định của vật chất mà con người (hoặc hệ thống kỹ thuật) nhận được từ thế giới vật chất bên ngoài hoặc từ những quá trình xảy ra trong bản thân nó. Với định nghĩa này, mọi ngành khoa học là khám phá ra các cấu trúc thông qua việc thu thập, chế biến, xử lý thông tin. ở đây “thông tin” là một danh từ chứ không phải là động từ để chỉ một hành vi tác động giữa hai đối tượng (người, máy) liên lạc với nhau. Theo quan điểm triết học, thông tin là một quảng tính của thế giới vật chất (tương tự như năng lượng, khối lượng). Thông tin không được tạo ra mà chỉ được sử dụng bởi hệ thụ cảm. Thông tin tồn tại một cách khách quan, không phụ thuộc vào hệ thụ cảm. Trong nghĩa khái quát nhất, thông tin là sự đa dạng. Sự đa dạng ở đây có thể hiểu theo nhiều nghĩa khác nhau: Tính ngẫu nhiên, trình độ tổ chức, 1.2.1.2. Tin Tin là dạng vật chất cụ thể để biểu diễn hoặc thể hiện thông tin. Có hai dạng: tin rời rạc và tin liên tục. Ví dụ: Tấm ảnh, bản nhạc, bảng số liệu, bài nói, là các tin. 1.2.1.3. Tín hiệu Tín hiệu là các đại lượng vật lý biến thiên, phản ánh tin cần truyền. Chú ý: Không phải bản thân quá trình vật lý là tín hiệu, mà sự biến đổi các tham số riêng của quá trình vật lý mới là tín hiệu. Các đặc trưng vật lý có thể là dòng điện, điện áp, ánh sáng, âm thanh, trường điện từ 1.2.2. Sơ đồ khối của hệ thống truyền tin số (Hình 1.2) 5
  8. Từ các nguồn khác Đầu vào số Nguồn tin Định khuôn Mã Mã bảo Mã Dồn Trải Đa truy Máy m1 S1(t) dạng nguồn mật kênh kênh Điều chế phổ nhập Phát (XMT) K u Hệ thống đồng bộ ễ Dòng bit Ê ( Synchronization ) Dạng sóng số N Nhi H Đầu ra số Nhận tin Định khuôn Giải mã Chia Giải điều Ép Đa truy MáY dạng nguồn Giải mã Giải mã kênh chế phổ nhập THU m1 mật kênh (RCV) Tới các bộ nhận tin khác Khối cơ bản Khối tuỳ chọn Hình 1.2. Sơ đồ khối hệ thống truyền tin số.
  9. Chương 1: Những vấn đề chung và những khái niệm cơ bản 1.2.2.1. Nguồn tin Nơi sản ra tin: - Nếu tập tin là hữu hạn thì nguồn sinh ra nó được gọi là nguồn rời rạc. - Nếu tập tin là vô hạn thì nguồn sinh ra nó được gọi là nguồn liên tục. Nguồn tin có hai tính chất: Tính thống kê và tính hàm ý. Với nguồn rời rạc, tính thống kê biểu hiện ở chỗ xác suất xuất hiện các tin là khác nhau. Tính hàm ý biểu hiện ở chỗ xác suất xuất hiện của một tin nào đó sau một dãy tin khác nhau nào đó là khác nhau. Ví dụ: P(y/ta) ≠ P(y/ba) 1.2.2.2. Máy phát Là thiết bị biến đổi tập tin thành tập tín hiệu tương ứng. Phép biến đổi này phải là đơn trị hai chiều (thì bên thu mới có thể “sao lại” được đúng tin gửi đi). Trong trường hợp tổng quát, máy phát gồm hai khối chính. - Thiết bị mã hoá: Làm ứng mỗi tin với một tổ hợp các ký hiệu đã chọn nhằm tăng mật độ, tăng khả năng chống nhiễu, tăng tốc độ truyền tin. - Khối điều chế: Là thiết bị biến tập tin (đã hoặc không mã hoá) thành các tín hiệu để bức xạ vào không gian dưới dạng sóng điện từ cao tần. Về nguyên tắc, bất kỳ một máy phát nào cũng có khối này. 1.2.2.3. Đường truyền tin Là môi trường vật lý, trong đó tín hiệu truyền đi từ máy phát sang máy thu. Trên đường truyền có những tác động làm mất năng lượng, làm mất thông tin của tín hiệu. 1.2.2.4. Máy thu Là thiết bị lập lại (sao lại) thông tin từ tín hiệu nhận được. Máy thu thực hiện phép biến đổi ngược lại với phép biến đổi ở máy phát: Biến tập tín hiệu thu được thành tập tin tương ứng. Máy thu gồm hai khối: - Giải điều chế: Biến đổi tín hiệu nhận được thành tin đã mã hoá. - Giải mã: Biến đổi các tin đã mã hoá thành các tin tương ứng ban đầu (các tin của nguồn gửi đi). 1.2.2.5. Nhận tin Có ba chức năng: - Ghi giữ tin (ví dụ bộ nhớ của máy tính, băng ghi âm, ghi hình, ) - Biểu thị tin: Làm cho các giác quan của con người hoặc các bộ cảm biến của máy thụ cảm được để xử lý tin (ví dụ băng âm thanh, chữ số, hình ảnh, ) 7
  10. Chương 1: Những vấn đề chung và những khái niệm cơ bản - Xử lý tin: Biến đổi tin để đưa nó về dạng dễ sử dụng. Chức năng này có thể thực hiện bằng con người hoặc bằng máy. 1.2.2.6. Kênh truyền tin Là tập hợp các thiết bị kỹ thuật phục vụ cho việc truyền tin từ nguồn đến nơi nhận tin. 1.2.2.7. Nhiễu Là mọi yếu tố ngẫu nhiên có ảnh hưởng xấu đến việc thu tin. Những yếu tố này tác động xấu đến tin truyền đi từ bên phát đến bên thu. Để cho gọn, ta gộp các yếu tố tác động đó vào một ô trên hình 1.2. Hình 1.2 là sơ đồ khối tổng quát nhất của một hệ truyền tin số. Nó có thể là: hệ thống vô tuyến điện thoại, vô tuyến điện báo, rađa, vô tuyến truyền hình, hệ thống thông tin truyền số liệu, vô tuyến điều khiển từ xa. 1.2.2.8. Các phương pháp biến đổi thông tin số trong các khối chức năng của hệ thống 8
  11. Chương 1: Những vấn đề chung và những khái niệm cơ bản Định dạng/ Mã nguồn Điều chế Mã hoá ký tự - PCM vi phân Kết hợp Không kết hợp Lấy mẫu - Điều chế Delta (DM) Lượng tử hoá - DM có tốc độ biến đổi - PSK: Manip pha - PSK vi phân Điều chế mã xung liên tục (CVSD) - FSK: Manip tần số - FSK (PCM) - Mã hoá dự đoán tuyến - ASK: Manip biên độ - ASK tính (LPC) - Hỗn hợp - Hỗn hợp - Các phương pháp nén: - OQPSK: Manip pha Mã Huffman, mã số học, tương đối 4 mức thuật toán Ziv_Lempel - MSK Mã kênh Dồn kênh/ Đa truy cập Trải phổ Dạng sóng Các dãy có cấu trúc - Phân chia tần số: Dãy trực tiếp (DS) FDM/ FDMA Nhảy tần (FH) Tín hiệu M_trị - Mã khối - Phân chia thời gian: Nhảy thời gian (TH) Tín hiệu trực giao - Mã liên tục TDM/ TDMA Các phương pháp hỗn Tín hiệu song trực - Phân chia mã: hợp giao CDM/ CDMA - Phân chia không gian: SDMA - Phân chia cực tính: PDMA - OFDM - Hoán vị Mã bảo mật - Thay thế - Xử lý bit - Các phương pháp hỗn hợp Mã hoá theo khối Mật mã cổ điển Mã hoá dòng số liệu Mật mã khoá công khai - Thuật toán RSA - Thuật toán logarit rời rạc Đồng bộ - Thuật toán McElice - Thuật toán Merkle-Hellman - Thuật toán sử dụng đường cong Elliptic - Đồng bộ sóng mang - Đồng bộ dấu - Đồng bộ khung - Đồng bộ mạng 9
  12. Chương 1: Những vấn đề chung và những khái niệm cơ bản 1.2.3. Những chỉ tiêu chất lượng cơ bản của một hệ truyền tin 1.2.3.1. Tính hữu hiệu Thể hiện trên các mặt sau: - Tốc độ truyền tin cao. - Truyền được đồng thời nhiều tin khác nhau. - Chi phí cho một bit thông tin thấp. 1.2.3.2. Độ tin cậy Đảm bảo độ chính xác của việc thu nhận tin cao, xác suất thu sai (BER) thấp. Hai chỉ tiêu trên mâu thuẫn nhau. Giải quyết mâu thuẫn trên là nhiệm vụ của lý thuyết thông tin. 1.2.3.3. An toàn - Bí mật: + Không thể khai thác thông tin trái phép. + Chỉ có người nhận hợp lệ mới hiểu được thông tin. - Xác thực: Gắn trách nhiệm của bên gửi – bên nhận với bản tin (chữ ký số). - Toàn vẹn: + Thông tin không bị bóp méo (cắt xén, xuyên tạc, sửa đổi). + Thông tin được nhận phải nguyên vẹn cả về nội dung và hình thức. - Khả dụng: Mọi tài nguyên và dịch vụ của hệ thống phải được cung cấp đầy đủ cho người dùng hợp pháp. 1.2.3.4. Đảm bảo chất lượng dịch vụ (QoS) Đây là một chỉ tiêu rất quan trọng đặc biệt là đối với các dịch vụ thời gian thực, nhậy cảm với độ trễ (truyền tiếng nói, hình ảnh, .) 10
  13. Chương 2: Tín hiệu và nhiễu CHƯƠNG II: TÍN HIỆU VÀ NHIỄU 2.1. TÍN HIỆU XÁC ĐỊNH VÀ CÁC ĐẶC TRƯNG VẬT LÝ CỦA CHÚNG Tín hiệu xác định thường được xem là một hàm xác định của biến thời gian t (s(t)). Hàm này có thể được mô tả bằng một biểu thức giải tích hoặc được mô tả bằng đồ thị. Một trong các • đặc trưng vật lý quan trọng của tín hiệu là hàm mật độ phổ biên độ phức S(ω ) . Với tín hiệu s(t) khả tích tuyệt đối, ta có cặp biến đổi Fourier sau: • ∞ S(ω= )∫ s(t)e−ωjt dt (2.1) −∞ 1 ∞ • s(t)=ωω S( )ejtω d (2.2) 2π ∫ −∞ Sau đây là một số đặc trưng vật lý quen thuộc của tín hiệu: - Thời hạn của tín hiệu (T): Thời hạn của tín hiệu là khoảng thời gian tồn tại của tín hiệu, trong khoảng này giá trị của tín hiệu không đồng nhất bằng 0. - Bề rộng phổ của tín hiệu (F): Đây là miền xác định bởi tần số khác không cao nhất của tín hiệu. - Năng lượng của tín hiệu (E): Năng lượng của tín hiệu có thể tính theo miền thời gian hay miền tần số. ∞∞• 2 2 1 Es(t)dtS()d[J](2.3)==ωω ∫∫2π −∞ −∞ (Định lý Parseval) - Công suất của tín hiệu (P): E P[W]= T 2.2. TÍN HIỆU VÀ NHIỄU LÀ CÁC QUÁ TRÌNH NGẪU NHIÊN 2.2.1. Bản chất ngẫu nhiên của tín hiệu và nhiễu Như đã xét ở trên, chúng ta coi tín hiệu là biểu hiện vật lý của tin (trong thông tin vô tuyến: dạng vật lý cuối cùng của tin là sóng điện từ). Quá trình vật lý mang tin diễn ra theo thời gian, do đó về mặt toán học thì khi có thể được, cách biểu diễn trực tiếp nhất cho tín hiệu là viết biểu thức của nó theo thời gian hay vẽ đồ thị thời gian của nó. 11
  14. Chương 2: Tín hiệu và nhiễu Trong lý thuyết cổ điển, dù tín hiệu tuần hoàn hoặc không tuần hoàn nhưng ta đều coi là đã biết trước và biểu diễn nó bằng một hàm tiền định của thời gian. Đó là quan niệm xác định về tín hiệu (tín hiệu tiền định). Tuy vậy, quan niệm này không phù hợp với thực tế. Thật vậy, tín hiệu tiền định không thể dùng vào việc truyền tin tức được. Với cách coi tín hiệu là biểu hiện vật lý của tin, nếu chúng ta hoàn toàn biết trước nó thì về mặt thông tin, việc nhận tín hiệu đó không có ý nghĩa gì. Nhưng nếu ta hoàn toàn không biết gì về tín hiệu truyền đi, thì ta không thể thực hiện nhận tin được. Bởi vì khi đó không có cái gì làm căn cứ để phân biệt tín hiệu với những cái không phải nó, đặc biệt là với các nhiễu. Như vậy, quan niệm hợp lý nhất là phải kể đến các đặc tính thống kê của tín hiệu, tức là phải coi tín hiệu là một quá trình ngẫu nhiên. Chúng ta sẽ gọi các tín hiệu xét theo quan điểm thống kê này là các tín hiệu ngẫu nhiên. 2.2.2. Định nghĩa và phân loại nhiễu Trong quá trình truyền tin, tín hiệu luôn luôn bị nhiều yếu tố ngẫu nhiên tác động vào, làm mất mát một phần hoặc thậm chí có thể mất toàn bộ thông tin chứa trong nó. Những yếu tố ngẫu nhiên đó rất đa dạng, chúng có thể là những thay đổi ngẫu nhiên của các hằng số vật lý của môi trường truyền qua hoặc những loại trường điện từ cảm ứng trong công nghiệp, y học vv Trong vô tuyến điện, người ta gọi tất cả những yếu tố ngẫu nhiên ấy là các can nhiễu (hay nhiễu). Tóm lại, ta có thể coi nhiễu là tất cả những tín hiệu vô ích (tất nhiên là đối với hệ truyền tin ta xét) có ảnh hưởng xấu đến việc thu tin. Nguồn nhiễu có thể ở ngoài hoặc trong hệ. Nếu nhiễu xác định thì việc chống nó không có khó khăn gì về mặt nguyên tắc. Ví dụ như người ta đã có những biện pháp để chống ồn do dòng xoay chiều gây ra trong các máy khuếch đại âm tần, người ta cũng biết rõ những cách chống sự nhiễu lẫn nhau giữa các điện đài vô tuyến điện cùng làm việc mà chúng có phổ tín hiệu trùm nhau vv Các loại nhiễu này không đáng ngại. Chú ý: Cần phân biệt nhiễu với sự méo gây ra bởi đặc tính tần số và đặc tính thời gian của các thiết bị, kênh truyền (méo tuyến tính và méo phi tuyến). Về mặt nguyên tắc, ta có thể khắc phục được chúng bằng cách hiệu chỉnh. Nhiễu đáng lo ngại nhất vẫn là các nhiễu ngẫu nhiên. Cho đến nay, việc chống các nhiễu ngẫu nhiên vẫn gặp những khó khăn lớn cả về mặt lý luận lẫn về mặt thực hiện kỹ thuật. Do đó, trong giáo trình này ta chỉ đề cập đến một dạng nào đó (sau này sẽ thấy ở đây thường xét nhất là nhiễu cộng, chuẩn) của nhiễu ngẫu nhiên. Việc chia thành các loại (dạng) nhiễu khác nhau có thể làm theo các dấu hiệu sau: 1. Theo bề rộng phổ của nhiễu: có nhiễu giải rộng (phổ rộng như phổ của ánh sáng trắng gọi là tạp âm trắng), nhiễu giải hẹp (gọi là tạp âm màu). 2. Theo quy luật biến thiên thời gian của nhiễu: có nhiễu rời rạc và nhiễu liên tục. 3. Theo phương thức mà nhiễu tác động lên tín hiệu: có nhiễu cộng và nhiễu nhân. 4. Theo cách bức xạ của nhiễu: có nhiễu thụ động và nhiễu tích cực. Nhiễu thụ động là các tia phản xạ từ các mục tiêu giả hoặc từ địa vật trở về đài ta xét khi các tia sóng của nó đập vào chúng. Nhiễu tích cực (chủ động) do một nguồn bức xạ năng lượng (các đài hoặc các hệ thống lân cận) hoặc máy phát nhiễu của đối phương chĩa vào đài hoặc hệ thống đang xét. 12
  15. Chương 2: Tín hiệu và nhiễu 5. Theo nguồn gốc phát sinh: có nhiễu công nghiệp, nhiễu khí quyển, nhiễu vũ trụ vv Trong giáo trình này khi nói về nhiễu, ta chỉ nói theo phương thức tác động của nhiễu lên tín hiệu, tức là chỉ nói đến nhiễu nhân hoặc nhiễu cộng. Về mặt toán học, tác động của nhiễu cộng lên tín hiệu được biểu diễn bởi hệ thức sau: u(t) = s(t) + n(t) (2.4) s(t) là tín hiệu gửi đi u(t) là tín hiệu thu được n(t) là nhiễu cộng Còn nhiễu nhân được biểu diễn bởi: u(t)=μ (t).s(t) (2.5) μ (t): nhiễu nhân, là một quá trình ngẫu nhiên. Hiện tượng gây nên bởi nhiễu nhân gọi là suy lạc (fading). Tổng quát, khi tín hiệu chịu tác động đồng thời của cả nhiễu cộng và nhiễu nhân thì: u(t)=μ (t).s(t) + n(t) (2.6) Ở đây, ta đã coi hệ số truyền của kênh bằng đơn vị và bỏ qua thời gian giữ chậm tín hiệu của kênh truyền. Nếu kể đến thời gian giữ chậm τ của kênh truyền thì (2.6) có dạng: u(t)=μ (t).s(t −τ ) + n(t) (2.7) 2.3. CÁC ĐẶC TRƯNG THỐNG KÊ CỦA TÍN HIỆU NGẪU NHIÊN VÀ NHIỄU 2.3.1. Các đặc trưng thống kê Theo quan điểm thống kê, tín hiệu và nhiễu được coi là các quá trình ngẫu nhiên. Đặc trưng cho các quá trình ngẫu nhiên chính là các quy luật thống kê (các hàm phân bố và mật độ phân bố) và các đặc trưng thống kê (kỳ vọng, phương sai, hàm tự tương quan, hàm tương quan). Các quy luật thống kê và các đặc trưng thống kê đã được nghiên cứu trong lý thuyết hàm ngẫu nhiên, vì vậy ở đây ta sẽ không nhắc lại. Trong lớp các quá trình ngẫu nhiên, đặc biệt quan trọng là các quá trình ngẫu nhiên sau: - Quá trình ngẫu nhiên dừng (theo nghĩa hẹp và theo nghĩa rộng) và quá trình ngẫu nhiên chuẩn dừng. - Quá trình ngẫu nhiên ergodic Ta minh hoạ chúng theo lược đồ sau: 13
  16. Chương 2: Tín hiệu và nhiễu QTNN QTNN dừng dừng QTNN rộng hẹp chuẩn QTNN chuẩn dừng QTNN QTNN ergodic Hình 2.1 Trong những đặc trưng thống kê của các quá trình ngẫu nhiên, hàm tự tương quan và hàm tương quan là những đặc trưng quan trọng nhất. Theo định nghĩa, hàm tự tương quan sẽ bằng: Δ R(t,t)=− M⎡⎤⎡⎤ X(t) m(t).X(t)m(t) − x12{⎣⎦⎣⎦ 1 x1 2 x2} ∞∞ (2.8) =−∫∫[][]x(t)1 m x1 (t).x(t) 2 − m x2 (t).W(x,x,t,t)dxdx 21212 12 −∞ −∞ R(t,t)x12đặc trưng cho sự phụ thuộc thống kê giữa hai giá trị ở hai thời điểm thuộc cùng một thể hiện của quá trình ngẫu nhiên. W21212( x ,x ,t ,t ) là hàm mật độ phân bố xác suất hai chiều của hai giá trị của quá trình ngẫu nhiên ở hai thời điểm t1 và t2 . Khi t1 = t 2 thì (2.8) trở thành: 2 Rx12 (t ,t )=−= M{[] X(t) m x (t)} D x (t) (2.9) Như vậy, phương sai là trường hợp riêng của hàm tự tương quan khi hai thời điểm xét trùng nhau. Đôi khi để tiện tính toán và so sánh, người ta dùng hàm tự tương quan chuẩn hoá được định nghĩa bởi công thức: Δ R(t,t)x12 R(t,t) x12 τ=x12(t ,t ) = Rx11 (t ,t ).R x22 (t ,t ) D x1 (t ).D x2 (t ) (2.10) R(t,t) = x12 ττx1(t ). x2 (t ) Dễ dàng thấy rằng: τ≤x12(t ,t ) 1 . 14
  17. Chương 2: Tín hiệu và nhiễu 2.3.2. Khoảng tương quan Khoảng tương quan cũng là một đặc trưng khá quan trọng. Ta thấy rằng hai giá trị của một quá trình ngẫu nhiên ξ (t) chỉ tương quan với nhau khi khoảng cách τ giữa hai thời điểm xét là hữu hạn. Khi τ→∞, thì coi như hai giá trị ấy không tương quan với nhau nữa. Tuy vậy, trong thực tế, đối với hầu hết các quá trình ngẫu nhiên chỉ cần τ đủ lớn thì sự tương quan giữa hai giá trị của quá trình đã mất. Do đó, đối với tính toán thực tế người ta định nghĩa khoảng (thời gian) tương quan như sau: Định nghĩa 1: 1 τξ (τ) Khoảng tương quan τK là khoảng thời gian trong đó τξ()τ không nhỏ hơn 0,05. (hình vẽ 2.2). Như vậy, ∀τ > τK thì xem như hết tương quan. Nếu cho biểu thức giải tích của τ ()τ ξ 0,05 thì τK được tính như sau: 1 ∞ τ= τττ()d (2.11) 0 τ k τ t K 2 ∫ ξ −∞ Hình 2.2 Ý nghĩa hình học: τK là nửa cạnh đáy của hình chữ nhật có chiều cao bằng đơn vị K, có diện tích bằng diện tích của miền giới hạn bởi trục hoành và đường biểu diễn τξ()τ . Trong thực tế, ta thường gặp những quá trình ngẫu nhiên ergodic. Ví dụ: tạp âm của các máy thu vô tuyến điện, Đối với các quá trình ngẫu nhiên ergodic, ta có thể xác định các đặc trưng thống kê của chúng bằng thực nghiệm một cách dễ dàng. Ta đã biết rằng, nếu X(t) – ergodic và với T đủ lớn thì ta có thể viết: Rxxx (τ= ) M{[] X(t) − m .[ X(t −τ− ) m ]} 1 T (2.12) ≈−+τ−[][]x(t) m . x(t ) m dt T ∫ xx 0 Trung bình thống kê = trung bình theo thời gian 15
  18. Chương 2: Tín hiệu và nhiễu 2.4. CÁC ĐẶC TRƯNG VẬT LÝ CỦA TÍN HIỆU NGẪU NHIÊN VÀ NHIỄU. BIẾN ĐỔI WIENER – KHINCHIN 2.4.1. Những khái niệm xây dựng lý thuyết phổ của quá trình ngẫu nhiên - mật độ phổ công suất Mục trước ta mới chỉ đưa ra một số đặc trưng thống kê của các quá trình ngẫu nhiên (tín hiệu, nhiễu) mà chưa đưa ra các đặc trưng vật lý của chúng. Về mặt lý thuyết cũng như thực tế, các đặc trưng vật lý của tín hiệu ngẫu nhiên (quá trình ngẫu nhiên) đóng một vai trò rất quan trọng ở những chương sau khi nói đến cơ sở lý thuyết chống nhiễu cũng như xét các biện pháp thực tế và các thiết bị chống nhiễu ta không thể không dùng đến những đặc trưng vật lý của tín hiệu ngẫu nhiên và nhiễu. Khi xét các loại tín hiệu xác định trong giáo trình “Lý thuyết mạch”, chúng ta đã làm quen với các đặc trưng vật lý của chúng như: năng lượng, công suất, thời hạn của tín hiệu, phổ biên độ phức, mật độ phổ, bề rộng phổ, Cơ sở để hình thành các đặc trưng vật lý này là chuỗi và tích phân Fourier. Đối với các tín hiệu ngẫu nhiên và nhiễu, ta không thể dùng trực tiếp các biến đổi Fourier để xây dựng các đặc trưng vật lý của chúng được vì những lý do sau: - Tập các thể hiện {xi (t)} , i=∞ 1,2, , của quá trình ngẫu nhiên X(t) cho trên khoảng T thường là một tập vô hạn (thậm chí nó cũng không phải là một tập đếm được). - Nếu tín hiệu ngẫu nhiên là dừng chặt thì tập vô hạn các thể hiện theo thời gian của nó thường sẽ không khả tích tuyệt đối. Tức là: T2 lim x(t) dt =∞ T →∞ ∫ −T2 Để tránh khỏi những khó khăn trên, ta làm như sau: Lấy hàm x(t)T trùng với một thể hiện của quá trình ngẫu nhiên trung tâm X(t) (QTNN trung ⎡ TT⎤ tâm là QTNN có kỳ vọng không) ở trong đoạn − , và nó bằng không ở ngoài đoạn đó: ⎣⎢ 22⎦⎥ ⎪⎧≤x(t) t T 2 x(t)T = ⎨ (2.13) ⎩⎪0tT2> Từ (2.13), ta thấy x(t)T thoả mãn điều kiện khả tích tuyệt đối nên có thể dùng biến đổi Fourier cho nó được. Ta đã biết rằng phổ biên độ phức ST (ω) của x(t)T được xác định bởi tích phân thuận Fourier sau: T2 −ωjt SxtedtTT()ω= ∫ () (2.14) −T2 Theo định lý Parseval, ta có biểu thức tính năng lượng của x(t)T như sau: 16
  19. Chương 2: Tín hiệu và nhiễu ∞∞• 2 2 1 Ex(t)dtS()d==ωωT (2.15) TT∫∫2π −∞ −∞ Công suất của thể hiện x(t)T sẽ bằng: • 2 S()T ω ∞∞• 2 E1T 1 PS()dd= =ωω=ωT (2.16) T T2Tππ∫∫ 2 T −∞ −∞ Ta thấy vế trái của (2.16) là công suất của thể hiện x(t)T trong khoảng thời gian tồn tại hữu 2 ⎪⎧ • ⎪⎫ hạn T, còn vế phải là một tổng liên tục của các đại lượng ⎨ S()T ω Td⎬ ω. Rõ ràng là để đảm ⎪⎩⎭⎪ • 2 S()T ω bảo sự bình đẳng về thứ nguyên giữa hai vế của (2.16) thì lượng dω phải biểu thị công T • 2 S()T ω suất trong giải tần vô cùng bé dω . Như vậy, sẽ biểu thị công suất của thể hiện x(t) T T trong một đơn vị tần số [W/Hz] tức là mật độ phổ công suất của thể hiện x(t)T . Đến đây ta đặt: • 2 S()T ω = G()ω (2.17) T T và gọi G()T ω là mật độ phổ công suất của thể hiện x(t)T trong khoảng T hữu hạn. G()T ω đặc trưng cho sự phân bố công suất của một thể hiện x(t)T trên thang tần số. Khi cho T →∞ ta sẽ tìm được mật độ phổ công suất của một thể hiện duy nhất x(t)T của quá trình ngẫu nhiên: • 2 S()T ω G()xTω= limG() ω= lim (2.18) TT→∞ →∞ T G()x ω cũng có ý nghĩa tương tự như G()T ω . Từ (2.18) ta thấy rằng để xác định mật độ phổ công suất của cả quá trình ngẫu nhiên (tức là tập các thể hiện ngẫu nhiên) thì phải lấy trung bình thống kê đại lượng G()x ω , tức là: 17
  20. Chương 2: Tín hiệu và nhiễu • 2 S()T ω G(ω= ) M{} Gx ( ω ) = M lim (2.19) T→∞ T (2.19) là công thức xác định mật độ phổ công suất của các quá trình ngẫu nhiên. 2.4.2. Cặp biến đổi Wiener – Khinchin Để thấy được mối quan hệ giữa các đặc trưng thống kê (nói riêng là hàm tự tương quan) và các đặc trưng vật lý (nói riêng là mật độ phổ công suất) ta viết lại và thực hiện biến đổi (2.19) như sau: ••22 S()TTωω MS() G(ω= ) M lim = lim = TT→∞TT →∞ * 1 ⎪⎪⎧⎫•• =ωωlim M⎨⎬ STT ( )S ( ) do (2.14) T→∞ T ⎩⎭⎪⎪ T2 T2 1 ⎧⎫ ⎪⎪−ωjt12 −ω jt ==limM⎨⎬ x(t)eT1 dt. 1 x(t)e T2 dt 2 T→∞ T ∫∫ ⎩⎭⎪⎪−−T2 T2 1 T/2 T/2 −ωj(tt)12 − = lim M{} xT1 (t ).x T2 (t ) e dt 12 dt T→∞ T ∫∫ −−T/2 T/2 Nhưng theo định nghĩa (2.8), ta thấy ngay Mx(t).x(t){ T1 T2} là hàm tự tương quan của quá trình ngẫu nhiên trung tâm (có m0x = ) nên ta có thể viết: Mx(t).x(t){ T1 T2} = R(t,t) T12 Nếu τ=−tt21 + thì đối với những quá trình dừng, ta có: Mx(t).x(t)= R()τ { T1 T2} T Ta có thể viết lại biểu thức cho G(ω) : T + t ⎧⎫2 2 T/2 ⎪⎪1 −ωτj G(ω= ) lim⎨⎬ RT2 ( τ )e d τ dt T→∞ T ∫∫ ⎪⎪−−T t −T/2 ⎩⎭2 2 T + t 2 2 T/2 −ωτj 1 =ττlim RT2 ( )e d . lim dt TT→∞∫∫ →∞ T −−T t −T/2 2 2 18
  21. Chương 2: Tín hiệu và nhiễu ∞ − jωτ G(ω )=τ∫ R( )e d τ (2.20) −∞ Tất nhiên ở đây phải giả sử tích phân ở vế phải của (2.20) tồn tại. Điều này luôn luôn đúng nếu hàm tự tương quan R(τ ) khả tích tuyệt đối, tức là: ∞ ∫ R(ττ<∞ )d −∞ (2.20) là mật độ phổ công suất của quá trình ngẫu nhiên dừng. Nó biểu diễn một cách trung bình (thống kê) sự phân bố công suất của quá trình ngẫu nhiên theo tần số của các thành phần dao động điều hoà nguyên tố (tức là những thành phần dao động điều hoà vô cùng bé). Như vậy, từ (2.20) ta có thể kết luận rằng phổ công suất G(ω ) của quá trình ngẫu nhiên dừng là biến đổi thuận Fourier của hàm tự tương quan R(τ ). Hiển nhiên rằng khi đã tồn tại biến đổi thuận Fourier thì cũng tồn tại biến đổi ngược Fourier sau: ∞ 1 jωτ R(τ= ) G( ω )e d ω (2.21) 2π ∫ −∞ Cặp công thức (2.20) và (2.21) gọi là cặp biến đổi Wiener – Khinchin, đó là sự mở rộng cặp biến đổi Fourier sang các tín hiệu ngẫu nhiên dừng (ít nhất là theo nghĩa rộng). Rõ ràng từ định nghĩa (2.17) của mật độ phổ công suất, ta thấy hàm G(ω ) là hàm chẵn ±ωτj của đối số ω . Do đó sau khi dùng công thức Euler ( ecosjsin= ωτ ± ωτ ) để biến đổi (2.20) và (2.21), ta được: ∞ G(ω= ) 2∫ R( τ )cos ωττ d 0 (2.22) 1 ∞ R(τ= ) G( ω )cos ωτω d π ∫ 0 Chú ý 1: Từ mật độ phổ công suất của tín hiệu ngẫu nhiên, không thể sao lại bất cứ một thể hiện nào (là hàm của thời gian t) của nó, vì G(ω ) không chứa những thông tin (những hiểu biết) về pha của các thành phần phổ riêng lẻ. Đối với tín hiệu xác định thì từ mật độ phổ hoàn toàn có thể sao lại chính tín hiệu đó nhờ tích phân ngược Fourier. Đó là chỗ khác nhau về bản chất giữa biến đổi Fourier và biến đổi Wiener – Khinchin. Chú ý 2: Nếu phải xét đồng thời hai quá trình ngẫu nhiên thì người ta cũng đưa ra khái niệm mật độ phổ chéo. Mật độ phổ chéo và hàm tương quan chéo của hai quá trình ngẫu nhiên có liên hệ dừng cũng thoả mãn cặp biến đổi Wiener – Khinchi. 2.4.3. Bề rộng phổ công suất 19
  22. Chương 2: Tín hiệu và nhiễu Một đặc trưng vật lý quan trọng khác của các tín hiệu ngẫu nhiên là bề rộng phổ công suất, G(ω) nó được định nghĩa bởi công thức sau: ∞ G(ω )dω Δ ∫ Δω = 0 (2.23) G(ω0 ) Trong đó: 0,05 G( ω ) là mật độ phổ công suất của tín hiệu ngẫu nhiên. ω0 ω G( ) là giá trị cực đại của G( ). ω0 ω Δω là bề rộng phổ công suất (còn gọi là Δω bề rộng phổ) của quá trình ngẫu nhiên. Hình 2.3 Ý nghĩa hình học: Bề rộng phổ Δω chính là đáy của hình chữ nhật có chiều cao bằng G( ω0 ) và có diện tích bằng diện tích của miền giới hạn bởi trục ω và đường cong biểu diễn G( ω ). (Hình 2.4). Ý nghĩa vật lý: Bề rộng phổ đặc trưng cho sự tập trung công suất (hoặc năng lượng) của tín hiệu ngẫu nhiên ở quanh một tần số trung tâm, ngoài ra nó cũng đặc trưng cho cả sự bằng phẳng của phổ ở quanh tần số trung tâm ω0 . 2.4.4. Mở rộng cặp biến đổi Wiener – Khinchin cho trường hợp R()τ không khả tích tuyệt đối Nếu quá trình ngẫu nhiên X(t) chứa các thành phần dao động điều hoà dạng: X(t)Acos(tKKKK=ω−ϕ ) trong đó AK và ϕK nói chung có thể là các đại lượng ngẫu nhiên, thì hàm tương quan trung bình: 2 * AK R()XKτ =ωτ cos không thoả mãn điều kiện khả tích tuyệt đối. K 2 Nếu sử dụng biểu diễn sau của hàm delta: ∞∞ ixy ∫∫edxcos(xy)dx(y)==δ −∞ −∞ và biểu diễn phổ năng lượng của X(t)K dưới dạng: 20
  23. Chương 2: Tín hiệu và nhiễu 2 * A G()ω=K [] δω−ω ( ) +δω+ω ( ) KKK4 thì định lý Wiener – Khinchin sẽ đúng cả đối với những quá trình ngẫu nhiên có những thành phần tần số rời rạc, kể cả thành phần một chiều ở tần số ωK = 0. Phổ biên độ SK(ω) Phổ năng lượng GK(ω) AK/2 AK/2 δ(ω + ωK) δ(ω - ωK) - ωK 0 ωK ω - ωK 0 ωK ω 2.5. TRUYỀN CÁC TÍN HIỆU NGẪU NHIÊN QUA CÁC MẠCH VÔ TUYẾN ĐIỆN TUYẾN TÍNH Đối với các tín hiệu xác định, trong giáo trình “Lý thuyết mạch”, ta đã xét bài toán phân • tích sau: Cho một mạch tuyến tính có cấu trúc đã biết (biết hàm truyền đạt K(ω ) hoặc biết phản ứng xung g(t)). Ta phải xét tác động đầu vào theo hưởng ứng đầu ra và ngược lại. Đối với các tín hiệu ngẫu nhiên nếu số thể hiện là đếm được và hữu hạn thì ta có thể xét hưởng ứng ra đối với từng tác động đầu vào như bài toán trên. Nhưng khi số thể hiện của tín hiệu ngẫu nhiên là vô hạn thì ta không thể áp dụng được những kết quả của bài toán phân tích đối với các tín hiệu xác định. Sau đây ta sẽ xét bài toán này. 2.5.1. Bài toán tối thiểu 2.5.1.1. Bài toán: • Cho một mạch tuyến tính (có tham số không đổi và biết K(ω ) của nó. Biết mật độ phổ công suất G()v ω của quá trình ngẫu nhiên tác động ở đầu vào. Ta phải tìm mật độ phổ công suất G()ra ω và hàm tự tương quan R()ra τ của quá trình ngẫu nhiên ở đầu ra. GV(ω) K(ω) Gra(ω)) 2.5.1.2. Giải bài toán: Ở giáo trình “Lý thuyết mạch” ta đã biết hàm phổ biên độ phức của tín hiệu ở đầu ra mạch vô tuyến điện tuyến tính bằng: ••• S()raω= K().S() ω v ω (2.24) 21
  24. Chương 2: Tín hiệu và nhiễu • Trong đó: K(ω ) là hàm truyền của mạch đã biết. • S(v ω ) là phổ biên độ phức của tín hiệu vào • Chú ý: Đối với các quá trình ngẫu nhiên ta không biết được S(v ω ). Không thể tính được • S(v ω ), mặt khác ta đã biết theo (2.19): 2 • 2 S()ω ⎧ • ⎫ v T ⎪ ⎪ ⎪ 1 S()ra T ω ⎪ Gv (ω= ) M lim = M lim ⎨ ⎬ TT→∞TT →∞ • ⎪ K(ω ) ⎪ ⎩⎭⎪ ⎪ • 2 S()ra ω 11T = Mlim=ω .Gra ( ) ••22T→∞ T K(ωω ) K( ) • 2 Hay: G()raω= K().G() ω v ω (2.25) Người ta đã chứng minh được rằng hưởng ứng ra của hệ thống tuyến tính có tham số không đổi là một quá trình ngẫu nhiên không dừng ngay cả khi tác động đầu vào là một quá trình ngẫu nhiên dừng. Tuy vậy, trong trường hợp hệ thống tuyến tính thụ động có suy giảm thì ở những thời điểm t >> t 0 = 0 (thời điểm đặt tác động vào) thì quá trình ngẫu nhiên ở đầu ra sẽ được coi là dừng. Khi đó hàm tự tương quan và mật độ phổ công suất của quá trình ngẫu nhiên ở đầu ra sẽ liên hệ với nhau theo cặp biến đổi Wiener – Khinchin. Ta có: ∞ 1 jωτ R()τ =ωω G()ed (2.26) ra2π ∫ ra −∞ Nhận xét: Từ (2.25) ta thấy mật độ phổ công suất của hưởng ứng ra được quyết định bởi bình phương môđun hàm truyền của mạch khi đã cho phổ công suất của tác động vào, nó không phụ thuộc gì vào đặc tính pha tần của mạch. Công suất của quá trình ngẫu nhiên ở đầu ra (khi quá trình ngẫu nhiên vào là dừng): 22
  25. Chương 2: Tín hiệu và nhiễu ∞∞• 2 2 11 R (0)=τ= G ( ω )d ω= P = K( ω ) G ( ω )d ω (2.27) ra22ππ∫∫ ra ra v −∞ −∞ Nếu phổ công suất của tác động vào không phụ thuộc tần số, tức là G()v ω = N0 (quá trình ngẫu nhiên có tính chất này được gọi là tạp âm trắng) thì: 2 1 ∞ • PNK()d=ωω (2.28) ra2π 0 ∫ −∞ Vì môđun hàm truyền luôn là một hàm chẵn nên: 2 2 ∞ • PNK()d=ωω (2.29) ra2π 0 ∫ 0 Mặt khác, nếu gọi G0 là phổ công suất thực tế (phần phổ công suất trải từ 0 →∞) thì G0 = 2 N0 và (2.29) có thể viết lại như sau: 2 G ∞ • PK()d=ωω0 (2.30) ra 2π ∫ 0 Hàm tự tương quan của quá trình ngẫu nhiên ở đầu ra trong trường hợp này sẽ bằng: 2 1 ∞ • R()τ= G()K()e ω ωjωτ d ω ra2π ∫ v −∞ 2 ∞ • 1 jωτ =ωωNK()ed 2π 0 ∫ −∞ 2 N ∞ • =ωω0 K( ) ejωτ d 2π ∫ −∞ 2 G ∞ • R()τ=0 K()cosd ω ωτω (2.31) ra 2π ∫ 0 2.5.1.3. Ví dụ 1 Một mạch vô tuyến điện tuyến tính có tham số không đổi và đặc tính truyền đạt dạng chữ nhật (hình 2.4b) chịu tác động của tạp âm trắng dừng. Tìm hàm tự tương quan của tạp âm ra. GV(ω) | K(ω) | 2N0 23 ω 0 ω1 ω0 ω2 ω
  26. Chương 2: Tín hiệu và nhiễu • ⎧K01ω <ω<ω 2 Theo giả thiết: G()v0ω= 2N và K(ω= ) ⎨ ⎩0(,)∀ω∉ ω12 ω Theo (2.31), ta có: ω NNK2 2 R()τ =ωτωωτ−ωτ000 Kcosd=2 (sin sin) raππτ∫ 0 2 1 ω1 Δωτ NK2 sin =Δωωτ00 .cos2 πτ Δωτ 2 0 Δωτ sin 2 R()τ =τ2 cos ωτ (2.32) ra raΔωτ 2 0 Đồ thị Rra (τ) như hình 2.5. (2.32) có thể viết gọn lại như sau: R()Rraτ =τωτ 0ra ()cos 0 (2.32a) Trong đó: 2 sinΔωτ 2 R()τ=σ (2.32b) 0ra ra Δωτ 2 (2.32b) gọi là bao của hàm tự tương quan của hưởng ứng. ω +ω ω= 12 (2.32c) 0 2 gọi là tần số trung bình. 24
  27. Chương 2: Tín hiệu và nhiễu Rra(τ) 2 σ ra 0 τ 2π/Δω Hình 2.5. sin x Vậy, bao của hàm tự tương quan của tạp âm ra là một hàm của đối số τ dạng . Cực x 2 đại của hàm tự tương quan của tạp âm ra đạt tại τ = 0 và bằng σra , tức là bằng công suất trung bình của tạp âm ra. Bây giờ ta sẽ chuyển sang xét một tham số vật lý nữa để đánh giá mức độ truyền tạp âm qua mạch tuyến tính. 2 2.5.1.4. Giải thông tạp âm | K(ω)| 2 Định nghĩa: | K(ω)| max Giải thông tạp âm của mạch tuyến tính (hay bộ lọc tuyến tính) được xác định theo biểu thức sau: 2 ∞ • ω0 ω K(ωω ) d Δωta Δ ∫ 0 Δωt© = (2.33) Hình 2.6. • 2 K(ω ) max 25
  28. Chương 2: Tín hiệu và nhiễu Ý nghĩa hình học: Δωt© chính là đáy của hình chữ nhật có diện tích bằng diện tích của • 2 miền giới hạn bởi đường cong K(ω ) và nửa trục hoành (0, ∞ ); còn chiều cao của hình chữ • 2 nhật này là K(ω ) max. Ý nghĩa vật lý: Δωt© đặc trưng cho khả năng làm suy giảm tạp âm của các bộ lọc tuyến tính. Với cùng • K(ω0 ) , bộ lọc nào có Δωt© càng hẹp thì công suất tạp âm đầu ra của bộ lọc ấy càng bé. 2.5.2. Bài toán tối đa G()R ω và B()R τ chưa đặc trưng đầy đủ cho quá trình ngẫu nhiên. Nội dung: Tìm hàm mật độ xác suất của tín hiệu ở đầu ra mạch vô tuyến điện tuyến tính. 2.5.2.1. Mở đầu Tìm mật độ xác suất n chiều của tín hiệu ngẫu nhiên ở đầu ra mạch tuyến tính là bài toán rất khó, nó không giải được dưới dạng tổng quát. Dưới đây chỉ xét hai trường hợp đơn giản: - Tìm mật độ xác suất một chiều của tín hiệu ra bộ lọc tuyến tính khi tác động đầu vào là tín hiệu ngẫu nhiên chuẩn (có vô hạn thể hiện). Trong trường hợp này người ta đã chứng minh được tín hiệu ra cũng là một tín hiệu ngẫu nhiên chuẩn. Δω - Đặt vào bộ lọc tuyến tính một tín hiệu ngẫu nhiên không chuẩn. Nếu t© << 1 (F là 2Fπ bề rộng phổ của tín hiệu vào) thì tín hiệu ngẫu nhiên ở đầu ra sẽ có phân bố tiệm cận chuẩn. Người ta bảo đó là sự chuẩn hoá (Gauss hoá) các quá trình ngẫu nhiên không chuẩn bằng bộ lọc giải hẹp. 2.5.2.2. Ví dụ 2 Cho tạp âm giải hẹp, chuẩn có dạng: n(t)=ω+ω=ω−ϕ c(t)cos00 t s(t)sin0 t A(t)c os( t ) (*) s(t) với c(t) và s(t) có phân bố chuẩn cùng công suất trung bình và với ϕ=arctg c(t) 22 A(t)=+ c (t) s (t) - đường bao của nhiễu. 26
  29. Chương 2: Tín hiệu và nhiễu Công suất trung bình của cả hai thành phần của nhiễu bằng nhau và bằng hằng số: 222 σ=σ=σcs . Khi n(t) dừng, người ta coi là hai thành phần của nhiễu không tương quan. Tác động n(t) lên bộ tách sóng tuyến tính. Hãy tìm mật độ xác suất một chiều của điện áp ra bộ tách sóng biết rằng bộ tách sóng không gây méo đường bao và không gây thêm một lượng dịch pha nào. Thực chất của bài toán là phải tìm WµW()11(A) v ϕ . Trong giáo trình “lý thuyết xác suất”, ta đã có công thức tìm mật độ xác suất một chiều của từng đại lượng ngẫu nhiên theo mật độ xác suất đồng thời của chúng, nên ta có: 2π∞ WW12(A)=ϕϕϕ=ϕ∫∫ (A, )d ; WW 12 ( ) (A, )dA 00 Do đó, vấn đề ở đây là phải tìm W2 (A,ϕ ) . Vì bộ tách sóng không gây méo đường bao và không gây thêm một lượng dịch pha nào nên W2 (A,ϕ ) ở đầu ra cũng chính là W2 (A,ϕ ) ở đầu vào. Tìm W2 (A,ϕ ) : Vì đầu bài chỉ cho Wµ11(c) v W (s) nên ta phải tìm W2 (A,ϕ ) theo W2 (c,s) . Theo giả thiết c(t) và s(t) không tương quan nên: W2 (c,s) = WW11(c). (s) (2.34) 22 11−δc222 −δ s2 22 1cs⎪⎪⎧⎫+ ⇒=Wc,s2 () e . e =22 exp⎨⎬ − 22πδ πδ 22πδ⎩⎭⎪⎪ δ 11⎧ 2 ⎫ Wc,s2 ()=− exp⎨ A⎬ (2.35) 22πδ22⎩⎭ δ Ta thấy xác suất để một điểm có toạ độ (c,s) trong hệ toạ độ Đêcac rơi vào một yếu tố diện tích dcds sẽ bằng: Pdcds= W 2 (c,s) dcds . Để ý đến (*) ta thấy xác suất này cũng chính là xác suất để một điểm có toạ độ (A,ϕ ) trong hệ toạ độ cực rơi vào một yếu tố diện tích dAd ϕ . Ta có: 27
  30. Chương 2: Tín hiệu và nhiễu S dϕ dA S + dS S A ϕ 0 c c + dc c Hình 2.7. (2.36) Pdcds=ϕϕ W 2(c,s) dcds = W 2 (A, ) dAd Từ đó: dcds WW(A,ϕ= ) (c,s) ( ) 22dAdϕ Từ H.2.7 ta thấy với dA, d ϕ đủ nhỏ ta có: dc ds = Ad ϕ . DA Từ ( ) ta có: 1A⎪⎧ 2 ⎪⎫ (2.37) WA,22()ϕ= Wc,s () =22 exp⎨ − ⎬ 22πδδ⎩⎭⎪ ⎪ 22ππ AA⎪⎪⎧⎫2 Do đó: WA=ϕϕ= W A,d exp d ϕ 12()∫∫ ( ) 22⎨⎬ 0022πδ⎩⎭⎪⎪ δ AA⎪⎪⎧⎫2 WA=− exp (2.38) 1 () 22⎨⎬ σδ⎩⎭⎪⎪2 (2.38) gọi là phân bố Reyleigh (H.2.8). 28
  31. Chương 2: Tín hiệu và nhiễu W1(A/σ) W1(ϕ) 0,6 1/2π 0,4 0,2 0 2π ϕ Hình 2.9. 0 1 2 3 A/σ Hình 2.8. Vậy nhiễu giải hẹp mà trị tức thời có phân bố chuẩn thì phân bố của đường bao là phân bố không đối xứng Reyleigh. Sở dĩ như vậy vì giá trị tức thời có cả giá trị âm và giá trị dương nên phân bố mật độ xác suất sẽ đối xứng qua trục tung (phân bố Gausse). Còn xét đường bao tức là chỉ xét biên độ (giá trị dương) nên mật độ phân bố xác suất là đường cong không đối xứng và chỉ tồn tại ở nửa dương trục hoành. ∞∞ ∞ 1A⎪⎧ A2 ⎪⎫ 1 WWA,dAexpdA()ϕ= ( ϕ ) =⎨ − ⎬ WWAdA()ϕ= () (2.39) 12∫∫2π 22112π ∫ 00δδ⎩⎭⎪ 2 ⎪ 0 Vậy mật độ phân bố xác suất pha đầu của nhiễu giải hẹp, chuẩn là phân bố đều trong khoảng (0,2 π ). (H.2.9). 2.5.2.3. Ví dụ 3: Ở đầu vào bộ tách sóng tuyến tính đặt hỗn hợp tín hiệu và nhiễu: y(t) = x(t) + n(t) Với: x(t)=ω U0 cos 0 t là tín hiệu xác định. n(t)=ω−ϕ An (t)cos[]0 t (t) là nhiễu giải hẹp, chuẩn. Tìm mật độ phân bố xác suất đường bao và pha của điện áp đầu ra bộ tách sóng tuyến tính. Ta có: y(t)=ω+ω+ω Uc00os00 t c(t)c os t s(t)sin t ⎡ ⎤ =[]U00yy + c(t) cos ω+00 t s(t)sin ω= t A (t)c os⎣ ω−ϕ t (t)⎦ 2 2 Trong đó: A(t)y0=++[] U c(t) s(t) là bao của hỗn hợp tín hiệu và nhiễu. s(t) ϕ=y (t) arctang là pha của hỗn hợp tín hiệu và nhiễu. U0+c(t) Làm tương tự như VD2, ta có: 29
  32. Chương 2: Tín hiệu và nhiễu ⎧⎫22 Atyy0y0() ⎪ At()++ U⎪⎪⎧ At() U ⎪⎫ WA=− exp .I (2.40) 1y() 22⎨ ⎬⎨ 0 2 ⎬ δδ⎩⎭⎪⎪⎪⎩⎭ δ⎪ (2.40) gọi là phân bố Rice (H.2.10a). I 0 là hàm Bessel biến dạng loại 1 cấp 0. 2π 1 zcosθ I(z)= e dθ 0 2π ∫ 0 I 0 (z) có thể viết dưới dạng chuỗi vô hạn sau: 2n ∞ 1z⎛⎞ I(z)= 0 ∑ 2 ⎜⎟ n0= (n!) ⎝⎠2 2 z z42 Khi z > 1 ⇔ tín hiệu mạnh, nhiễu yếu. Tín hiệu tác dụng với thành phần không trực giao với nó của nhiễu (khi tín hiệu càng mạnh thì hỗn hợp này càng ít khác tín hiệu), còn thành phần của nhiễu trực giao với tín hiệu thì không chịu sự “chèn ép” của tín hiệu. Do đó mật độ phân bố xác suất bao của hỗn hợp sẽ mang đặc điểm của thành phần nhiễu trực giao với tín hiệu. ⎧⎫2 ⎡⎤⎛⎞⎧ 2 ⎫ 1 ⎪⎪U0 Ucos0yϕ Ucos 0yϕϕ ⎪ U 0 sin y ⎪ W1y()ϕ= exp⎨⎬ − +⎢⎥ 1 +φ⎜⎟ exp ⎨ − ⎬ (2.41) 2π 2222⎜⎟ ⎪⎪⎩⎭δδ22πδ ⎢⎣⎦⎝⎠ 2 δ ⎥⎪⎩⎭2 ⎪ z 2 −θ2 2 Trong đó: φ=(z)∫ e d θ là tích phân xác suất. 2π 0 Đồ thị (2.41) biểu diễn trên hình H.2.10b. W1(ϕy) W(Ay/σ) a = 5 a = U0/σ = 0 30 a = 2 a = 4 0,4 0,2 a = 2 U0/σ = 0
  33. Chương 2: Tín hiệu và nhiễu Nhận xét: - a = 0 ⇔ chỉ có nhiễu W1()ϕy chính là W1()ϕ đã xét ở VD2. - a >> 1 ⇒ đường cong W1()ϕy càng nhọn, hẹp. Giải thích: Với a càng lớn thì có thể bỏ qua ảnh hưởng xấu của nhiễu. Do đó đường bao (biên độ tín hiệu) không có gia số (không thăng giáng) và cũng không có sai pha. Khi đó ϕy nhận giá trị “0” trong khoảng (- π , π ) với xác suất lớn. 2.6. BIỂU DIỄN PHỨC CHO THỂ HIỆN CỦA TÍN HIỆU NGẪU NHIÊN – TÍN HIỆU GIẢI HẸP 2.6.1. Cặp biến đổi Hilbert và tín hiệu giải tích 2.6.1.1. Nhắc lại cách biểu diễn một dao động điều hoà dưới dạng phức Cho: x(t) = Ac00os(ω+ϕ=0 t) A(t)c os θ (t) (2.42) Trong đó: Im[x(t)] ω0 : tần số trung tâm; θ(t): pha đầy đủ; x(t) M ϕ0 : pha đầu. A Trong “Lý thuyết mạch”, người ta rất hay dùng cách biểu diễn x(t) dưới dạng phức sau: θ(t) •∧ j(t)θ x(t)=+ x(t) jx(t) = A(t)e (2.43) 0 x(t) Re[x(t)] Trong đó: Hình 2.11 • x(t) = Re [ x(t)]; ∧ • x(t) = Im [ x(t)] = Asin(t)0 θ 31
  34. Chương 2: Tín hiệu và nhiễu • Ta có thể biểu diễn x(t) dưới dạng một vecteur trên mặt phẳng phức. Khi A(t) = const thì quỹ tích của điểm M sẽ là một vòng tròn tâm O, bán kính OM. ω=θ(t) d (t) dt là tần số của dao động (H.2.11) 2.6.1.2. Cặp biến đổi Hilbert – Tín hiệu giải tích a. Cặp biến đổi Hilbert và tín hiệu giải tích: Để dễ dàng biểu diễn dưới dạng phức những thể hiện phức tạp của các quá trình ngẫu nhiên, ∧ người ta dùng cặp biến đổi Hilbert. Nó cho phép ta tìm x(t) khi biết x(t) và ngược lại. Hilbert đã chứng tỏ rằng phần thực và phần ảo của hàm phức (2.43) liên hệ với nhau bởi các biến đổi tích phân đơn trị hai chiều sau: ∧•1 ∞ x(τ ) x(t)= Im[x (t) ]= dτ= h [x(t)] (2.44) π−τ∫ t −∞ ∧ 1 ∞ x(τ ) • x(t)= −τ== d Re[x (t) ] h −1 [x(t)] (2.45) π−τ∫ t −∞ Cặp công thức trên được gọi là cặp biến đổi Hilbert. Trong đó (2.44) gọi là biến đổi thuận Hilbert, còn (2.45) gọi là biến đổi ngược Hilbert. Chú ý: Cũng giống như tính chất của các tích phân, biến đổi Hilbert là một phép biến đổi tuyến tính. (Một phép biến đổi f được gọi là tuyến tính nếu có: f(x1 + x 2 ) = f(x1 ) + f(x 2 ) f(kx) = k f(x), k = const) ∧ • Các hàm x(t) và x(t) được gọi là liên hiệp Hilbert đối với nhau. Tín hiệu phức x(t) có phần thực và phần ảo thoả mãn cặp biến đổi Hilbert gọi là tín hiệu giải tích (tương ứng với tín hiệu thực x(t)). b. Biến đổi Hilbert đối với tín hiệu hình sin: Trong mục này ta sẽ chứng tỏ ctosω0 và sinω0t thoả mãn cặp biến đổi H. Thật vậy: 32
  35. Chương 2: Tín hiệu và nhiễu ∞∞ ∧ 1cosωτ 1c os[ ω (t) −τ−ω t ] x(t)=τ=τ=000 d d π−τπ∫∫tt −τ −∞ −∞ 1c∞ osω−τω+ω−τω (t).ctsin(t).sint os ] =τ=0000d π−τ∫ t −∞ ctc(t)sintsin(t)osωω−τωω−τ∞∞ os =τ+τ00dd 00 π−τπ−τ∫∫tt −∞ −∞ ∞ cosaz ∞ sinaz Chú ý rằng: dz= 0 và dz = π ∫ z ∫ z −∞ −∞ ∧ ⇒=ωx(t) sin0 t Vậy ( sinω0 t ) là liên hợp H của ( ctosω0 ) Tương tự ( - ctosω0 ) là liên hợp phức H của ( sinω0 t ) c. Biến đổi H đối với các hàm tổng quát hơn: - Đối với các hàm tuần hoàn x(t): Trong “Lý thuyết mạch” ta đã biết, chuỗi Fourier của hàm tuần hoàn (thoả mãn điều kiện Dirichlet) là: ∞ x(t)=ω+ω∑ (aKK0 cos K0 t b sinK t) (2.46) K0= Vì biến đổi H là biến đổi tuyến tính nên biến đổi H của tổng bằng tổng các biến đổi H của các hàm thành phần, nên: ∧ ∞ x(t) = h [x(t)] =ω−ω∑ (aKK0 sin K0 t b cos K t) (2.47) K0= (2.46) và (2.47) gọi là chuỗi liên hiệp H. - x(t) không tuần hoàn: Nếu hàm không tuần hoàn x(t) khả tích tuyệt đối thì khai triển Fourier của nó là: 1 ∞ x(t)=ωω+ωωω[os a( )c t b( )sin t ]d (2.48) 2π ∫ 0 Khi đó: 33
  36. Chương 2: Tín hiệu và nhiễu ∞ ∧ 1 ⎪⎧ ⎪⎫ x(t) = h [x(t)] = h ⎨ [a()cost+b()sint]dω ωωωω=⎬ 2π ∫ ⎪⎩⎭0 ⎪ 1 ∞ = {}H[a(ωω )cos t]+H[b( ωωω )sin t] d 2π ∫ 0 1 ∞ = [a(ωω )sin t - b( ω )cos ωω t]d (2.49) 2π ∫ 0 (2.48) và (2.49) gọi là các tích phân liên hiệp H. d. Các yếu tố của tín hiệu giải tích: Từ (2.46) và (2.47) (hoặc từ (2.48) và (2.49)) ta xây dựng được tín hiệu giải tích ứng với tín hiệu thực x(t) như sau: •∧ j(t)θ x(t)=+ x(t) jx(t) = A(t)e • x(t) = Re [ x(t)] = A(t)cosθ (t) (a) ∧ • x(t) = Im [ x(t)] = A(t)sinθ (t) (b) - Đường bao của tín hiệu giải tích: ∧2 2 Từ (a) và (b) ta thấy: A(t)=+ x (t) x (t) (2.50) A(t) đặc trưng cho sự biến thiên (dạng biến thiên) của biên A(t) độ của tín hiệu (H.2.12). x(t) A(t) được gọi là đường bao của tín hiệu (còn gọi là biên độ biến thiên hay biên độ tức thời của t tín hiệu). - Pha tức thời của tín hiệu giải tích: Ký hiệu pha tức thời: θ(t) Hình 2.12 bằng: ∧ x(t) θ=(t) arctg (2.51) x(t) 34
  37. Chương 2: Tín hiệu và nhiễu - Tần số góc tức thời của tín hiệu giải tích ω(t) : ∧ ′ ′ ⎡⎤ ⎡⎤∧ ⎢⎥x(t) x(t) ∧∧′ dθ (t) x(t) ⎣⎦x(t)x (t)− x(t)x′ (t) ω=(t) =⎢⎥ arctg = = (2.52) dt⎢⎥ x(t) ∧∧22 ⎣⎦⎢⎥x(t) x(t)2 + x(t) 1+ x(t)2 - Tính chất của A(t): + A(t) ≥ x(t) ∧ + Khi x(t) = 0 ⇒ A(t) = x(t) ∧∧′ x(t).x′ (t)+ x(t).x (t) + Xét: A(t)′ = ∧2 x(t)2 + x(t) ∧ Khi x(t) = 0 ⇒ A’(t) = x’(t) ∧ Vậy khi x(t) = 0 thì độ nghiêng của A(t) và x(t) là như nhau. - Kết luận: Đối với các tín hiệu ngẫu nhiên thì các yếu tố của tín hiệu là ngẫu nhiên. Nhờ có khái niệm tín hiệu giải tích nên ta mới nghiên cứu các tính chất thống kê của các yếu tố của nó được thuận lợi, đặc biệt là trong tính toán. 2.6.2. Tín hiệu giải rộng và giải hẹp G(ω) 2.6.2.1. Tín hiệu giải rộng Người ta gọi một tín hiệu là tín hiệu giải rộng nếu bề rộng phổ của nó thoả mãn bất đẳng thức sau: Δω Δω ≥ 1 (2.53) 0 ω1 ω0 ω2 ω ω0 Hình 2.13 Nhìn chung tín hiệu giải rộng là tín hiệu mà bề rộng phổ của nó có thể so sánh được với ω0 . ω +ω Trong đó Δω=ω −ω và ω= 21 gọi là tần số trung tâm (xem H.2.13). 21 0 2 35
  38. Chương 2: Tín hiệu và nhiễu Ví dụ: Các tín hiệu điều tần, điều xung, điều chế mã xung, manip tần số, manip pha, là các tín hiệu giải rộng. 2.6.2.2. Tín hiệu giải hẹp Nếu tín hiệu có bề rộng phổ thoả mãn: G(ω) Δω Δω ≤ 1 (2.54) ω0 Thì nó được gọi là tín hiệu giải hẹp. (H.2.14). Ví dụ: tín hiệu giải hẹp là các tín hiệu như: tín hiệu cao tần hình sin, tín hiệu cao tần điều biên, 0 ω1 ω0 ω2 ω tín hiệu đơn biên . Hình 2.14 Nhìn chung tín hiệu giải hẹp là tín hiệu mà bề rộng phổ của nó khá nhỏ hơn so với tần số ω0 . 2.6.2.3. Biểu diễn tín hiệu giải hẹp Nếu một tín hiệu giải hẹp có biểu thức giải tích sau: x(t)= A(t)cos[ω−ϕ0 t (t)] = A(t)cos θ (t) (2.55) Trong đó: ω0t là thành phần thay đổi tuyến tính của pha chạy (pha tức thời) ϕ(t) là thành phần thay đổi chậm của pha chạy A(t) là đường bao của tín hiệu Thì (2.55) có thể khai triển như sau: x(t)= A(t)cosωϕ+00 tcos (t) A(t)sin ωϕ tsin (t) =ϕω+ϕωA(t)cos (t)cos t A(t) sin (t) sin t 00 = c(t). cos ω0t + s(t). sin ω0t (2.56) c(t). cos ω0t là tín hiệu điều biên biến đổi chậm s(t). sin ω0t là tín hiệu điều biên biến đổi chậm Vậy một tín hiệu giải hẹp hình sin bao giờ cũng có thể biểu diễn dưới dạng tổng của hai tín hiệu điều biên biến đổi chậm, với các yếu tố xác định như sau: 36
  39. Chương 2: Tín hiệu và nhiễu ⎧ ⎪A(t)=+ c22 (t) s (t) ⎪ ⎪ s(t) ⎨ϕ=(t) arctg (2.57) ⎪ c(t) ⎪ d(t)θ ⎪ω=(t) ⎩ dt Rõ ràng là các số hạng ở vế phải (2.56) thoả mãn cặp biến đổi Hilbert. Việc biểu diễn một tín hiệu giải hẹp thành tổng của hai tín hiệu điều biên biến thiên chậm sẽ làm cho việc phân tích mạch vô tuyến điện dưới tác động của nó đơn giản đi nhiều. Ta sẽ xét lại bài toán này ở phần sau. 2.7. BIỂU DIỄN HÌNH HỌC CHO THỂ HIỆN CỦA TÍN HIỆU NGẪU NHIÊN 2.7.1. Khai triển trực giao và biểu diễn vecteur của tín hiệu 2.7.1.1. Năng lượng của chuỗi Kachennhicov Ta đã biết rất rõ khai triển trực giao Fourier cho các hàm x(t) có phổ vô hạn. ở giáo trình “Lý thuyết mạch”, ta cũng biết rằng một hàm x(t) có phổ không chứa tần số lớn hơn Fc có thể phân tích thành chuỗi trực giao Kachennhicov sau: ∞ sin 2π F (t−Δ K t) x(t)=Δ∑ x(K t) c (2.58) K=−∞ 2F(tKt)π−Δc Trong đó: Δ=t12Fc Nếu ta chỉ xét tín hiệu có phổ hữu hạn x(t) trong khoảng thời gian T hữu hạn thì ta có biểu thức gần đúng sau để tính năng lượng của nó: 2 T2 T2⎡⎤n 2 sinω−Δ (t K t) Ex(t)dtx=≈⎢⎥c dt (*) ∫∫∑ K ω−Δ(t K t) −−T2 T2⎣⎦⎢⎥K1= c Trong đó n là số các giá trị rời rạc (còn gọi là các giá trị mẫu) của thể hiện tín hiệu x(t) trong khoảng quan sát T; còn x K là giá trị mẫu thứ K của x(t) tại thời điểm rời rạc KtΔ . Để cho gọn, ta đặt ω−Δ=λc (t K t) , khi đó (*) có dạng: 2 T2⎡⎤nn T2 2 1 sinλλ 12 sin Exdxd≈ ⎢⎥λ= λ ωλω∫∫∑∑KK2 cc−−T2⎣⎦⎢⎥K1== K1 T2 λ T2 sin2 λ Ta có: dλ≈π (với T khá lớn) ∫ 2 −T2 λ 37
  40. Chương 2: Tín hiệu và nhiễu nn π 221 ⇒=Ex∑∑KK = x (2.59) ωccK1==2F K1 (2.59) cho ta tính được năng lượng của chuỗi → 2.7.1.2. Biểu diễn x(t) thành vectơ x trong không gian n chiều Khai triển Kachennhicov (2.58) là một dạng khai triển trực giao. Các hàm sinω−Δc (t K t) ψ=K (t) là các hàm trực giao. ω−Δc(t K t) ∞ ⎛⎞sinω−Δ (t K t) sin ω−Δ (t i t) ⎧πωc iK = ⎜⎟∫ cc.dt= ⎨ ⎜⎟ω−Δcc(t K t) ω−Δ (t i t) ⎩0iK≠ ⎝⎠−∞ Vì vậy ta có thể coi mỗi hàm là một vecteur đơn vị trên hệ trục toạ độ trực giao. Khi T hữu → hạn thì K max = n cũng sẽ hữu hạn. Khi đó ta có thể coi x(t) là một vectơ x trong không gian n chiều có các thành phần (hình chiếu) trên các trục toạ độ tương ứng là x(KΔ t) , (K = 1, n ). x(t)⇔ { x(t−Δ t),x(t − 2 Δ t), ,x(t − n Δ t)} → x(t)⇔⇔{} x12 ,x , ,x n x → Theo định nghĩa, độ dài (hay chuẩn) của vecteur x sẽ là: →→→n ⎛⎞ 2 xx(x,x)==⎜⎟ (2.60) ∑ K ⎜⎟ K1= ⎝⎠ Để ý đến (2.59), ta có: → x2FE2FT.PnP==cc = (2.61) T (n2FT== ) Δt c Trong đó P là công suất của thể hiện tín hiệu trong khoảng hữu hạn T. Như vậy, với thời hạn quan sát và bề rộng phổ của thể hiện cho trước thì độ dài của vecteur biểu diễn tỷ lệ với căn bậc hai công suất trung bình của nó. Nếu cho trước công suất trung bình P thì độ dài của vecteur → n x sẽ tỷ lệ với n (tức là tỷ lệ với căn bậc hai của đáy tín hiệu B = FT= ) c 2 Nhận xét: 38
  41. Chương 2: Tín hiệu và nhiễu Như vậy, với cùng một công suất trung bình tín hiệu nào có đáy càng lớn (tức là tín hiệu càng phức tạp) thì độ dài của vecteur biểu diễn nó càng lớn. Khi đáy của tín hiệu càng lớn thì độ dài của vecteur tín hiệu càng lớn → vecteur tổng của tín hiệu và nhiễu giải hẹp càng ít khác vecteur tín hiệu → ta sẽ nhận đúng được tín hiệu với xác suất cao. Để tính chống nhiễu của tín hiệu càng cao thì yêu cầu B càng phải lớn. T 2 Trong trường hợp x(t) không rời rạc hoá: Ex(t)dtx = ∫ . Khi đó chuẩn của vecteur sẽ 0 là: →→→ → T 2 x(x,x)2FEx2Fx(t)dt==⇒=cx c∫ (2.62) 0 Người ta còn gọi không gian mà chuẩn của vecteur cho bởi tích vô hướng (2.62) là không gian Hilbert và ký hiệu là L 2 . Không gian L 2 là sự mở rộng trực tiếp của không gian Euclide hữu hạn chiều lên số chiều vô hạn. 2.7.2. Mật độ xác suất của vecteur ngẫu nhiên - Khoảng cách giữa hai vecteur tín hiệu 2.7.2.1. Mật độ xác suất của vecteur ngẫu nhiên a. Vecteur tín hiệu: Để tiếp tục những vấn đề sau này được thuận tiện, ta đưa vào khái niệm vecteur tín hiệu. Định nghĩa: → → →Δ x Vecteur tín hiệu x0 là vecteur sau: x0 = (2.63) n → Trong đó x là vecteur biểu diễn tín hiệu x(t) trong không gian n chiều. Tính chất: → → + x0 có phương và chiều trùng với x → → x + Độ lớn (modul): xP0 == n → b. Xác suất phân bố của mút vecteur x0 và miền xác định của nó Trong không gian tín hiệu, tín hiệu được biểu diễn bởi vecteur. Do đó xác suất để tồn tại tín hiệu đó ở một miền (nói riêng: tại một điểm) nào đấy của không gian chính là xác suất để mút vecteur tín hiệu rơi vào miền ấy (nói riêng: điểm ấy) của không gian. 39
  42. Chương 2: Tín hiệu và nhiễu → Nếu x(t) là xác định thì mút của vecteur x0 chỉ chiếm một điểm trong không gian n chiều. → Còn nếu x(t) là ngẫu nhiên có một tập các thể hiện {x(t)i } thì mút vecteur x0 của nó sẽ chiếm một miền nào đó trong không gian n chiều với thể tích: V= ΔΔ x12 . x Δ x n. Khi ấy, xác suất để tồn tại tín hiệu ngẫu nhiên trong miền có thể tích dV sẽ là: Pt/hNNdV{ ∈=} P{mót vecteur t/h ®ã ∈ dV } = → (2.64) ==dPWWnn() x12 ,x , ,x n dx 1 dx 2 dx n = (x 0 )dV Sau đây ta sẽ xét miền xác định của một số dạng tín hiệu ngẫu nhiên: - Các thể hiện của tín hiệu phát có cùng đáy, cùng công suất: Khi đó miền các định của vecteur tín hiệu phát sẽ là mặt cầu có bán kính bằng chuẩn của → → vecteur tín hiệu phát xP0 = và có tâm ở gốc toạ độ của vecteur ấy. (Sở dĩ như vậy vì x0 có chuẩn không đổi nhưng phương và chiều của nó thay đổi ngẫu nhiên). - Tạp âm trắng: Ta đã biết rằng các thể hiện n(t)i của tạp âm trắng n(t) có cùng công suất P n . Như vậy miền xác định của tạp âm trắng là mặt cầu có bán kính bằng Pn , có tâm là gốc của vecteur tạp → âm n0 . - Tổng của tín hiệu x(t) và tạp âm n(t): y(t) = x(t) + n(t) →→ → → ⇒=+yx00 n 0 ⇒ y 0 = P y Nếu x(t) và n(t) không tương quan thì: PPPyxn=+ (vì Byxn (0)= B (0)+ B (0) ) →→2 ⇒=+⇒=+yPPyPP00xn xn →→→222 ⇒=yxn000 + (*) 40
  43. Chương 2: Tín hiệu và nhiễu → → → → Từ (*) ta thấy x0 ⊥ n0 và y0 là cạnh huyền của một tam giác vuông có hai cạnh là x0 → và n0 . → Nếu x(t) xác định thì miền xác định của mút y0 sẽ là đường tròn đáy của hình nón có đỉnh → → ở gốc tọa độ, chiều cao bằng x0 và bán kính bằng n0 . (H.2.15a). n0 x0 y0 0 Hình 2.15a Nếu x(t) chỉ là một thể hiện nào đó của quá trình ngẫu nhiên X(t) có các thể hiện cùng công → suất thì lúc đó miền xác định của mút y0 sẽ là một mặt cầu có bán kính bằng PPxn+ và có tâm ở gốc toạ độ (H.2.15b). 0 Hình 2.15b 2.7.2.2. Khoảng cách giữa hai vecteur tín hiệu Để đánh giá định lượng sự khác nhau giữa hai vecteur tín hiệu, ta đưa ra khái niệm khoảng cách giữa hai vecteur tín hiệu. Định nghĩa: → → Khoảng cách giữa hai vecteur tín hiệu u0 và v0 được xác định theo biểu thức sau: 41
  44. Chương 2: Tín hiệu và nhiễu →→ Δ → →1 → → d(u00 ,v )=− u 0 v 0 = u − v n →→ n 1 2 ⇒=d(u00 ,v )∑ (u K − v K ) n K1= →→ nnn 222112 Hay: d(u,v)=+ u v − u .v 0022∑∑∑ K K KK (n)K1=== (n) K1n K1 ⎧ 22 11n →→→→→→ ⎪ uuuu.uc(u,u)2 === 2 ∑ K00000os ⎪(n)K1= n ⎪ 22 ⎪ n →→→→→→ ⎪ 112 Ta có: ⎨ 2 ∑ vvvv.vc(v,v)K00000=== os ⎪(n)K1= n ⎪ 1 n →→ → → →→ ⎪ u.v== (u,v) u .v cos (u,v) ⎪ ∑ KK 00 0 0 00 n K1= ⎩⎪ 22 →→ → → → → →→ 2 ⇒=+−d(u,v)00 u 0 v 0 2 u 0 . v 0 cos (u,v) 00 22 →→ → → → → 2 d(u,v)00=+ u 0 v 0 − 2 u 0 . v 0 cos ϕ → → Trong đó ϕ là góc hợp bởi u0 và v0 trong không gian n chiều. →→ u.v cosϕ= 00 (2.65) →→ u.v00 →→ 2 d(u,v)00=+− P u P v 2 PPc uvos ϕ (2.66) Nếu ta không rời rạc hoá tín hiệu thì: →→ T 1 2 d(u ,v )=−= u v[u(t) - v(t)] dt 00 0 0 T ∫ 0 42
  45. Chương 2: Tín hiệu và nhiễu TTT 2 11222 Hay d(u,v)=+−u (t) dt v (t) dt u(t). v (t) dt 00 TTT∫∫∫ 000 =+−PP2R(t,t)uv uv =+−PP2R(0)uv uv Trong đó R(0)uv là hàm tương quan chéo của tín hiệu u(t) và v(t). Ruv (0)=ρ D u (t).D v (t) uv (0) 2 d(u,v)00= PP2P.P(0)uv+− uvuv ρ (2.67) So sánh (2.66) và (2.67) ta thấy ngay ý nghĩa hình học của hàm tương quan chéo chuẩn hoá: ρuv(0) đóng vai trò cosin chỉ phương của hai vecteur tín hiệu. c(0)osϕρ = uv (2.68) Kết luận: - Với một mức nhiễu xác định, xác suất thu đúng càng cao khi các thể hiện của tín hiệu càng cách xa nhau. - Khoảng cách giữa hai mút của hai vecteur tín hiệu càng lớn khi độ dài hai vecteur càng lớn. 2.7.3. Khái niệm về máy thu tối ưu 2.7.3.1. Máy thu tối ưu Một cách tổng quát, ta coi một máy thu đặc trưng bởi một toán tử thu ψ (H.2.17). Yêu cầu của toán tử thu ψ là tác dụng vào y(t) (là tín hiệu vào) phải cho ra tín hiệu đã phát x(t). Nếu ta phát đi một thể hiện nào đó của một quá trình ngẫu nhiên X(t): X(t)=={ xi (t)} (i 1,m) Ta coi những thể hiện này có cùng công suất P x , có cùng thời y(t) x(t) ψ hạn T và có cùng bề rộng phổ F c . Giả thiết: trong quá trình truyền từ nơi phát đến nơi thu chỉ có Hình 2.16. tạp âm trắng Gausse n(t), các tín hiệu phát là đồng xác suất →→ Vecteur tín hiệu ta nhận được: yyn0 = 43
  46. Chương 2: Tín hiệu và nhiễu → → Nếu y0 này gần với vecteur tín hiệu x j0 nhất so với các vecteur tín hiệu khác, tức là: →→→→ yyxx j −≤−i Với ∀i: i=≠ 1,m vµ i j nn nn → → →→ Khi đó máy thu có ψ tác dụng lên y cho ra x j : ψ[y]=xK , sẽ được gọi là máy thu tối ưu (theo nghĩa Kachennhicov trong trường hợp các tín hiệu xti ( ) là đồng xác suất). 2.7.3.2. Liên hệ giữa máy thu tối ưu K và máy thu theo tiêu chuẩn độ lệch trung bình bình phương nhỏ nhất Độ lệch trung bình bình phương (tbbp) giữa tín hiệu thu được và tín hiệu phát thứ j là: −−−−−−−−−−− T 221 [y(t) - x(t) ]= [y(t) - x (t) ] dt jjT ∫ 0 Máy thu theo tiêu chuẩn độ lệch tbbp nhỏ nhất là máy thu đảm bảo: − −−−−−−−−−− 2 min[y(t) - xj (t) ] j= 1,m ∀ j → Như vậy, máy thu sẽ cho ra tín hiệu x(t)j nếu: −−−−−−−−−−− −−−−−−−−−−− 22 [y(t) - xji(t) ]≤∀≠= [y(t) - x (t) ] i j, i 1,m TT 1122 Hay [y(t) - x(t) ] dt≤∀≠= [y(t) - x (t) ] dt i j, i 1,m TT∫∫ji 00 Nâng lên luỹ thừa 1/2, ta có: TT 1122 [y(t) - x(t) ] dt≤∀≠= [y(t) - x (t) ] dt i j, i 1,m TT∫∫ji 00 Theo định nghĩa của khoảng cách, ta có thể viết lại như sau: →→ →→ d(y0j0 ,x )≤∀≠= d(y 0i0 ,x ) i j, i 1,m Đây chính là hệ thức đảm bảo bởi máy thu tối ưu K. 44
  47. Chương 2: Tín hiệu và nhiễu BÀI TẬP 2.1. Đồ thị giá trị trung bình a(t) và giá trị trung bình bình phương σ(t) của các quá trình ngẫu nhiên X(t), Y(t) và Z(t) vẽ trên hình 1 dưới đây. Hãy chỉ ra trên đồ thị miền các giá trị có thể có của các quá trình ngẫu nhiên này, biết rằng biên giới của các miền đó được xác định bởi các giá trị của σ()t . a (t) a (t) y x t t t 0 0 0 az(t) σ (t) σy (t) z t t t 0 0 0 Hình 1. 2.2. Trên hình 2 vẽ hàm ngẫu nhiên dừng rời rạc X(t), gọi là dãy xung điện báo. Dãy xung có biên độ không đổi bằng đơn vị, có độ rộng ngẫu nhiên. x(t) 1 0 Hình 2. Phân bố xác suất các giá trị (0 hoặc 1) của X(t) tuân theo luật Poisson: 45
  48. Chương 2: Tín hiệu và nhiễu n ()λt −λt Pt()= e t> 0 n n! Trong đó λ là số các bước nhảy của hàm X(t) trong một đơn vị thời gian, còn Ptn ( ) là xác suất để xảy ra n bước nhảy của hàm X(t) trong thời gian t. Hãy tìm hàm tự tương quan, hàm tương quan chuẩn hoá và thời gian tương quan của quá trình ngẫu nhiên, biết rằng P(1) = P(0) = 0,5. 2.3. Tìm hàm tự tương quan của quá trình ngẫu nhiên dừng sau: Xt( ) =π+ϕ Acos2ft( 0 ) Trong đó A = const, f0 = const, ϕ là đại lượng ngẫu nhiên có phân bố đều trong khoảng ()−π, π . 2.4. Tìm hàm tự tương quan và mật độ phổ của tín hiệu điện báo ngẫu nhiên X(t) cho bởi hình dưới đây. Biết rằng nó nhận các giá trị + a; - a với xác suất như nhau và bằng 1/2. Còn xác suất để trong khoảng τ có N bước nhảy là: N ()λτ −λτ PN,()τ= e τ> 0 N! (theo phân bố Poisson). 2.5. Hãy chứng tỏ rằng đường bao của tín hiệu giải tích có thể biểu diễn bằng công thức sau: * At()= Saa () t.St () * Trong đó: Sta ( ) là hàm liên hợp phức của Sta ( ) : ∧ Sta ()=+ xt ()jxt () là tín hiệu giải tích. 2.6. Một quá trình ngẫu nhiên dừng có hàm tự tương quan: 2 −ατ a. R.eτ=σ x1 () 2 −α τ b. R.e.cosτ=σ ωτ x02 () Hãy tính toán và vẽ đồ thị mật độ phổ của các quá trình ngẫu nhiên trên. 46
  49. Chương 3: Cơ sở lý thuyết thông tin thống kê CHƯƠNG 3 - CƠ SỞ LÝ THUYẾT THÔNG TIN THỐNG KÊ 3.1. THÔNG TIN - LƯỢNG THÔNG TIN – XÁC SUẤT VÀ THÔNG TIN – ĐƠN VỊ ĐO THÔNG TIN 3.1.1. Định nghĩa định tính thông tin và lượng thông tin 3.1.1.1. Thông tin Ở chương trước, ta đã học khái niệm về thông tin. Ở đây ta sẽ xây dựng định nghĩa định tính của thông tin theo quan điểm thống kê. Để đi tới định nghĩa định tính của thông tin, ta sẽ xét ví dụ sau: Ta nhận được một bức điện (thư) từ nhà đến. Khi chưa mở bức điện ra đọc thì ta chỉ có thể dự đoán hoặc thế này hoặc thế khác về bức điện, mà không dám chắc nội dung của nó là gì. Nói khác đi, khi chưa mở bức điện ra đọc thì ta không thể xác định được nội dung của nó, tức là ta chưa biết gia đình báo cho ta thông tin gì. Nhưng khi đã xem xong bức điện thì nội dung của nó đối với ta đã hoàn toàn rõ ràng, xác định. Lúc đó, nội dung của bức điện không còn bấp bênh nữa. Như vậy, ta nói rằng: ta đã nhận được một tin về gia đình. Nội dung của bức điện có thể có 3 đặc điểm sau: - Nội dung đó ta đã thừa biết. (VD: “Các em con được nghỉ hè 3 tháng”). Khi đó bức điện không cho ta một hiểu biết gì mới về tình hình gia đình. Hay nói theo quan điểm thông tin, thì bức điện với nội dung ta đã thừa biết không mang đến cho ta một thông tin gì. - Loại nội dung ta có thể đoán thế này hoặc thế nọ (tức là loại nội dung có độ bấp bênh nào đấy). VD: “Em An đã đỗ đại học”. Vì em An học lực trung bình nên thi vào đại học có thể đỗ, có thể không. Điện với nội dung ta không biết chắc (nội dung chứa một độ bất định nào đó) thật sự có mang đến cho ta một thông tin nhất định. - Loại nội dung mà ta hoàn toàn không ngờ tới, chưa hề nghĩ tới. VD: “Em An trúng giải nhất trong đợt xổ số”. Bức điện như vậy, đứng về mặt thông tin mà nói, đã đưa đến cho ta một thông tin rất lớn. Chú ý: Ở đây ta nói tới “những nội dung chưa hề nghĩ tới” phải hiểu theo ý hoàn toàn khách quan chứ không phải do sự không đầy đủ về tư duy của con người đem lại. Từ những ví dụ trên, ta rút ra những kết luận sau về khái niệm thông tin: - Điều gì đã xác định (khẳng định được, đoán chắc được, không bấp bênh, ) thì không có thông tin và người ta nói rằng lượng thông tin chứa trong điều ấy bằng không. - Điều gì không xác định (bất định) thì điều đó có thông tin và lượng thông tin chứa trong nó khác không. Nếu ta càng không thể ngờ tới điều đó thì thông tin mà điều đó mang lại cho ta rất lớn. Tóm lại, ta thấy khái niệm thông tin gắn liền với sự bất định của đối tượng ta cần xét. Có sự bất định về một đối tượng nào đó thì những thông báo về đối tượng đó sẽ cho ta thông tin. Khi không có sự bất định thì sẽ không có thông tin về đối tượng đó. Như vậy, khái niệm thông tin chỉ là một cách diễn đạt khác đi của khái niệm sự bất định. 47
  50. Chương 3: Cơ sở lý thuyết thông tin thống kê Trước khi nhận tin (được thông báo) về một đối tượng nào đấy thì vẫn còn sự bất định về đối tượng đó, tức là độ bất định về đối tượng đó khác không (có thể lớn hoặc nhỏ). Sau khi nhận tin (đã được hiểu rõ hoặc hiểu một phần) về đối tượng thì độ bất định của nó giảm đến mức thấp nhất, hoặc hoàn toàn mất. Như vậy, rõ ràng “Thông tin là độ bất định đã bị thủ tiêu” hay nói một cách khác “Làm giảm độ bất định kết quả cho ta thông tin”. 3.1.1.2. Lượng thông tin Trong lý luận ở trên, ta đã từng nói đến lượng thông tin và lượng thông tin lớn, lượng thông tin nhỏ mà không hề định nghĩa các danh từ đó. Dưới đây ta sẽ trả lời vấn đề đó. Ở trên ta cũng đã nói: trước khi nhận tin thì độ bất định lớn nhất. Sau khi nhận tin (hiểu rõ hoặc hiểu một phần về đối tượng thì độ bất định giảm đến mức thấp nhất, có khi triệt hoàn toàn. Như vậy, có một sự chênh lệch giữa độ bất định trước khi nhận tin và độ bất định sau khi nhận tin. Sự chênh lệch đó là mức độ thủ tiêu độ bất định. Độ lớn, nhỏ của thông tin mang đến ta phụ thuộc trực tiếp vào mức chênh đó. Vậy: “Lượng thông tin là mức độ bị thủ tiêu của độ bất định ⇔ Lượng thông tin = độ chênh của độ bất định trước và sau khi nhận tin = độ bất định trước khi nhận tin - độ bất định sau khi nhận tin (độ bất định tiên nghiệm - độ bất định hậu nghiệm)”. 3.1.2. Quan hệ giữa độ bất định và xác suất 3.1.2.1. Xét ví dụ sau Ta phải chọn một phần tử trong một tập nào đó. Phép chọn như thế (hoặc “chọn” hiểu theo nghĩa rộng: thử, tìm hiểu, điều tra, trinh sát, tình báo, ) bao giờ cũng có độ bất định. - Nếu tập chỉ có một phần tử thì ta chẳng phải chọn gì cả và như vậy không có độ bất định trong phép chọn đó. - Nếu tập có hai phần tử thì ta đã phải chọn. Như vậy, trong trường hợp này phép chọn có độ bất định. Nếu số phần tử của tập tăng thì độ bất định sẽ tăng. - Các bước tiếp theo sẽ cho bởi bảng sau: Số phần tử của tập Độ bất định của phép chọn Xác suất chọn một phần tử trong tập 1 0 1 2 ≠0 1/2 3 ≠0 1/3 . . . Gi . . T . ă ả ng . . . m n ≠0 1/n . . . . . . . . . ∞ ∞ 1/∞ = 0 ơ Chú ý: Bảng này đưa ra với giả sử việc chọn các phần tử là đồng xác suất. 48
  51. Chương 3: Cơ sở lý thuyết thông tin thống kê 3.1.2.2. Kết luận - Bảng này cho thấy: độ bất định gắn liền với bản chất ngẫu nhiên của phép chọn, của biến cố. - Độ bất định (ký hiệu I) là hàm của số phần tử thuộc tập I(xK )= f (n) (a) - Độ bất định có liên quan với xác suất chọn phần tử của tập ⇒=I(x)E(x)KK[p ] (b) Để tìm mối quan hệ giữa độ bất định I và xác suất chọn một phần tử x((x))KKp trong tập, ta xuất phát từ các tiêu đề sau: Theo suy nghĩ thông thường, độ bất định I phải thoả mãn: + I(xK )≥ 0 + p[p]=E[1]=0(xKKK )=⇒ 1 I(x ) = E (x ) (3.1) + Tính cộng được: Nếu xK và xi độc lập, thì: E(xx)(x)(x)(x)(x)[pKi ] = E[p K p i ] = E[p K ] + E[p i ] Nếu xK và xi phụ thuộc thì: E(xx)(x)(xx)(x)(xx)[pKi ]=E[p K p i K ]=E[p K ]+E[p i K ] Đặt p(xK )= p và p](xiK x )= q , thì khi đó với mọi p, q (0<≤ p 1, 0 <≤ q 1) , ta có: E[p] + E[q] = E(pq) (3.2) Từ (3.2) ta có thể tìm được dạng hàm I(p). Lấy vi phân 2 vế của (3.2) theo p, ta có: E’(p) = q E’(pq) Nhân cả 2 vế của phương trình này với p và ký hiệu p.q = τ , ta có: pE’(p) = τ E’( τ ) (3.3) (3.3) đúng ∀ p, τ ≠ 0. Nhưng điều này chỉ có thể có khi cả hai vế của (3.3) bằng một hằng số k nào đó: pE’(p) = τ E’( τ ) = k = const Từ đó chúng ta có phương trình vi phân pI’(p) = const = k, lấy tích phân phương trình này, ta tìm được: E(p) = k.lnp + C (3.4) Kể đến điều kiện ban đầu (3.1), chúng ta có: E(p) = k.lnp (3.5) Như vậy, ta có: I(x)k.lnx)KK= [p( ] (3.6) 49
  52. Chương 3: Cơ sở lý thuyết thông tin thống kê Hệ số tỷ lệ k trong (3.6) có thể chọn tuỳ ý, nó chỉ xác định hệ đơn vị đo của I(xK ) . Vì ln[p( xK ) ]≤ 0 nên để I(xK )≥ 0 thì k < 0. ⎡ 1 ⎤ Nếu lấy k = -1 thì I(x)KK=− lnx)[p( ] = ln⎢ ⎥ (3.7) ⎣p(x)K ⎦ Khi đó, đơn vị đo độ bất định sẽ là đơn vị tự nhiên, ký hiệu là nat. 1 lnp( x ) Nếu lấy k =− thì I(x )=−K =− log p(x ) (3.8) ln 2 K2Kln 2 Khi đó đơn vị đo độ bất định sẽ là đơn vị nhị phân, ký hiệu là bit (1 nat = 1,433 bit) Một bit chính là độ bất định chứa trong một phần tử (biến cố của tập xác suất chọn (xuất hiện) bằng 1/2. Người ta thường sử dụng đơn vị [bit] do trong kỹ thuật tính và kỹ thuật liên lạc thường dùng các mã nhị phân. Ngoài ra, người ta còn có thể sử dụng những đơn vị đo khác tuỳ theo cách chọn cơ số của logarit. Vì vậy trong trường hợp tổng quát, ta có thể viết: I(xKK )=− logp( x ) (3.9) 3.1.3. Xác định lượng thông tin Ở mục 1, ta đã có kết luận sau: Lượng thông tin = độ bất định tiên nghiệm - độ bất định hậu nghiệm. Vì độ bất định sẽ trở thành thông tin khi nó bị thủ tiêu nên ta có thể coi độ bất định cũng chính là thông tin. Do đó: Lượng thông tin = thông tin tiên nghiệm – thông tin hậu nghiệm (*) Thông tin tiên nghiệm (hay còn gọi là lượng thông tin riêng) được xác định theo (3.9). Còn thông tin hậu nghiệm xác định như sau: Gọi xK là tin gửi đi, y là tin thu được có chứa những dấu hiệu để hiểu biết về xK (có chứa thông tin về xK ). Khi đó xác suất để rõ về xK khi đã thu được y là p(xK y ) . Như vậy độ bất định của tin xK khi đã rõ y bằng: (3.9) I(xy)KK= - logp (xy) (3.10) (3.10) được gọi là thông tin hậu nghiệm về xK (thông tin riêng về xK sau khi có y ). Thay (3.9) và (3.10) vào (*), ta có: 50
  53. Chương 3: Cơ sở lý thuyết thông tin thống kê LI()I(y)−îng th«ng tin vÒ xKKK= x− x LI()I(y)−îng th«ng tin vÒ x=− x x KKK ⇓Ký hiÖu 11 I(xK ,y )=− log log p(xxKK ) p( y ) p(xK y ) ⇒=I(xK ,y ) log (3.11) p(xK ) (3.11) gọi là lượng thông tin về xK khi đã rõ tin y hay còn gọi là lượng thông tin chéo về xK do y mang lại. Nếu việc truyền tin không bị nhiễu thì yx ≡ K . Tức là nếu phát xK thì chắc chắn nhận được chính nó. Khi đó: p(xKKK y )== p(x x ) 1 Từ (3.11) ta có: 1 I(xKKKK ,y )=== I(x ,x ) I(x ) log ( ) p(xK ) Như vậy khi không có nhiễu, lượng thông tin nhận được đúng bằng độ bất định của sự kiện xK , tức là đúng bằng thông tin tiên nghiệm của xK . Vậy lượng thông tin tổn hao trong kênh sẽ là: I(xxKK )−= I( ,y ) I( x K y ) Đơn vị đo của thông tin (lượng thông tin) cũng chính là đơn vị đo độ bất định. Nếu cơ số của logarit là 10 thì đơn vị đo thông tin được gọi là Hartley, hay đơn vị thập phân. Nếu cơ số của logarit là e = 2,718 thì đơn vị đo thông tin được gọi là nat, hay đơn vị đo tự nhiên. Nếu cơ số của logarit là 2 thì đơn vị đo thông tin được gọi là bit, hay đơn vị nhị phân. 1 Harley = 3,322 bit 1 nat = 1,443 bit 51
  54. Chương 3: Cơ sở lý thuyết thông tin thống kê 3.2. ENTROPIE VÀ CÁC TÍNH CHẤT CỦA ENTROPIE 3.2.1. Tính chất thống kê của nguồn rời rạc và sự ra đời của khái niệm entropie Trong mục trước, ta mới chỉ xét đến lượng thông tin về một biến cố (hay một tin) trong một tập các biến cố (hay tin) xung khắc, đồng xác suất. Thực tế tồn tại phổ biến loại tập các biến cố (hay nguồn tin, tập tin) xung khắc, không đồng xác suất. Tức là xác suất xuất hiện các biến cố khác nhau trong tập là khác nhau. Ta gọi sự khác nhau giữa các xác suất xuất hiện biến cố của tập (hay tin của nguồn rời rạc) là tính chất thống kê của nó. Ví dụ 1: Sự xuất hiện các con chữ trong bộ chữ Việt có xác suất khác nhau: p(e) = 0,02843; p(m) = 0,02395; p(k) = 0,02102, (Theo số liệu trong đồ án tốt nghiệp “Khảo sát cấu trúc thống kê chữ Việt” của Đoàn Công Vinh – ĐHBK HN). Ví dụ 2: Xác suất xuất hiện của 26 chữ cái trong tiếng Anh: (Số liệu theo Beker và Pipe) Ký tự Xác suất Ký tự Xác suất A 0,082 N 0,067 B 0,015 O 0,075 C 0,028 P 0,019 D 0,043 Q 0,001 E 0,127 R 0,060 F 0,022 S 0,063 G 0,020 T 0,091 H 0,061 U 0,028 I 0,070 V 0,010 J 0,002 W 0,023 K 0,008 X 0,001 L 0,040 Y 0,020 M 0,024 Z 0,001 Trong một nguồn tin như thế, ngoài thông tin riêng của mỗi tin (hay dấu) của nó, người ta còn phải quan tâm đến thông tin trung bình của mỗi tin thuộc nguồn. Người ta còn gọi thông tin trung bình do mỗi dấu của nguồn mang lại là entropie. Dưới đây ta sẽ xét kỹ định nghĩa về entropie. 3.2.2. Định nghĩa entropie của nguồn rời rạc 3.2.2.1. Đặt vấn đề Để phép đo được chính xác, trong vật lý, khi đo lường một đại lượng, ta không quan tâm đến từng trị đo được của đại lượng mà thường xét trị trung bình của chúng. Khi đó ta lấy các trị đo được cộng với nhau rồi chia cho số lượng của chúng: n iintb= ∑ r r1= 52
  55. Chương 3: Cơ sở lý thuyết thông tin thống kê Ở đây cũng có điều tương tự: ta không quan tâm đến từng thông tin riêng của mỗi dấu mà lại chú ý đến giá trị trung bình của các thông tin đó. Chỉ khác ở chỗ mỗi một thông tin riêng đến tương ứng với một xác suất xuất hiện nào đó, tức là ta có thể xem các thông tin riêng là m đại lượng ngẫu nhiên I. Do đó giá trị trung bình của các thông tin này (lượng thông tin trung bình hay entropie) chính là kỳ vọng của đại lượng ngẫu nhiên I. Ta đi tới định nghĩa sau: 3.2.2.2. Định nghĩa Entropie của nguồn tin rời rạc là trung bình thống kê của lượng thông tin riêng của các dấu thuộc nguồn A, ký hiệu H(A)1 : Δ H(A)1 = M[I(ai ) ] (3.12) Trong đó ai là các dấu của nguồn A (Ta hiểu dấu là các con chữ, hoặc các ký hiệu v.v của nguồn). Còn nguồn A là một tập rời rạc các dấu ai với các xác suất xuất hiện của chúng. Ta quy ước viết A như sau: ⎛⎞a1 a a2s A = {ai } = ⎜⎟ (3.13) ⎝⎠p(aa12 ) p( ) p( a s ) s Với 0p(a)1≤≤i và ∑p(ai )= 1 (3.14) i1= A được cho bởi (3.13) và (3.14) còn gọi là trường tin (hay trường biến cố). Từ (3.12) và (3.13), ta có: s H(A)1 = M[I(aiii ) ] =∑ p(a )I (a ) i=1 s ⇒−H(A)1 =∑ p(aii )logp (a ) (3.15) i=1 H(A)1 còn gọi là entropie một chiều của nguồn rời rạc: Ví dụ: H1(Việt) = 4,5167 bit H1(Nga) = 4,35 bit H1(Anh) = 4,19 bit 3.2.3. Các tính chất của entropie một chiều của nguồn rời rạc 3.2.3.1. Tính chất 1 Khi p(ak )= 1 và p(ar )= 0 với ∀rk≠ thì: H(A)11min== H(A ) 0 (3.16) 53
  56. Chương 3: Cơ sở lý thuyết thông tin thống kê Chứng minh: Ta đã có: 0p(a)1≤≤i ⇒ log p(aii )≤ 0⇒− log p(a ) ≥ 0 ⇒ H(A)11min≥⇒ 0 H(A ) = 0 Bây giờ ta chỉ còn phải chứng tỏ H(A1min )= 0 khi p(ak )= 1 và p(ar )= 0 (∀≠rk). Thật vậy, p(ar )= 0 ⇒ p(arr )logp(a )= 0 (∀≠ r k) p(ak )=⇒ 1 p(akk )logp(a )= 0 (∀≠ r k) s ⇒=−H(A)1ii∑ p(a)logp(a) i1= s =−p(akk )logp(a ) −∑ p(a ii )logp(a ) = 0 i1,ik=≠ Ý nghĩa: Thực ra không cần phải chứng minh như vậy, mà lập luận như sau cũng cho ta công thức (3.16): p(ar )= 0 ⇒ các ar không xuất hiện p(ak )= 1 ⇒ các ak chắc chắn xuất hiện ⇒ Không có độ bất định nào về các ai ⇒ lượng thông tin riêng không có ⇒ lượng thông tin trung bình cũng không có. 3.2.3.2. Tính chất 2 y x – 1 Một nguồn rời rạc gồm s dấu đồng xác suất (và thoả mãn (3.14)) thì entropie của nó đạt cực đại và cực lnx đại đó bằng log s. 0 1 x H(A1max )= logs (3.17) - 1 Chứng minh: Khi p(aij )=∀∀= p(a ), i, j (i, j 1,s) 1 Hình 3.1. Khi đó p(a ) = , tức là nguồn gồm các dấu i s xung khắc và đồng khả năng. 54
  57. Chương 3: Cơ sở lý thuyết thông tin thống kê s 11 ⇒=−=H(A')1 ∑ log logs i1= ss Xét hiệu: s 1 H1i (A)−= logs∑ p(a )log − logs i1= p(ai ) ss1 =−∑∑p(aii )log p(a )logs i1==p(ai ) i1 s ⎡⎤1 =−∑p(ai )⎢⎥ log logs i1= ⎣⎦p(ai ) ss1 ==p(a )log p(a )log x ∑∑iip(a )s i1==i i1 Ta có: lnx ≤ x – 1 ∀ x (xem hình 3.1) s ⇒≤−∑∑p(aii )logx p(a )(x 1) i1= sss⎡⎤11 Mà: ∑∑∑p(aii )⎢⎥−= 1 − p(a ) = 0 i1===⎣⎦p(ai )s i1 s i1 Vậy: H(A)11−≤⇒≤ logs 0 H(A) logs Tóm lại, ta thấy 0H(A)logs≤≤1 (entropie của nguồn rời rạc) Entropie là một đại lượng giới nội. Ký hiệu H(A)m0ax = H (A) Ví dụ: H0 (ViÖt) = log2 36= 5,1713bit H(Nga0 )=log2 325bit= H0 (Anh)=log2 27= 4,75489bit 3.2.4. Entropie của nguồn rời rạc, nhị phân Nguồn rời rạc nhị phân là nguồn chỉ có hai dấu: ⎧a"0"v1 ⇔=íi x¸c suÊt p(a1 )p ⎨ a"1"v⇔=−íi x¸c suÊt p(a )1p ⎩ 2 2 55
  58. Chương 3: Cơ sở lý thuyết thông tin thống kê Ta có ngay: 2 H1ii (A)=−∑ p(a )log p(a ) =− plog p − (1 − p) = f (p) (3.18) i1= Đồ thị f(p) được biểu diễn trên hình 3.2. H (A) Ta thấy H(A)= f(p) chỉ phụ thuộc 1 1 vào đặc tính thống kê của các tin. 1 Nếu đơn vị dùng là bit thì max H(A)1 = 1 Nhận xét: H1(A)max 1 - H(A)đạt max tại p = . Sở dĩ như 1 2 vậy vì tập chỉ có hai phần tử, nên độ bất định của phép chọn sẽ lớn nhất khi hai dấu có xác suất 0 0,5 1 p xuất hiện như nhau. Hình 3.2. - p = 0 ⇒ H(A)1min= 0. Khi đó 1 – p = 1 là xác suất xuất hiện dấu a2 . Vậy a2 là một biến cố chắc chắn. Phép chọn này không có độ bất định ⇒ lượng thông tin trung bình triệt. - p = 1 ⇒ H(A)1min= 0. Giải thích tương tự. 3.2.5. Entropie của trường sự kiện đồng thời Định nghĩa 1: Có hai trường sự kiện A và B: ⎛⎞aa a12 s ⎛⎞bb b12 t A = ⎜⎟và B = ⎜⎟ ⎝⎠p(a12 ) p(a ) p(a s ) ⎝⎠p(b12 ) p(b ) p(b t ) Các ai và b j là các sự kiện. Ta xét một sự kiện tích: ca.bkij= p(ckij )= p(a .b ) . Ta xét trường C là giao của hai trường A và B, nếu: ⎛⎞a11 b a 12 b a 1 b t a 2 b j a s b t CA.B== ⎜⎟ ⎝⎠p(a11 b ) p(a 12 b ) p(a 1t b ) p(a 2 b j ) p(a s b t ) Trường C được gọi là trường sự kiện đồng thời (trường giao, tích) của hai trường sự kiện cơ bản A và B. Định nghĩa 2: 56
  59. Chương 3: Cơ sở lý thuyết thông tin thống kê Hai trường sự kiện A và B được gọi là độc lập với nhau nếu: p(a .b )= p(a ).p(b ) ij i j Chú ý: Tất nhiên nếu p(ai ) và p(bj ) thoả mãn (3.14) thì ta cũng có: st 0p(ab)1;≤ ij≤=∑∑ p(ab)1 ij (*) i1j1== Định lý 1: Entropie của trường sự kiện đồng thời C = A. B sẽ bằng tổng entropie của các trường sự kiện cơ bản A và B nếu A và B độc lập. H(A.B) = H(A) + H(B) (3.19) Chứng minh: Theo định nghĩa: Δ st H(A.B)=−∑∑ p(ab)logp(ab)ij ij i1j1== Theo giả thiết A và B độc lập với nhau nên ta có: st st H(A.B)=−∑∑ p(aij )p(b )logp(a i ) − ∑∑ p(a ij )p(b )logp(b j ) i1j1== i1j1 == stts =−∑∑∑∑p(aiij )logp(a ) p(b ) − p(b jji )logp(b ) p(a ) i1=== j1 j1 i1 t s Mà: ∑p(bj )= 1, ∑p(ai )= 1 j1= i1= ⇒ H(A.B) = H(A) + H(B) Nhận xét: Tương tự, nếu các nguồn X,(k1,n)k = độc lập với nhau thì: n H(X12 .X X n )= ∑ H(X k ) k1= 3.3. ENTROPIE CÓ ĐIỀU KIỆN. LƯỢNG THÔNG TIN CHÉO TRUNG BÌNH 3.3.1. Entropie có điều kiện về một trường tin này khi đã rõ một tin nhất định của a1 b1 a2 b2 57 ak bl
  60. Chương 3: Cơ sở lý thuyết thông tin thống kê trường tin kia 3.3.1.1. Mở đầu Trong phần trước, ta đã nói nếu truyền tin có nhiễu thì tin phát đi ak và tin thu được b là khác nhau. Và khi đó lượng thông tin riêng về ak do b mang lại là: 1 I(ak / b )= log p(ak /b ) Vấn đề: ta không quan tâm đến lượng thông tin riêng về một dấu ak cụ thể nào của nguồn tin phát { ai } do b mang lại mà chỉ quan tâm đến lượng thông tin riêng trung bình về một dấu nào đó của tập { ai } do b mang lại. Ta thấy rằng I(ak / b ) là một đại lưọng ngẫu nhiên. Do đó tương tự như định nghĩa của entropie một chiều, ta đi tới định nghĩa sau. 3.3.1.2.Định nghĩa Entropie có điều kiện về một trường tin này khi đã rõ một tin của trường tin kia được xác định bằng kỳ vọng của lượng thông tin riêng có điều kiện về ak do một b mang lại: Δ s H(A/b)= M[I(aiii /b) ] =∑ p(a /b)I (a /b) i1= s =−∑p(aii/b )logp (a /b ) (3.20) i1= Ý nghĩa: H(A/b ) là lượng thông tin tổn hao trung bình của mỗi tin ở đầu phát khi đầu thu đã thu được b j . Tương tự: t H(B/a)iii=−∑p(bjj /a)logp (b /a) j1= Ý nghĩa: H(B/ai ) là lượng thông tin riêng trung bình chứa trong mỗi tin ở đầu thu khi đầu phát đã phát đi một tin ai . 3.3.2. Entropie có điều kiện về trường tin này khi đã rõ trường tin kia Ta thấy rằng do nhiễu ngẫu nhiên nên bên thu không phải chỉ thu được một tin duy nhất mà là cả tập tin B = { b j } nào đó, (j= 1,t). Vậy H(A/bj ) cũng là một đại lượng ngẫu nhiên, do 58
  61. Chương 3: Cơ sở lý thuyết thông tin thống kê đó ta phải xét đến lượng thông tin riêng trung bình về mỗi tin ở đầu phát khi đầu thu đã thu được một dấu nào đó. Tương tự như trên, ta cũng phải lấy trung bình thống kê của đại lượng ngẫu nhiên này. Định nghĩa: Entropie có điều kiện của trường sự kiện A khi đã rõ trường sự kiện B được xác định bởi kỳ vọng của đại lượng H(A/bj ). Δ t ⎡⎤ H(A/B)== M⎣⎦ H(A/bjjj )∑ p(b )H(A/b ) j1= ts⎡ ⎤ =−∑∑p(bjijij )⎢ p(a / b )logp(a / b )⎥ j1==⎣⎢ i1 ⎦⎥ st =−∑∑p(bjij )p(a / b )logp(a ij / b ) i1j1== st H(A/B)=−∑∑ p(aij b )logp(a i /b j ) (3.21) i1j1== Ý nghĩa: H(A/B) là lượng thông tin tổn hao trung bình của mỗi tin ở đầu phát khi đầu thu đã thu được một dấu nào đó. Tương tự: st H(B/A)=−∑∑ p(bji a )logp(b j /a i ) (3.22) i1j1== Ý nghĩa: H(B/A) là lượng thông tin riêng trung bình chứa trong mỗi tin ở đầu thu khi đầu phát đã phát đi một tin nào đó. Chú ý: Ta xét một bộ chữ A. Để đặc trưng cho lượng thông tin riêng trung bình chứa trong mỗi con chữ khi kể đến xác suất xuất hiện các cặp chữ (VD: trong tiếng Việt: p(a/b) ≠ 0, p(b/a) = 0, p(t/a) ≠ 0, p(a/t) ≠ 0), người ta dùng H(A/A) và ký hiệu là H 2 (A). Ví dụ: H 2 (Việt) = 3,2223 bit H 2 (Nga) = 3,52 bit H 2 (Anh) = 3,32 bit 59
  62. Chương 3: Cơ sở lý thuyết thông tin thống kê Việc tính H 3, H 4 rất phức tạp. Khakevich tính được đến H 5 . Shannon tính được đến H8 . 3.3.3. Hai trạng thái cực đoan của kênh truyền tin 3.3.3.1. Kênh bị đứt (bị nhiễu tuyệt đối) Trong trường hợp này, các tin thu được hoàn toàn khác các tin phát đi. Nói khác đi vì bị nhiếu tuyệt đối nên trong mọi tin b j ∈ B không chứa dấu hiệu hiểu biết nào về các tin đã phát đi. Như vậy, A và B là độc lập nhau: p(aij / b )= p(a i ) ; p(bji /a )= p(b j ) ⇒=p(a b ) p(a )p(b ) ij i j Khi đó ta có: s H(A/bjii )=−∑ p(a )logp(a ) = H(A) i1= t H(B/aijj )=−∑ p(b )logp(b ) = H(B) j1= (3.23) ts H(A/B)=−∑∑ p(bji ) p(a )logp(a i ) = H(A) j1== i1 st H(B/A)=−∑∑ p(aij ) p(b )logp(b j ) = H(B) i1== j1 3.3.3.2. Kênh không nhiễu Khi đó: t = s. Với ∀i1,sab==ii ⇒=p(aii ) p(b ) nên H(A) = H(B) p(akk / b )= p(b kk /a )= 1 p(a / b ) p(b /a ) 0 v ik= ik=∀≠íi i k ⎧H(A/bkk )== 0 H(B/a ) 0 ⇒ ⎨ (3.24) ⎩H(A/B)== 0 H(B/A) 0 Vì khi không nhiễu, coi A và B phụ thuộc mạnh nhất, có ai thì chắc chắn có bi , nên độ bất định về ai khi đã thu được bi là không có ⇒ độ bất định trung bình cũng không có. 60
  63. Chương 3: Cơ sở lý thuyết thông tin thống kê 3.3.4. Các tính chất của entropie có điều kiện 3.3.4.1.Tính chất 1 Nếu A và B là hai trường biến cố bất kỳ (hai nguồn tin bất kỳ) thì entropie của trường biến cố đồng thời A.B bằng: H(A.B) = H(A) + H(B/A) = H(B) + H(A/B) (3.25) Chứng minh: st H(A.B)=−∑∑ p(ab)logp(ab)ij ij = i1j1== st =−∑∑p(bjij )p(a / b )log{} p(b jij )p(a / b ) = i1j1== st st H(A.B)=−∑∑ p(bjij )p(a / b )logp(b j ) − ∑∑ p(b jij )p(a / b )logp(a ij / b ) = i1j1== i1j1 == st st =−∑∑p(a/b)ij p(b)logp(b) j j − ∑∑ p(ab)logp(a/b) ij ij i1== j1 i1j1 == =+H(B) H(A/B) s Trong đó: ∑p(aij / b )= 1. i1= 3.3.4.2.Tính chất 2 Entropie có điều kiện nằm trong khoảng: 0H(A/B)H(A)≤≤ (3.26) Chứng minh: + H(A/B)≥ 0: 0≤≤⇒≤ p(aij / b ) 1 logp(a ij / b ) 0 ⇒−log p(aij / b ) ≥ 0 ⇒ H(A / B) ≥ 0 Nó sẽ nhận dấu bằng khi A và B là đồng nhất (kênh không nhiễu). + H(A/B) ≤ H(A): Xét hiệu: H(A/B) – H(A) = G 61
  64. Chương 3: Cơ sở lý thuyết thông tin thống kê st s G=−∑∑ p(bjij )p(a /b )logp(a ij / b ) + ∑ p(a i )logp(a i ).1 i1j1== i1 = t Chú ý: ta thay 1p(b/a)= ∑ ji j1= st st ⇒=−G∑∑ p(aij b )logp(a i / b j ) + ∑∑ p(a ij b )logp(a i ) i1j1== i1j1 == st p(aij / b ) =−∑∑p(aij b )log i1j1== p(ai ) st p(ai ) =∑∑p(aij b )log p(aij / b ) i1j1== Áp dụng log x≤− x 1: st ⎡⎤ p(ai ) ⇒≤Gp(ab)1∑∑ ij⎢⎥ − i1j1== ⎣⎦⎢⎥p(aij / b ) st ⎡ p(a ) ⎤ Gp(b)p(a/b)1≤−⎢ i ⎥ ∑∑ jij i1j1== ⎣⎢p(aij / b ) ⎦⎥ st st G≤−∑∑ p(aij ) p(b ) ∑∑ p(b jij )p(a / b ) i1== j1 i1j1 == G1.1≤−= 10 ⇒ H(A/B) ≤ H(A). H(A/B) = H(A) khi A và B là độc lập (kênh bị đứt). 3.3.4.3. Tính chất 3 Entropie của trường sự kiện đồng thời không lớn hơn tổng entropie của các trường sự kiện cơ bản. H(A.B) ≤ H(A) + H(B) (3.27) Chứng minh: (3.27) rút ra trực tiếp từ (3.25) và (3.26). 62
  65. Chương 3: Cơ sở lý thuyết thông tin thống kê 3.3.5. Lượng thông tin chéo trung bình Ở phần trước, chúng ta đã biết lượng thông tin chéo về một tin ai đã phát đi do một tin b j đã thu được mang lại là: p(aij / b ) I(aij ,b )= log p(ai ) Thông thường, vì bên phát phát đi một tập tin A = { ai } và bên thu nhận được một tập tin B = { b j }. Do đó ta không quan tâm đến lượng thông tin chéo về một tin cụ thể ai đã phát do một tin b j cụ thể thu được, mà ta chỉ quan tâm đến lượng thông tin chéo trung bình về mỗi tin của tập phát A do mỗi tin của tập thu B mang lại. I(aij ,b ) là một đại lượng ngẫu nhiên, do đó ta phải lấy trung bình thống kê của nó. Định nghĩa: Lượng thông tin chéo trung bình (ký hiệu là I(A,B)): Δ ⎡⎤ I(A,B)= M⎣⎦ I(aij ,b ) (3.28) Xác suất để có thông tin I(aij ,b ) là p(aij b ) , do đó ta có: st p(aij / b ) I(A,B)=∑∑ p(aij b )log i1j1== p(ai ) st st I(A,B)=−∑∑ p(aij b )logp(a i / b j ) ∑∑ p(a ij b )logp(a i ) i1j1== i1j1 == =−H(A/B) + H(A) Tóm lại: I(A,B) = H(A) – H(A/B) (3.29a) Tương tự, ta có: I(A,B) = H(B) – H(B/A) (3.29b) Hay: I(A,B) = H(A) + H(B) – H(A.B) I(A,B) còn gọi là lượng thông tin trung bình được truyền theo kênh rời rạc. 3.3.6. Tính chất của I(A,B) 3.3.6.1. Tính chất 1 I(A,B) ≥ 0: (3.30) Theo tính chất 2 ở mục 3.3.4: H(A/B) ≤ H(A) ⇒ H(A) – H(A/B) ≥ 0. I(A,B) = 0 khi kênh bị đứt. 63
  66. Chương 3: Cơ sở lý thuyết thông tin thống kê 3.3.6.2.Tính chất 2 I(A,B) ≤ H(A): (3.31) Thật vậy: H(A/B) ≥ 0 ⇒ I(A,B) = H(A) – H(A/B) ≤ H(A) I(A,B) = H(A) khi kênh không có nhiễu. Từ (3.31) ta thấy khi truyền tin trong kênh có nhiễu, thông tin sẽ bị tổn hao một phần. Lượng thông tin tổn hao trung bình chính là H(A/B). 3.3.6.3.Tính chất 3 I(A,A) = H(A) 3.3.6.4. Tính chất 4 I(A,B) = I(B,A) 3.3.7. Mô hình của kênh truyền tin có nhiễu Dựa vào (3.29a), ta có mô hình kênh truyền khi có nhiễu như sau: H(A) I(A,B) = I(B,A) H(B) H(A/B) H(B/A) Tổn hao Lượng tin tức bù bằng hồi liên Hình 3.3. A B A B A B A B A B H(A) H(A/B) H(B/A) I(A,B) H(AB) Hình 3.4. Lược đồ Wenn mô tả mối quan hệ giữa các đại lượng. 64
  67. Chương 3: Cơ sở lý thuyết thông tin thống kê 3.4. TỐC ĐỘ PHÁT. KHẢ NĂNG PHÁT. ĐỘ THỪA. KHẢ NĂNG THÔNG QUA CỦA KÊNH RỜI RẠC 3.4.1. Tốc độ phát của nguồn rời rạc Trong thông tin rời rạc, người ta thường phát đi các xung. Nếu gọi Tn là độ rộng trung bình của mỗi xung thì tốc độ phát của nguồn tin rời rạc được định nghĩa như sau: Δ 1 υ=n (3.32) Tn (3.32) biểu thị số xung trong một đơn vị thời gian. Thứ nguyên: [ υn ] = bốt = số dấu (xung)/ sec Ví dụ: Điện báo tay: υn = 25 bốt. Điện báo tự động: υn = (50 ÷ 300) bốt. 4 Thông tin truyền số liệu: (500 ÷ n.10 ) bốt. 3.4.2. Khả năng phát của nguồn rời rạc Định nghĩa: Δ H(A) H'(A)=υn H(A) = (3.33) Tn Thứ nguyên: [H’(A)] = bit/sec. 1 max H'(A)= H(A) Tn (3.33) biểu thị lượng thông tin trung bình do nguồn phát ra trong một đơn vị thời gian. Ví dụ: Một máy điện báo dùng mã Bôđô đều 5 dấu, cơ số 2, tốc độ phát là 75 bốt thì khả năng tối đa của máy là: 5 H'(A)mn1max=υ .H (A) ax = 75.log 2 2 = 375bit /s 3.4.3. Độ thừa của nguồn rời rạc Định nghĩa: Độ thừa của nguồn rời rạc là tỷ số: Δ H(A)− H(A) H(A) D1==−max (3.34) H(A)mmax H(A) ax 65
  68. Chương 3: Cơ sở lý thuyết thông tin thống kê H(A) D1=−μ, trong đó: μ= được gọi là hệ số nén tin. H(A)max Đối với nguồn tin có s dấu: H(A) max = H 0 (A) = log s. Ý nghĩa: Độ thừa đặc trưng cho hiệu suất, khả năng chống nhiễu và độ mật của tin. Nếu D càng lớn thì hiệu suất càng thấp, độ mật càng thấp nhưng khả năng chống nhiễu càng cao. Ví dụ: - Đối với tiếng Việt: H1 (Việt) = 4.5167; H 0 (Việt) = 5,1713 ⇒μ1 =87 % ⇒=D1 13 % H (A) 3,2223 μ=2 = = 62% ⇒=D 38% 2 l5,1713ogs 2 - Đối với tiếng Nga: μ=1 87% ⇒=D1 13 % μ3 = 60% ⇒=D3 40 % - Đối với tiếng Anh: μ=1 84% ⇒=D1 16 % μ8 = 38% ⇒=D8 62 % 3.4.4. Các đặc trưng của kênh rời rạc và các loại kênh rời rạc Một kênh rời rạc hoàn toàn được đặc trưng bởi ba tham số sau: - Trường dấu lối vào và trường dấu lối ra của kênh. - Xác suất chuyển p(bji /a ) - Tốc độ truyền tin của kênh υK Định nghĩa 1: Nếu một kênh có p(bji /a )∉ t thì được gọi là kênh đồng nhất; p(bji /a ) ∉vào dấu đã phát trước nó thì được gọi là kênh không nhớ. Ngược lại, p(bji /a )∈ t thì kênh được gọi là không đồng nhất; p(bji /a ) ∈ vào dấu đã phát trước nó thì kênh được gọi là kênh có nhớ (∀i, j). Định nghĩa 2: Nếu một kênh có xác suất chuyển: ⎪⎧ps =∀≠=c,j1,t onst víi i j, i=1,s p(bji /a ) = ⎨ ⎩⎪pc® =∀=onst ij 66
  69. Chương 3: Cơ sở lý thuyết thông tin thống kê thì kênh đó sẽ được gọi là kênh đối xứng. Ví dụ: p(b /a ) = p 1 1 đ a1 b1 p(b1/a2) p(b2/a1) a2 b2 p(b2/a2) = pđ ∀ xác suất sai bằng nhau, ∀ xác suất đúng bằng nhau. Đối với kênh đối xứng nhị phân (Hình vẽ): pp1s + ® = . 3.4.5. Lượng thông tin truyền qua kênh trong một đơn vị thời gian Định nghĩa: Δ I(A,B) I'(A,B)==υK I(A,B) [bit/s] (3.35) TK 1 Trong đó: υ=K , TK : thời gian trung bình để truyền một dấu qua kênh. υK biểu thị TK số dấu mà kênh đã truyền được (được truyền qua kênh) trong một đơn vị thời gian. I’(A,B) là lượng thông tin đã truyền qua kênh trong một đơn vị thời gian. Nếu kênh giãn tin: TTKn> Nếu kênh nén tin: TTKn< Thông thường: TTKn= 3.4.6. Khả năng thông qua của kênh rời rạc Để đánh giá năng lực tải tin tối đa cuả một kênh truyền, người ta đưa ra khái niệm khả năng thông qua. 3.4.6.1. Định nghĩa Khả năng thông qua của kênh rời rạc là giá trị cực đại của lượng thông tin truyền qua kênh trong một đơn vị thời gian, lấy theo mọi khả năng có thể có của nguồn tin A. (Cực đại này sẽ đạt được ứng với một phân bố tối ưu của các xác suất tiên nghiệm p( ai ), ∀aAi∈ ). Δ C'mI'(A,B)==υaxK mI(A,B) ax [bit/s] (3.36) AA 67
  70. Chương 3: Cơ sở lý thuyết thông tin thống kê C'=υK .C víi C = m ax I(A,B) A C được gọi là khả năng thông qua của kênh đối với mỗi dấu. C’ là một tham số rất quan trọng của một kênh. 3.4.6.2. Tính chất - C’ ≥ 0, C’ = 0 khi và chỉ khi A và B độc lập (kênh bị đứt). - C’ ≤υK logs , đẳng thức chỉ xảy ra khi kênh không nhiễu. (3.37) Chứng minh: I(A,B)≤ H(A) υKKI(A,B)≤υ H(A) ( υ K > 0) mI(A,B))mH(A))ax(υ≤υKK ax( υ≤υmax I(A,B) m ax H(A) KK C'≤υK logs 3.4.7. Tính khả năng thông qua của kênh nhị phân đối xứng không nhớ, đồng nhất 3.4.7.1. Đặt bài toán p(b1/a1) = pđ Ta có một kênh nhị phân như hình 3.4. Trong đó: a1 b1 Xác suất sai: p(b21 /a )== p(b 12 /a ) p s p(b1/a2) = ps Xác suất đúng: p(b22 /a )== p(b 11 /a ) p® a2 b2 p(a1) = p; p(a 2 ) = 1 - p; p(b2/a2) = pđ Các dấu a1 và a 2 có cùng thời hạn T. Vấn đề: tính C’? 3.4.7.2. Giải bài toán Ta có: 11 C'==− max I(A,B) m ax[] H(B) H(B/A) TTKKAA Ta có ngay: 22 H(B/A)=−∑∑ p(aiji )p(b /a )logp(b ji /a ) i1j1== 68
  71. Chương 3: Cơ sở lý thuyết thông tin thống kê H(B/A)=− p(a1111121 )[] p(b /a )logp(b /a ) + p(b /a )logp(b 21 /a ) −+p(a2121222 )[] p(b /a )logp(b /a ) p(b /a )logp(b 22 /a ) =−p[] (1 − pssss )log(1 − p ) + p logp −−(1p)plogp(1p)log(1p)[]ss + − s − s H(B/A)=−[] pss logp + (1 − p s )log(1 − p s ) Ta thấy H(B/A) chỉ phụ thuộc vào ps , mà không phụ thuộc vào xác suất tiên nghiệm của các dấu thuộc nguồn tin A. Do đó: 1 C'=− max[] H(B) H(B/A) TK A 11 =−mH(B)ax H(B/A) TTKKA Ở đây H(B/A) không đổi đối với mọi trạng thái (đặc tính thống kê) của nguồn A. Mà: max H(B)=== H(B)m22ax log s log 2 1 A 1 Vậy: C'=+[] 1 pss log p +−− (1 p s )log(1 p s ) TK C'= f p ,T ( sK) C’/ C’max 1 1 C'msax =⇔=⇔ p 0 Kênh không nhiễu. TK C' =+1 p log p + (1 − p )log(1 − p ) ss s s C'max (3.38) 0 0,5 1 ps Đồ thị (3.38) biểu diễn trên hình 3.5. Hình 3.5. 3.4.8. Định lý mã hoá thứ hai của Shannon Định lý: Nếu khả năng phát H’(A) của nguồn tin rời rạc A bé hơn khả năng thông qua của kênh: (H’(A) C’ thì không tồn tại phép mã hoá và giải mã như vậy) khi độ dài từ mã đủ lớn. Nhận xét: Đây là một định lý tồn tại vì nó không chỉ cho ta cách thiết lập một mã cụ thể nào. Lý thuyết mã kênh trong chương 4 chính là hướng dẫn cần thiết cho định lý này. 69
  72. Chương 3: Cơ sở lý thuyết thông tin thống kê 3.4.9. Khả năng thông qua của kênh nhị phân đối xứng có xoá 3.4.9.1.Đặt bài toán Cho kênh truyền, các dấu a1 và a2 như hình vẽ. Các dấu a1 và a2 có cùng thời hạn T. Hãy tính khả năng thông qua C’ của kênh này với điều kiện: Xác suất xoá: p(b3i /a )= q 1- ps - q a1 b1 Xác suất thu đúng: ps p(b11 /a )==−− p(b 2 /a 2 ) 1 p s q q Xác suất thu sai: b3 q p(b21 /a )== p(b 12 /a ) p s ps a2 b2 3.4.9.2. Giải bài toán 1 – ps - q Tương tự bài toán trên, ta có: 1 C'=− max[] H(B) H(B/A) T A Trong đó: 23 H(B/A)=−∑∑ p(aiji )p(b /a )logp(b ji /a ) i1j1== =−−−p1pqlog1pqplogpqlogq⎣⎦⎡⎤()()ssss −−+ + −−()1pplogp1pqlog1pqqlogq⎣⎦⎡⎤ss +−()() s − − s − + =−⎣⎦⎡⎤()()1 − pssss − q log 1 − p − q + p logp + qlogq Ta thấy H(B/A) ∉ vào tính chất thống kê của nguồn A. Do đó: max[] H(B)−= H(B/A) m ax H(B) − H(B/A) AA 3 HB()=−∑ pb()jj logpb () j1= Trong đó: pb( 3131232) =+ pa( ) pb/a( ) pa( ) pb/a( ) =+−=pq() 1 p q q không phụ thuộc vào tính chất thống kê của nguồn A. Như vậy, H(B) sẽ đạt max ứng với phân bố của các xác suất p( ai ) đảm bảo được: 70
  73. Chương 3: Cơ sở lý thuyết thông tin thống kê 1q− pb()== pb ( ) 122 (1q− ) ⇒=−−−mHBax () qlogq1qlog ( ) A 2 ⇒=C' F{( 1 − q)⎣⎦⎡⎤ 1 − log( 1 − q) + pss log p +−−( 1 p s q) log( 1 −− p s q)} 1 Trong đó F = T 3.5. ENTROPIE CỦA NGUỒN LIÊN TỤC. LƯỢNG THÔNG TIN CHÉO TRUNG BÌNH TRUYỀN QUA KÊNH LIÊN TỤC KHÔNG NHỚ 3.5.1. Các dạng tín hiệu liên tục Đối với các tín hiệu cao tần liên tục s(t) thì giá trị của nó có thể nhận một cách liên tục các giá trị khác nhau trong một khoảng xác định ssmin÷ max , còn đối số thời gian t lại có thể liên tục hay rời rạc (hình 3.6) Vì vậy, ta sẽ phân các tín hiệu liên tục ra 2 loại. - Tín hiệu liên tục với thời gian rời rạc (hình 3.6a). - Tín hiệu liên tục với thời gian liên tục (hình 3.6b). s(t) s(t) smax smax Δt smin smin t t a. b. Hình 3.6. Các tham số đặc trưng của tín hiệu liên tục là: - Công suất phổ trung bình - Bề rộng phổ 3.5.2. Các đặc trưng và tham số của kênh liên tục Ta đã biết rằng các đặc trưng của kênh rời rạc là: - Trường dấu lối vào trước hay sau bộ mã hoá: A 71
  74. Chương 3: Cơ sở lý thuyết thông tin thống kê - Trường dấu lối ra sau bộ giải điều chế hoặc sau bộ giải mã B. (nn) ( ) - Xác suất chuyển pa/b hoặc p/αβ ( ij) ( ii) Đối với kênh liên tục, các đặc trưng của nó là: - Trường dấu lối vào (sau bộ điều chế): {s(t)} - Trường dấu lối ra (trước bộ giải điều chế): {U(t)} - Mật độ phân bố xác suất để xuất hiện Utj ( ) khi đã phát hiện sti ( ) : WU( j (t/st) i ( )) Cũng như đối với kênh rời rạc tham số quan trọng nhất của kênh liên tục là khả năng thông qua của nó. Nhiễu s(t) u(t) β b a α Đường tin i i i Mã hoá i Điều chế Giải điều chế Giải mã Kênh liên tục Kênh rời rạc (chứa kênh liên tục) Định nghĩa: Kênh Gausse không đổi là một kênh liên tục có tập tin lối vào và tập tin lối ra liên hệ với nhau theo công thức: ut( ) =μ .st( ) + nt( ) (3.39) Trong đó μ = const, (∉ t) , n(t): nhiễu cộng là tạp âm trắng phân bố chuẩn. 3.5.3. Kênh liên tục chứa trong kênh rời rạc Tính chất: Khả năng thông qua của kênh liên tục không nhỏ hơn khả năng thông qua của kênh rời rạc chứa nó: ' ' CClt≥ r.r chøa lt (3.40) Chứng minh: Nếu phép giải điều chế và điều chế là hai phép thuận nghịch lẫn nhau như ta mong muốn thì khi qua bộ điều chế và giải điều chế lượng thông tin là không đổi (lượng thông tin truyền qua 72
  75. Chương 3: Cơ sở lý thuyết thông tin thống kê kênh trong một đơn vị thời gian). Như vậy, khả năng thông qua của kênh liên tục đúng bằng khả năng thông qua của kênh rời rạc. Tuy nhiên phép giải điều chế thường làm tổn hao thông tin, do đó khả năng thông qua của kênh rời rạc không thể lớn hơn khả năng thông qua của kênh liên tục nằm trong nó. 3.5.4. Entropie của nguồn tin liên tục (của một quá trình ngẫu nhiên liên tục) Xét một nguồn tin S ở mỗi một thời điểm có thể phát ra những tin là một đại lượng ngẫu nhiên s có thể nhận các giá trị liên tục trong khoảng ssmin÷ max với mật độ xác suất W1 (s). Vì trong khoảng ssmin÷ max ta có vô số những giá trị của s nên tập tin của nguồn S là một tập vô hạn và như vậy S là một nguồn tin smax liên tục. Để tính entropie của nguồn này ta làm như sau: si Ta thực hiện một phép lượng tử hoá hình thức bằng cách chia khoảng smin ssmin÷ max ra n phần bằng nhau. Mỗi phần bằng Δs và được gọi là bước lượng tử (hình t 3.7). Hình 3.7. Ta coi rằng s sẽ nhận giá trị si nếu giá trị của nó nằm trong một phần thứ i nào đó. Như vậy s có thể nhận các giá trị sau: S’ = {si }, i = 1, n . Xác suất để s nhận giá trị si sẽ là: ps( ii) ≈ΔW1 ( s) . s Entropie của nguồn tin đã rời rạc hoá S’ sẽ bằng: n HS'()=Δ∑WW11 () sii . slog⎣⎡ () s . Δ s⎦⎤ i1= Khi cho Δ→s 0, ta sẽ được entropie của nguồn tin liên tục. ⎛⎞n H() S==− lim H () S' lim⎜⎟WW () s log⎡⎤ () s . Δ+ s ⎜⎟∑ 11ii⎣⎦ Δ→s0 Δ→ s0⎝⎠i1= ⎛⎞1 n +Δlim⎜⎟ log∑W1 () si . s Δ→s0⎜⎟Δs ⎝⎠i1= ∞∞ 11⎡⎤⎡ ⎤ H() S=+∫∫WW11 () s log ds⎢⎥ lim⎢ () s ds⎥ W1 ()ss⎣⎦Δ→s0Δ ⎢ ⎥ −∞⎣ −∞ ⎦ =1 73
  76. Chương 3: Cơ sở lý thuyết thông tin thống kê ∞ 11 ⇒=HS()W1 () slog ds + lim (3.41) ∫ W ssΔ→s0Δ −∞ 1 () 1 Từ (3.41) ta thấy entropie một chiều của nguồn tin liên tục lớn vô hạn do lim =∞. Δ→s0Δs Số hạng thứ hai không phụ thuộc vào bản chất thống kê của nguồn (tín hiệu) mà chỉ có số hạng thứ nhất phụ thuộc vào bản chất thống kê của nguồn, vì vậy ta có thể lấy nó đặc trưng cho những quá trình ngẫu nhiên khác nhau. Ta đặt: Δ ∞ 1 h() S= W () s log ds (3.42) ∫ 1 W s −∞ 1 () và gọi h(S) là entropie vi phân (hay entropie tương đối) của nguồn S. Chú ý: - Khác với entropie của nguồn rời rạc, h(S) có thể nhận các giá trị dương, âm (hữu hạn). - Khác với entropie của nguồn rời rạc, h(S) phụ thuộc vào thang tỷ lệ của s, tức là phụ thuộc * vào việc chọn đơn vị đo. Nếu tăng s lên υ lần: s.s= υ , khi đó: * ds 1 WW11ss==() W 1() s ( ) ds* υ ∞ ⇒=−hS()∫ WW11 () slogsdshS () =+υ() log −∞ h(S) cũng có tính chất cộng tính. 3.5.5. Mẫu vật lý minh hoạ sự lớn vô hạn của entropie của nguồn liên tục Giả sử ta truyền tin từ A đến B bằng đường dây lý tưởng: không tổn hao, không gây nhiễu. ở đầu B ta đặt A B một máy thu là một volt kế lý tưởng (có tạp âm nội bộ bằng không, nên có thể đo với độ chính xác tuỳ ý, s u ZV =∞). Tín hiệu phát nằm trong khoảng (01÷ ) Vol. Như vậy, ở đâu thu ta sẽ nhận được u = s. Hình 3.8. Nếu trường Aa,i1,10=={ i} (có 10 tin) thì ta có thể mã hoá một cách đơn giản bằng cách đối chứng như sau: a0,1V1 ↔ , a0,2V2 ↔ , , a1V10 ↔ Giả sử các tin là đồng xác suất thì H(A) = log 10. Nếu A=={ ai} , i 1,100 thì ta có thể phát đi bằng cách đối chứng: 74
  77. Chương 3: Cơ sở lý thuyết thông tin thống kê a0,01V1 ↔ , a0,02V2 ↔ , , a1V100 ↔ Nếu các tin là đồng xác suất thì H(A) = log100. 6 −6 Tương tự, nếu i1,10= thì chỉ cần chọn bước lượng tử Δ=s10 thì ta có thể đảm bảo 6 truyền được mọi tin. Nếu các tin là đồng xác suất thì H(A)= log10 . Vì kênh và thiết bị thu không có nhiễu nên ta có thể chọn Δs bé tuỳ ý để truyền một số tin lớn tuỳ ý. Khi đó entropie của nguồn tin có thể lớn tuỳ ý. Nếu Δs→⇒ 0 H(A) →∞. Trong thực tế, luôn tồn tại nhiễu n(t) trên đường dây và volt kế luôn có tạp âm nội bộ. Do đó không thể chọn Δs nhỏ tuỳ ý được mà phải là một số hữu hạn. Vì vậy entropie của nguồn trên thực tế là hữu hạn. 3.5.6. Lượng thông tin chéo trung bình truyền theo kênh liên tục không nhớ Xét một nguồn liên tục S và giả thiết các tin s do nguồn sinh ra là độc lập thống kê với nhau, nghĩa là xét nguồn liên tục không nhớ. Xét kênh liên tục chỉ có can nhiễu cộng n(t) có các giá trị cũng độc lập thống kê với nhau. Khi đó ở lối ra của kênh ta nhận được các tin: u.sn=μ + Các tin này cũng độc lập thống kê với nhau. Khi đó kênh xét cũng là kênh liên tục không nhớ. Ta sẽ tính lượng thông tin trung bình truyền theo kênh này: I(S, U). Ta cũng sẽ lượng tử hoá các tin ở đầu thu và đầu phát. Bước lượng tử ở đầu phát là Δs , bước lượng tử ở đầu thu là Δu . Khi đó ta có hai nguồn đã rời rạc sau: S'=={ si} , i 1,n và U'=={ uj} , j 1,m. Tương tự như mục 4, ta có: Xác suất để s nhận giá trị si sẽ là: ps( ii) = W1 ( s) .sΔ . Tương tự, ta có: pu( jj) =ΔW1 ( u) .u. Xác suất để đồng thời s nhận giá trị si và u nhận giá trị u j gần đúng bằng: ps,u( ij) =ΔΔW2 ( s,u.s.u ij) Nếu coi si là tin truyền đi và u j là tin nhận được tương ứng thì khi đó kênh sẽ là rời rạc không nhớ và lượng thông tin chéo trung bình truyền theo kênh rời rạc đó là: nm ps/u( ij) IS',U'()=ΔΔ∑∑W2 () s,u.ij s.u.log i1j1== ps()i Chú ý rằng theo công thức nhân xác suất: 75