Теория информации

Автор: Пользователь скрыл имя, 20 Марта 2012 в 21:48, контрольная работа

Описание работы

Работа содержит 6 задач по дисциплине : "Основы теории информации"и их решения

Содержание

Задача №1………………………………………………………………………………………………………………стр.3
Задача №2………………………………………………………………………………………………………………стр.6
Задача №3………………………………………………………………………………………………………………стр.9
Задача №4………………………………………………………………………………………………………………стр.13
Задача №5………………………………………………………………………………………………………………стр.17
Задача №6………………………………………………………………………………………………………………стр.22

Работа содержит 1 файл

теория информации(Моё).docx

— 145.77 Кб (Скачать)

Государственное образовательное  учреждение высшего профессионального  образования

"Балтийский институт экономики  и финансов (БИЭФ)"

 

 

 

Кафедра прикладной информатики

 

Контрольная работа

По дисциплине ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ

 

 

                                                                                                        Шиндяпин Сергей Викторович

                                                                                        Группа/курс  2918/4

                                                                   Вариант 6

                                                                                                          Дата сдачи _______________

                                                                                                          Дата проверки ____________                                                                                     

                                                                                             Профессор Карлов А.М.

 

 

 

 

 

 

 

 

г. Калининград

2011 г.

 

План

 

  1. Задача №1………………………………………………………………………………………………………………стр.3
  2. Задача №2………………………………………………………………………………………………………………стр.6
  3. Задача №3………………………………………………………………………………………………………………стр.9
  4. Задача №4………………………………………………………………………………………………………………стр.13
  5. Задача №5………………………………………………………………………………………………………………стр.17
  6. Задача №6………………………………………………………………………………………………………………стр.22

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Задача 1. Энтропия некоррелированного источника дискретных сообщений.

Определить  энтропию и коэффициент избыточности некоррелированного источника дискретных сообщений, закон распределения  вероятностей которого приведен в табл. 1.

Таблица 1

Nвар

xi

x1

x2

x3

x4

x5

x6

x7

x8

x9

6

Pi

0,05

0,149

0,174

0,192

0,16

0,1

0,052

0,033

0,09


 

Решение

Xi

X1

X2

X3

X4

X5

X6

X7

X8

X9

pi

0,05

0,149

0,174

0,192

0,16

0,1

0,052

0,033

0,09

I(xi)

-log20.05

-log20.09


 

Xi– элемент источника дискретных сообщений

I(xi) – количество информации

H(x) – энтропия источника дискретных сообщений

P(xi) – вероятность появления элемента в сообщении

Количество  информации, содержащейся в элементе сообщения дискретного источника, измеряемого в двоичных единицах количества информации, будем определять по формуле:

 

Энтропия  источника дискретных сообщений  можно определить по формуле:

 

Где:

L – число элементов источника дискретных сообщений

Получим:

H(x) = (-0.05×log20.05) + (-0.149×log20.149) + (-0.174×log20.174) + (-0.192×log20.192) + (-0.16×log20.16) + (-0.1×log20.1) + (-0.052×log20.052) + (-0.033×log20.033) + (-0.09×log20.09)

Используя свойство логарифмов с×logаb = logаbс запишем:

H(x) = log20.05-0.05 + log20.149-0.149 + log20.174-0.174 + log20.192-0.192 + log20.16-0.16 + log20.1-0.1 + log20.052-0.052 + log20.033-0.033 + log20.09-0.09

H(x) = log21.1616 + log21.3280 + log21.3556 + log21.3728 + log21.3407 + log21.2589 + log21.1662 + log21.1192 + log21.2420

Используя свойство логарифмов logаb + logac = loga(b×c) запишем:

H(x) = log2(1.1616 × 1.3280 × 1.3556 × 1.3728 × 1.3407 × 1.2589 × 1.1662 × 1.1192 × 1.2420)

H(x) = log27.8545 = 2,974

Для того, чтобы  определить коэффициент избыточности источника сообщения Rизб, определим максимальное значение энтропии по формуле:

Hmax = log2L

Hmax = log29

Hmax = 3.17

Для характеристики алфавита источника сообщений представляет интерес сравнения энтропии H(x) с максимальной при данном алфавите энтропии Hmax. По результатам этого сравнения определим коэффициент избыточности источника сообщения Rизб по формуле:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Задача 2. Оптимальное  статистическое кодирование.

По  заданному закону распределения  вероятностей дискретного источника  информационных сообщений (табл. 1) провести оптимальное статистическое кодирование  источника сообщений по методу Хаффмена.

Определить  коэффициент избыточности закодированного  источника дискретных информационных сообщений и скорость передачи информации при использовании полученного  кода. При расчете скорости передачи информации длительность элементарной посылки принять равной 5 мксек.

 

Решение

Исходя из своего варианта, будем решать задачу по методу Хаффмена:

Для этого  воспользуемся таблицей 1 задачи №1

Используя код  Хаффмена построим таблицу элементов источника xi в порядке убывания их вероятностей pi.

 

 

xi

pi

xi↓

pi↓

X1

0.05

X4

0.192

X2

0.149

X3

0.174

X3

0.174

X5

0.16

X4

0.192

X2

0.149

X5

0.16

X6

0.1

X6

0.1

X9

0.09

X7

0.052

X7

0.052

X8

0.033

X1

0.05

X9

0.09

X8

0.033





 


 

 

 

 

xi↓

pi↓

Код

ni

X4

0.192

11

2

X3

0.174

011

3

X5

0.16

010

3

X2

0.149

001

3

X6

0.1

101

3

X9

0.09

100

3

X7

0.052

0001

4

X1

0.05

00001

5

X8

0.033

00000

5


 

Элементы  алфавита Xi располагаем в порядке убывания их вероятностей. Граф кода Хоффмена начинаем строить с 2-х элементов алфавита, имеющих наименьшие вероятности. Одному из этих элементов алфавита, а именно верхнему, присваиваем «единичный» символ кодовой комбинации, а нижнему – «нулевой» символ. Далее эти два символа объединяем в промежуточный элемент с вероятностью, равной сумме вероятностей исходных элементов. Затем в ансамбле оставшихся элементов алфавита вместе с промежуточными вновь находим два элемента с наименьшими вероятностями и проделываем предыдущую процедуру. Эту процедуру проделываем до тех пор, пока не исчерпаем весь алфавит источника,, то есть, получим промежуточный символ с вероятностью равной единице. Считывание кодовой комбинации осуществляем с конца графа Хоффмена по стрелкам.

Рассчитаем  среднюю длительность кодовой комбинации:

 

 

 

 

 

Найдем коэффициент  избыточности закодированного источника  дискретных информационных сообщений  по формуле:

 

Для расчета  возьмем энтропию дискретных сообщений  H(x) из предыдущей задачи (задача №1):

 

Рассчитаем  скорость передачи информации по формуле:

 

Где:

 

Для более  рационального использования пропускной способности канала и согласования кода с характеристиками канала передачи информации сделаем постоянной длительность элементарной кодой посылки, равной

По условию задачи нам известна длительность элементарной посылки , значит получим:

Тогда:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Задача 3. Инверсное  кодирование.

А) Информационная посылка Хинф в десятичном исчислении совпадает с номером вашего варианта Хинф = Nвар.

1) Записать информационную посылку  Λинф. пятиэлементным двоичным кодом.

2) Записать кодовую комбинацию  инверсного кода Λ, соответствующую Вашей информационной посылке.

В) На приемной стороне принята кодовая  комбинация Λ* инверсного кода (табл. 2).

1) Проверить, есть ли ошибка в  принятой кодовой комбинации.

2) Если ошибка есть, то исправить  ее и записать Λ*испр. – исправленную кодовую комбинацию инверсного кода.

3) Записать принятую информационную  посылку Λ*испр. Сравнить ее с информационной посылкой, полученной в пункте 1 задачи, и сделать выводы.

Таблица 2

Nвар.

λ*1

λ*2

λ*3

λ*4

λ*5

е*1

е*2

е*3

е*4

е*5

6

0

0

1

0

0

0

0

1

1

0


 

Решение

Запишем информационную посылку xинф в десятичном исчислении в соответствии с вариантом:

Хинф = 6

Переведем информационную посылку xинф в двоичный код Λинф:

Λинф = 0 0 1 1 0


                 λi

Запишем принятую кодовую комбинацию:

Λ* = 0 0 1 0 0   0 0 1 1 0


              λ*i              e*j

Информация о работе Теория информации