Теория информации

Автор: Пользователь скрыл имя, 20 Января 2012 в 11:56, реферат

Описание работы

Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, однако невозможно дать его определение через другие, более «простые» понятия.

Работа содержит 1 файл

Реферат.doc

— 138.00 Кб (Скачать)

Курский Государственный  Медицинский Университет 

         Кафедра физики, информатики и математики  

Зав.кафедрой физики,

информатики и математики,

доцент  Снегирева Л.В. 
 
 
 
 
 

 
 
 

    Тема: Теория информации 
 
 

                             Выполнила:

            студентка лечебного факультета

              1 курса, 14 группы

                   Захарова Алина Николаевна

                                          Проверила:

ассистент Катальникова Е.С.  
 
 
 
 
 

                                                Курск – 2009г. 

       Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, однако невозможно дать его определение через другие, более «простые» понятия.

     Понятие «информация» используется в различных  науках, при этом в каждой науке  понятие «информация»связано с различными системами понятий. Информация в биологии: Биология изучает живую природу и понятие «информация» связывается с целесообразным поведением живых организмов. В живых организмах информация передается и храниться с помощью объектов различной физической природы (состояние ДНК), которые рассматриваются как знаки биологических алфавитов. Генетическая информация передается по наследству и хранится во всех клетках живых организмов.

Филосовский подход: Информация – это взаимодействие, отражение, познание. Кибернетический подход: Информация – это характеристики управляющего сигнала, передаваемого по линии связи

Можно выделить следующие подходы к определению информации:

* традиционный (обыденный) - используется в информатике: Информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

* вероятностный  - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Классификация информации:

По способам восприятия - Визуальная, Аудиальная, Тактильная, Обонятельная, вкусовая;

По формам представления – Текстовая, Числовая, Графическая, Музыкальная, Комбинированная и т.д.

По общественному значению: Массовая - обыденная, общественно-политическая, эстетическая

Специальная - научная, техническая, управленческая, производственная

Личная – наши знания, умения, интуиция  

Основные свойства информации:

  1. Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. 
    Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения. 
    Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта.
  2. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:
    • преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;
    • искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.
  3. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
  4. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.
  5. Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.
  6. Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Самая ценная информация – объективная, достоверная, полная, и актуальная. При этом следует  учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет большую значимость для человека. Социальная (общественная) информация обладает еще и дополнительными свойствами:

  • имеет семантический (смысловой) характер, т. е. понятийный, так как именно в понятиях обобщаются наиболее существенные признаки предметов, процессов и явлений окружающего мира.
  • имеет языковую природу (кроме некоторых видов эстетической информации, например изобразительного искусства). Одно и то же содержание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т. д.

С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и  кумулированием информации. (Кумуляция  – от лат. cumulatio – увеличение, скопление).

Старение  информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление  новой информации, которая уточняет, дополняет или отвергает полностью  или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) – медленнее. 

Кроме этого информация обладает еще следующими свойствами:

1) Атрибутивные свойства (атрибут – неотъемлемая часть чего-либо). Важнейшими среди них являются:- дискретность (информация состоит из отдельных частей, знаков) и непрерывность (возможность накапливать информацию)

2) Динамические свойства связаны с изменением информации во времени:

- копирование  – размножение информации

- передача  от источника к потребителю

- перевод  с одного языка на другой 

- перенос  на другой носитель

- старение (физическое – носителя, моральное  – ценностное)

3) Практические свойства - информационный объем и плотность

Информация  храниться, передается и обрабатывается в символьной (знаковой) форме. Одна и та же информация может быть представлена в различной форме:1) Знаковой письменной, состоящей из различных знаков среди которых выделяют символьную в виде текста, чисел, спец. символов; графическую; табличную и тд.; 2) В виде жестов или сигналов; 3) В устной словесной форме (разговор)

Представление информации осуществляется с помощью  языков, как знаковых систем, которые  строятся на основе определенного алфавита и имеют правила для выполнения операций над знаками. 

Язык – определенная знаковая система представления информации. Существуют:

Естественные языки – разговорные языки в устной и письменной форме. В некоторых случаях разговорную речь могут заменить язык мимики и жестов, язык специальных знаков (например, дорожных);

Формальные языки – специальные языки для различных областей человеческой деятельности, которые характеризуются жестко зафиксированным алфавитом, более строгими правилами грамматики и синтаксиса. Это язык музыки (ноты), язык математики (цифры, математические знаки), системы счисления, языки программирования и т.д.

В основе любого языка лежит алфавит – набор символов/знаков. Полное число символов алфавита принято называть мощностью алфавита.

Носители информации – среда или физическое тело для передачи, хранения и воспроизведения информации. (Это электрические, световые, тепловые, звуковые, радио сигналы, магнитные и лазерные диски, печатные издания, фотографии и тд.) 

Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.

Для обеспечения информационного  процесса необходим источник информации, канал связи и потребитель  информации. Источник передает (отправляет) информацию, а приемник её получает (воспринимает). Передаваемая информация добивается от источника до приемника с помощью сигнала (кода). Изменение сигнала позволяет получить информацию

Измерение информации

В информатике  используются различные подходы к измерению информации:

Содержательный подход к измерению информации. Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику.  Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными  Информация - знания человека ? сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0. (Пример: вузовский учебник по высшей математике содержит знания, но они не доступны 1-класснику)

Алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он  удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации.

Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но  зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил  Шеннон.

 

Количество информации  - это мера уменьшения неопределенности.

1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза.  БИТ- это наименьшая единица измерения информации

Единицы измерения информации: 1байт = 8 бит

1Кб (килобайт) = 210 байт = 1024 байт

1Мб (мегабайт) = 210 Кб = 1024 Кб

1Гб (гигабайт) = 210 Мб = 1024 Мб 
 
 
 

Формула  Шеннона

Клод  Элвуд Шеннон (1916–2001), США  

                       

I  - количество информации     

N – количество  возможных событий

pi – вероятности отдельных событий  

Количество информации достигает max значения, если события равновероятны, поэтому количество информации можно расcчитать  по формуле   

Двоичное  кодирование информации

К достоинству двоичной системы счисления относится – простота совершаемых операций, возможность автоматической обработки информации с использованием двух состояний элементов ПК и операцию сдвиг

Информация о работе Теория информации