Виды информации

Автор: Пользователь скрыл имя, 22 Ноября 2011 в 13:18, реферат

Описание работы

Слово “информация” латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом “информация” подразумевали: “представление”, “понятие”, затем-“сведения”, “передача сообщений”.
В последние годы ученые решили, что обычное (всеми принятое) значение слова “информация” слишком эластично, расплывчато, и дали ему такое значение: “мера определенности в сообщении”.
Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона “Математическая теория связи”, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций.
С этих точек зрения система может быть самой совершенной и экономичной.

Содержание

Введение.
Понятие информации.
Виды информации.
Непрерывная и дискретная информация.
Непрерывный способ представления информации.
Дискретный способ представления информации.
Заключение.

Работа содержит 1 файл

Министерство образования и науки Российской Федерации.docx

— 33.04 Кб (Скачать)

Министерство  образования и науки Российской Федерации

Сибирская государственная геодезическая  академия 

Кафедра информатики 
 
 
 
 
 
 
 
 
 
 

Реферат 

Виды  информации. Непрерывная  и дискретная информация. 
 
 
 
 
 
 
 
 

                                                               Выполнила:

                                                                       

                           

                                                                         Проверил: 
 
 
 
 
 
 
 

   Новосибирск 2011 
 
 
 

                  

                     Содержание. 
 
 
 

  1. Введение.
  2. Понятие информации.
  3. Виды информации.
  4. Непрерывная и дискретная информация.
  5. Непрерывный способ представления информации.
  6. Дискретный способ представления информации.
  7. Заключение.

                            Введение.

 
Слово “информация” латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале  под словом “информация” подразумевали: “представление”, “понятие”, затем-“сведения”, “передача сообщений”. 
В последние годы ученые решили, что обычное (всеми принятое) значение слова “информация” слишком эластично, расплывчато, и дали ему такое значение: “мера определенности в сообщении”. 
Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона “Математическая теория связи”, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. 
С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях.

 
Информация - очень емкое понятие, в которое  вмещается весь мир: все разнообразие вещей и явлений, вся история, все тома научных исследований, творения поэтов и прозаиков. И все это  отражается в двух формах - непрерывной  и дискретной.

 
                          

             

 
                                         

 
                                           Понятие информации.

 
Информатика - наука о законах и методах  накопления, обработки и передачи информации. В наиболее общем виде понятие информации можно выразить так: 
Информация - это отражение предметного мира с помощью знаков и сигналов. 
Принято говорить, что решение задачи на ЭВМ, в результате чего создается новая информация, получается путем вычислений. Потребность в вычислениях связана с решением задач: научных, инженерных, экономических, медицинских и прочих. 
В обыденной жизни под информацией понимают всякого рода сообщения, сведения о чем-либо, которые передают и получают люди. Сами по себе речь, текст, цифры - не информация. Они лишь носители информации. Информация содержится в речи людей, текстах книг, колонках цифр, в показаниях часов, термометров и других приборов. Сообщения, сведения, т.е. информация, являются причиной увеличения знаний людей о реальном мире. Значит, информация отражает нечто, присущее реальному миру, который познается в процессе получения информации: до момента получения информации что-то было неизвестно, или, иначе, не определено, и благодаря информации неопределенность была снята, уничтожена. 
Рассмотрим пример. Пусть нам известен дом, в котором проживает наш знакомый, а номер квартиры неизвестен. В этом случае местопребывание знакомого в какой-то степени не определено. Если в доме всего две квартиры, степень неопределенности невелика. Но если в доме 300 квартир - неопределенность достаточно велика. Этот пример наталкивает на мысль, что неопределенность связана с количеством возможностей, т.е. с разнообразием ситуаций. Чем больше разнообразие, тем больше неопределенность. 
Информация, снимающая неопределенность, существует постольку, поскольку существует разнообразие. Если нет разнообразия, нет неопределенности, а, следовательно, нет и информации. 
Итак, информация - это отражение разнообразия, присущего объектам и явлениям реального мира. И, таким образом, природа информации объективно связана с разнообразием мира, и именно разнообразие является источником
информации.

                             

                                Виды информации.

Основные виды информации по ее форме представления, способам ее кодирования и хранения, что  имеет наибольшее значение для информатики, это:

графическая или  изобразительная — первый вид, для  которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в  виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального  мира;

  • звуковая —  мир вокруг нас полон звуков и  задача их хранения и тиражирования  была решена с изобретение звукозаписывающих  устройств в 1877 г. (см., например, историю звукозаписи на сайте — http://radiomuseum.ur.ru/index9.html); ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;
  • текстовая —  способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения  речи; особенно большое значение этот способ приобрел после изобретения  бумаги и книгопечатания;
  • числовая —  количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с  развитием торговли, экономики и  денежного обмена; аналогично текстовой  информации для ее отображения используется метод кодирования специальными символами — цифрами, причем системы  кодирования (счисления) могут быть разными;

видеоинформация —  способ сохранения «живых» картин окружающего  мира, появившийся с изобретением кино.

Существуют также  виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это  тактильная информация передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др.

Для передачи информации на большие расстояния первоначально  использовались кодированные световые сигналы, с изобретением электричества  — передача закодированного определенным образом сигнала по проводам, позднее  — с использованием радиоволн.

Создателем  общей теории информации и основоположником цифровой связи считается  Клод Шеннон. Всемирную  известность ему  принес фундаментальный  труд 1948 года — «Математическая  теория связи» котором  впервые обосновывается возможность применения двоичного кода для  передачи информации.

С появлением компьютеров (или, как их вначале называли в  нашей стране, ЭВМ — электронные  вычислительные машины) вначале появилось  средство для обработки числовой информации. Однако в дальнейшем, особенно после широкого распространения  персональных компьютеров (ПК), компьютеры стали использоваться для хранения, обработки, передачи и поиска текстовой, числовой, изобразительной, звуковой и  видеоинформации. С момента появления  первых персональных компьютеров —  ПК (80-е годы 20 века) — до 80 % их рабочего времени посвящено работе с текстовой информацией.

Хранение информации при использовании компьютеров  осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой  памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются новые устройства и носители информации. Обработку информации (воспроизведение, преобразование, передача, запись на внешние носители) выполняет процессор компьютера. С помощью компьютера возможно создание и хранение новой информации любых видов, для чего служат специальные программы, используемые на компьютерах, и устройства ввода информации.Особым видом информации в настоящее время можно считать информацию, представленную в глобальной сети Интернет. Здесь используются особые приемы хранения, обработки, поиска и передачи распределенной информации больших объемов и особые способы работы с различными видами информации. Постоянно совершенствуется программное обеспечение, обеспечивающее коллективную работу с информацией всех видов.

           Непрерывная и дискретная информация. 

 
Сигнал называется непрерывным (или аналоговым), если его параметр может принимать любое значение в пределах некоторого интервала.

Если обозначить Z – значение параметра сигнала, а t – время, то зависимость Z(t) будет непрерывной функцией (рис.1(а)).

 
Рис.1. Непрерывные и дискретные сигналы

Примерами непрерывных сигналов являются речь и музыка, изображение, показание термометра (параметр сигнала – высота столба спирта или ртути – имеет непрерывный ряд значений) и п.р.

 
Сигнал называется дискретным, если его параметр может принимать конечное число значений в пределах некоторого интервала.

Пример дискретных сигналов представлен на рис. 1(б). Как следует из определения, дискретные сигналы могут быть описаны дискретным и конечным множеством значений параметров {Z}. Примерами устройств, использующих дискретные сигналы, являются часы (электронные и механические), цифровые измерительные приборы, книги, табло и пр.

Пример дискретного  сообщения – процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью  отдельных значков (букв).

Пример непрерывного сообщения – человеческая речь, передаваемая звуковой волной, параметром сигнала в этом случае является давление, создаваемое этой волной в точке  нахождения приемника – человеческого  уха.

      Непрерывный способ представления информации.

Непрерывный (аналоговый) способ представления  информации - представление информации, в котором сигнал на выходе датчика  будет меняться вслед за изменениями  соответствующей физической величины.

Примеры непрерывной  информации:

Примером  непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое  этой волной в точке нахождения приемника - человеческого уха.

Аналоговый  способ представления информации имеет  недостатки:

Точность  представления информации определяется точностью измерительного прибора (например, точность числа отображающего  напряжение в электрической цепи, зависит от точности вольтметра).

Наличие помех  может сильно исказить представляемую информацию.

Дискретность (от лат. discretus - разделенный, прерывистый) - прерывность; противопоставляется  непрерывности. Напр., дискретное изменение  к.-л. величины во времени - это изменение, происходящее через определенные промежутки времени (скачками); система целых (в  противоположность системе действительных чисел) является дискретной.

Дискретный  сигнал - сигнал, параметр которого принимает  последовательное во времени конечное число значений (при этом все они  могут быть пронумерованы).

Сообщение, передаваемое с помощью таких  сигналов - дискретным сообщением. Информация передаваемая источником, в этом случае также называется дискретной информацией.

      Дискретный способ представления информации.

 Дискретный способ представления информации - представление информации в дискретном виде.

Примеры дискретной информации:

Дискретными являются показания цифровых измерительных  приборов, например, вольтметра (сравните со "старыми", стрелочными приборами). Очевидным (в самом изначальном  смысле этого слова!) образом дискретной является распечатка матричного принтера, а линия, проводимая графопостроителем, напротив, является непрерывной. Дискретным является растровый способ представления  изображений, тогда как векторная  графика по своей сути непрерывна. Дискретна таблица значений функции, но когда мы наносим точки из нее  на миллиметровую бумагу и соединяем  плавной линией, получается непрерывный  график. Механический переключатель  диапазонов в приемниках был сконструирован так, чтобы он принимал только фиксированные  положения.

Информация о работе Виды информации