Виды информации
Реферат, 22 Ноября 2011, автор: пользователь скрыл имя
Описание работы
Слово “информация” латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом “информация” подразумевали: “представление”, “понятие”, затем-“сведения”, “передача сообщений”.
В последние годы ученые решили, что обычное (всеми принятое) значение слова “информация” слишком эластично, расплывчато, и дали ему такое значение: “мера определенности в сообщении”.
Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона “Математическая теория связи”, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций.
С этих точек зрения система может быть самой совершенной и экономичной.
Содержание
Введение.
Понятие информации.
Виды информации.
Непрерывная и дискретная информация.
Непрерывный способ представления информации.
Дискретный способ представления информации.
Заключение.
Работа содержит 1 файл
Министерство образования и науки Российской Федерации.docx
— 33.04 Кб (Скачать)Министерство образования и науки Российской Федерации
Сибирская
государственная геодезическая
академия
Кафедра
информатики
Реферат
Виды
информации. Непрерывная
и дискретная информация.
Новосибирск
2011
Содержание.
- Введение.
- Понятие информации.
- Виды информации.
- Непрерывная и дискретная информация.
- Непрерывный способ представления информации.
- Дискретный способ представления информации.
- Заключение.
Введение.
Слово “информация”
латинское. За долгую жизнь его значение
претерпевало эволюции, то расширяя, то
предельно сужая свои границы. Вначале
под словом “информация” подразумевали:
“представление”, “понятие”, затем-“сведения”,
“передача сообщений”.
В последние годы ученые решили, что обычное
(всеми принятое) значение слова “информация”
слишком эластично, расплывчато, и дали
ему такое значение: “мера определенности
в сообщении”.
Теорию информации вызвали к жизни потребности
практики. Ее возникновение связывают
с работой Клода Шеннона “Математическая
теория связи”, изданной в 1946г. Основы
теории информации опираются на результаты,
полученные многими учеными. Ко второй
половине XX века земной шар гудел от передающейся
информации, бегущей по телефонным и телеграфным
кабелям и радиоканалам. Позже появились
электронные вычислительные машины - переработчики
информации. А для того времени основной
задачей теории информации являлось, прежде
всего, повышение эффективности функционирования
систем связи. Сложность при проектировании
и эксплуатации средств, систем и каналов
связи в том, что конструктору и инженеру
недостаточно решить задачу с физических
и энергетических позиций.
С этих точек зрения система может быть
самой совершенной и экономичной. Но важно
еще при создании передающих систем обратить
внимание на то, какое количество информации
пройдет через эту передающую систему.
Ведь информацию можно измерить количественно,
подсчитать. И поступают при подобных
вычислениях самым обычным путем: абстрагируются
от смысла сообщения, как отрешаются от
конкретности в привычных всем нам арифметических
действиях.
Информация -
очень емкое понятие, в которое
вмещается весь мир: все разнообразие
вещей и явлений, вся история,
все тома научных исследований, творения
поэтов и прозаиков. И все это
отражается в двух формах - непрерывной
и дискретной.
Понятие
информации.
Информатика
- наука о законах и методах
накопления, обработки и передачи
информации. В наиболее общем виде
понятие информации можно выразить
так:
Информация - это отражение предметного
мира с помощью знаков и сигналов.
Принято говорить, что решение задачи
на ЭВМ, в результате чего создается новая
информация, получается путем вычислений.
Потребность в вычислениях связана с решением
задач: научных, инженерных, экономических,
медицинских и прочих.
В обыденной жизни под информацией понимают
всякого рода сообщения, сведения о чем-либо,
которые передают и получают люди. Сами
по себе речь, текст, цифры - не информация.
Они лишь носители информации. Информация
содержится в речи людей, текстах книг,
колонках цифр, в показаниях часов, термометров
и других приборов. Сообщения, сведения,
т.е. информация, являются причиной увеличения
знаний людей о реальном мире. Значит,
информация отражает нечто, присущее реальному
миру, который познается в процессе получения
информации: до момента получения информации
что-то было неизвестно, или, иначе, не
определено, и благодаря информации неопределенность
была снята, уничтожена.
Рассмотрим пример. Пусть нам известен
дом, в котором проживает наш знакомый,
а номер квартиры неизвестен. В этом случае
местопребывание знакомого в какой-то
степени не определено. Если в доме всего
две квартиры, степень неопределенности
невелика. Но если в доме 300 квартир - неопределенность
достаточно велика. Этот пример наталкивает
на мысль, что неопределенность связана
с количеством возможностей, т.е. с разнообразием
ситуаций. Чем больше разнообразие, тем
больше неопределенность.
Информация, снимающая неопределенность,
существует постольку, поскольку существует
разнообразие. Если нет разнообразия,
нет неопределенности, а, следовательно,
нет и информации.
Итак, информация - это отражение разнообразия,
присущего объектам и явлениям реального
мира. И, таким образом, природа информации
объективно связана с разнообразием мира,
и именно разнообразие является источником информации.
Виды
информации.
Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:
графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;
- звуковая —
мир вокруг нас полон звуков и
задача их хранения и тиражирования
была решена с изобретение
звукозаписывающих устройств в 1877 г. (см., например, историю звукозаписи на сайте — http://radiomuseum.ur.ru/index9.html ); ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;
- текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;
- числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами — цифрами, причем системы кодирования (счисления) могут быть разными;