Информационные ресурсы и информационные технологии

Автор: Пользователь скрыл имя, 13 Февраля 2011 в 12:28, контрольная работа

Описание работы

Изначально теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона “Математическая теория связи”, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины – переработчики информации.

Содержание

Введение 3
1. Понятие информации 4
2. Свойства информации 5
3. Формы представления информации 7
4. Измерение информации 9
5. Обработка и использование информации 11
6. Информационные ресурсы и информационные технологии 12
Заключение 14
Список литературы 16

Работа содержит 1 файл

Документоведение - Понятие информация.doc

— 107.00 Кб (Скачать)

Содержание 

     
  Введение 3
1. Понятие информации 4
2. Свойства информации 5
3. Формы представления  информации 7
4. Измерение информации 9
5. Обработка и  использование информации 11
6. Информационные  ресурсы и информационные технологии 12
  Заключение 14
  Список литературы 16
     
     
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

     Введение 

     Слово “информация” латинское. За долгую жизнь  его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом “информация” подразумевали: “представление”, “понятие”, затем – “сведения”, “передача сообщений”.

     В последние годы ученые решили, что  обычное (всеми принятое) значение слова “информация” слишком эластично, расплывчато, и дали ему следующее значение: “мера определенности в сообщении”.

     Изначально теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона “Математическая теория связи”, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины – переработчики информации. Для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Тогда еще люди не представляли, какое значение будет иметь информация спустя полвека. 
 
 
 
 
 
 
 
 
 

     1. Понятие информации 

     Информатика – наука  о  законах  и   методах   накопления, обработки  и передачи информации. 

     Информация — в широком смысле абстрактное понятие, имеющее множество значений, в зависимости от контекста. В узком смысле этого слова — сведения (сообщения, данные) независимо от формы их представления. Сведения об объектах живой или неживой природы, их свойств и взаимном влиянии друг на друга.

     Сами  по себе речь,  текст, цифры – не информация. Они лишь носители  информации.  Информация  содержится в речи людей,  текстах книг,  колонках цифр,  в показаниях часов,  термометров и других приборов.  Сообщения, сведения, т.е. информация, являются причиной увеличения знаний людей о реальном мире.  Значит, информация отражает нечто, присущее реальному миру, который познается в процессе получения информации:  до момента получения информации что-то было неизвестно,  или, иначе, не определено, и благодаря информации  неопределенность была снята, уничтожена.

     Рассмотрим  пример. Пусть нам известен дом, в котором проживает наш знакомый,  а номер квартиры неизвестен.  В этом  случае местопребывание знакомого в какой-то степени не определено.  Если в доме всего две квартиры, степень неопределенности невелика. Но если в доме 300 квартир – неопределенность достаточно велика. Этот пример наталкивает на мысль,  что неопределенность связана с количеством возможностей,  т.е. с разнообразием ситуаций.  Чем больше разнообразие, тем больше неопределенность.

     Информация, снимающая неопределенность, существует постольку,  поскольку существует разнообразие.  Если нет  разнообразия, нет неопределенности, а, следовательно, нет и информации.

     Итак, информация – это отражение разнообразия,  присущего объектам и явлениям реального мира.  И,  таким образом,  природа информации объективно связана с  разнообразием  мира,  и  именно разнообразие является источником информации. 

     2. Свойства информации 

      Информация  обладает следующими свойствами, характеризующими ее качественные признаки: объективность, достоверность, полнота, актуальность, ценность, понятность, доступность, краткость и др. 

     1. Объективность информации

     Информация  — это отражение внешнего мира, а он существует независимо от нашего сознания и желания. Поэтому в качестве свойства информации можно выделить ее объективность. Информация объективна, если она не зависит от чьего-либо мнения, суждения.

     Объективную информацию можно получить с помощью  исправных датчиков, измерительных приборов. Но, отражаясь в сознании конкретного человека, информация перестает быть объективной, так как преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знания конкретного субъекта.

     2. Достоверность информации

     Информация  достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

  • преднамеренное искажение (дезинформация);
  • искажение в результате воздействия помех;
  • когда значение реального факта преуменьшается или преувеличивается.

     3. Полнота информации

     Информацию  можно назвать полной, если ее достаточно для понимания и принятия решения. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

     4. Актуальность (своевременность) информации 

     Актуальность  — важность, существенность для  настоящего времени. Только вовремя  полученная информация может принести необходимую пользу. Неактуальной информация может быть по двум причинам: она может быть устаревшей (прошлогодняя газета) либо незначимой, ненужной (например, сообщение о том, что в Италии снижены цены на 5%).

     5. Ценность (полезность или бесполезность) информации.

     Так как границы между этими понятиями нет, то следует говорить о степени полезности применительно к нуждам конкретных людей. Полезность информации оценивается по тем задачам, которые мы можем решить с ее помощью.

     Самая ценная для нас информация — достаточно полезная, полная, объективная, достоверная и новая. При этом примем во внимание, что небольшой процент бесполезной информации даже помогает, позволяя отдохнуть на неинформативных участках текста. А самая полная, самая достоверная информация не может быть новой.

     6. Понятность информации

      Информация  становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

     7. Доступность информации

      Информация  должна преподноситься в доступной (по уровню восприятия) форме. Поэтому  одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

     8. Краткость информации

      Информацию  по одному и тому же вопросу можно  изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях. 

3. Формы представления информации

       
 
 
 
 
 
 
 
 
 
 
 
 
 
 

     Информация - очень емкое понятие,  в которое  вмещается весь мир: все разнообразие вещей и явлений, вся история, все тома научных исследований, творения поэтов и прозаиков. И все это отражается в двух формах – непрерывной и дискретной.  Обратимся к их сущности.

     Объекты и явления характеризуются значениями физических величин. Например, массой тела, его температурой, расстоянием  между двумя точками,  длиной пути (пройденного  движущимся  телом), яркостью света и т.д.  Природа некоторых величин такова, что величина может принимать принципиально любые значения  в  каком-то диапазоне.  Эти  значения  могут быть сколь угодно близки друг к другу, исчезающе малоразличимы, но все-таки, хотя бы в принципе, различаться,  а количество значений, которое может принимать такая величина, бесконечно велико.

     Такие величины называются непрерывными величинами, а информация, которую они несут  в себе, непрерывной информацией.

     Слово “непрерывность”  отчетливо выделяет основное свойство таких величин - отсутствие разрывов, промежутков между значениями,  которые может принимать величина.  Масса тела – непрерывная величина,  принимающая любые значения от 0 до бесконечности.  То же  самое  можно  сказать о многих других физических величинах – расстоянии между точками,  площади фигур, напряжении электрического тока.

     Кроме непрерывных существуют иные величины, например, количество людей в комнате, количество электронов в атоме и т.д. Такого рода величины могут принимать только целые значения, например,  0, 1, 2,..., и не могут иметь дробных значений. Величины, принимающие не всевозможные,  а лишь вполне определенные  значения,  называют дискретными.  Для дискретной величины характерно, что все ее значения можно пронумеровать целыми числами 0,1,2,... Примеры дискретных величин: геометрические фигуры (треугольник, квадрат, окружность); буквы алфавита; цвета радуги.

     Можно утверждать, что различие между двумя  формами информации обусловлено  принципиальным различием природы величин.  В  то же  время непрерывная и дискретная информация часто используются совместно для представления сведений об объектах и явлениях. 
 
 
 

4. Измерение информации 

     Какое количество информации содержится, к примеру, в тексте романа "Война и мир", во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.

     А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является вывод:

     В определенных, весьма широких условиях можно пренебречь качественными  особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных. 

     В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.

     Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд  заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.  

     Формула Хартли: I = log2N.   

     Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле  Хартли можно вычислить, какое количество информации для этого требуется: I=log2100=6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

     Приведем  другие примеры равновероятных сообщений:

     при бросании монеты: "выпала решка", "выпал орел";

     на  странице книги: "количество букв чётное", "количество букв нечётное".

     Определим теперь, являются ли равновероятными  сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все  зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Информация о работе Информационные ресурсы и информационные технологии