Роль информации в системных исследованиях

Автор: Пользователь скрыл имя, 05 Марта 2013 в 23:33, доклад

Описание работы

Познавая окружающий мир, человек постоянно имеет дело с информацией. Она помогает нам правильно оценить происходящие события, принять обдуманное решение, найти наиболее удачный вариант своих действий. Интуитивно мы понимаем, что информация — это то, чем каждый из нас пополняет собственный багаж знаний. Информация также является сильнейшим средством воздействия на личность и общество в целом. Кто владеет наибольшим объемом информации по какому-либо вопросу, тот всегда находится в более выигрышном положении по сравнению с остальными. Само слово «информация» происходит от латинского informatio, что означает «сведения, изложение, разъяснение».

Работа содержит 1 файл

doklad.doc

— 64.50 Кб (Скачать)

 

Московский государственный  университет им. М. В. Ломоносова

_____________________________________________________________

Социологический факультет

 

 

 

 

ДОКЛАД

 

«Роль информации в системных исследованиях»

 

 

Выполнила:

Студентка 1 курса 103 группы

М.И.Аушева

Проверила:

М.А. Атаева

 

 

Москва 

2012 г.


 

ВВЕДЕНИЕ

Познавая  окружающий мир, человек постоянно  имеет дело с информацией. Она  помогает нам правильно оценить  происходящие события, принять обдуманное решение, найти наиболее удачный  вариант своих действий. Интуитивно мы понимаем, что информация — это то, чем каждый из нас пополняет собственный багаж знаний. Информация также является сильнейшим средством воздействия на личность и общество в целом. Кто владеет наибольшим объемом информации по какому-либо вопросу, тот всегда находится в более выигрышном положении по сравнению с остальными. Само слово «информация» происходит от латинского informatio, что означает «сведения, изложение, разъяснение».

Существует  множество определений этого  термина, но в обыденной жизни информацию отождествляют с такими понятиями, как сообщение, сведения, знания. Информация позволяет человеку снизить уровень неопределенности знания о сути какого-либо объекта: предмета, явления или процесса. В результате обмена сведениями об определенном объекте у каждого из участников обмена формируется более полное представление о рассматриваемом предмете, повышается их уровень осведомленности и, соответственно, понижается уровень неопределенности знаний, касающихся этого объекта. Поэтому информацию также определяют как меру устранения неопределенности знаний об объекте. Информация не существует сама по себе. Всегда имеется источник, который производит информацию, и приемник, который ее воспринимает. В роли источника или приемника может быть любой объект материального мира: человек, устройство, животное, растение. То есть информация всегда предназначена конкретному объекту. Человек получает информацию из разных источников: когда читает или слушает радио, смотрит телепередачу или разглядывает картину в музее, дотрагивается до предмета или пробует на вкус какую-нибудь еду. При этом одну и ту же информацию каждый человек может воспринимать по-разному.

Информация несет человеку знания об окружающем мире, многообразие которого и порождает ее различные виды. Так, например, существует информация для узкого круга людей, специализирующихся в определенной научной области: химии, биологии, математике, физике, информатике, литературе. Такую информацию называют научной. В каждой научной области используется специализированный язык, для понимания которого требуются определенные знания и специальное обучение.   

Для человека также важную роль играют средства массовой информации: радио, телевидение, газеты и журналы. Они  распространяют общественно-политическую, научно-популярную, культурологическую информацию. С их помощью люди узнают о событиях в мире, науке и искусстве.

                                           ОСНОВНАЯ ЧАСТЬ

Если  говорить об информации и ее роли в  системных исследованиях, можно  дать такое определение: информация-это специфическая форма взаимодействия между объектами любой физической природы или, точнее, такой аспект взаимодействия, который несет сведения о взаимодействующих объектах. Информацию классифицируют по способу восприятия(тактильный); по форме представления(текстовая); по назначению(личная); по значению(актуальная); по истинности(ложная). В сущности, информация-это мера организованности системы в противоположность понятию энтропии как меры неорганизованности. Энтропия-мера беспорядка или мера неорганизованности. Представление об энтропии как мере неорганизованности было введено немецким физиком и математиком Р.Клаузисом в связи с изучением термодинамических явлений. Далее Л.Больцман дал статистическую интерпретацию энтропии, позволившую рассматривать энтропию как меру вероятности пребывания системы в конкретном состоянии. Больцман показал, что природные процессы стремятся перевести термодинамическую систему из состояний менее вероятных в состояние ,для которого значение энтропии максимально. После построения в середине 20 века К.Э. Шенноном теории информации ,оказалось, что формула Больцмана для термодинамической энтропии и формула Шеннона для информационной энтропии тождественны. Таким образом, понятие энтропии приобрело универсальный смыл в изучении систем различного происхождения.

Очень большое значение имеет изучение потоков информации в системах. Так, если энергетические и вещественные потоки обеспечивают целостность системы , а также возможность ее существования, то потоки информации, переносимые сигналами, организуют все ее функционирование и управляют ею. Поэтому не следует ограничиваться рассмотрением и описанием данных сторон при изучении какого-либо объекта как системы, следует, что необходимо проводить исследование информационных аспектов системы

Информационный  анализ систем использует представление  о неких сигналах-носителях информации. Сигналы-носители информации-это средство перенесения информации в пространстве и времени. Состояния некоторых объектов выступают в качестве сигналов. Для того чтобы 2 объекта содержали информацию друг о друге, необходимо неокторое соответствие между их состояниями. И после этого соответствия, по состоянию одного объекта можно судить о состоянии другого. Соответствие между состояниями двух объектов устанавливается ,во-первых, в результате непосредственного взаимодействия, во-вторых, с помощью взаимодействия с промежуточными объектами. Примером может послужить то, что звук от преподавателя до ушей студентов переносят колебания воздуха

Не всякое состояние имеет сигнальные свойства , так как объект взаимодействует не только с тем объектом, информацию о котором требуется получить, но и с другими объектами ,в результате чего соответствие состояний ослабевает. Условия, которые обеспечивают установление и способствуют сохранению сигнального соответствия состояний, называют кодом, а посторонние воздействия, которые нарушают это соответствие- помехами или шумами.

Нарушение соответствия состояний возможно не только вследствие помех, но и из-за рассогласования кодов взаимодействующих объектов. При этом предполагается, что в природных системах согласование кодов происходит в самой структуре систем путем естественного отбора различных вариантов. Сигналы делятся на 2 типа: статические и динамические. Статические- сигналы, являющиеся стабильными состояниями физических объектов. Примерами таких сигналов могут служить книга, фотография. И динамические сигналы, в качестве которых могут выступать динамические состояния силовых полей. Например, звуки, световые и радиосигналы. Изменение состояния таких полей приводит к распространению возмущения, конфигурация которого во время распространения обладает определенной устойчивостью, что обеспечивает сохранение сигнальных свойств.

Так как сигналы-это состояния  физических объектов, можно математически описать данное явление. Например, можно зафиксировать звуковые колебания, соответствующие конкретному сигналу, в виде зависимости давления х от времени t и изобразить этот сигнал функцией х(t). Функцией можно изобразить и статический сигнал, например запись звука на магнитной ленте, поставив в соответствие параметру t протяженность записи. Однако между просто состоянием объекта и сигналом имеется существенное различие: единственная функция x(t) не исчерпывает всех важных свойств сигналов. Дело в том, что понятие функции предполагает, что нам известно значение х для каждого интервала времени t. Но если это известно получателю сигнала, то отпадает необходимость в его передаче, так как функция х(t) может быть и без этого воспроизведена на приемном конце. Следовательно, функция приобретает сигнальные свойства только тогда , когда она является одной из возможных функций. Моделью сигнала может быть набор функций параметра t, причем до передачи сигнала неизвестно, какая из них будет отправлена. Каждая такая конкретная функция называется реализацией. Если ввести вероятностную меру на множество реализации, то получается математическая модель, которая называется случайным процессом.

Специфическим для теории информации является понятие неопределенности случайного объекта, для которой, кстати, и была введена количественная мера-энтропия. При обмене информацией между системами возникают специфические эффекты. Такие эффекты полезны для анализа систем. Например, избыточность-явление, которое не всегда бывает отрицательным. При искажениях, выпадениях и вставках символов именно избыточность позволяет обнаружить и исправить ошибки.

Также стоит сказать о  скорости передачи информации, точнее необходимо, так как это важное понятие. Скорость передачи информации- количество информации, передаваемое в единицу времени. В дискретном случае единицей времени удобно считать время передачи одного символа. Для непрерывных каналов единицей времени может служить либо обычная единиц(например,секунда), либо интервал между отсчетами. Для более наглядного представления об этой величине отметим, что темп обычной речи человека соответствует скорости примерно 20 бит/с, муравьи обмениваются информацией 0,1 бит/с, что они делают с помощью усиков. Скорость передачи информации по каналу связи зависит от многих факторов и не превышает некоторого предела, называемого пропускной способностью канала. Например, пропускные способности зрительного, слухового, тактильного или же осязательного каналов связи человека составляют приблизительно 50 бит/с.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

                                Вывод

Теория информации имеет большое  значение для системного подхода. Ее конкретные методы и результаты позволяют  проводить количественные исследования информационных потоков в изучаемой системе. Однако более важным является эвристическое значение основных понятий теории информации- неопределенности, энтропии, количества информации, избыточности, пропускной способности и др. Вообще любая информация полезна в нынешнее время, как отмечалось раньше, она позволяет нам обдумать наши будущие действия, проанализировать ситуацию в данный момент(после получения информации) ,ну информации в системных исследованиях имеет такое же значение, что было описано в данной работе.

 

 

 

 

 

                         Литература:

1.Бондарев В.П., Концепции современного  естествознания,«Альфа-М»:»ИНФРА-М»,2011

2. И. Б. Родионов, «Теория систем и системный анализ», Лекция 6: Информационное описание и моделирования систем

3. http://utopiya.spb.ru/index.php?option=com_content&view=article&catid=93:2011-03-14-18-34-20&id=1612:2011-03-14-21-16-05&Itemid=202(11.12.12)




Информация о работе Роль информации в системных исследованиях