sonyps4.ru

Ценность информации является высокой в случае если. Информация не может существовать без материального носителя, без передачи энергии

Каких только определений сегодня нет у термина «информация»! Говорят, что их насчитывается более сотни. Что это значит? Наверное, то, что специалисты, изучающие этот термин, не всегда до конца понимают предмет своего исследования. Для того чтобы понять, что на самом деле обозначает данное слово, следует обратиться к его этимологии.

Из глубины веков

Лингвисты полагают, что своими корнями оно восходит к Востоку и образовано от арабского глагола «ъарафа», имеющего значение «знать, узнавать». Древние греки не понимали, как правильно нужно читать данное слово, поэтому на всякий случай читали его в обе стороны. Так получились: форма и морфа. Синонимы. Иное образование от: маърифа, это «то, что я знаю». Тут отображается весьма значительное различие между двумя часто не различаемыми специалистами. Информация в качестве различия между вещами и понятиями, а также информация в качестве знания. Но не станем так глубоко углубляться в значение данного слова. Пожалуй, значительно важнее сегодня, какую роль этот термин стал играть в нашем мире. А его значение невозможно недооценить.

Новое время - новые термины

Информация - это больше, чем просто знания. Обладание ею предоставляет колоссальные возможности как в бизнесе, так и в политике. Она стала важнейшим ресурсом государства. Информацию оценивают так же (если не выше), как и основные природные, экономические, трудовые, Ряд психологов утверждает, что человечество разумное медленно, но верно превращается в информационное. И кстати, вместе с традиционным методом управления обществом (тем же административно-организационным) и отдельными людьми все большую популярность набирает особый метод централизованного воздействия на население - метод информационного правления. И в самом деле. С развитием масс-медиа, и в частности Интернета, сложилась такая ситуация, что информация - это инструмент воздействия на умы потребителей. Поэтому она стала встречаться нам повсюду. Ее стало так много, что потребителям ежедневно приходится ее фильтровать, отсеивая «мусор». А иначе можно попасть под ее влияние и превратиться в зомбированное, полностью подконтрольное существо.

В наш стремительный век появилось понятие «энтропия информации». Что это такое, спросите вы? Это критерий хаотичности информации, неопределенность появления некоего символа первичного алфавита. В условиях отсутствия информационных потерь она численно равняется на символ передаваемого сообщения.

Информация - это больше, чем просто власть

На Западе давно оценили значимость информации. Администрация Соединенных Штатов на государственном уровне рассматривает ее как стратегический ресурс. Его можно получить в результате обработки и анализа данных при помощи специализированной системы анализа. Естественно, что защита информации в США стоит на очень высоком уровне. Этим постоянно занимаются, пожалуй, самые засекреченные службы - ФБР и ЦРУ. Таким образом, в 21-м веке информация - это и ресурс государства, и предмет торга с другими государствами. Она стала столь же дорогой, как нефть или золото.

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

  • I . Не вещество и не энергия
  • 1.1 Схема передачи информации
  • 1.2 Ценность информации
  • II . Экономическая информация и ее особенности
  • Заключение

I. Не вещество и не энергия

Информация - сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы.

Информация - это отражение внешнего мира с помощью знаков или сигналов. Информационная ценность сообщения заключается в новых сведениях, которые в нем содержатся (в уменьшении незнания).

Свойства информации:

1) полнота,

2) достоверность,

3) ценность,

4) актуальность,

5) ясность.

Слово "информация" латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом "информация" подразумевали: "представление", "понятие", затем-"сведения", "передача сообщений".

В последние годы ученые решили, что обычное (всеми принятое) значение слова "информация" слишком эластично, расплывчато, и дали ему такое значение: "мера определенности в сообщении ".

Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона "Математическая теория связи", изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).

Ученые заявили, что они "полностью игнорировали человеческую оценку информации". Последовательному ряду из 100 букв, например, они приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв - фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации.

Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении?

Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефону и скажет: "Днем бывает светло, а ночью темно", то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит.

Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать.

Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации.

Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом . Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке.

Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации.

Мы уже знаем, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна 1/2. Такова вероятность выпадения "орла" или "решки" при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит.

Событие, как вы сами понимаете, может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика - например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала.

информация экономическая ценность знак

Выходит, что количество информации - это мера уменьшения неопределенности некоторой ситуации . Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности . А ее определяют по тому, какое количество информации проходит здесь за единицу времени.

Один из героев романа Жюля Верна "Таинственный остров", журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив.

А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.

Информацию "просеивают" самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже, - более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации .

Но на практике довольно часто случается, что код, возникший в результате самого тщательного "просеивания", код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности.

Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы - своеобразную защиту от искажений. Они - эти лишние символы - не несут действительного содержания в сообщении, они избыточны . С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, - избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько в нем информационных излишеств для краткого и всем понятного сообщения " Я вас люблю"! И как информационно точны рисованные обозначения, понятные всем и каждому, кто входит сегодня в метро, где вместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие: "Вход", "Выход".

В этой связи полезно вспомнить анекдот, рассказанный в свое время знаменитым американским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески.

Предполагалось нарисовать на вывеске шляпу и написать: "Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги".

Один из друзей заметил, что слова "за наличные деньги" являются излишними - такое напоминание будет оскорбительным для покупателя. Другой нашел также лишним слово "продает", так как само собой понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова "шляпочник" и "делает шляпы" представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово "шляпочник" - нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания.

Таким образом, в конце концов на вывеске не осталось ничего, кроме шляпы.

Конечно, если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все "информационные формы" - книги, доклады, статьи - были бы предельно краткими. Но проиграли бы в доходчивости и красоте.

1.1 Схема передачи информации

Всякое событие, всякое явление служит источником информации.

Всякое событие, всякое явление может быть выражено по-разному, разным способом, разным алфавитом . Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать .

Информация не может существовать без материального носителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителей информации. Они-то и идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный вид.

С этой целью сигналы пробегают декодирующее устройство, приобретая форму, удобную для абонента. Система связи сработала, цель достигнута. Когда говорят о каналах связи, о системах связи, чаще всего для примера берут телеграф. Но каналы связи - понятие очень широкое, включающее множество всяких систем, самых разных.

Чтобы ясен был многоликий характер понятия "канал связи", достаточно привести несколько примеров.

При телефонной передаче источник сообщения - говорящий. Кодирующее устройство, изменяющее звуки слов в электрические импульсы, - это микрофон. Канал, по которому передается информация - телефонный провод. Та часть трубки, которую мы подносим к уху, выполняет роль декодирующего устройства. Здесь электрические сигналы снова преобразуются в звуки. И наконец, информация поступает в "принимающее устройство" - ухо человека на другом конце провода. А вот канал связи совершенно другой природы - живой нерв. Здесь все сообщения передаются нервным импульсом. Но в технических каналах связи направление передачи информации может меняться, а по нервной системе передача идет в одном направлении.

Еще один пример - вычислительная машина. И здесь те же характерные черты. Отдельные системы вычислительной машины передают одна другой информацию с помощью сигналов. Ведь вычислительная машина-автоматическое устройство для обработки информации, как станок - устройство для обработки металла. Машина не создает из "ничего" информацию, она преобразует только то, что в нее введено.

Общая схема передачи информации.

1.2 Ценность информации

Мы уже знаем, что количественный метод - одно из направлений в теории информации - наиболее распространенный и наиболее разработанный. Существуют и другие методы. Они, в противоположность количественному, стараются ухватить смысл информации, ее ценность, ее качество.

Количество информации в двух сообщениях может быть совершенно одинаковым, а смысл совершенно разным. Два слова, например "Мир" и "Рим", содержат одинаковое количество информации, состоят из одних и тех же букв, но смысл слов различен.

В повседневной жизни мы, как правило, оцениваем полученные сведения со смысловой стороны: новые сведения воспринимаем не как определенное количество информации, а как новое содержание. Можно ли вычислить смысл информации, подсчитать его в сообщении? Да, это пробует делать семантическая теория информации . Вот еще один пример и еще одно направление (прагматическое - деловое) в этой науке.

Пассажиры едут в автобусе. Водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на слова водителя - переданную им информацию. Почему? Потому что информация здесь имеет разную ценность для получателей, в роли которых в этом примере выступают пассажиры. Вышел тот, для кого информация была ценна. Значит, ценность можно определить как свойство информации, влияющей на поведение ее получателя .

II. Экономическая информация и ее особенности

Информация фундаментальное понятие информатики. Под экономической информацией понимают те знания, которые снижают неопределенность по отношению к интересующим нас объектам, событиям, процессам, происходящим в экономической сфере, а управление и обработка экономической информации называется ЭИС. Для экономической информации характерны простые алгоритмы, преобладание логических операций на арифметику, табличное представление входных и выходных данных. Важнейшим признаком классификации экономической информационной системы:

отношение к данной управляющей системе, это позволяет разделить сообщения на входные, внутренние, выходные.

признак времени, сообщения делятся на перспективные (плановая и прогнозируемая информация), ретроспективные (учетная информация).

по времени поступления: периодически, запросные.

функциональный признак, по функциональным подсистемам эк объекта: - информации о трудовых, материальных, финансовых ресурсах, о производственных процессах. - признак стабильности: постоянная (данные никогда не меняются), условно постоянная, переменная. Коэффициент стабильности = кол-во неизменившейся информации/общее кол-во единиц информации Коэффициент = 0.88 информация условна постоянна.

Структурой экономической информации определяется ее строение, выделение тех или иных документов. Такие элементы называются информационными единицами. Из простых ИЕ образуются сложные - составные. Самой маленькой неделимой ИЕ является реквизит - атрибут. Реквизиты можно разделить на две группы: основание и признаки. Основание характеризует количественные свойства сущности, полученные в результате выдачи подсчета натуральных единиц, взвешивания, измерения, вычисления.

Признаки выражают как правило качественные свойства сущности и характеризуют обстоятельства при которых были получены реквизиты - основания. Более крупной ИЕ чем реквизиты есть показатель. Показатели образуются из одного основания и относящихся к нему реквизитов признаков. Еще более крупными показателями являются - массивы и потоки.

Массив представляет собой набор показателей и реквизитов объединенных по признаку однородности. Совокупность массивов относящихся к одной функции управления называется потоком. Совокупность потоков характеризующих управленческую работу в целом называют информационной системой объекта управления. В процессе декомпозиции компонентов экономической информационной системы выделяют: функциональные и обеспечивающие части.

Функциональные - ряд подсистем которые зависят от особенностей той или иной экономической информационной системы. Эти подсистемы разделяются по определенному признаку (функциональному или структурному) и объединяют в себе соответствующие комплексы задач управления. Обеспечивающая часть экономической информационной системы состоит: информационного, программного, математического, технического, правового, лингвистического, эргономического и метрологических частей. В состав информационного обеспечения входит внемашинная и внутримашинное обеспечение. (внемашиное обеспечение составляет: классификаторы технико-экономической информации, нормативно справочная информация, методические материалы организации и использования перечисленных компонентов. Внутримашинное информационное обеспечение - информационная база и СУБД, программное обеспечение - совокупность программ реализующих цели и задачи ЭИС).

В состав программных средств: общесистемные, прикладное обеспечение, инструктивно - методические материалы п применению средств программного обеспечения. Математическое обеспечение включает: совокупность методов решения задач управления, моделей, алгоритмов обработки информации. Техническое обеспечение включает весь комплекс технических средств обеспечивающих работу системы т.е. технические средства сбора, регистрации, передачи, обработки, отображения, размножения информации.

Заключение

В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят "живой", развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико-информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин "информация" получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика.

Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право.

Но чрезвычайно большое значение приобрел термин "информация" в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики.

Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.

Экономическая информация отражает социально-экономические процессы как в сфере производства, так и в непроизводственной сфере. Экономическая информация, как и любая другая, необходима для того, чтобы принимать те или другие решения.

В структуре информационной деятельности можно выделить следующие типовые технологические операции: сбор информации (первичные документы), аналитико-синтетическая обработка информации, хранение информации (формирование и ведение информационного фонда), поиск информации, репродуцирование (копирование, размножение) документов, передача информации, предоставление обработанной информации потребителям.

Банк данных является современной формой организации хранения и доступа к информации в автоматизированных системах.

Список использованных источников

1. Пекелис В. Кибернетика от А до Я. М., 1990.

2. Дмитриев В. Прикладная теория информации. М., 1989.

3. Вычислительные машины, системы и сети: Учебник / А.П. Пятибратов, С.Н. Беляев, Г.М. Козырева и др.; Под ред. проф.А.П. Пятибратова. - М.: Финансы и статистика, 1991. - 400 с.

4. Черняк Н.Г. и др. Архитектура вычислительных систем и сетей: Учеб. пособие / Н.Г. Черняк, И.Н. Буравцева, Н.М. Пушкина. - 2-е изд., перераб. и доп. - М.: Финансы и статистика, 1986. - 318 с.

5. Фигурнов В.Э. IBM PC для пользователя, 2-е изд., перераб и доп. - М.: Финансы и статистика, Компьютер Пресс, 1991. - 288 с.

6. Фигурнов В.Э. IBM PC для пользователя. Изд. 6-Е перераб. И доп. - М.: ИНФРА-М, 1996. - 432 с.

7. Макдона Р. Основы микрокомпьютерных вычислений: Пер. с англ. / Т.Г. Никольской; Под ред. В.Ф. Шаньгина. - М.: Высш. Шк., 1989. - 272 с.

8. А.Н. Ворощук. Основы ЦВМ и программирование. Главная редакция физико-математической литературы изд-ва “Наука”, М., 1978.

9. Абель П. Язык Ассемблера для IBM PC и программирования/ Пер. с англ. Ю.В. Сальникова. - М.: Высш. Шк., 1992. - 447 с.

10. Овечкин Ю.А. Микроэлектроника: Учебник для техникумов. - М.: Радио и связь, 1982 - 288 с.

11. Каган Б.М. Электронные вычислительные машины и системы: Учеб. пособие для вузов. - 2-е изд., перераб. и доп. - М.: Энергоатомиздат, 1985. - 552 с.

Размещено на Allbest.ru

Подобные документы

    Основы теории передачи информации. Экспериментальное изучение количественных аспектов информации. Количество информации по Хартли и К. Шеннону. Частотные характеристики текстовых сообщений. Количество информации как мера снятой неопределенности.

    лабораторная работа , добавлен 15.02.2011

    Информация как отражение предметного мира с помощью знаков и сигналов; свойства, отображение, измерение, компьютерные технологии обработки информации. Архитектура аппаратных и программных средств персональных компьютеров. Работа с прикладными программами.

    курс лекций , добавлен 09.10.2009

    Количество информации и ее мера. Определение количества информации, содержащегося в сообщении из ансамбля сообщений источника. Свойства количества информации и энтропии сообщений. Избыточность, информационная характеристика источника дискретных сообщений.

    реферат , добавлен 08.08.2009

    Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.

    реферат , добавлен 27.03.2010

    Основные свойства информации. Минимальная единица измерения количества информации, ее аналогия со знаниями с точки зрения процесса познания. Характеристика основных информационных процессов: поиск, сбор, обработка, передача и хранение информации.

    контрольная работа , добавлен 01.10.2011

    Способы передачи и хранения информации наиболее надежными и экономными методами. Связь между вероятностью и информацией. Понятие меры количества информации. Энтропия и ее свойства. Формула для вычисления энтропии. Среднее количество информации.

    реферат , добавлен 19.08.2015

    Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений.

    реферат , добавлен 10.08.2009

    Информация и информационные процессы в природе, обществе, технике. Информационная деятельность человека. Кодирование информации. Способы кодирования. Кодирование изображений. Информация в кибернетике. Свойства информации. Измерение количества информации.

    реферат , добавлен 18.11.2008

    Виды информации, с которыми работают современные компьютеры. Понятие "информация": в физике, в биологии, в кибернетике. Представление информации. Кодирование и каналы передачи информации. Локальные компьютерные сети. Хранение информации в файлах.

    контрольная работа , добавлен 13.01.2008

    Понятие об информации. Информатика, краткая история информатики. Информация аналоговая и цифровая. Аналого-цифровое преобразование, устройства аналоговые и цифровые. Понятие о кодировании информации. Хранение цифровой информации. Бит.

Наряду с количеством часто рассматривается вопрос о ценности получаемой информации. Мы уже рассматривали примеры, когда одна и та же информация может иметь разную ценность для разных людей. Человек обычно уверенно отбирает информацию по ее субъективной ценности. Интересно понять, как он это делает. Интерес этот не является чисто теоретическим. Проблема отбора информации по ее ценности из зачастую очень большого входного потока имеет большое значение для оперативного управления сложными системами.

Определения ценности информации вводились многими авторами. Обычно эти определения строятся на основе сопоставления по каким-то критериям вариантов достижения заданных целей. Например, предлагается сравнивать вероятности достижения определенной цели с учетом или без учета пришедшей информации (см., например, ) либо сравнивать варианты достижения цели до и после получения информации по расходу каких-либо полезных ресурсов, например, таких как материалы, энергия , денежные средства и т. п. Такие определения ценности информации естественно назвать "поведенческими", поскольку в них всегда присутствует цель поведения или управления. Отличия состоят в разных критериях сравнения вариантов достижения поведенческой (управленческой) цели.

Приведенные подходы к определению ценности информации имеют серьезные недостатки. Во-первых, поведенческий аспект, связанный с задачей достижения заданной цели, не является единственным при получении и использовании информации. Во-вторых, предлагаемые формулы оценки вариантов чаще всего являются чисто теоретическими и их практическое применение может быть невозможно либо связано со значительными трудностями. Есть и другие недостатки, на которых мы остановимся ниже.

Можно выделить два варианта использования поступающей в мозг информации. В первом варианте информация принимается и используется для построения в мозге отображения целостной системы знаний о проблемной среде. Информационные срезы, которые в этом случае делает принимающий информацию субъект, конечно, определяются задачей поведения, но не оперативной задачей, а общей задачей удовлетворения первичных и вторичных потребностей, т. е. задачей максимально долгого удержания потребностей внутри условной субъективной области существования (принцип maxT ). При этом какие-то вторичные цели, с учетом которых строилась в мозге субъективная область существования, могут быть значительно отнесены во времени от текущей ситуации принятия решения.

Человек целенаправленно отбирает нужную ему информацию, определяя ее ценность по связи со сформированной в его мозге субъективной областью существования. Так, студент математического факультета и студент консерватории выберут в библиотеке или в магазине разные учебники. Информация , которая содержится в учебнике, выбранном математиком, как правило, будет иметь нулевую ценность для музыканта, так же как и информация в учебнике, выбранном музыкантом, - для математика . В обоих случаях могут иметься очень общие отдаленные поведенческие цели: получить музыкальное или математическое образование, т. е. построить специальные отображения проблемной среды. Количественное определение ценности информации в этих случаях вряд ли возможно.

Во втором варианте поступающая в мозг информация принимается и используется для организации оперативного поведения. На первый взгляд, этот случай подходит для применения формул подсчета ценности информации типа предложенной М.М. Бонгардом :

где - вероятность достижения цели до получения оцениваемой информации, а - вероятность достижения цели после получения информации.

Однако практически воспользоваться приведенными формулами в реальных случаях управления чаще всего будет невозможно. Во-первых, трудности могут возникнуть при подсчете вероятностей. Во-вторых, вероятности достижения цели до и после получения информации могут быть одинаковыми и оказаться равными, например, 1. В этом, как и в других случаях, сравнивать варианты достижения цели может оказаться полезным не по вероятностям, а по каким-то иным критериям, например, по времени. В общем случае этот выбор может быть многокритериальным, т. е. сравниваться должны не отдельные параметры, а изменения целевой функции многих параметров. В-третьих, для работы с приведенными формулами должна рассматриваться фиксированная цель, в то время как информация может использоваться для оценки и выбора целей. И наконец, недостатком является и то, что при использовании приведенных формул задача должна просчитываться до конца (до цели), что не всегда возможно. В принципе, те же недостатки относятся и к случаю, когда предлагается сравнивать не вероятности достижения цели, а какие-то расходуемые ресурсы.

Представляется, что во многих случаях ценность информации, используемой для оперативного поведения (управления), может определяться на основе рассмотрения задачи максимизации времени удержания системы внутри области допустимых значений регулируемых переменных (принцип maxT ). Информация , используемая для принятия решения в задаче поведения, может быть двух типов. Во-первых, это базовая информация о среде. Источник этой информации - построенное в мозге отображение , или модель среды. Во-вторых, это информация о текущей ситуации. Эта информация поступает по сенсорным каналам и актуализирует соответствующий ей фрагмент модели среды. И та и другая информация используется для выбора варианта поведения на основе оценки вариантов приращения целевой функции на рассматриваемых локальных шагах поведения.

Если задача описывается рассмотренной нами ранее упрощенной формальной схемой, то выбор варианта поведения осуществляется по формуле:

Эта же формула лежит в основе "эмоциональной" оценки сравниваемых вариантов поведения. Общие принципы сведения более сложной реальной задачи поведения или управления к этой упрощенной схеме рассматриваются в "Формальная модель поведения" и в последующих лекциях. В реальной задаче управления формула подсчета приращения целевой функции при управлении по критерию maxT может быть иной.

Формула для выбора варианта поведения приведена здесь для иллюстрации того, каким многоплановым может быть процесс принятия решения в сложной динамической системе. Получение дополнительной информации может изменить количественную оценку как любого имеющего значение параметра , так и сравниваемых вариантов управления . Соответствующее изменение значения целевой функции или эмоциональной оценки в случае поведения может происходить и в положительную, и в отрицательную сторону. Абсолютное нормированное по значению целевой функции. В таких случаях иногда говорят об отрицательной ценности информации. Представляется, что в этом случае правильнее говорить не об отрицательной ценности, а о дезинформации. Значимость дезинформации, в принципе, можно измерять также, как и ценность информации, например, по изменению целевой функции.

Для определения ценности с использованием приведенных выше формул информацию нужно получить и решить задачу с ее использованием либо на локальном шаге поведения, либо до конца. В обоих случаях определение значимости полученной и уже использованной информации особого смысла не имеет.

Полезной была бы какая-то быстрая априорная предварительная оценка и отбор важной информации из большого входного потока. Например, для оперативного управления полезно по каким-то простым признакам отсеивать ненужные сообщения, отбирать нужные документы, назначать нужные встречи и т. п. Также по каким-то внешним признакам можно устанавливать градации важности (ценности) входной информации и соответствующие приоритеты ее приема и использования. В такой постановке задача определения ценности информации для ее предварительного "просеивания" близка задаче распознавания. Точного решения такая задача в общем случае не имеет. Использование построенных на основе опыта эвристик и решающих правил сопряжено с риском ошибиться.

Л. Бриллюэн отмечает, что установление любого критерия ценности ведет к оценке полученной информации. Это равносильно отбору информации, обладающей определенной мерой качества. Некоторая ее часть может быть признана важной и сохранена вместе со всей ее ценностью, тогда как другая часть может считаться не имеющей ценности и быть отброшенной .

Ценность информации - свойство, определяемое ее пригодностью к практическому использованию в различных областях целенаправленной деятельности. Ценность и полезность информации детерминируются ее качественными и количественными характеристиками. Качество информации можно рассматривать как степень развитости свойств, обусловливающих ее практическую пригодность (полноты, достоверности и др.). Полезность информации определяется тем, насколько она уменьшает неопределенность ситуации, и связана с оценкой ее необходимого количества. Количество информации, характеризующее подлежащее передаче сообщение, не зависит от его смыслового содержания. Качество и количество информации не могут быть однозначно охарактеризованы каким-то одним показателем и определяются с помощью ряда характеристик .

Оценочные характеристики информации изучались на основе синхронического и диахронического подходов. Синхронический подход сконцентрировался на исследовании существа семантических, прагматических, аксиологических свойств; диахронический подход основное внимание уделял процессу становления и развития этих свойств информации.

В рамках синхронического подхода первоначально изучалось в основном предметное значение знаковых выражений, смысл же продолжал оставаться «в тени» . Семантическая теория возникла как попытка измерить содержание (значение) сообщений, имеющих форму суждений, посредством таких терминов, как «описание состояния», «мера описания состояния», с соответствующим аппаратом индуктивной (вероятностной) логики.

Семантическая информация есть смысл, или содержание, заключающееся в данном сообщении. С точки зрения кибернетики семантика определяет меру смысла и управляет его потерями в системе сообщения .

Семантический аспект изучения свойств информации позволил уточнить понятие «количество информации». Ю. А. Шрейдер предложил способ количественной оценки образного, смыслового значения знаков. Он использовал понятие тезауруса как некоего запаса знаний, фиксируемых в виде слов и смысловых связей между ними. Содержащийся в сообщении смысл описывается путем соотнесения с хранящейся в приемнике (тезаурусе) семантической информацией, количество которой выражается степенью изменения тезауруса под влиянием воспринимаемого получателем сообщения (текста) .

Е. К. Войшвилло ввел понятие «энтропия вопроса-проблемы». Качество информации по отношению к проблеме определяется тем, насколько доказательство или допущение истинности суждения способно уменьшить энтропию проблемы . Д. М. Маккей предложил считать единицей семантической информации «логон», или такое «приращение знаний», которое добавляет к уже имеющимся некоторую минимально различимую часть .

Синхронический подход к анализу феномена информации реализовал себя также в рамках ценностно-аксиологической и прагматической теорий.

Аксиологический аспект изучения свойств информации позволил уточнить понятия ее качества и количества. Одна и та же информация может иметь разную ценность, если рассматривать ее с точки зрения использования в различных целях . Ценность получаемой информации условна, поскольку зависит от ее получателя: одно и то же сообщение может для кого-то оказаться очень важным, а для другого не будет иметь никакого значения . Аксиологическая теория определяет меру оценки количества информации, заключающейся в сообщении, через уменьшение неопределенности , содержащейся в одной случайной величине, относительно другой .

Прагматический аспект информации отражает ее характеристику с точки зрения полезности, пригодности для решения определенных задач . Количество прагматической информации приводится в терминах целевой функции. При этом обычно каким-либо образом сравниваются апостериорная (после проведения опыта) и априорная неопределенность задачи и сопоставляется степень априорной и апостериорной (на основе дополнительной информации) успешности достижения цели. Окончательная оценка прагматической информации формируется в абсолютных и относительных единицах .

Одним из первых на возможность измерения ценности информации обратил внимание А. А. Харкевич. Он предложил определять ценность информации через приращение вероятности достижения цели , для которой собирается информация (вероятности достижения цели до и после получения информации). Ценность информации предлагалось вычислять посредством измерения ее количества . Кибернетические варианты измерения ценности информации, использующие теорию игр и решений, алгоритмы оптимального управления были предложены также М. М. Бонгардом, Р. Л. Стратонови- чем, Т. А. Гришаниным и др. .

Диахронический вариант анализа параметров информации предполагает рассмотрение ее процессных семантических и ценностно-прагматических характеристик. Качество информации можно интерпретировать как процесс, ибо оно, во-первых, подвержено действию временного фактора (время способно снизить или вообще устранить присущие субъекту или объекту информационные качества); во-вторых, становление и функционирование качества информации сопровождаются теми или иными ее трансформациями . Таким образом, смысловая информация, содержащаяся в сообщении, оценивается степенью изменений тезауруса под действием данного сообщения.

Ценность маркетинговой информации не исчерпывается параметрами ее качества и количества. По мнению Джона О’Шонесси, ценность информации может быть измерена стоимостью решений , принимаемых на ее основе, и выражаться денежным эквивалентом разницы между решениями, принимаемыми при наличии информации и при ее отсутствии . Ценность маркетинговой информации зависит также от важности принимаемого решения, уровня неопределенности и степени, в которой полученная информация повлияет на принимаемое решение. Если решение очень значимо, например, касается крупных инвестиций или может обусловить успех организации в долгосрочном периоде, ценность информации будет велика. Чтобы информация считалась ценной, неопределенность относительно принимаемого решения должна быть высокой. Если заранее известно, к чему приведет решение, или если результаты исследования не смогут на него повлиять, то ценность информации равна нулю .

Исследование понятия информации с использованием разных критериев позволило выявить свойства, определяющие степень ее пригодности для принятия управленческих решений и основные принципы управления информационными потоками. В гносеологическом отношении оказалось важно учитывать, что ценность информации непосредственно зависит от целей, которые ставит перед собой ее потребитель - человек (общество). Как отмечает Дж. О’Шо- несси, информация может считаться значимой лишь в том случае, если, по мнению менеджеров, она имеет отношение к их задачам, т. е. может влиять на их решения . При этом, как уже упоминалось, информация характеризуется специфичным механизмом старения по сравнению с моральным износом основных фондов и старением материальных потребительских благ. Информация не изнашивается, но ее ценность со временем уменьшается. Например, в соответствии с процессным подходом к оценке информации, использованная информация уже не представляет «первоначальной» ценности, если управляющая система достигла поставленной цели. Однако в информационной деятельности следует учитывать многоаспектный характер самой ценности: она не исчерпывается лишь субъективным интересом отдельного человека или группы людей. Представляется, что ценность информации оп- ределяе.ся также ее содержанием. В ней заключается объективная истина об окружают н человека действительности независимо от того, как она воспринимается отдельным субъектом или их совокупностью. Это обусловливает хранение и повторное использование информации (например, ретроспективный анализ проблемы помогает структурировать гипотезы предстоящего маркетингового исследования).

Создатель классической теории информации К. Шеннон отметил, что смысл (т.е. семантика – “о чём”) сообщений не имеет никакого отношения к его теории информации и занимающегося текстовыми сообщениями. Но возможность точного измерения информации в сообщениях, созданная теорией информации Шеннона, наводила на мысль о возможности существования способов измерения информации более общего вида – макроинформации Кастлера-Чернавского и семантической информации, содержащейся в предложениях естественного или (хотя бы) формализованного языка.

Эта задача далека от своего решения, но имеет всё возрастающее теоретическое и практическое значение.

Понятия ценности, осмысленности информации – центральные в современной информатике, системном анализе. Ценностью информации, смыслом сообщений занимается семантическая теория информации.

Основные положения семантической теории информации.

1.Ценность информации зависит от цели.

Если цель достижима, то ценность информации может быть определена по уменьшению затрат на её достижение.

Если достижение цели – не обязательно то ценность информации V по Бонгарду и Харкевичу равна:

V = log 2 ; (5)

p- вероятность достижения цели до получения информации;

P- вероятность достижения после получения информации;

Априорная вероятность p зависит от информационной тары, от полного количества информации I, определяемого по формуле (2): p=2 - I .

Так если все варианты равновероятны то p=1/n; I=log 2 n ;

Апостериорную вероятность P может быть как больше, так и меньше p; тогда (P < p). Это – дезинформация. При изменении апостериорной вероятности P в пределах 0

Ценность информации по Корогодину даётся формулой:

Она изменяется в пределах V ≤ V≤ 1.

2.Ценность информации зависит от величины p , от так называемого тезауруса (предварительной информации).

Если предварительной информации нет, то p= ;

а если p=1 то ценность V=V max = log 2 n; т.е. совпадает с максимальным количеством информации в данном множестве символов (в данной информационной таре).

Это совпадение не случайно, именно для этого была выбрана формула (5) для определения ценности информации– при этом ценность информации можно понимать как количество ценной информации.

В формуле (6) при

P = 1 получаем:

Итак, по Бонгарду-Харкевичу:

-∞ < V log2n

По Корогодину (здесь нет понятия дезинформации)

0 ≤ V ≤ 1 0 соответственно P = 0, p = 0

При введении понятия дезинформации

Рmin = 0 Рmin =

Pmax = 1 Pmax = 1 P

3. Количество информации, имеющей нулевую ценность, как правило, не мало с количеством информации, имеющем хоть какую-то ценность для реципиента (получателя).

Понятно, что ценность информации субъективна – она зависит от целей и тезауруса реципиента.

Бессмысленная информация – это информация, не имеющая ценности ни для кого из тех, кого интересует смысл текста. Соответственно, как противоположность, возникает понятие осмысленной информации .

Объективность понятия «осмысленная информация» основана на следующем утверждении: в информационной таре, куда может быть помещена данная информация, можно выделить определенное количество информации, которая ни для кого, ни для каких дел не понадобится. Это – бессмысленная информация, все остальное – осмысленная. Но! Осмысленность текста зависит от тезауруса. Для человека, не знающего иероглифов, любой текст, составленный из них – текст бессмысленный.

Итак, различение понятий «количество информации», «ценность информации», «осмысленность информации» очень важно.

Во-первых, в традиционной информатике, основанной на классической теории информации (названной автором, Шенноном «математической теорией связи»), не существуют и не обсуждаются вопросы о ценной информации, её возникновении и эволюции. Ценность рассматривается в предположении, что цель задана извне. Вопрос о спонтанном возникновении цели внутри системы не рассматривается.

С точки зрения теории систем, здесь рассматриваются процессы в связях, а системному анализу нужны и связи, и элементы. И понятие цели играет в системном анализе основополагающую роль, поскольку он занимается целенаправленными системами.

В синергетике где также исследуются эти проблемы, показано [Чернавский], что ценность информации способна эволюционировать: неценная информация становится ценной, а бессмысленная – осмысленной, и наоборот. Цели системы могут возникать, меняться и исчезать в процессе развития.

Во-вторых, отождествление понятий просто информации, ценной информации, осмысленной информации приводит к недоразумениям. Для них невозможно дать единое объективное (воспринимаемое всеми) и конструктивное (полезное для развития науки и практики) определение. Напротив, разделив эти понятия можно дать конструктивное определение каждому из них, оговорить меру условности и субъективности.

Мы ранее рассмотрели меры ценности информации. Это мера Бонгарда-Харкевича, и мера Корогодина.

Вот еще две меры, связанные с истинностью информации [Лидовский].

inf(s) = -log2 p(s) = -1.44 ln p(s)

где s – предложение, смысл которого измеряется;

p(s) – вероятность того, что предложение S – истинно.

Понятно, что эта мера подходит только для простых предложений. Но тем не менее.

Некоторые свойства функции inf(s):

1) inf(s) ≥ 0 поскольку 0 ≤ p(s) ≤ 1;

2) при p(s) = 1, inf(s) = 0 (в тривиальном (истинном) предложении никакой информации не содержится);

3) при p(s) → 0, inf(s) → ∞ – чем неожиданнее сообщение, тем больше информации в нём содержится.

Из свойств (2) и (3) следует, что p(s) совпадает с априорной информацией р в формулах Бонгарда и Корогодина.

Но здесь это «внешняя» информация, находящаяся в сообщении, а там – «внутренняя», определяемая также и тезаурусом получателя.

4) если s1 s2 (из s1 следует s2 ) истинна, то inf(s1) ≥ inf(s2);

5) условия независимости: inf(s1s2 ) = inf(s1) + inf(s2) ↔ p(s1) * p(s2) = p(s1*s2).

Значение функции-меры inf(s) больше для предложений, исключающих большое количество возможностей. Пример: из s1 : “a > 3” из s2 : “а = 7”, следует, что s1 s2 и inf(s2) > inf(s1). Ясно, что s2 исключает больше возможностей, чем s1 .

cont(s) = 1 - p(s).

Связь между этими мерами даётся формулами:

cont(s) = 1 – 2-inf(s)= 1 – e-0.69 inf(s);

inf(s) = -log2(1 - cont(s)) = -0.69ln(1 – inf(s))

Задача. Вычислить меры истинности inf(s) и cont(s) для трёх предложений:

1) предложения s1 , про которое известно, что оно достоверно на 25%;

2) предложения s2 , достоверного на 50%;

3) предложения s3 , достоверного на 75%.



Загрузка...