1 Определение количества информации по Хартли и Шеннону1




Скачать 490.82 Kb.
Название 1 Определение количества информации по Хартли и Шеннону1
страница 2/13
Дата публикации 18.09.2014
Размер 490.82 Kb.
Тип Литература
literature-edu.ru > Информатика > Литература
1   2   3   4   5   6   7   8   9   ...   13

1.2. Концепция разнообразия Эшби



Р. Эшби считал, что информация есть там, где есть неоднородность (разнообразие) и единицей измерения может быть различие между объектами в одном определенном свойстве. Чем больше различий, тем больше информации. Под разнообразием следует подразумевать характеристику степени несовпадения элементов некоторого множества. Если единицей обозначить факт одинаковости элементов, то логарифм единицы - ноль. Это будет соответствовать единичной вероятности выбора элемента множества, поскольку элементы неразличимы. По Эшби теория информации изучает «процессы передачи разнообразия» по каналам связи.

1.3.Алгоритмическое измерение количества информации - Колмогоров



Близка к «разнообразностной» идея алгоритмического измерения количества информации, выдвинутая в 1965 г. А.Н. Колмогоровым. (См. также «Алгоритмическая теория информации, Алгоритма сложность» [4]).

Количество информации определяется как минимальная длина программы, позволяющей преобразовать один объект (множество) в другой (множество). Чем больше различаются два объекта между собой, тем сложнее (длиннее) программа перехода от одного объекта к другому. Длина программы при этом измеряется количеством команд. Этот подход, в отличие от подхода Шеннона, не базирующийся на понятии вероятности, позволяет, например, определить прирост количества информации, содержащейся в результатах расчета, по сравнению с исходными данными.

Вероятностная теория информации на этот вопрос не может дать удовлетворительного ответа.

1.4. Информация как мера неоднородности по Глушкову



Если понятие информации связывать с разнообразием, то причиной существующего в природе разнообразия, по мнению академика В.М. Глушкова, можно считать неоднородность в распределении энергии (или вещества, поскольку E=mC2) в пространстве и во времени. Информация же есть мера этой неоднородности. Информация существует постольку, поскольку существуют сами материальные тела. С понятием информации в кибернетике не связано свойство ее осмысленности. Звезды существуют независимо от того, имеют люди информацию о них или нет. Объективное существование объекта создает неоднородность в распределении вещества и поэтому является источником информации для когнитивной системы. Таким образом, по В.М. Глушкову, информация независима от нашего сознания.

1.5. Семантические и ценностные аспекты информации



Рассмотренные выше определения и толкования понятия «информации» в принципе не могут учесть ее содержательного и ценностного аспектов.

Попытки оценить не только количественную, но и содержательную сторону информации дали толчок к развитию семантической (смысловой) теории информации. Исследования в этой области теснее всего связаны с семиотикой - теорией знаковых систем.

Одним из важнейших свойств информации, которое мы можем наблюдать, является ее неотделимость от носителя: во всех случаях, когда мы сталкиваемся с любыми сообщениями, эти сообщения выражены некоторыми знаками, словами, языками. Семиотика исследует знаки как особый вид носителей информации. Рассуждая о количестве, содержании и ценности информации, содержащейся в сообщении, можно исходить из возможностей соответствующего анализа знаковых систем, таких как естественные и искусственные языки, системы сигнализации, логические, математические и химические символы.

Знаковые системы рассматриваются с позиций синтактики, семантики и прагматики.

Синтактика изучает синтаксис знаковых структур – способы сочетаний знаков, правила образования сочетаний и преобразований безотносительно к их значениям.

Семантика изучает знаковые системы как средства выражения смысла, определенного содержания.

Прагматика концентрируется на изучении практической полезности сообщений для потребителя.

Основная идея семантической концепции информации заключается в возможности измерения содержания (предметного значения) суждений. Но содержание всегда связано с формой, хотя и не взаимно однозначно. Поэтому и исследования семантики базировались на понятии информации как уменьшении или устранении неопределенности.

1.5.1. Семантическая информация (Карнап и Бар-Хиллел)



Первую попытку построения теории семантической информации предприняли Р. Карнап и И. Бар-Хиллел. Они предложили определять величину семантической информации посредством так называемой логической вероятности, представляющей собой степень подтверждения той или иной гипотезы. При этом количество семантической информации, содержащейся в сообщении, возрастает по мере уменьшения степени подтверждения априорной гипотезы. Если вся гипотеза построена на эмпирических данных, полностью подтверждаемых сообщением, то такое сообщение не приносит получателю никаких новых сведений. Логическая вероятность гипотезы при этом равна единице, а семантическая информация оказывается равной нулю. Наоборот, по мере уменьшения степени подтверждения гипотезы, количество семантической информации, доставляемой сообщением, возрастает.

Концепция Карнапа - Бар-Хиллела является только началом исследований в области измерения содержания передаваемой информации. Она позволяет, например, выявить связь гипотезы с начальным достоверным значением, в частности, сделать заключение о степени подтверждения гипотезы.

1.5.2. Прагматика



Для всех прагматических подходов характерно стремление связать понятие информации с целенаправленным поведением и выдвинуть те или иные количественные меры ценности информации.

А.А. Харкевич предложил связать меру ценности информации с изменением вероятности достижения цели при получении этой информации:
I = log(p1/p0) = log(p1) – log(p0),
где p0 и p1 - вероятность достижения цели соответственно до и после получения информации.
А.А. Харкевич первым подчеркнул фундаментальный характер связи прагматических свойств информации с категорией цели, понимаемой как опережающее отражение, модель будущего результата деятельности.


1   2   3   4   5   6   7   8   9   ...   13

Похожие:

1 Определение количества информации по Хартли и Шеннону1 icon Школьная газета как средство формирования
Причины таких изменений вызваны резким увеличением количества информации. А на стыке веков в 2000 году на Давоском форуме Тони Блэр,...
1 Определение количества информации по Хартли и Шеннону1 icon Поиск информации в Интернет
В таблице приведены запросы к поисковому серверу. Расположите обозначения запросов в порядке возрастания количества страниц, которые...
1 Определение количества информации по Хартли и Шеннону1 icon Автоматизированная система регистрации на услуги одо «Автопроспектсервис»
Анализ технологии обработки информации в предметной области и определение требований к асои 4
1 Определение количества информации по Хартли и Шеннону1 icon Практическое пособие. Оглавление А. Личные мотивы выдачи информации....
Определение людей, которым с точки зрения объекта предельно нежелательно знать чернящие его данные. 82
1 Определение количества информации по Хартли и Шеннону1 icon Рейтинг-план по курсовым работам Факультет ппф курс 2-3 Группы: о-11, сдп-11, о-12, сдп-12
Поиск и определение источников информации по теме курсовой работы, составление списка литературы и других источников
1 Определение количества информации по Хартли и Шеннону1 icon Конфиденциальность гарантируется получателем информации
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации влечет ответственность,...
1 Определение количества информации по Хартли и Шеннону1 icon Программа Visual Graph может работать как в Unix системах, так и в Windows
Визуализация информации — это процесс преобразования больших и сложных видов абстрактной информации в визуальную форму. Универсальным...
1 Определение количества информации по Хартли и Шеннону1 icon План Введение. Определение и виды эксперимента. Основные принципы...
К числу самых своеобразных и трудноосваиваемых методов сбора социологической информации относится эксперимент. Уже одно название...
1 Определение количества информации по Хартли и Шеннону1 icon Программа междисциплинарного экзамена по специальности 075200 «компьютерная безопасность»
Понятие информации. Количество информации в равновероятных и неравновероятных сообщениях
1 Определение количества информации по Хартли и Шеннону1 icon Колесник В. Д., Полтырев Г. Ш. Курс теории информации
Сети ЭВМ и телекоммуникации, сетевые технологии, распределенные автоматизированные системы обработки информации и управления
Литература


При копировании материала укажите ссылку © 2015
контакты
literature-edu.ru
Поиск на сайте

Главная страница  Литература  Доклады  Рефераты  Курсовая работа  Лекции