Формула Шеннона и ее обоснование.Она позволяет найти энтропию источника в случае неравновероятных состояний. Обоснование: Для примера рассмотрим алфавитный источник информации, им может служить любой текст. В этом случае один символ алфавита рассматривается как одно из возможных дискретных состояний источника информации. При этом разные символы встречаются, как правило, с разной частотой. Поставим перед собой задачу оценки энтропии такого источника. Пусть дан алфавит A={ } состоящий из N символов, с вероятностями появления этих символов в тексте { } соответственно. В символах этого алфавита составлен текст длиной М символов (M >> N). После прочтения этого текста буква встретится нам раз. Рассмотрим отдельно подпоследовательность букв . В ней все буквы одинаковы и, следовательно, равновероятны. Поэтому для подсчета количества информации, которое несет появление одной буквы , мы можем использовать формулу Хартли . Это дает бит информации. Вся подпоследовательность из букв несет бит информации. Просуммировав полученную величину по всем буквам алфавита, получим общее количество информации, содержащееся в прочитанном тексте Поделив получ-ю величину на число букв в тексте, найдем ср. кол-о инф-ии, приходящееся на одну букву:
|