Студопедия — Содержательный подход к измерению информации
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Содержательный подход к измерению информации






з курсу: «ОРГАНІЗАЦІЯ ВИРОБНИЦТВА»

 

 

Перевірив: Виконав:

доц. Демиденко В.В. студент ___ курсу гр. ______

«____»__________2013 р. _________________________

(Прізвище, ім’я, по-батькові)

залікова книжка № ________

 

Черкаси, 2013

ИНФОРМАТИКА

 

 

Методические рекомендации к лабораторным работам по информатике для студентов специальности «Информационные системы и технологии»

(часть I)

 

Нижний Новгород

 

 

ББК – 32.973 – 018.2

К – 84

 

 

Круподерова Е.П. Информатика: Методические рекомендации к лабораторным работам по информатике для студентов специальности «Информационные системы и технологии» (часть I)– Н. Новгород: Изд-во ВГИПУ, 2009. – 110 с.

 

 

Методические рекомендации предназначены для студентов специальности 230201.65 «Информационные системы и технологии». Изложены цели лабораторных работ, краткие теоретические сведения, задания к лабораторным работам. Методические рекомендации могут быть использованы студентами других специальностей в курсе информатики.

 

 

© Круподерова Е.П., 2009

© ВГИПУ, 2009

 

 

Лабораторная работа «Представление и измерение информации в

компьютере»

Цель работы:

1. Познакомиться с содержательным и алфавитным

подходом к измерению информации

2. Освоить способы кодирования числовой, текстовой,

графической и звуковой информации

3. Научиться определять количество информации в файлах различных

типов

Краткие сведении из теории

Содержательный подход к измерению информации

Попытки количественного измерения информации предпринимались неоднократно, но наиболее глубоко эти вопросы были разработаны и обобщены одним из авторов теории информации, американским инженером К. Шенноном в 1948 г.

В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания и характеризующую неопределенность, которая исчезает после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.

Предположим, что ожидается поступление некоторого сообщения. До прихода сообщения существует некоторая неопределенность относительно того, что будет содержать это сообщение. Приход сообщения уничтожает эту неопределенность. Чем больше неопределенность, ликвидируемая поступающим сообщением, тем большее количество информации оно содержит.

Р. Хартли предложил информацию (I), приходящуюся на одно сообщение, определять логарифмом общего числа возможных сообщений (N).

I(N) = logN

 

Если множество возможных сообщений состоит из одного (N =1), то

I(1) = log 1 = 0,

что соответствует отсутствию информации в этом случае.

В простейшем случае неопределенности выбор делается между двумя взаимоисключающими равновероятными сообщениями. Неопределенность, ликвидируемая приходом такого сообщения, принимается за единицу информации – 1 бит. Поэтому, если в приведенных выше формулах использовать логарифм по основанию два, то количество информации окажется выраженным и битах (например, при двух равновероятных сообщениях):

I(2) = log2 2 = 1 бит

Задача 1:

Какое количество информации несет в себе сообщение о том, что нужная вам программа находится на одной из восьми дискет?

Решение:

Поскольку события равновероятны воспользуемся формулой I = log2N.

I = log28 = 3.

Задача 2:

При игре в кости используется кубик с шестью гранями. Сколько бит информации получает игрок при каждом бросании кубика?

Решение:

Выпадение каждой грани кубика равновероятно. Поэтому I = Iog26.

I = 2,585 бит.

Вышеприведенная формула Р. Хартли позволяет определить количество информации в сообщении только для случая, когда сообщения равновероятны и статистически независимы.

К. Шеннон предложил в качестве меры неопределенности источника сообщений, осуществляющего выбор из N состояний, каждое из которых реализуется с вероятностью рi (i = 1,2,..., N), использовать функцию:

I = - ∑pi log2 pi

Если все сообщения равновероятны, то pi = 1/N и I = log2N = Н max . Если вероятность одного из сообщений равна 1, а всех остальных - 0, то количество информации в этом случае равно 0. Для всех остальных случаев справедливо неравенство:

 

0< I<log2N

Задача 3.

В непрозрачном мешочке хранятся 10 белых, 20 красных, 30 синих и 40 зеленых шариков. Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика.

Решение:

Так как количество шариков различных цветов неодинаково, то зрительное сообщение о цвете вынутого из мешочка шарика также различаются и равны количеству шариков данного цвета деленному на общее количество шариков: рб = 0,1; рк = 0,2; р3 = 0,3; рс = 0,4.

События не равновероятны, поэтому для определения количества информации, содержащейся в сообщении о цвете шарика, воспользуемся формулой: I = - ∑pi log2 pi

 

I = - (0,1* log 2 0,l +0,2 * log2 0,2 +0,3 * log2 0,3 +0,4* log20,4) бит =

- (0,1 * (-1) + 0,2 * (-0,7) + 0,3 * (-0,5) + 0,4 * (- 0,4)) = 0,55 бит.







Дата добавления: 2015-09-18; просмотров: 499. Нарушение авторских прав; Мы поможем в написании вашей работы!



Кардиналистский и ординалистский подходы Кардиналистский (количественный подход) к анализу полезности основан на представлении о возможности измерения различных благ в условных единицах полезности...

Обзор компонентов Multisim Компоненты – это основа любой схемы, это все элементы, из которых она состоит. Multisim оперирует с двумя категориями...

Композиция из абстрактных геометрических фигур Данная композиция состоит из линий, штриховки, абстрактных геометрических форм...

Важнейшие способы обработки и анализа рядов динамики Не во всех случаях эмпирические данные рядов динамики позволяют определить тенденцию изменения явления во времени...

Законы Генри, Дальтона, Сеченова. Применение этих законов при лечении кессонной болезни, лечении в барокамере и исследовании электролитного состава крови Закон Генри: Количество газа, растворенного при данной температуре в определенном объеме жидкости, при равновесии прямо пропорциональны давлению газа...

Ганглиоблокаторы. Классификация. Механизм действия. Фармакодинамика. Применение.Побочные эфффекты Никотинчувствительные холинорецепторы (н-холинорецепторы) в основном локализованы на постсинаптических мембранах в синапсах скелетной мускулатуры...

Шов первичный, первично отсроченный, вторичный (показания) В зависимости от времени и условий наложения выделяют швы: 1) первичные...

Механизм действия гормонов а) Цитозольный механизм действия гормонов. По цитозольному механизму действуют гормоны 1 группы...

Алгоритм выполнения манипуляции Приемы наружного акушерского исследования. Приемы Леопольда – Левицкого. Цель...

ИГРЫ НА ТАКТИЛЬНОЕ ВЗАИМОДЕЙСТВИЕ Методические рекомендации по проведению игр на тактильное взаимодействие...

Studopedia.info - Студопедия - 2014-2024 год . (0.01 сек.) русская версия | украинская версия