Презентация, доклад по информатике 10 класс Измерение количества информации

Ральф Винтон Лайон ХартлиВозникновение и прием информации связаны с устранением неопределенности в выборе одного из нескольких возможных вариантов

Слайд 1Измерение количества информации

Измерение количества информации

Слайд 2Ральф Винтон Лайон Хартли
Возникновение и прием информации связаны с устранением неопределенности

в выборе одного из нескольких возможных вариантов
Ральф Винтон Лайон ХартлиВозникновение и прием информации связаны с устранением неопределенности в выборе одного из нескольких возможных

Слайд 3Законы Хартли
1. Если можно выбрать только один заранее всем известный вариант,

то количество информации при таком выборе равно нулю
2. Чем больше количество возможных вариантов, тем больше информации содержится в сообщении о выборе конкретного варианта
3. Количество информации, содержащейся в сообщении о результатах нескольких независимых выборов, должно быть равно сумме количеств информации, содержащейся в сообщениях об этих выборов по отдельности.
Законы Хартли1. Если можно выбрать только один заранее всем известный вариант, то количество информации при таком выборе

Слайд 4I=log2N
В этом подходе за единицу информации принимается такое количество информации, которое

снижает неопределенность исхода опыта(количество возможных исходов) в два раза
I=log2NВ этом подходе за единицу информации принимается такое количество информации, которое снижает неопределенность исхода опыта(количество возможных исходов)

Слайд 5Клод Элвуд Шеннон
Шеннон обобщил формулу Хартли, рассчитав средневзвешенное количество информации, получаемое

из опыта, где не все исходы равновероятны
Клод Элвуд ШеннонШеннон обобщил формулу Хартли, рассчитав средневзвешенное количество информации, получаемое из опыта, где не все исходы

Слайд 6I=-∑pilog2pi
Где pi - вероятность i-го исхода

I=-∑pilog2piГде pi - вероятность i-го исхода

Слайд 7Если оценивать информацию как снятую неопределенность, количество информации в сообщении о

каком-то событии зависит от вероятности свершения данного события.

m – количество благоприятствующих событий
n – количество возможных событий
p – вероятность события

Общая сумма всех вероятностей равна 1.

Если оценивать информацию как снятую неопределенность, количество информации в сообщении о каком-то событии зависит от вероятности свершения

Слайд 8Измерение целесообразности информации
Ключевой идеей является измерение не самого сообщения, а измерения

вероятности достижения некоторой цели

I=log2p1/p2

Измерение целесообразности информацииКлючевой идеей является измерение не самого сообщения, а измерения вероятности достижения некоторой целиI=log2p1/p2

Что такое shareslide.ru?

Это сайт презентаций, где можно хранить и обмениваться своими презентациями, докладами, проектами, шаблонами в формате PowerPoint с другими пользователями. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами.


Для правообладателей

Яндекс.Метрика

Обратная связь

Email: Нажмите что бы посмотреть