АЛФАВИТ – это вся совокупность символов, используемых в некотором языке для представления информации.
Алфавитный подход – как способ измерения информации.
Информационный вес символа двоичного алфавита принят за единицу информации и называется 1 бит.
Например, чтобы посчитать количество информации в следующем двоичном тексте 110011111100101000101011, нужно пересчитать все 0 и 1.
В тексте содержится 24 бита информации.
МОЩНОСТЬ АЛФАВИТА (N) – это полное число символов в алфавите.
Например,
1) мощность русского алфавита составляет N=33;
2) мощность английского алфавита N= ?
Замечание. С увеличением мощности алфавита увеличивается информационный вес символов этого алфавита.
I = K ∙ i
i
2 i = N
Информационный вес каждого символа (i) и
мощность алфавита (N) связаны формулой:
Количество (объем) информации в сообщении (I) можно посчитать по формуле:
Количество информации в сообщении или информационный объём текста (I), равен количеству информации, которое несет один символ (i), умноженное на количество символов K в сообщении, т.е. I = K ∙ i
1 байт - это информационный вес одного символа компьютерного алфавита.
ЗАДАЧА 2
Текст составлен с помощью алфавита мощностью в 64 символа и содержит 100 символов. Каков информационный объем текста.
ЗАДАЧА 3
Сообщение записано буквами из 16 символьного алфавита, содержит 50 символов. Какой объем информации оно несет.
ЗАДАЧА 4
Два текста содержат одинаковое количество символов. Первый текст составлен в алфавите мощностью 32 символа, второй – мощностью 64 символа. Во сколько раз отличатся количество информации в этих текстах.
Сообщение
Информативное, если оно пополняет знания человека, т.е. несет для него информацию.
Количество информации в информативном сообщении больше нуля.
Неинформативное, если это:
«старые» сведения, т.е. человек это уже знает;
содержание сообщения непонятно человеку.
Количество информации в неинформативном сообщении равно нулю.
Вероятность некоторого события определяется путем многократных наблюдений (измерений, испытаний). Такие измерения называют статистическими. И чем большее количество измерений выполнено, тем точнее определяется вероятность события.
ОПРЕДЕЛЕНИЯ
1. Все возможные варианты события равновероятны. Их число равно N.
2. Вероятности (p) возможных вариантов события разные и они заранее известны:
{pi }, i = 1..N.
Здесь по-прежнему N-число возможных вариантов события.
i = log2N
Данные формулы тождественны друг другу.
События равновероятны, если ни одно из них не имеет преимущества перед другими.
Если обозначить буквой i количество информации в сообщении о том, что произошло одно из N равновероятных событий, то величины i и N связаны между собой формулой Хартли:
Решение: В колоде 32 карты. В перемешанной колоде выпадение любой карты — равновероятные события. Если i — количество информации в сообщении о том, что выпала конкретная карта (например, дама пик), то из уравнения Хартли:
2i = 32 = 25
Ответ: i = 5 бит.
Решение. Считая выпадение любой грани событием равновероятным, запишем формулу Хартли:
2i = 6.
Ответ: i = log26 = 2,58496 бит.
3. Вероятностный подход
Осуществим при неравновероятных событиях.
Неравновероятные события – это события, имеющие разную вероятность реализации.
Если вероятность некоторого события равна p, а i (бит) — это количество информации в сообщении о том, что произошло это событие, то данные величины связаны между собой формулой:
Решение. i5 = 4 бита, p5 = 2 · p7
Вспомним связь между вероятностью и количеством информации: 2i = 1/p
Отсюда: p = 2–i
Подставляя в равенство из условия задачи, получим:
Отсюда:
Это сайт презентаций, где можно хранить и обмениваться своими презентациями, докладами, проектами, шаблонами в формате PowerPoint с другими пользователями. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами.
Email: Нажмите что бы посмотреть