Слайд 1Понятие «информация»
Свойства информации
Слайд 2Информация.
Информация- сведения, разъяснения, изложения.
Слайд 3Информация-
Общенаучное понятие.
Используется в различных науках: информатике, физике, кибернетике, биологии, и
т.д.
Слайд 4В физике:
Энтропия – хаос, отсутствие информации
Антиэнтропия – мера упорядоченности и сложности
системы.
Увеличивается сложность системы – энтропия уменьшается, т.е. величина информации увеличивается.
Пример: Открытые, обменивающиеся с окружающей средой системы живой природы.
Слайд 5В биологии:
Понятие связывается с поведением живых организмов, которое строится на основе
получения использования организмом информации об окружающей среде.
Генетическая информация передаётся по наследству и хранится во всех клетках живых организмов.
Клонирование :
Слайд 6В кибернетике:
Понятие связано с процессами управления в сложных системах (живых организмах
или технических устройствах).
Процессы управления включают в себя получение, хранение, преобразование и передачу информации.
Слайд 7
ЧЕЛОВЕК И ИНФОРМАЦИЯ
ОРГАНЫ ЧУВСТВ
информационные
каналы человека
( зрение, слух, вкус,
осязание, обоняние )
Восприятие
информации
Классификация
з н а н и й
Процедурные
з н а н и я
Декларативные
з н а н и я
Символьная
ф о р м а
( я з ы к и )
Формальные
я з ы к и
Естественные
я з ы к и
Графическая
ф о р м а
Мощность алфавита
Информационный вес символа
Информационный объем текста
Единицы информации: бит, байт,
килобайт, мегабайт, гигабайт
Информация и знания
Представление информации
Информационные процессы
Внутренняя
п а м я т ь
В н е ш н я я
п а м я т ь
Х р а н е н и е
информации
Источник информации
Информационный канал
Поиск информации
Обработка информации
Передача информации
Приемник информации
Измерение информации
алфавитный подход
Слайд 8
ДЕКЛАРАТИВНЫЕ
З Н А Н И Я
ПРОЦЕДУРНЫЕ
З Н А Н И Я
Знания:
о явлениях
о событиях
о свойствах объектов
о зависимостях
Я знаю, как . . .
ИНФОРМАЦИЯ И ЗНАНИЯ. КЛАССИФИКАЦИЯ ЗНАНИЙ
ЗНАНИЯ
Я знаю, что . . .
Знания, определяющие действия для достижения какой-либо цели
Слайд 9
ВОСПРИЯТИЕ ИНФОРМАЦИИ
Человек воспринимает информацию из внешнего мира с помощью всех своих
органов чувств, которые являются информационными каналами, связывающими человека с внешним миром.
Слайд 10
ЗНАКОВАЯ И ОБРАЗНАЯ ИНФОРМАЦИЯ
Информация
ОБРАЗНАЯ
ОБРАЗЫ
ЯЗЫКИ
зрительные
звуковые
вкусовые
обонятельные
осязательные
ЕСТЕСТВЕННЫЕ
ФОРМАЛЬНЫЕ
ЗНАКОВАЯ
Слайд 11
ФОРМЫ ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ
Формальные ЯЗЫКИ
ЯЗЫК – это знаковый способ
представления информации
Естественные ЯЗЫКИ
✍
Мимика и жесты
Графическая форма
представления
информации
✌ ? ? ? ☜ ☝ ?
Слайд 12
ЯЗЫК – это знаковый способ представления информации. Общение на языках -
это процесс передачи информации в знаковой форме.
ЕСТЕСТВЕННЫЕ
ФОРМАЛЬНЫЕ
ЯЗЫКИ
Устная речь
Письменность
фонемы
фонемы
фонемы
фонемы
символы
слова
фразы
Естественные (разговорные) языки имеют национальную принадлежность.
Примеры естественных языков: русский, английский, китайский, французский и пр. . . .
Формальный язык – это язык профессионального общения или определенной области знаний.
ЯЗЫКИ ЕСТЕСТВЕННЫЕ И ФОРМАЛЬНЫЕ
математическая символика
нотная грамота (язык музыки)
шахматная нотация
языки программирования
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Слайд 13
ХРАНЕНИЕ
ИНФОРМАЦИИ
ПЕРЕДАЧА
ИНФОРМАЦИИ
М О З Г человека
носитель информации
Внутренняя память
Внешние носители
информации
Внешняя
память
Математические
вычисления
Логические
рассуждения
Поиск информации
КОДИРОВАНИЕ
СТРУКТУРИРОВАНИЕ
ИСТОЧНИК
ИНФОРМАЦИИ
К а н а л
передачи
информации
ПРИЕМНИК
ИНФОРМАЦИИ
помехи
КДУ
Кодирующее
устройство
ДКДУ
Декодирующее
устройство
ВИДЫ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ
О п е р и р о в а н и е
исходной информацией
по определенным
правилам с целью
получения новой
и н ф о р м а ц и и
ОБРАБОТКА
ИНФОРМАЦИИ
Слайд 14
АНАЛОГИЯ МЕЖДУ КОМПЬЮТЕРОМ И ЧЕЛОВЕКОМ
В памяти компьютера
х
р а н я т с я
данные и программы
Информационный обмен
в к о м п ь ю т е р е
Ввод
Вывод
ПАМЯТЬ
ПРОЦЕССОР
По своему назначению компьютер –
универсальное техническое средство
для работы человека с информацией
Слайд 15
ПЕРЕДАЧА ИНФОРМАЦИИ
ПЕРЕДАЧА ИНФОРМАЦИИ происходит между источником и
приемником по информационным каналам связи.
Источник информации
Приемник информации
Канал связи
Источник информации – это объект (субъект), который передает информацию приемнику
Приемник информации – это объект (субъект), который принимает информацию от источника
Канал связи – это среда, способ или техническое средство, позволяющее передать информацию от источника к приемнику
Источник
информации
Приемник
информации
Защита от шума (технические способы защиты каналов связи + избыточный код)
Шум (помехи)
ДКДУ – декодирующее устройство
КДУ – кодирующее устройство
КДУ
ДКДУ
Канал связи
Слайд 16Формы и способы передачи информации
Жест
Звук
Огонь
Бумага
Цвет
Осязание
Обоняние
Слайд 19Понятная - на определённом языке
Полезная – практическая ценность
Достоверная и актуальная –
средства массовой информации
Недостоверная – может стать причиной социальных потрясений.
Полная и точная – чтобы ориенитроваться в окружающем мире.
Слайд 20
ИНФОРМАТИВНОСТЬ СООБЩЕНИЙ
Получение любых знаний должно идти от известного
к неизвестному (новому), от простого к сложному. И тогда каждое новое сообщение будет понятным, а значит, будет нести новую информацию для человека.
НОВИЗНА
Информативное сообщение содержит новые сведения, ранее не известные человеку.
Пример неинформативного сообщения: «Дважды два – четыре»
ПОНЯТНОСТЬ
Принцип последовательности в обучении
Сообщение несет информацию для человека (является информативным), если заключенные в сообщении сведения являются для этого человека новыми и понятными.
Новые и понятные
сведения
?
Новые
знания
Логическая связь
Слайд 21Знание
Незнание
Знание
Чем большим объёмом познаний обладает человек,
тем больше он ощущает
недостаток знаний
Увеличение границы незнания
Слайд 22Уменьшение неопределённости знаний
Если некоторое сообщение приводит к уменьшению неопределённости знаний. То
такое сообщение содержит информацию.
Этот подход позволяет количественно измерить информацию.
Рассмотрим пример с бросанием монеты.
Слайд 23Монета может упасть в одно из двух положений, «орёл» или «решка»т.е.
события равновероятны.
Перед броском – существует неопределённость знаний.
После броска – она уменьшается в два раза
Чем больше количество возможных событий, тем больше начальная неопределённость и соответственно тем большее количество информации будет содержать сообщение о результатах опытов.
Слайд 24Единицы измерения количества информации
Слайд 25АЛФАВИТ. МОЩНОСТЬ АЛФАВИТА
АЛФАВИТ – набор букв, знаков препинания, цифр, скобок
и др. символов, используемых в тексте. также включает и пробел.
МОЩНОСТЬ АЛФАВИТА ( N ) – полное число символов в алфавите.
МОЩНОСТЬ АЛФАВИТА из русских букв и дополнительных символов равна 54: 33 буквы + 10 цифр + 11 знаков препинания, скобки, пробел.
Слайд 26При алфавитном подходе считается, что каждый символ текста имеет определённый «информационный
вес».
Он зависит от мощности алфавита.
Наименьшее число символов в алфавите использует компьютер.
Это 0 и 1 – называют двоичным алфавитом.
Достаточный алфавит – 256 символов или 28
Слайд 27Информационный вес символа двоичного алфавита принят за единицу информации.
Такая единица названа
1 «БИТ».
С увеличением мощности алфавита увеличивается информационный вес символов этого алфавита.
Слайд 28b – разрядность двоичного кода
2 = 2 1
4 = 2
2
8 = 2 3
16 = 2 4
N = 2 i
Разрядность двоичного кода –
это и есть информационный вес символа i
.
Слайд 29
АЛФАВИТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ
МОЩНОСТЬ АЛФАВИТА
число символов в алфавите (его
размер)
N
ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации в одном символе
I = K × i
i
АЛФАВИТ – это вся совокупность символов, используемых в некотором
языке для представления информации
МОЩНОСТЬ АЛФАВИТА ( N ) – это число символов в алфавите.
2 i = N
ЧИСЛО СИМВОЛОВ В СООБЩЕНИИ
K
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ
I
N
i
I
K
Слайд 30
Число
равновероятных
в о з м о ж н ы
х
с о б ы т и й
N
К о л и ч е с т в о
и н ф о р м а ц и и
в сообщении о том,
что произошло одно из N
равновероятных событий
i
N = 2
i = 1 бит
Число символов в алфавите
(его размер) – МОЩНОСТЬ АЛФАВИТА
N
ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации
в одном символе
2 i = N
I = K × i
K
I
Число символов
в символьном сообщении
Количество информации
в символьном сообщении
i
i = 8 бит = 1 байт
1 байт
1 Кб
1 Мб
1 Гб
1024
1024
1024
ИНФОРМАЦИЯ
N = 256
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ
Содержательный подход
Алфавитный подход
ИЗМЕРЕНИЕ
Слайд 31
ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ
СИМВОЛЬНЫЙ АЛФАВИТ КОМПЬЮТЕРА
русские (РУССКИЕ) буквы
латинские (LAT) буквы
цифры (1, 2, 3, 4, 5, 6, 7, 8, 9, 0)
математические знаки (+, -, *, /, ^, =)
прочие символы («», №, %, <, >, :, ;, #, &)
Слайд 32
ИНФОРМАЦИОННЫЙ ОБЪЕМ ТЕКСТА
ЗАДАЧА
Книга, подготовленная с помощью компьютера, содержит 150 страниц. На каждой странице – 40 строк, в каждой строке – 60 символов (включая пробелы между словами). Каков объем информации в книге?
РЕШЕНИЕ
Мощность компьютерного алфавита равна 256, поэтому один символ несет 1 байт информации. Значит, страница книги содержит 40 × 60 = 2400 байт информации.
[кол-во символов в строке] × [кол-во строк] = [информационный объем страницы]
Объем всей информации в книге (в разных единицах):
[информационный объем страницы] × [кол-во страниц] = [информационный объем книги]
2400 × 150 = 360 000 байт / 1024 = 351,5625 Кбайт / 1024 = 0,34332275 Мбайт
Слайд 33За единицу количества информации принимается такое количество информации, которое содержит сообщение,
уменьшающее неопределённость знаний в два раза.
Такая единица названа «БИТ»
Слайд 34При равновероятных событиях можно воспользоваться формулой Хартли, чтобы определить количество информации
I или посчитать количество возможных событий N
N = 2 i
В случае, если события имеют различные вероятности реализации, то будем применять вероятностный подход, и воспользуемся формулой Шеннона:
Н= P1log2(1/P1)+ P2log2(1/P2)+…+ PNlog2(1/PN)
Слайд 35Для определения количество информации i, содержащейся в сообщении о том, что
произошло одно из N равновероятных событий, нужно решить показательное уравнение:
2 i = N или логарифмическую функцию: I = log2N – читается: логарифм от N по основанию 2.
Смысл выражения: это степень в которую нужно возвести 2, чтобы получилось N.
Слайд 36Например: вычислим количество информации в сообщении о том, ч то из
колоды карт случайным образом достали даму пик (в колоде 36 карт):
I = log236 = 5,16993 бит
Слайд 37
ПОКАЗАТЕЛЬНОЕ УРАВНЕНИЕ
N
i
Определение количества информации, содержащейся в сообщении о том,
что произошло одно из N равновероятных событий
N
i
Определение количества равновероятных событий N, если известно, сколько информации человек получил в сообщении о том, что произошло одно из этих событий.
2 i = N
Слайд 38КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ
Задача 1. При угадывании
целого числа в диапазоне от 1 до N
было получено 6 бит информации . Чему равно N ?
Решение задачи 1. Значение N определяется из формулы N = 2 i .
После подстановки значения i = 6 получаем: N = 2 6 = 64.
Задача 2. В корзине лежат 16 шаров разного цвета . Сколько информации несет сообщение о том , что из корзины достали красный шар ?
Решение задачи 2: Вытаскивание из корзины любого из 16 шаров – события равновероятные. Поэтому для решения задачи применима формула 2 i = N. Здесь N = 16 – число шаров. Решая уравнение 2 I =16 получаем ответ: i = 4 бита
2 i = N
N
i
Количество равновероятных возможных событий
Количество информации в сообщении о том, что произошло одно из N равновероятных событий.
Слайд 39СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ
Сообщение о том,
что произошло одно событие из двух равновероятных (неопределенность знания уменьшилась в два раза), несет 1 бит информации.
СОДЕРЖАТЕЛЬНЫЙ ПОДХОД к измерению информации заключается в том, что количество информации связывается с содержанием (смыслом) полученного человеком сообщения. Количество информации, заключенное в сообщении, тем больше, чем более оно пополняет наши знания (уменьшает неопределенность наших знаний).
8 цветных шаров в корзине – 8 равновероятных событий
Неопределенность знания о том, что из корзины может быть извлечен шар красного цвета, равна 8.
Слайд 40Вероятность
пусть при бросании несимметричной четырёхгранной пирамидки вероятность отдельных событий будет:
Р1=
1/2 (0,5), Р2= 1/4(0,25), Р3= 1/8(0,125), Р4= 1/8(0,125)
Тогда количество информации после реализации каждого можно рассчитать по:
2 i = 1/Р – или через логарифмическую функцию: i = log2(1/Р)
Слайд 41i 1= log2(1/0.5) = log22 = 1бит
i 2= log2(1/0.25) =
log24= 2бита
i 3= log2(1/0.125) = log28= 3бита
i 4= log2(1/0.125) = log28= 3бита
Воспользуемся формулой Шеннона, чтобы посчитать среднюю информативность сообщения: Н= P1log2(1/P1)+ P2log2(1/P2)+…+ PNlog2(1/PN)
Н= 0,5*1+0,25*2+0,125*3+0,125*3=1.75 бита
Количество информации в сообщении зависит от вероятности этого события. Чем меньше вероятность, тем больше информации несёт сообщение о нём.
Слайд 42При равновероятностных событиях формула Шеннона переходит в формулу Хартли: т.к. Р1=Р2=Р3…=1/N
i
= log2(1/N)= log24= 2 бита т.е.
при бросании симметричной пирамидки. Когда события равновероятны, мы получаем большее количество информации(2 бита), чем при бросании несимметричной(1,75), когда события неравновероятны.
Слайд 43
МЕТОД БИНАРНОГО ПОИСКА
Требуется угадать задуманное число из диапазона чисел от 1
до 8
8 вариантов возможных событий → 3 вопроса → 3 бита информации