Презентация, доклад Понятие информация

Содержание

Информация.Информация- сведения, разъяснения, изложения.

Слайд 1Понятие «информация»
Свойства информации

Понятие «информация»Свойства информации

Слайд 2Информация.
Информация- сведения, разъяснения, изложения.

Информация.Информация- сведения, разъяснения, изложения.

Слайд 3Информация-
Общенаучное понятие.
Используется в различных науках: информатике, физике, кибернетике, биологии, и

т.д.
Информация-Общенаучное понятие. Используется в различных науках: информатике, физике, кибернетике, биологии, и т.д.

Слайд 4В физике:
Энтропия – хаос, отсутствие информации
Антиэнтропия – мера упорядоченности и сложности

системы.
Увеличивается сложность системы – энтропия уменьшается, т.е. величина информации увеличивается.
Пример: Открытые, обменивающиеся с окружающей средой системы живой природы.
В физике:Энтропия – хаос, отсутствие информацииАнтиэнтропия – мера упорядоченности и сложности системы. Увеличивается сложность системы – энтропия

Слайд 5В биологии:
Понятие связывается с поведением живых организмов, которое строится на основе

получения использования организмом информации об окружающей среде.
Генетическая информация передаётся по наследству и хранится во всех клетках живых организмов.
Клонирование :

В биологии:Понятие связывается с поведением живых организмов, которое строится на основе получения использования организмом информации об окружающей

Слайд 6В кибернетике:
Понятие связано с процессами управления в сложных системах (живых организмах

или технических устройствах).
Процессы управления включают в себя получение, хранение, преобразование и передачу информации.
В кибернетике:Понятие связано с процессами управления в сложных системах (живых организмах или технических устройствах).Процессы управления включают в

Слайд 7
ЧЕЛОВЕК И ИНФОРМАЦИЯ
ОРГАНЫ ЧУВСТВ
информационные


каналы человека
( зрение, слух, вкус,
осязание, обоняние )

Восприятие
информации

Классификация
з н а н и й

Процедурные
з н а н и я

Декларативные
з н а н и я

Символьная
ф о р м а
( я з ы к и )

Формальные
я з ы к и

Естественные
я з ы к и

Графическая
ф о р м а

Мощность алфавита
Информационный вес символа
Информационный объем текста

Единицы информации: бит, байт,
килобайт, мегабайт, гигабайт

Информация и знания

Представление информации

Информационные процессы

Внутренняя
п а м я т ь

В н е ш н я я
п а м я т ь

Х р а н е н и е
информации

Источник информации

Информационный канал

Поиск информации

Обработка информации

Передача информации

Приемник информации

Измерение информации
алфавитный подход

ЧЕЛОВЕК И ИНФОРМАЦИЯ   ОРГАНЫ  ЧУВСТВ   информационные    каналы  человека

Слайд 8


ДЕКЛАРАТИВНЫЕ
З Н А Н И Я










ПРОЦЕДУРНЫЕ
З Н А Н И Я







Знания:

о явлениях
о событиях
о свойствах объектов
о зависимостях

Я знаю, как . . .



ИНФОРМАЦИЯ И ЗНАНИЯ. КЛАССИФИКАЦИЯ ЗНАНИЙ


ЗНАНИЯ

Я знаю, что . . .

Знания, определяющие действия для достижения какой-либо цели

ДЕКЛАРАТИВНЫЕЗ Н А Н И ЯПРОЦЕДУРНЫЕЗ Н А Н И ЯЗнания: о явлениях о событиях о свойствах

Слайд 9
ВОСПРИЯТИЕ ИНФОРМАЦИИ

Человек воспринимает информацию из внешнего мира с помощью всех своих

органов чувств, которые являются информационными каналами, связывающими человека с внешним миром.
ВОСПРИЯТИЕ ИНФОРМАЦИИЧеловек воспринимает информацию из внешнего мира с помощью всех своих органов чувств, которые являются информационными каналами,

Слайд 10


ЗНАКОВАЯ И ОБРАЗНАЯ ИНФОРМАЦИЯ




Информация
ОБРАЗНАЯ
ОБРАЗЫ
ЯЗЫКИ
зрительные
звуковые
вкусовые
обонятельные
осязательные
ЕСТЕСТВЕННЫЕ
ФОРМАЛЬНЫЕ
ЗНАКОВАЯ








ЗНАКОВАЯ И ОБРАЗНАЯ ИНФОРМАЦИЯИнформация ОБРАЗНАЯ ОБРАЗЫЯЗЫКИ зрительные звуковые вкусовые обонятельные осязательныеЕСТЕСТВЕННЫЕФОРМАЛЬНЫЕЗНАКОВАЯ

Слайд 11


ФОРМЫ ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ
Формальные ЯЗЫКИ

ЯЗЫК – это знаковый способ
представления информации


Естественные ЯЗЫКИ


Мимика и жесты

Графическая форма
представления
информации

✌ ? ? ? ☜ ☝ ? 

ФОРМЫ ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИФормальные ЯЗЫКИ ЯЗЫК – это знаковый способпредставления  информации Естественные ЯЗЫКИ ✍Мимика и жестыГрафическая формапредставления

Слайд 12

ЯЗЫК – это знаковый способ представления информации. Общение на языках -

это процесс передачи информации в знаковой форме.

ЕСТЕСТВЕННЫЕ

ФОРМАЛЬНЫЕ

ЯЗЫКИ

Устная речь

Письменность

фонемы

фонемы

фонемы

фонемы




символы

слова

фразы

Естественные (разговорные) языки имеют национальную принадлежность.
Примеры естественных языков: русский, английский, китайский, французский и пр. . . .

Формальный язык – это язык профессионального общения или определенной области знаний.


ЯЗЫКИ ЕСТЕСТВЕННЫЕ И ФОРМАЛЬНЫЕ

математическая символика
нотная грамота (язык музыки)
шахматная нотация
языки программирования
. . . . . . . . . . . . . . . . . . . . . . . . . . . .

ЯЗЫК – это знаковый способ представления информации. Общение на языках - это процесс передачи информации в знаковой

Слайд 13

ХРАНЕНИЕ
ИНФОРМАЦИИ
ПЕРЕДАЧА
ИНФОРМАЦИИ

М О З Г человека
носитель информации
Внутренняя память

Внешние носители
информации
Внешняя

память


Математические
вычисления

Логические
рассуждения

Поиск информации

КОДИРОВАНИЕ

СТРУКТУРИРОВАНИЕ


ИСТОЧНИК
ИНФОРМАЦИИ

К а н а л
передачи
информации

ПРИЕМНИК
ИНФОРМАЦИИ



помехи

КДУ

Кодирующее
устройство

ДКДУ

Декодирующее
устройство


ВИДЫ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ

О п е р и р о в а н и е
исходной информацией
по определенным
правилам с целью
получения новой
и н ф о р м а ц и и

ОБРАБОТКА
ИНФОРМАЦИИ

ХРАНЕНИЕИНФОРМАЦИИПЕРЕДАЧАИНФОРМАЦИИМ О З Г человека носитель информацииВнутренняя памятьВнешние носители информации Внешняя памятьМатематические вычисленияЛогические рассуждения Поиск информацииКОДИРОВАНИЕСТРУКТУРИРОВАНИЕИСТОЧНИКИНФОРМАЦИИК а

Слайд 14


АНАЛОГИЯ МЕЖДУ КОМПЬЮТЕРОМ И ЧЕЛОВЕКОМ

В памяти компьютера
х

р а н я т с я
данные и программы

Информационный обмен
в к о м п ь ю т е р е

Ввод

Вывод

ПАМЯТЬ

ПРОЦЕССОР

По своему назначению компьютер –
универсальное техническое средство
для работы человека с информацией

АНАЛОГИЯ МЕЖДУ КОМПЬЮТЕРОМ И ЧЕЛОВЕКОМ В  памяти  компьютера х р а н я т с

Слайд 15
ПЕРЕДАЧА ИНФОРМАЦИИ



ПЕРЕДАЧА ИНФОРМАЦИИ происходит между источником и

приемником по информационным каналам связи.

Источник информации

Приемник информации

Канал связи

Источник информации – это объект (субъект), который передает информацию приемнику

Приемник информации – это объект (субъект), который принимает информацию от источника

Канал связи – это среда, способ или техническое средство, позволяющее передать информацию от источника к приемнику


Источник
информации

Приемник
информации

Защита от шума (технические способы защиты каналов связи + избыточный код)

Шум (помехи)

ДКДУ – декодирующее устройство

КДУ – кодирующее устройство

КДУ

ДКДУ

Канал связи

ПЕРЕДАЧА ИНФОРМАЦИИ    ПЕРЕДАЧА ИНФОРМАЦИИ происходит между источником и приемником по информационным  каналам связи.Источник

Слайд 16Формы и способы передачи информации
Жест
Звук
Огонь
Бумага
Цвет
Осязание
Обоняние



Формы и способы передачи информации ЖестЗвукОгоньБумагаЦветОсязаниеОбоняние

Слайд 17ОБРАБОТКА ИНФОРМАЦИИ

ОБРАБОТКА ИНФОРМАЦИИ

Слайд 18Свойства информации

Свойства информации

Слайд 19Понятная - на определённом языке
Полезная – практическая ценность
Достоверная и актуальная –

средства массовой информации
Недостоверная – может стать причиной социальных потрясений.
Полная и точная – чтобы ориенитроваться в окружающем мире.




Понятная - на определённом языкеПолезная – практическая ценностьДостоверная и актуальная – средства массовой информацииНедостоверная – может стать

Слайд 20

ИНФОРМАТИВНОСТЬ СООБЩЕНИЙ
Получение любых знаний должно идти от известного

к неизвестному (новому), от простого к сложному. И тогда каждое новое сообщение будет понятным, а значит, будет нести новую информацию для человека.

НОВИЗНА

Информативное сообщение содержит новые сведения, ранее не известные человеку.
Пример неинформативного сообщения: «Дважды два – четыре»






ПОНЯТНОСТЬ

Принцип последовательности в обучении

Сообщение несет информацию для человека (является информативным), если заключенные в сообщении сведения являются для этого человека новыми и понятными.


Новые и понятные
сведения

?

Новые
знания

Логическая связь

ИНФОРМАТИВНОСТЬ СООБЩЕНИЙ   Получение любых знаний должно идти от известного к неизвестному (новому), от простого к

Слайд 21Знание
Незнание
Знание
Чем большим объёмом познаний обладает человек,
тем больше он ощущает

недостаток знаний

Увеличение границы незнания

ЗнаниеНезнание ЗнаниеЧем большим объёмом познаний обладает человек, тем больше он ощущает недостаток знанийУвеличение границы незнания

Слайд 22Уменьшение неопределённости знаний
Если некоторое сообщение приводит к уменьшению неопределённости знаний. То

такое сообщение содержит информацию.
Этот подход позволяет количественно измерить информацию.
Рассмотрим пример с бросанием монеты.
Уменьшение неопределённости знанийЕсли некоторое сообщение приводит к уменьшению неопределённости знаний. То такое сообщение содержит информацию.Этот подход позволяет

Слайд 23Монета может упасть в одно из двух положений, «орёл» или «решка»т.е.

события равновероятны.
Перед броском – существует неопределённость знаний.
После броска – она уменьшается в два раза
Чем больше количество возможных событий, тем больше начальная неопределённость и соответственно тем большее количество информации будет содержать сообщение о результатах опытов.
Монета может упасть в одно из двух положений, «орёл» или «решка»т.е. события равновероятны.Перед броском – существует неопределённость

Слайд 24Единицы измерения количества информации

Единицы измерения количества информации

Слайд 25АЛФАВИТ. МОЩНОСТЬ АЛФАВИТА
АЛФАВИТ – набор букв, знаков препинания, цифр, скобок

и др. символов, используемых в тексте. также включает и пробел.
МОЩНОСТЬ АЛФАВИТА ( N ) – полное число символов в алфавите.
МОЩНОСТЬ АЛФАВИТА из русских букв и дополнительных символов равна 54: 33 буквы + 10 цифр + 11 знаков препинания, скобки, пробел.
АЛФАВИТ. МОЩНОСТЬ АЛФАВИТА АЛФАВИТ – набор букв, знаков препинания, цифр, скобок и др. символов, используемых в тексте.

Слайд 26При алфавитном подходе считается, что каждый символ текста имеет определённый «информационный

вес».
Он зависит от мощности алфавита.
Наименьшее число символов в алфавите использует компьютер.
Это 0 и 1 – называют двоичным алфавитом.
Достаточный алфавит – 256 символов или 28
При алфавитном подходе считается, что каждый символ текста имеет определённый «информационный вес». Он зависит от мощности алфавита.Наименьшее

Слайд 27Информационный вес символа двоичного алфавита принят за единицу информации.
Такая единица названа

1 «БИТ».

С увеличением мощности алфавита увеличивается информационный вес символов этого алфавита.


Информационный вес символа двоичного алфавита принят за единицу информации.Такая единица названа 1 «БИТ».С увеличением мощности алфавита увеличивается

Слайд 28b – разрядность двоичного кода
2 = 2 1
4 = 2

2

8 = 2 3

16 = 2 4

N = 2 i

Разрядность двоичного кода –
это и есть информационный вес символа i
.

b – разрядность двоичного кода 2 = 2 1 4 = 2 2 8 = 2 3

Слайд 29
АЛФАВИТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ


МОЩНОСТЬ АЛФАВИТА
число символов в алфавите (его

размер)

N

ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации в одном символе

I = K × i

i


АЛФАВИТ – это вся совокупность символов, используемых в некотором
языке для представления информации
МОЩНОСТЬ АЛФАВИТА ( N ) – это число символов в алфавите.

2 i = N


ЧИСЛО СИМВОЛОВ В СООБЩЕНИИ

K

КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ

I

N

i

I

K

АЛФАВИТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИМОЩНОСТЬ АЛФАВИТА число символов в алфавите (его размер)NИНФОРМАЦИОННЫЙ ВЕС СИМВОЛАколичество информации в одном

Слайд 30




Число
равновероятных
в о з м о ж н ы

х
с о б ы т и й

N

К о л и ч е с т в о
и н ф о р м а ц и и
в сообщении о том,
что произошло одно из N
равновероятных событий

i

N = 2

i = 1 бит

Число символов в алфавите
(его размер) – МОЩНОСТЬ АЛФАВИТА

N

ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации
в одном символе

2 i = N


I = K × i

K

I

Число символов
в символьном сообщении

Количество информации
в символьном сообщении

i

i = 8 бит = 1 байт

1 байт

1 Кб

1 Мб

1 Гб

1024

1024

1024

ИНФОРМАЦИЯ

N = 256


КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ

Содержательный подход

Алфавитный подход

ИЗМЕРЕНИЕ

Число равновероятных в о з м о ж н ы х с о б ы т и

Слайд 31

ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ
СИМВОЛЬНЫЙ АЛФАВИТ КОМПЬЮТЕРА
русские (РУССКИЕ) буквы
латинские (LAT) буквы

цифры (1, 2, 3, 4, 5, 6, 7, 8, 9, 0)
математические знаки (+, -, *, /, ^, =)
прочие символы («», №, %, <, >, :, ;, #, &)
ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИСИМВОЛЬНЫЙ АЛФАВИТ КОМПЬЮТЕРА русские (РУССКИЕ) буквы латинские (LAT) буквы цифры (1, 2, 3, 4, 5,

Слайд 32
ИНФОРМАЦИОННЫЙ ОБЪЕМ ТЕКСТА

ЗАДАЧА

Книга, подготовленная с помощью компьютера, содержит 150 страниц. На каждой странице – 40 строк, в каждой строке – 60 символов (включая пробелы между словами). Каков объем информации в книге?

РЕШЕНИЕ
Мощность компьютерного алфавита равна 256, поэтому один символ несет 1 байт информации. Значит, страница книги содержит 40 × 60 = 2400 байт информации.
[кол-во символов в строке] × [кол-во строк] = [информационный объем страницы]
Объем всей информации в книге (в разных единицах):
[информационный объем страницы] × [кол-во страниц] = [информационный объем книги]
2400 × 150 = 360 000 байт / 1024 = 351,5625 Кбайт / 1024 = 0,34332275 Мбайт

ИНФОРМАЦИОННЫЙ ОБЪЕМ ТЕКСТА    ЗАДАЧА    Книга, подготовленная с помощью компьютера, содержит 150

Слайд 33За единицу количества информации принимается такое количество информации, которое содержит сообщение,

уменьшающее неопределённость знаний в два раза.
Такая единица названа «БИТ»
За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределённость знаний в два раза.Такая

Слайд 34При равновероятных событиях можно воспользоваться формулой Хартли, чтобы определить количество информации

I или посчитать количество возможных событий N
N = 2 i
В случае, если события имеют различные вероятности реализации, то будем применять вероятностный подход, и воспользуемся формулой Шеннона:

Н= P1log2(1/P1)+ P2log2(1/P2)+…+ PNlog2(1/PN)

При равновероятных событиях можно воспользоваться формулой Хартли, чтобы определить количество информации I или посчитать количество возможных событий

Слайд 35Для определения количество информации i, содержащейся в сообщении о том, что

произошло одно из N равновероятных событий, нужно решить показательное уравнение:
2 i = N или логарифмическую функцию: I = log2N – читается: логарифм от N по основанию 2.
Смысл выражения: это степень в которую нужно возвести 2, чтобы получилось N.

Для определения количество информации i, содержащейся в сообщении о том, что произошло одно из N равновероятных событий,

Слайд 36Например: вычислим количество информации в сообщении о том, ч то из

колоды карт случайным образом достали даму пик (в колоде 36 карт):
I = log236 = 5,16993 бит

Например: вычислим количество информации в сообщении о том, ч то из колоды карт случайным образом достали даму

Слайд 37
ПОКАЗАТЕЛЬНОЕ УРАВНЕНИЕ
N
i
Определение количества информации, содержащейся в сообщении о том,

что произошло одно из N равновероятных событий

N

i

Определение количества равновероятных событий N, если известно, сколько информации человек получил в сообщении о том, что произошло одно из этих событий.

2 i = N

ПОКАЗАТЕЛЬНОЕ УРАВНЕНИЕNi  Определение количества информации, содержащейся в сообщении о том, что произошло одно из N равновероятных

Слайд 38КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ

Задача 1. При угадывании

целого числа в диапазоне от 1 до N
было получено 6 бит информации . Чему равно N ?
Решение задачи 1. Значение N определяется из формулы N = 2 i .
После подстановки значения i = 6 получаем: N = 2 6 = 64.

Задача 2. В корзине лежат 16 шаров разного цвета . Сколько информации несет сообщение о том , что из корзины достали красный шар ?
Решение задачи 2: Вытаскивание из корзины любого из 16 шаров – события равновероятные. Поэтому для решения задачи применима формула 2 i = N. Здесь N = 16 – число шаров. Решая уравнение 2 I =16 получаем ответ: i = 4 бита

2 i = N

N

i

Количество равновероятных возможных событий

Количество информации в сообщении о том, что произошло одно из N равновероятных событий.

КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ   Задача 1.  При угадывании  целого числа в диапазоне от

Слайд 39СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ

Сообщение о том,

что произошло одно событие из двух равновероятных (неопределенность знания уменьшилась в два раза), несет 1 бит информации.


СОДЕРЖАТЕЛЬНЫЙ ПОДХОД к измерению информации заключается в том, что количество информации связывается с содержанием (смыслом) полученного человеком сообщения. Количество информации, заключенное в сообщении, тем больше, чем более оно пополняет наши знания (уменьшает неопределенность наших знаний).


8 цветных шаров в корзине – 8 равновероятных событий

Неопределенность знания о том, что из корзины может быть извлечен шар красного цвета, равна 8.

СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ    Сообщение о том, что произошло одно событие из двух

Слайд 40Вероятность
пусть при бросании несимметричной четырёхгранной пирамидки вероятность отдельных событий будет:
Р1=

1/2 (0,5), Р2= 1/4(0,25), Р3= 1/8(0,125), Р4= 1/8(0,125)
Тогда количество информации после реализации каждого можно рассчитать по:
2 i = 1/Р – или через логарифмическую функцию: i = log2(1/Р)
Вероятность пусть при бросании несимметричной четырёхгранной пирамидки вероятность отдельных событий будет:Р1= 1/2 (0,5), Р2= 1/4(0,25), Р3= 1/8(0,125),

Слайд 41i 1= log2(1/0.5) = log22 = 1бит
i 2= log2(1/0.25) =

log24= 2бита
i 3= log2(1/0.125) = log28= 3бита
i 4= log2(1/0.125) = log28= 3бита
Воспользуемся формулой Шеннона, чтобы посчитать среднюю информативность сообщения: Н= P1log2(1/P1)+ P2log2(1/P2)+…+ PNlog2(1/PN)
Н= 0,5*1+0,25*2+0,125*3+0,125*3=1.75 бита
Количество информации в сообщении зависит от вероятности этого события. Чем меньше вероятность, тем больше информации несёт сообщение о нём.

i 1= log2(1/0.5) = log22 = 1бит i 2= log2(1/0.25) = log24= 2битаi 3= log2(1/0.125) = log28=

Слайд 42При равновероятностных событиях формула Шеннона переходит в формулу Хартли: т.к. Р1=Р2=Р3…=1/N
i

= log2(1/N)= log24= 2 бита т.е.
при бросании симметричной пирамидки. Когда события равновероятны, мы получаем большее количество информации(2 бита), чем при бросании несимметричной(1,75), когда события неравновероятны.
При равновероятностных событиях формула Шеннона переходит в формулу Хартли: т.к. Р1=Р2=Р3…=1/Ni = log2(1/N)= log24= 2 бита т.е.при

Слайд 43

МЕТОД БИНАРНОГО ПОИСКА
Требуется угадать задуманное число из диапазона чисел от 1

до 8

8 вариантов возможных событий → 3 вопроса → 3 бита информации

МЕТОД БИНАРНОГО ПОИСКАТребуется угадать задуманное число из диапазона чисел от 1 до 88 вариантов возможных событий →

Что такое shareslide.ru?

Это сайт презентаций, где можно хранить и обмениваться своими презентациями, докладами, проектами, шаблонами в формате PowerPoint с другими пользователями. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами.


Для правообладателей

Яндекс.Метрика

Обратная связь

Email: Нажмите что бы посмотреть