Измерение информации. Информационная характеристика источника двоичных сообщений презентация

Содержание


Презентации» Информатика» Измерение информации. Информационная характеристика источника двоичных сообщений
Измерение информации. Информационная характеристика источника двоичных сообщений.
 Лекция 2Введение
 Измерение – нахождение значения физической величины опытным путем с помощьюВведениеВведение
 В синтаксическом подходе выделяют:
 Структурная теория рассматривает дискретное строение массивов1.1. Синтаксические меры информации. Структурная теория.
 При использовании структурной теории (структурных1.1.1. Геометрическая мера
 Определение количества информации геометрическим методом сводится к измерению1.1.1. Геометрическая мера
 Пусть информация отражается полным комплексом XTN.
 Если отсчеты1.1.2. Комбинаторная мера
 	К этой мере целесообразно прибегать тогда, когда требуется1.1.2. Комбинаторная мера
 В комбинаторике рассматривают различные виды соединения из n1.1.2. Комбинаторная мера
 Количество информации в комбинаторной мере вычисляется как количество1.1.2. Комбинаторная мера
 Например, при сочетаниях из n=10 по m=0, 1,1.1.2. Комбинаторная мера
 Не всегда все возможные комбинации составляют действительные степени1.1.3. Аддитивная мера Хартли
 Из теории вероятностей:
 Проводится некий опыт, исход1.1.3. Аддитивная мера Хартли
 Из теории вероятностей:
 Меру случайности называют вероятностью1.1.3. Аддитивная мера Хартли
 Из теории вероятностей:
 Событие A называется независимым1.1.3. Аддитивная мера Хартли
 Из теории вероятностей:
 События A и B1.1.3. Аддитивная мера Хартли
 Из теории вероятностей:
 Суммой событий A и1.1.3. Аддитивная мера Хартли
 Из теории вероятностей:
 Совокупность событий составляют полную1.1.3. Аддитивная мера Хартли
 Рассмотрим 2 независимых опыта с числом равновероятных1.1.3. Аддитивная мера Хартли
 Искомая функция f(*) должна удовлетворять условию: f(N1)+f(N2)=f(N1N2)
1.1.3. Аддитивная мера Хартли
 В зависимости от выбора основания логарифма получаем1.1.3. Аддитивная мера Хартли
 Иной подход к выводу формулы Хартли:
 Пусть1.1.3. Аддитивная мера Хартли
 В случае, когда все N состояний равновероятны,1.2. Синтаксическая мера. Статистическая теория
 При статистическом (вероятностном) подходе информация рассматривается1.2. Синтаксическая мера. Статистическая теория
 Последовательность знаков с таким свойством называется1.2.1. Понятие энтропии
 Упорядоченным называется состояние системы, осуществляемое относительно малым числом1.2.1. Понятие энтропии
 Рассмотрим в качестве системы сосуд, разделенный проницаемой перегородкой1.2.1. Понятие энтропии1.2.1. Понятие энтропии
 Формула:
 K=N!/(N1!N2!)=N!/[N1!(N-N1)!]
 С увеличением числа молекул различия в1.2.1. Понятие энтропии1.2.1. Понятие энтропии
 Вероятность скопления N молекул газа в одной половине1.2.1. Понятие энтропии
 Второй закон термодинамики:
 Природа стремится от состояний менее1.2.1. Понятие энтропии
 Пример:
 Если взять 4-разрядные двоичные числа, то в1.2.1. Понятие энтропии
 Энтропия в термодинамике – количественная мера неупорядоченности, мера1.2.1. Понятие энтропии
 Статистический смысл второго закона (начала) термодинамики:
 Макроскопическое состояние1.2.1. Понятие энтропии
 В соответствии со вторым законом для замкнутого пространства1.2.1. Понятие энтропии
 Иная трактовка - энтропия как мера вероятности осуществления1.2.1. Понятие энтропии
 Третий смысл энтропии получается из понятия упорядоченности: коль1.2.2. Мера Шеннона
 Энтропия в теории информации – количественная мера неопределенности.
1.2.2. Мера Шеннона
 Главным свойством рассмотренных опытов является неопределенность, т.к. каждый1.2.2. Мера Шеннона
 Для опыта с N равновероятными исходами x1, x2,…xN1.2.2. Мера Шеннона
 Рассматривая количество информации как меру неопределенности такого опыта1.2.2. Мера Шеннона
 В общем случае для опыта с N неравновероятными1.2.2. Мера Шеннона
 H(X) – энтропия случайного опыта или просто энтропия.
1.2.2. Мера Шеннона
 Единице измерения энтропии 1 бит соответствует опыт, имеющий1.2.2. Мера Шеннона
 Сопоставление термодинамической формулы (Больцмана) и информационной (Хартли и1.2.3. Свойства энтропии
 H(X) – величина вещественная и неотрицательная
 H(X)min=0 когда1.2.3. Свойства энтропии1.2.4. Количество информации
 Условная энтропия HY(X) является мерой остаточной неопределенности.1.2.4. Количество информации
 Пусть источник сообщений (испытатель), наблюдая за случайными исходами,1.2.4. Количество информации
 Количество информации – числовая характеристика сигнала, позволяющая оценить1.2.5. Информационные характеристики некоторых языков
 Для латинского алфавита (26 букв) H=ld1.3. Семантическая и прагматическая меры информации
 Рассмотрим оценки, отвечающие как семантическому,1.3.1 Содержательность информации
 Оценка содержательности основана на математической логике, в которой1.3.1 Содержательность информации
 Логическая оценка информации:
 Отличие статистической оценки от логической1.3.2 Целесообразность информации
 А.А.Харткевичем предложена мера целесообразности информации, которая определяется как1.3.2 Целесообразность информации
 Мера целесообразности в общем виде может выть выражена1.3.2 Целесообразность информации1.3.2 Целесообразность информации
 Пусть имеется некоторое исходное состояние (точка 1), цель1.3.2 Целесообразность информации
 Предположим, что достигнута точка 2, и при этом



Слайды и текст этой презентации
Слайд 1
Описание слайда:
Измерение информации. Информационная характеристика источника двоичных сообщений. Лекция 2


Слайд 2
Описание слайда:
Введение Измерение – нахождение значения физической величины опытным путем с помощью специальных технических средств. Мера – средство измерения, предназначенное для воспроизведения заданного значения физической величины (например, гиря).

Слайд 3
Описание слайда:
Введение

Слайд 4
Описание слайда:
Введение В синтаксическом подходе выделяют: Структурная теория рассматривает дискретное строение массивов информации и их измерение простым подсчетом информационных элементов (квантов). Статистическая теория оперирует понятием энтропии как меры неопределенности, учитывающей вероятность появления и, следовательно информативность тех или иных сообщений.

Слайд 5
Описание слайда:
1.1. Синтаксические меры информации. Структурная теория. При использовании структурной теории (структурных мер) учитывается только дискретное строение данного информационного комплекса, в особенности количество содержащихся в нем информационных элементов (квантов информации), связей между ними или комбинацией из них.

Слайд 6
Описание слайда:
1.1.1. Геометрическая мера Определение количества информации геометрическим методом сводится к измерению длины лини, площади или объёма геометрической модели данного информационного комплекса в количестве дискретных единиц – квантов. Геометрическим методом определяется потенциальное (максимально возможное) количество информации или информационная ёмкость исследуемого комплекса.

Слайд 7
Описание слайда:
1.1.1. Геометрическая мера Пусть информация отражается полным комплексом XTN. Если отсчеты по осям X, T, N осуществляются соответственно через интервалы Δx, Δt, Δn соответственно, то непрерывные координаты распадаются на кванты, количество которых определяется как mx=X/Δx , mT=T/Δt , mN=N/Δn Тогда количество информации в полном комплексе XTN равно I=mxmTmN=XTN/(ΔxΔtΔn) [ед.]

Слайд 8
Описание слайда:
1.1.2. Комбинаторная мера К этой мере целесообразно прибегать тогда, когда требуется оценить возможность передачи информации при помощи различных комбинаций информационных элементов.

Слайд 9
Описание слайда:
1.1.2. Комбинаторная мера В комбинаторике рассматривают различные виды соединения из n элементов по m элементов, например: сочетания Cnm=n!/[m!(n-m)!] перестановки Pm=m! размещения Anm=n!/(n-m)!=CnmPm

Слайд 10
Описание слайда:
1.1.2. Комбинаторная мера Количество информации в комбинаторной мере вычисляется как количество комбинаций информационных элементов. Т.е. производится оценка структурного разнообразия, а не простой подсчет квантов, как в геометрической мере. Количество информации при том же количестве элементов теперь многократно увеличивается.

Слайд 11
Описание слайда:
1.1.2. Комбинаторная мера Например, при сочетаниях из n=10 по m=0, 1, 2, 3 …9, 10 элементов имеем C=10!/0!(10-0)!+10!/1!(10-1)!+…+10!/10!(10-10)!=1+10+45+120+210+252+210+120+45+10+1=1024 комбинации Перестановка тех же элементов дает: P=10!=3 682 800 комбинаций.

Слайд 12
Описание слайда:
1.1.2. Комбинаторная мера Не всегда все возможные комбинации составляют действительные степени свободы данной системы. Тогда расчет ведется по реализуемым комбинациям.

Слайд 13
Описание слайда:
1.1.3. Аддитивная мера Хартли Из теории вероятностей: Проводится некий опыт, исход которого называется событием. Например, при бросании монеты имеем 2 состояния: А – появление «орла», В – появление «решки». Разные события обладают разной степенью возможности, т.о., исход любого опыта – случайное событие.

Слайд 14
Описание слайда:
1.1.3. Аддитивная мера Хартли Из теории вероятностей: Меру случайности называют вероятностью и обозначают P(A). Если P(A)=1, то имеем достоверное событие, если P(A)=0 – невозможное событие; для всех остальных событий справедливо 0<P(A)<1.

Слайд 15
Описание слайда:
1.1.3. Аддитивная мера Хартли Из теории вероятностей: Событие A называется независимым от события B, если P(A) не зависит от того, произошло B или нет. В противном случае рассматривают условную вероятность P(A/B) – вероятность наступления события A при условии, что событие B уже произошло. Например, вероятность попадания снаряда в одну и ту же воронку.

Слайд 16
Описание слайда:
1.1.3. Аддитивная мера Хартли Из теории вероятностей: События A и B называют несовместными, если в результате опыта они никогда не могут появиться одновременно. Например, появление «орла» и «решки» одновременно при бросании монеты.

Слайд 17
Описание слайда:
1.1.3. Аддитивная мера Хартли Из теории вероятностей: Суммой событий A и B называется событие, состоящее в появлении хотя бы одного из них. Произведение событий A и B - событие, состоящее в появлении обоих.

Слайд 18
Описание слайда:
1.1.3. Аддитивная мера Хартли Из теории вероятностей: Совокупность событий составляют полную группу, если в результате опыта непременно должно произойти одно из них. Например, появление любой цифры от 1 до 6 при бросании игральной кости. Суммарная вероятность всех входящих в полную группу событий равна 1.

Слайд 19
Описание слайда:
1.1.3. Аддитивная мера Хартли Рассмотрим 2 независимых опыта с числом равновероятных исходов N1 и N2 Предположим, что в результате наблюдения за исходами этих опытов получено количество информации I1=f(N1) и I2=f(N2) Пусть оба опыта проводятся одновременно, тогда общее число исходов равно N=N1N2 При этом получаемое количество информации I=I1+I2=f(N1N2)

Слайд 20
Описание слайда:
1.1.3. Аддитивная мера Хартли Искомая функция f(*) должна удовлетворять условию: f(N1)+f(N2)=f(N1N2) Единственной функцией удовлетворяющей этому условию является f(*)=loga(*) Формула Р.Хартли (1928 г.) I=logaN

Слайд 21
Описание слайда:
1.1.3. Аддитивная мера Хартли В зависимости от выбора основания логарифма получаем следующие меры количества информации: a=e I=ln N [нит] – натуральные единицы a=10 I=lg N [дит] – десятичные единицы a=2 I=ld N [бит] –двоичные единицы (1 бит информации от английских слов binary digit)

Слайд 22
Описание слайда:
1.1.3. Аддитивная мера Хартли Иной подход к выводу формулы Хартли: Пусть передаваемое сообщение имеет вид числа, представленного в той или иной системы счисления. Одно и то же количество разрядов в разных системах счисления может передавать разное число состояний отображаемого объекта: N=mn , где N – число возможных отображаемых состояний; m – основание системы счисления; n – число разрядов в сообщении (длина разрядной сетки). Например, при m=100 и n=2 имеем 100 чисел от 00 до 99, а при m=2 и n=2 всего 4 числа: 00, 01, 10 и 11

Слайд 23
Описание слайда:
1.1.3. Аддитивная мера Хартли В случае, когда все N состояний равновероятны, получаем следующую формулу для оценки количества информации: I=logaN=nlogam Если a=m, то I=n, т.е. количество информации равно объему данных. Эту меру можно назвать компьютерной, т.к. при a=m=2 (двоичная система счисления) и n=1 (один разряд) имеем единицу измерения 1 бит, от которой производными являются байт, килобайт, мегабайт и т.д.

Слайд 24
Описание слайда:
1.2. Синтаксическая мера. Статистическая теория При статистическом (вероятностном) подходе информация рассматривается как сообщения о случайных событиях – исходах некоторого опыта, а количество информации ставится в зависимость от априорных вероятностей. При бросании кубика: вероятность встретить один знак (одну из цифр от 1 до 6) в произвольный момент времени совпадает с относительной частотой этого знака во всей последовательно знаков.

Слайд 25
Описание слайда:
1.2. Синтаксическая мера. Статистическая теория Последовательность знаков с таким свойством называется шенноновским сообщением. Поскольку сами знаки и содержащаяся в них информация известны заранее, существенным является сам факт, какой именно знак выбран.

Слайд 26
Описание слайда:
1.2.1. Понятие энтропии Упорядоченным называется состояние системы, осуществляемое относительно малым числом способов, а беспорядочным – состояние, реализуемое относительно большим числом способов.

Слайд 27
Описание слайда:
1.2.1. Понятие энтропии Рассмотрим в качестве системы сосуд, разделенный проницаемой перегородкой на две равные части и содержащий 4 молекулы (рис. 1.2)

Слайд 28
Описание слайда:
1.2.1. Понятие энтропии

Слайд 29
Описание слайда:
1.2.1. Понятие энтропии Формула: K=N!/(N1!N2!)=N!/[N1!(N-N1)!] С увеличением числа молекул различия в вероятностях будут резко возрастать (таблица 1.2)

Слайд 30
Описание слайда:
1.2.1. Понятие энтропии

Слайд 31
Описание слайда:
1.2.1. Понятие энтропии Вероятность скопления N молекул газа в одной половине сосуда объемом 1 см3 можно оценить следующим образом: для одной молекулы P1=0,5 (да/нет) при нормальных условиях в 1 см3 содержится L=2,71019 молекул газа (число Лошмидта) Тогда для N молекул имеем PN=P1N=0,51=2-1

Слайд 32
Описание слайда:
1.2.1. Понятие энтропии Второй закон термодинамики: Природа стремится от состояний менее вероятных к состояниям более вероятным (Л. Больцман).

Слайд 33
Описание слайда:
1.2.1. Понятие энтропии Пример: Если взять 4-разрядные двоичные числа, то в 6 комбинациях из 16 возможных имеем равное количество 0 и 1 (табл. 1.3)

Слайд 34
Описание слайда:
1.2.1. Понятие энтропии Энтропия в термодинамике – количественная мера неупорядоченности, мера вероятности осуществления какого-либо состояния системы. В физику понятие энтропии ввел Рудольф Клаузиус (19 в.). Л. Больцман использовал это понятие для определения меры необратимого рассеяния энергии, что позволило строго математически сформулировать второй закон термодинамики.

Слайд 35
Описание слайда:
1.2.1. Понятие энтропии Статистический смысл второго закона (начала) термодинамики: Макроскопическое состояние газа с некоторыми значениями параметров представляет собой смену микроскопических состояний, которые отличаются одно от другого нахождением одних и тех же молекул в разных частях объема и перераспределением энергии между этими молекулами.

Слайд 36
Описание слайда:
1.2.1. Понятие энтропии В соответствии со вторым законом для замкнутого пространства (изолированной системы) энтропия равна S=-1/NΣni ln(ni/N)=-Σpi ln pi где N-общее число молекул в системе; pi – вероятность того, что ni молекул имеют скорости vi+Δvi

Слайд 37
Описание слайда:
1.2.1. Понятие энтропии Иная трактовка - энтропия как мера вероятности осуществления какого-либо состояния системы: S=-Σpi ln pi =k lnW где pi – вероятность нахождения молекул в i-й ячейке фазового пространства; W – термодинамическая вероятность данного макроскопического состояния системы или число соответствующих состояний; k=1,3810-23 Дж/К – постоянная Больцмана.

Слайд 38
Описание слайда:
1.2.1. Понятие энтропии Третий смысл энтропии получается из понятия упорядоченности: коль скоро неупорядоченные состояния системы достижимы большим числом способов и поэтому более вероятны, то энтропия оказывается и мерой неупорядоченности системы.

Слайд 39
Описание слайда:
1.2.2. Мера Шеннона Энтропия в теории информации – количественная мера неопределенности. Трактовку ввел в 1948 г. Клод Шеннон

Слайд 40
Описание слайда:
1.2.2. Мера Шеннона Главным свойством рассмотренных опытов является неопределенность, т.к. каждый исход – случайное событие. Важно уметь численно оценить степень неопределенности, чтобы иметь возможность объективного сравнения различных опытов. Степень неопределенности опыта, имеющего N исходов, зависит от N: если при N=1 исход опыта вообще не является случайным, то по мере возрастания N предсказание того или иного исхода становится все более проблематичным.

Слайд 41
Описание слайда:
1.2.2. Мера Шеннона Для опыта с N равновероятными исходами x1, x2,…xN (полная группа случайных событий) таблица вероятностей имеет вид:

Слайд 42
Описание слайда:
1.2.2. Мера Шеннона Рассматривая количество информации как меру неопределенности такого опыта в соответствии с формулой Хартли имеем I= ld N [бит] При этом каждый исход имеет неопределенность Ik=(1/N) ld N=-(1/N) ld (1/N) [бит]

Слайд 43
Описание слайда:
1.2.2. Мера Шеннона В общем случае для опыта с N неравновероятными исходами: Мера неопределенности: H(X)=-p1 ld p1-p2ld p2 -…-pN ld pN [бит]

Слайд 44
Описание слайда:
1.2.2. Мера Шеннона H(X) – энтропия случайного опыта или просто энтропия. H(X)=-Σpi ld pi при Σpi=1 Это основное определение теории информации Шеннона. Количественно выражается как средняя функция каждого из возможных исходов опыта. Формула Хартли является предельным случаем формулы Шеннона.

Слайд 45
Описание слайда:
1.2.2. Мера Шеннона Единице измерения энтропии 1 бит соответствует опыт, имеющий N=2 равновероятных исходов H(X)=-1/2 ld ½-1/2 ld ½=1/2+1/2=1 [бит]

Слайд 46
Описание слайда:
1.2.2. Мера Шеннона Сопоставление термодинамической формулы (Больцмана) и информационной (Хартли и Шеннона) трактовок понятия энтропии приводит к фундаментальному соотношению фон Неймана, связывающему энергию и информацию: E0=k T ln2 [Дж/бит] Где E0 – количество энергии, требуемое для обработки 1 бита информации при заданном значении термодинамической температуры, k – постоянная Больцмана

Слайд 47
Описание слайда:
1.2.3. Свойства энтропии H(X) – величина вещественная и неотрицательная H(X)min=0 когда pk=1, pi=1 H(X)max=ld N когда pi=1/N H(X)min<H(X)<H(X)max H(X)>=H(f(X)) при любой функции f(X) Для двух независимых опытов X и Y, осуществляемых одновременно H(X,Y)=H(X)+H(Y) Для двух зависимых опытов X и Y, осуществляемых одновременно H(X,Y)=H(X)+HX(Y)=H(Y)+HY(X), где HX(Y) – условная энтропия Y

Слайд 48
Описание слайда:
1.2.3. Свойства энтропии

Слайд 49
Описание слайда:
1.2.4. Количество информации Условная энтропия HY(X) является мерой остаточной неопределенности.

Слайд 50
Описание слайда:
1.2.4. Количество информации Пусть источник сообщений (испытатель), наблюдая за случайными исходами, генерирует и передает исходное сообщение X, характеризуемое энтропией H(X). После прохождения через канал связи это сообщение преобразуется в принятое (конечное) сообщение Y, характеризуемое энтропией H(Y), которое и воспринимает получатель. Т.к. получатель не имеет прямого доступа к опыту, он оценивает его исходы только по сообщению Y. В результате для получателя неопределенность ситуации уменьшилась на величину HY(X) – энтропия сообщения X при условии, что получено сообщение Y. Разность H(X)-HY(X) называется неэнтропией (отрицательная энтропия), т.к. Определяет уменьшение энтропии за счет передачи сообщения, служит мерой количества информации при передаче сообщения.

Слайд 51
Описание слайда:
1.2.4. Количество информации Количество информации – числовая характеристика сигнала, позволяющая оценить исходную степень неопределенности, которая исчезает после выбора (получения) сообщения в виде данного сигнала. Количество информации – мера уменьшения неопределенности ситуации (случайной величины) X, возникающая вследствие того, что становятся известными исходы другой ситуации (случайной величины) Y, усредненная по исходу X и Y: I(X,Y)=H(X) –HY(X)

Слайд 52
Описание слайда:
1.2.5. Информационные характеристики некоторых языков Для латинского алфавита (26 букв) H=ld 26≈4,7 бит/букву Для кириллицы (33 буквы) H=ld 33≈5,05 бит/букву С учетом вероятности (частоты) появления букв в словах того или иного языка имеем

Слайд 53
Описание слайда:
1.3. Семантическая и прагматическая меры информации Рассмотрим оценки, отвечающие как семантическому, так и прагматическому подходам. Это обусловлено тем, что в инженерных применениях прагматические оценки сливаются с семантическими: не имеющие смысла сведения бесполезны, а бесполезные знания бессмысленны.

Слайд 54
Описание слайда:
1.3.1 Содержательность информации Оценка содержательности основана на математической логике, в которой логические функции истинности m(A) и имеют формальное сходство с функциями вероятностей наступления события P(A) и антисобытия cond-мера содержательности сообщения z

Слайд 55
Описание слайда:
1.3.1 Содержательность информации Логическая оценка информации: Отличие статистической оценки от логической состоит в том, что в первом случае учитываются вероятности реализации тех или иных событий (исходов опытов), а во втором – меры истинности, что приближает к оценке смысла информации.

Слайд 56
Описание слайда:
1.3.2 Целесообразность информации А.А.Харткевичем предложена мера целесообразности информации, которая определяется как изменение вероятности достижения цели при получении дополнительной информации. Полученная информация может не изменять вероятности достижения цели (ситуация не изменилась), тогда ее мера равна 0. Информация может уменьшать вероятность достижения цели (дезинформативность, ситуация ухудшилась), тогда ее мера отрицательна. Информация может увеличивать вероятность достижения цели (добротная информация, ситуация улучшилась), тогда ее мера положительна.

Слайд 57
Описание слайда:
1.3.2 Целесообразность информации Мера целесообразности в общем виде может выть выражена соотношением I=Ld p1-ld p0=ld(p1/p0) где p0, p1 – начальная (до получения информации) и конечная (после получения информации) вероятности достижения цели

Слайд 58
Описание слайда:
1.3.2 Целесообразность информации

Слайд 59
Описание слайда:
1.3.2 Целесообразность информации Пусть имеется некоторое исходное состояние (точка 1), цель (точка 3), и некоторое промежуточное состояние (точка2). Из точки 1 возможны 2 пути: 1-2 и 1-3. Если пути к цели априорно неизвестны, то можно предположить, что вероятности ее достижения по обоим путям равны, т.е. P(1-2)=P(1-3)=1/2

Слайд 60
Описание слайда:
1.3.2 Целесообразность информации Предположим, что достигнута точка 2, и при этом получена нейтральная информация: с равным успехом можно двигаться как по пути 2-3, так и по пути 2-4 Тогда I=ld[P(2-3)/P(1-2)]=ld(1/2)-ld(1/2)=0 Предположим, что достигнута точка 2, и при этом получена ложная информация: пять направлений из шести ведут по пути 2-4 и только одно – по пути 2-3. Тогда I=ld[P(2-3)/P(1-2)]=ld(1/6)-ld(1/2)=-ld 6+ld 2=-1,58 Предположим, что достигнута точка 2, и при этом получена благоприятная информация: два направления из шести ведут по ложному пути 2-4 и четыре направления – по пути 2-3 Тогда I=ld[P(2-3)/P(1-2)]=ld(4/6)-ld(1/2)=ld 4- ld 6 +ld 2=0,42


Скачать презентацию на тему Измерение информации. Информационная характеристика источника двоичных сообщений можно ниже:

Похожие презентации