• Название:

    холодов контрольная ТОИ


  • Размер: 0.03 Мб
  • Формат: ODT
  • или
  • Сообщить о нарушении / Abuse

Установите безопасный браузер



ТЕОРЕТИЧЕСКИЕ ЗАДАНИЯ.

1. Дать определение энтропии.

Информационная энтропия - мера хаотичности информации или мера внутренней неупорядоченности информационной системы. Энтропияувеличивается при хаотическом распределении информационных ресурсов и уменьшается при их упорядочении.

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита.При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

2. Как связаны между собой формулы Хартли и Шеннона?

Они связаны в теореме Шеннона и Хартли.Теорема Шеннона — Хартли в теории информации — применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом. Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочныхцифровых данных (то есть, информации), которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуетсяизвестной мощностью или мощностью спектральной плотности. Закон назван в честь Клода Шеннона и Ральфа Хартли.

3. Может ли энтропия быть отрицательной?

Да может, она образуется путем добавления приставки нег (от -негатив) к слову энтропия то есть Негоэнтропия.

4. В каких случаях энтропия равна нулю?

Нулевое значение энтропии соответствует случаям (р(0)=0,р(1)=1) и (р(0)=1,р(1)=0).

5. При каких условиях энтропия принимает максимальное значение?

-максимальное значение энтропия достигает когда обе вероятностиравнымежду собой и равны1/2.

6. В чем состоит правило сложения энтропий для независимых ис- точников?

Введены основные информационные характеристики недоопредел¨енных данных и установлено, что для недоопредел¨енных данных общего вида правило сложения энтропийH(X) + H(Y\X) = H(XY).

7. Что понимают под непрерывными системами передачи?

Линия связи, используемая для передачи сигналов от передатчика к приемнику. В системах электрической связи — это кабель или волновод, в системах радиосвязи — область пространства, в котором распространяются электромагнитные волны от передатчика к приемнику.

Непрерывноесообщение определяется непрерывной функцией времени. Непрерывные сообщения можно передавать дискретными методами. Для этого непрерывный сигнал (сообщение)подвергаютдискретизацииво времени иквантованиюпо уровню. На приёмной стороне выполняется восстановление непрерывной функции по дискретным отсчётам.

8. Как определить количество информации непрерывных сообщений?

Для количества информацииhttp://gendocs.ru/gendocs/docs/1/28/conv_10/file10_html_a7cbc9b.gifв непрерывномсообщениисправедливы следующие соотношения:

http://gendocs.ru/gendocs/docs/1/28/conv_10/file10_html_10d0ec44.gif
http://gendocs.ru/gendocs/docs/1/28/conv_10/file10_html_74a347cb.gif

http://gendocs.ru/gendocs/docs/1/28/conv_10/file10_html_29747368.gif
http://gendocs.ru/gendocs/docs/1/28/conv_10/file10_html_m19187848.gif,
http://gendocs.ru/gendocs/docs/1/28/conv_10/file10_html_5fdffc84.gif http://gendocs.ru/gendocs/docs/1/28/conv_10/file10_html_782ba8b0.gif http://gendocs.ru/gendocs/docs/1/28/conv_10/file10_html_1c417a13.gif

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

1. Бауэр Ф., Тод Р. Информатика. - М.: Мир, 1990.

2. Гаценко Б.В. Теория вероятностей. - М.: Наука, 1988.

3. Горяинов В.Т., Журавлев Л.Т., Тихонов В.И. Статистическая радио-техника: Примеры и задачи. - М.: Сов.радио, 1980.

4. Темников Ф.Е., Афонин В.А., Дмитриев В.И. Теоретические основы информационной техники. - М.: Энергия, 1971.

5. Юсупова Н.И., Гузаиров М.Б., Гончар Л.Е., Сметанина О.Н., Хиса-мутдинов Р.А. Защита информации в вычислительных системах: Учебное пособие / Уфа: УГАТУ, 2000.

6. Гмурман В.Е. Теория вероятностей и математическая статистика. Учебное пособие для вузов. – М.: Высшая школа, 2001.

7. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике: Учебное пособие для вузов. – М.: Высшая школа, 2001.