sonyps4.ru

Теорема Шеннона и передача информации. Теоремы шеннона

Теорема Шеннона - Хартли в теории информации - применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом . Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных (то есть, информации), которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью или спектральной плотностью мощности . Закон назван в честь Клода Шеннона и Ральфа Хартли .

Утверждение теоремы

Рассматривая все возможные многоуровневые и многофазные методы кодирования, теорема Шеннона - Хартли утверждает, что пропускная способность канала C {\displaystyle C} , означающая теоретическую верхнюю границу скорости передачи данных, которые можно передать с данной средней мощностью сигнала S {\displaystyle S} через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности N {\displaystyle N} равна:

C = B log 2 ⁡ (1 + S N) , {\displaystyle C=B\log _{2}\left(1+{\frac {S}{N}}\right),} C {\displaystyle C} - пропускная способность канала, бит /с; B {\displaystyle B} - полоса пропускания канала, Гц ; S {\displaystyle S} - полная мощность сигнала над полосой пропускания, Вт или ²; N {\displaystyle N} - полная шумовая мощность над полосой пропускания, Вт или ²; S / N {\displaystyle S/N} - отношение мощности сигнала к шуму (SNR) .

История развития

В течение конца 1920-х гг. Гарри Найквист и Ральф Хартли разработали фундаментальные идеи, связанные с передачей информации, с помощью телеграфа как системы коммуникаций. В то время, это был прорыв, но науки как таковой не существовало. В 1940-х гг., Клод Шеннон ввёл понятие пропускной способности канала , которое базировалось на идеях Найквиста и Хартли, а затем сформулировал полную теорию передачи информации.

Критерий Найквиста

В 1927 году Найквист установил, что число независимых импульсов в единицу времени, которые могут быть переданы через телеграфный канал, ограничено удвоенной максимальной частотой пропускания канала (этой частоте соответствует чередующаяся последовательность нулей и единиц, остальные комбинации сигналов соответствуют более низким частотам)

f p ⩽ 2 B , {\displaystyle f_{p}\leqslant 2B,}

где f p {\displaystyle f_{p}} - частота импульса (имп/с), и B {\displaystyle B} - полоса пропускания (Гц).

Формула Хартли

Теоремы Шеннона для канала с шумами

Теоремы Шеннона для канала с шумами (теоремы Шеннона для передачи по каналу с шумами) связывают пропускную способность канала передачи информации и существование кода, который возможно использовать для передачи информации по каналу с ошибкой, стремящейся к нулю (при увеличении длины блока).

Если скорость передачи сообщений меньше пропускной способности канала связи

R < C , {\displaystyle R

то существуют коды и методы декодирования такие, что средняя и максимальная вероятности ошибки декодирования стремятся к нулю, когда длина блока стремится к бесконечности.

R > C , {\displaystyle R>C,}

то кода, на основе которого можно добиться сколько угодной малой вероятности возникновения ошибки, не существует.

Теорема Шеннона - Хартли

В данной теореме определено, что достичь максимальной скорости (бит/с) можно путём увеличения полосы пропускания и мощности сигнала и, в то же время, уменьшения шума.

Теорема Шеннона - Хартли ограничивает информационную скорость (бит/с) для заданной полосы пропускания и отношения «сигнал/шум». Для увеличения скорости необходимо увеличить уровень полезного сигнала, по отношению к уровню шума.

Если бы существовала бесконечная полоса пропускания, бесшумовой аналоговый канал, то можно было бы передать неограниченное количество безошибочных данных по ней за единицу времени. Реальные каналы имеют ограниченные размеры и в них всегда присутствует шум.

Удивительно, но не только ограничения полосы пропускания влияют на количество передаваемой информации. Если мы комбинируем шум и ограничения полосы пропускания, мы действительно видим, что есть предел количества информации, которую можно было передать, даже используя многоуровневые методы кодирования. В канале, который рассматривает теорема Шеннона - Хартли, шум и сигнал дополняют друг друга. Таким образом, приёмник воспринимает сигнал, который равен сумме сигналов, кодирующего нужную информацию и непрерывную случайную, которая представляет шум.

Это дополнение создает неуверенность относительно ценности оригинального сигнала. Если приёмник обладает информацией о вероятности ненужного сигнала, который создает шум, то можно восстановить информацию в оригинальном виде, рассматривая все возможные влияния шумового процесса. В случае теоремы Шеннона - Хартли шум, как таковой, произведен гауссовским процессом с некоторыми отклонениями в канале передачи. Такой канал называют совокупным белым гауссовским шумовым каналом , так как гауссовский шум является частью полезного сигнала. «Белый» подразумевает равное количество шума во всех частотах в пределах полосы пропускания канала. Такой шум может возникнуть при воздействии случайных источников энергии, а также быть связан с ошибками, возникшими при кодировании. Знание о вероятности возникновения гауссовского шума значительно упрощает определение полезного сигнала.

Значение теоремы

Пропускная способность канала и формула Хартли

Сравнивая пропускную способность канала и формулу Хартли, мы можем найти эффективное число M {\displaystyle M} различимых уровней:

2 B log 2 ⁡ M = B log 2 ⁡ (1 + S N) , {\displaystyle 2B\log _{2}M=B\log _{2}\left(1+{\frac {S}{N}}\right),} M = 1 + S N . {\displaystyle M={\sqrt {1+{\frac {S}{N}}}}.}

Взятие квадратного корня по сути возвращает отношение мощностей к отношению напряжений, таким образом число уровней приблизительно равно отношению среднеквадратичной амплитуды сигнала к шумовому стандартному отклонению. Это подобие в форме между пропускной способностью по Шеннону и формулой Хартли не стоит понимать буквально, что для безошибочной передачи достаточно M {\displaystyle M} уровней сигнала. Избыточное кодирование для устранения ошибок потребует большего числа уровней, но предельная скорость передачи данных, к которой можно приблизиться с кодированием, эквивалентна использованию того самого M {\displaystyle M} из формулы Хартли.

Ранее отмечалось, что при передаче сообщений по каналам связи могут возникать помехи, способные привести к искажению принимаемых знаков. Так, например, если вы попытаетесь передать речевое сообщению в ветреную погоду человеку, находящемуся от вас на значительном расстоянии, то оно может быть сильно искажено такой помехой как ветер. Вообще, передача сообщений при наличии помех является серьезной теоретической и практической задачей. Ее значимость возрастает в связи с повсеместным внедрением компьютерных телекоммуникаций, в которых помехи неизбежны.

При работе с кодированной информацией, искажаемой помехами, можно выделить следующие основные проблемы: установления самого факта того, что произошло искажение информации; выяснения того, в каком конкретно месте передаваемого текста это произошло; исправления ошибки - хотя бы с некоторой степенью достоверности.

Помехи в передачи информации - свойство отнюдь не только технических систем. Это - вполне обычное дело в быту. Пример был выше; другие примеры - разговор по телефону, в трубке которого "трещит", вождение автомобиля в тумане и т.д. Чаще всего человек вполне прилично справляется с каждой из указанных выше задач, хотя и не всегда отдает себе отчет, как он это делает (т.е. неалгоритмически, а исходя из каких-то ассоциативных связей). Известно, что естественный язык обладает большой избыточностью (в европейских языках - до 70%), чем объясняется большая помехоустойчивость сообщений, составленных из знаков алфавитов таких языков. Примером, иллюстрирующим устойчивость русского языка к помехам, может служить предложение "в словох всо глосноо зомононо боквой о". Здесь 26% символов "поражены", однако это не приводит к потере смысла. Таким образом, в данном случае избыточность является полезным свойством.

Например, каждый фрагмент текста ("предложение") передается трижды, и верным считается та пара фрагментов, которая полностью совпала. Однако, большая избыточность приводит к большим временным затратам при передаче информации и требует большого объема памяти при ее хранении. Отсюда следует задача устранения избыточности, или эффективного кодирования. Впервые теоретическое исследование такого рода проблем предпринял К.Шеннон.

Первая теорема Шеннона о передаче информации, которая называется также основной теоремой о кодировании при отсутствии помех, формулируется следующим образом:

При отсутствии помех передачи всегда возможен такой вариант кодирования сообщения, при котором среднее число знаков кода, приходящихся на один знак кодируемого алфавита, будет сколь угодно близко к отношению средних информаций на знак первичного и вторичного алфавитов.

Используя понятие избыточности кода, можно дать более короткую формулировку теоремы:

При отсутствии помех передачи всегда возможен такой вариант кодирования сообщения, при котором избыточность кода будет сколь угодно близкой к нулю.

Данные утверждения являются теоремами и, следовательно, должны доказываться, однако доказательства мы опустим. Для нас важно, что теорема открывает принципиальную возможность оптимального кодирования. Однако необходимо сознавать, что из самой теоремы никоим образом не следует, как такое кодирование осуществить практически - для этого должны привлекаться какие-то дополнительные соображения, что и станет предметом последующего обсуждения.

Таким образом, оптимальное кодирование принципиально возможно.

Наиболее важна для практики ситуация, когда М=2, то есть информацию кодируют лишь двумя сигналами 0 и 1.

Шенноном была рассмотрена ситуация, когда при кодировании сообщения в первичном алфавите учитывается различная вероятность появления знаков, а также равная вероятность появления знаков вторичного алфавита. Тогда:

К min (А, В)= I (A) / log 2 M= I (A) ,

здесь I (A) - средняя информация на знак первичного алфавита.

Ограничим себя ситуацией, когда M = 2, т.е. для представления кодов в линии связи используется лишь два типа сигналов - наиболее просто реализуемый вариант. Подобное кодирование называется двоичным. Знаки двоичного алфавита принято обозначать "0" и "1. Удобство двоичных кодов и в том, что каждый элементарный сигнал (0 или 1) несет в себе 1 бит информации (log 2 M = 1); тогда из (1), теоремы Шеннона:

и первая теорема Шеннона получает следующую интерпретацию:

При отсутствии помех передачи средняя длина двоичного кода может быть сколь угодно близкой к средней информации, приходящейся на знак первичного алфавита.

Определение количества переданной информации при двоичном кодировании сводится к простому подсчету числа импульсов (единиц) и пауз (нулей). При этом возникает проблема выделения из потока сигналов (последовательности импульсов и пауз) отдельных кодов. Приемное устройство фиксирует интенсивность и длительность сигналов. Элементарные сигналы (0 и 1) могут иметь одинаковые или разные длительности. Их количество в коде (длина кодовой цепочки), который ставится в соответствие знаку первичного алфавита, также может быть одинаковым (в этом случае код называется равномерным) или разным (неравномерный код). Наконец, коды могут строиться для каждого знака исходного алфавита (алфавитное кодирование) или для их комбинаций (кодирование блоков, слов). В результате при кодировании (алфавитном и словесном) возможны следующие варианты сочетаний:

Таблица 1. Варианты сочетаний

В случае использования неравномерного кодирования или сигналов разной длительности (ситуации (2), (3) и (4)) для отделения кода одного знака от другого между ними необходимо передавать специальный сигнал - временной разделитель (признак конца знака) или применять такие коды, которые оказываются уникальными, т.е. несовпадающими с частями других кодов. При равномерном кодировании одинаковыми по длительности сигналами (ситуация (1)) передачи специального разделителя не требуется, поскольку отделение одного кода от другого производится по общей длительности, которая для всех кодов оказывается одинаковой (или одинаковому числу бит при хранении).

Длительность двоичного элементарного импульса показывает, сколько времени требуется для передачи 1 бит информации. Очевидно, для передачи информации, в среднем приходящейся на знак первичного алфавита, необходимо время. Таким образом, задачу оптимизации кодирования можно сформулировать в иных терминах: построить такую систему кодирования, чтобы суммарная длительность кодов при передаче (или суммарное число кодов при хранении) данного сообщения была бы наименьшей.

Если имеется источник информации с энтропией Н(х) и канал связи с пропускной способностью С, то если С > H(X), то всегда можно закодировать достаточно длинное сообщение таким образом, что оно будет передано без задержек. Если же, напротив, С < H(X), то передача информации без задержек невозможна.

Первая теорема Шеннона декларирует возможность создания системы эффективного кодирования дискретных сообщений, у которой среднее количество двоичных символов на один символ сообщения асимптотически стремится к энтропии источника сообщений (в отсутствии помех).

Первая теорема Шеннона (переформулировка).

При отсутствии помех средняя длина двоичного кода может быть сколь угодно близкой к средней информации, приходящейся на знак первичного алфавита.

Какие же могут быть особенности вторичного алфавита при кодировании:

Элементарные коды 0 и 1 могут иметь одинаковые длительности (t0=t1) или разные (?).

Длина кода может быть одинаковой для всех знаков первичного алфавита (код равномерный) или различной (неравномерный код)

Коды могут строиться для отдельного знака первичного алфавита (алфавитное кодирование) или для их комбинаций (кодирование блоков, слов).

Теорема Шеннона - Хартли в теории информации - применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом . Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных (то есть, информации), которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью или спектральной плотностью мощности . Закон назван в честь Клода Шеннона и Ральфа Хартли .

Энциклопедичный YouTube

    1 / 3

    Формула Шеннона

    Информатика. Теория информации: Формула Шеннона. Центр онлайн-обучения «Фоксфорд»

    Теорема Котельникова. На языке родных осин!

    Субтитры

Утверждение теоремы

Рассматривая все возможные многоуровневые и многофазные методы кодирования, теорема Шеннона - Хартли утверждает, что пропускная способность канала C {\displaystyle C} , означающая теоретическую верхнюю границу скорости передачи данных, которые можно передать с данной средней мощностью сигнала S {\displaystyle S} через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности N {\displaystyle N} равна:

C = B log 2 ⁡ (1 + S N) , {\displaystyle C=B\log _{2}\left(1+{\frac {S}{N}}\right),} C {\displaystyle C} - пропускная способность канала, бит /с; B {\displaystyle B} - полоса пропускания канала, Гц ; S {\displaystyle S} - полная мощность сигнала над полосой пропускания, Вт или ²; N {\displaystyle N} - полная шумовая мощность над полосой пропускания, Вт или ²; S / N {\displaystyle S/N} - отношение мощности сигнала к шуму (SNR) .

История развития

В течение конца 1920-х гг. Гарри Найквист и Ральф Хартли разработали фундаментальные идеи, связанные с передачей информации, с помощью телеграфа как системы коммуникаций. В то время, это был прорыв, но науки как таковой не существовало. В 1940-х гг., Клод Шеннон ввёл понятие пропускной способности канала , которое базировалось на идеях Найквиста и Хартли, а затем сформулировал полную теорию передачи информации.

Критерий Найквиста

В 1927 году Найквист установил, что число независимых импульсов в единицу времени, которые могут быть переданы через телеграфный канал, ограничено удвоенной максимальной частотой пропускания канала (этой частоте соответствует чередующаяся последовательность нулей и единиц, остальные комбинации сигналов соответствуют более низким частотам)

f p ⩽ 2 B , {\displaystyle f_{p}\leqslant 2B,}

где f p {\displaystyle f_{p}} - частота импульса (имп/с), и B {\displaystyle B} - полоса пропускания (Гц).

Формула Хартли

Теоремы Шеннона для канала с шумами

Теоремы Шеннона для канала с шумами (теоремы Шеннона для передачи по каналу с шумами) связывают пропускную способность канала передачи информации и существование кода, который возможно использовать для передачи информации по каналу с ошибкой, стремящейся к нулю (при увеличении длины блока).

Если скорость передачи сообщений меньше пропускной способности канала связи

R < C , {\displaystyle R

то существуют коды и методы декодирования такие, что средняя и максимальная вероятности ошибки декодирования стремятся к нулю, когда длина блока стремится к бесконечности.

R > C , {\displaystyle R>C,}

то кода, на основе которого можно добиться сколько угодной малой вероятности возникновения ошибки, не существует.

Теорема Шеннона - Хартли

В данной теореме определено, что достичь максимальной скорости (бит/с) можно путём увеличения полосы пропускания и мощности сигнала и, в то же время, уменьшения шума.

Теорема Шеннона - Хартли ограничивает информационную скорость (бит/с) для заданной полосы пропускания и отношения «сигнал/шум». Для увеличения скорости необходимо увеличить уровень полезного сигнала, по отношению к уровню шума.

Если бы существовала бесконечная полоса пропускания, бесшумовой аналоговый канал, то можно было бы передать неограниченное количество безошибочных данных по ней за единицу времени. Реальные каналы имеют ограниченные размеры и в них всегда присутствует шум.

Удивительно, но не только ограничения полосы пропускания влияют на количество передаваемой информации. Если мы комбинируем шум и ограничения полосы пропускания, мы действительно видим, что есть предел количества информации, которую можно было передать, даже используя многоуровневые методы кодирования. В канале, который рассматривает теорема Шеннона - Хартли, шум и сигнал дополняют друг друга. Таким образом, приёмник воспринимает сигнал, который равен сумме сигналов, кодирующего нужную информацию и непрерывную случайную, которая представляет шум.

Это дополнение создает неуверенность относительно ценности оригинального сигнала. Если приёмник обладает информацией о вероятности ненужного сигнала, который создает шум, то можно восстановить информацию в оригинальном виде, рассматривая все возможные влияния шумового процесса. В случае теоремы Шеннона - Хартли шум, как таковой, произведен гауссовским процессом с некоторыми отклонениями в канале передачи. Такой канал называют совокупным белым гауссовским шумовым каналом , так как гауссовский шум является частью полезного сигнала. «Белый» подразумевает равное количество шума во всех частотах в пределах полосы пропускания канала. Такой шум может возникнуть при воздействии случайных источников энергии, а также быть связан с ошибками, возникшими при кодировании. Знание о вероятности возникновения гауссовского шума значительно упрощает определение полезного сигнала.

Значение теоремы

Пропускная способность канала и формула Хартли

Сравнивая пропускную способность канала и формулу Хартли, мы можем найти эффективное число M {\displaystyle M} различимых уровней:

2 B log 2 ⁡ M = B log 2 ⁡ (1 + S N) , {\displaystyle 2B\log _{2}M=B\log _{2}\left(1+{\frac {S}{N}}\right),} M = 1 + S N . {\displaystyle M={\sqrt {1+{\frac {S}{N}}}}.}

Взятие квадратного корня по сути возвращает отношение мощностей к отношению напряжений, таким образом число уровней приблизительно равно отношению среднеквадратичной амплитуды сигнала к шумовому стандартному отклонению. Это подобие в форме между пропускной способностью по Шеннону и формулой Хартли не стоит понимать буквально, что для безошибочной передачи достаточно M {\displaystyle M} уровней сигнала. Избыточное кодирование для устранения ошибок потребует большего числа уровней, но предельная скорость передачи данных, к которой можно приблизиться с кодированием, эквивалентна использованию того самого M {\displaystyle M} из формулы Хартли.

Ранее отмечалось, что при передаче сообщений по каналам связи могут возникать помехи, способные привести к искажению принимаемых знаков. Так, например, если вы попытаетесь в ветреную погоду передать речевое сообщению человеку, находящемуся от вас на значительном расстоянии, то оно может быть сильно искажено такой помехой, как ветер. Вообще, передача сообщений при наличии помех является серьезной теоретической и практической задачей. Ее значимость возрастает в связи с повсеместным внедрением компьютерных телекоммуникаций, в которых помехи неизбежны. При работе с кодированной информацией, искажаемой помехами, можно выделить следующие основные проблемы: установления самого факта того, что произошло искажение информации; выяснения того, в каком конкретно месте передаваемого текста это произошло; исправления ошибки, хотя бы с некоторой степенью достоверности.

Помехи в передачи информации - вполне обычное дело во всех сферах профессиональной деятельности и в быту. Один из примеров был приведен выше, другие примеры - разговор по телефону, в трубке которого «трещит», вождение автомобиля в тумане и т.д. Чаще всего человек вполне справляется с каждой из указанных выше задач, хотя и не всегда отдает себе отчет, как он это делает (т.е. неалгоритмически, а исходя из каких-то ассоциативных связей). Известно, что естественный язык обладает большойизбыточностью (в европейских языках - до 7%), чем объясняется большая помехоустойчивость сообщений, составленных из знаков алфавитов таких языков. Примером, иллюстрирующим устойчивость русского языка к помехам, может служить предложение «в словох всо глосноо зомононо боквой о». Здесь 26% символов «поражены», однако это не приводит к потере смысла. Таким образом, в данном случае избыточность является полезным свойством.

Избыточность могла бы быть использована и при передаче кодированных сообщений в технических системах. Например, каждый фрагмент текста («предложение») передается трижды, и верным считается та пара фрагментов, которая полностью совпала. Однако, большая избыточность приводит к большим временным затратам при передаче информации и требует большого объема памяти при ее хранении. Впервые теоретическое исследование эффективного кодирования предпринял К.Шеннон.

Первая теорема Шеннона декларирует возможность создания системы эффективного кодирования дискретных сообщений, у которой среднее число двоичных символов на один символ сообщения асимптотически стремится к энтропии источника сообщений (в отсутствии помех).

Задача эффективного кодирования описывается триадой:

Х = {X 4i } - кодирующее устройство - В.

Здесь X, В - соответственно входной и выходной алфавит. Под множеством х i можно понимать любые знаки (буквы, слова, предложения). В - множество, число элементов которого в случае кодирования знаков числами определяется основанием системы счисления (например, т = 2). Кодирующее устройство сопоставляет каждому сообщению х i из Х кодовую комбинацию, составленную из п i символов множества В. Ограничением данной задачи является отсутствие помех. Требуется оценить минимальную среднюю длину кодовой комбинации.


Для решения данной задачи должна быть известна вероятность Р i появления сообщения х i , которому соответствует определенное количество символов п i алфавита В. Тогда математическое ожидание количества символов из В определится следующим образом:

n cр = п i Р i (средняя величина).

Этому среднему числу символов алфавита В соответствует максимальная энтропия Нтаx = n ср log т. Для обеспечения передачи информации, содержащейся в сообщениях Х кодовыми комбинациями из В, должно выполняться условие H4mах ≥ Н(х), или п cр log т - Р i log Р i . В этом случае закодированное сообщение имеет избыточность п cр H(x) / log т, n min = H(x) / log т.

Коэффициент избыточности

К u = (H max – H (x )) / H max = (n cp – n min) / n cp

Выпишем эти значения в виде табл. 1.8. Имеем:

N min = H (x ) / log2 = 2,85, K u = (2,92 - 2,85) / 2,92 = 0,024,

т.е. код практически не имеет избыточности. Видно, что среднее число двоичных символов стремится к энтропии источника сообщений.

Таблица 1.8 Пример к первой теореме Шеннона

Теорема Шеннона - Хартли в теории информации - применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом . Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных (то есть, информации), которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью или спектральной плотностью мощности . Закон назван в честь Клода Шеннона и Ральфа Хартли .

Утверждение теоремы

Рассматривая все возможные многоуровневые и многофазные методы шифрования, теорема Шеннона - Хартли утверждает, что пропускная способность канала texvc , означающая теоретическую верхнюю границу скорости передачи данных, которые можно передать с данной средней мощностью сигнала Невозможно разобрать выражение (Выполняемый файл texvc через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности Невозможно разобрать выражение (Выполняемый файл texvc равна:

Невозможно разобрать выражение (Выполняемый файл texvc не найден; См. math/README - справку по настройке.): C=B\log_2\left(1+\frac{S}{N}\right), Невозможно разобрать выражение (Выполняемый файл texvc не найден; См. math/README - справку по настройке.): C - пропускная способность канала, бит /с; Невозможно разобрать выражение (Выполняемый файл texvc не найден; См. math/README - справку по настройке.): B - полоса пропускания канала, Гц ; Невозможно разобрать выражение (Выполняемый файл texvc не найден; См. math/README - справку по настройке.): S - полная мощность сигнала над полосой пропускания, Вт или ²; Невозможно разобрать выражение (Выполняемый файл texvc не найден; См. math/README - справку по настройке.): N - полная шумовая мощность над полосой пропускания, Вт или ²; Невозможно разобрать выражение (Выполняемый файл texvc не найден; См. math/README - справку по настройке.): S/N - отношение мощности сигнала к шуму (SNR) .

История развития

Напишите отзыв о статье "Теорема Шеннона - Хартли"

Отрывок, характеризующий Теорема Шеннона - Хартли

– Ну и где же мой новый друг? – расстроено спросила Мария. – Разве вы не надеялись его здесь найти?
Стелла никак не могла понять, что же такое могло произойти, что заставило бы Светило покинуть свою «солнечную» обитель?..
– Может что-то случилось? – задала совершенно глупый вопрос я.
– Ну, естественно – случилось! Иначе он бы никогда отсюда не ушёл.
– А может здесь тоже был тот злой человек? – испуганно спросила Мария.
Честно признаться, у меня тоже мелькнула такая мысль, но высказать её я не успела по той простой причине, что, ведя за собой троих малышей, появился Светило... Детишки были чем-то смертельно напуганы и, трясясь как осенние листики, боязливо жались к Светилу, боясь от него отойти хоть на шаг. Но детское любопытство вскоре явно пересилило страх, и, выглядывая из-за широкой спины своего защитника, они удивлённо рассматривали нашу необычную тройку... Что же касалось нас, то мы, забыв даже поздороваться, вероятно, с ещё большим любопытством уставились на малышей, пытаясь сообразить, откуда они могли взяться в «нижнем астрале», и что же всё-таки такое здесь произошло...
– Здравствуйте, милые... Не надо вам было сюда приходить. Что-то нехорошее здесь происходит... – ласково поздоровался Светило.
– Ну, хорошего здесь вряд ли можно было бы ожидать вообще... – грустно усмехнувшись, прокомментировала Стелла. – А как же получилось, что ты ушёл?!... Ведь сюда любой «плохой» мог за это время явиться, и занять всё это...
– Что ж, тогда ты бы обратно всё «свернула»... – просто ответил Светило.
Тут уж мы обе на него удивлённо уставились – это было самое подходящее слово, которое можно было употребить, называя данный процесс. Но откуда его мог знать Светило?!. Он ведь ничего в этом не понимал!.. Или понимал, но ничего об этом не говорил?...
– За это время много воды утекло, милые... – как бы отвечая на наши мысли, спокойно произнёс он. – Я пытаюсь здесь выжить, и с вашей помощью начинаю кое-что понимать. А что привожу кого, так не могу я один такой красотой наслаждаться, когда всего лишь за стеной такие малые в жутком ужасе трясутся... Не для меня всё это, если я не могу помочь...
Я взглянула на Стеллу – она выглядела очень гордой, и, конечно же, была права. Не напрасно она создавала для него этот чудесный мир – Светило по-настоящему его стоил. Но он сам, как большое дитя, этого совершенно не понимал. Просто его сердце было слишком большим и добрым, и не желало принимать помощь, если не могло делиться ею с кем-то другим...
– А как они здесь оказались? – показывая на испуганных малышей, спросила Стелла.
– О, это длинная история. Я время от времени их навещал, они к отцу с матерью с верхнего «этажа» приходили... Иногда к себе забирал, чтобы от беды уберечь. Они же малые, не понимали, насколько это опасно. Мама с папой были здесь, вот им и казалось, что всё хорошо... А я всё время боялся, что опасность поймут, когда уже поздно будет... Вот и случилось только что это же самое «поздно»...
– А что же такого их родители натворили, что попали сюда? И почему они все «ушли» одновременно? Они погибли что ли? – не могла остановиться, сердобольная Стелла.
– Чтобы спасти своих малышей, их родителям пришлось убить других людей... За это здесь и платили посмертно. Как и все мы... Но сейчас их уже и здесь больше нет... Их нигде нет более... – очень грустно прошептал Светило.
– Как – нет нигде? А что же случилось? Они что – и здесь сумели погибнуть?! Как же такое случилось?.. – удивилась Стелла.
Светило кивнул.
– Их убил человек, если «это» можно назвать человеком... Он чудовище... Я пытаюсь найти его... чтобы уничтожить.
Мы сразу же дружно уставились на Марию. Опять это был какой-то страшный человек, и опять он убивал... Видимо, это был тот же самый, кто убил её Дина.
– Вот эта девочка, её зовут Мария, потеряла свою единственную защиту, своего друга, которого тоже убил «человек». Я думаю, это тот же самый. Как же мы можем найти его? Ты знаешь?
– Он сам придёт... – тихо ответил Светило, и указал на жмущихся к нему малышей. – Он придёт за ними... Он их случайно отпустил, я ему помешал.
У нас со Стеллой поползли по спинам большие-пребольшие, шипастые мурашки...
Это звучало зловеще... А мы ещё не были достаточно взрослыми, чтобы кого-то так просто уничтожать, и даже не знали – сможем ли... Это в книгах всё очень просто – хорошие герои побеждают чудовищ... А вот в реальности всё гораздо сложнее. И даже если ты уверен, что это – зло, чтобы побеждать его, нужна очень большая смелость... Мы знали, как делать добро, что тоже не все умеют... А вот, как забирать чью-то жизнь, даже самую скверную, научиться ни Стелле, ни мне, пока ещё как-то не пришлось... И не попробовав такое, мы не могли быть совершенно уверены, что та же самая наша «смелость» в самый нужный момент нас не подведёт.
Я даже не заметила, что всё это время Светило очень серьёзно за нами наблюдает. И, конечно же, наши растерянные рожицы ему говорили обо всех «колебаниях» и «страхах» лучше, чем любая, даже самая длинная исповедь...
– Вы правы, милые – не боятся убить лишь глупцы... либо изверги... А нормальный человек к этому никогда не привыкнет... особенно, если даже ещё не пробовал никогда. Но вам не придётся пробовать. Я не допущу... Потому что, даже если вы, праведно кого-то защищая, мстить будете, оно сожжёт ваши души... И уже больше никогда прежними не будете... Вы уж поверьте мне.
Вдруг прямо за стеной послышался жуткий хохот, своей дикостью леденящий душу... Малыши взвизгнули, и все разом бухнулись на пол. Стелла лихорадочно пыталась закрыть пещеру своей защитой, но, видимо от сильного волнения, у неё ничего не получалось... Мария стояла не двигаясь, белая, как смерть, и было видно, что к ней возвращалось состояние недавно испытанного шока.
– Это он... – в ужасе прошептала девчушка. – Это он убил Дина... И он убьёт всех нас...
– Ну это мы ещё посмотрим. – нарочито, очень уверенно произнёс Светило. – Не таких видели! Держись, девочка Мария.
Хохот продолжался. И я вдруг очень чётко поняла, что так не мог смеяться человек! Даже самый «нижнеастральный»... Что-то в этом всём было неправильно, что-то не сходилось... Это было больше похоже на фарс. На какой-то фальшивый спектакль, с очень страшным, смертельным концом... И тут наконец-то меня «озарило» – он не был тем человеком, которым выглядел!!! Это была всего лишь человеческая личина, а нутро было страшное, чужое... И, была не была, – я решила попробовать с ним бороться. Но, если бы знала исход – наверное, не пробовала бы никогда...

Загрузка...