ЕМКОСТЬ КАНАЛА СВЯЗИ
Скорость передачи информации, а ее предельно допустимое значение для данного канала называют емкостью канала, относится к фундаментальным понятиям теории связи, она служит одной из главных характеристик канала передачи информации.
Оценка скорости передачи информации и предельных возможностей канала связи представляет большой практический и теоретический интерес.Рассматривая процесс передачи информации в общих чертах, можно предположить, что основными факторами, ограничивающими скорость передачи информации, являются полоса пропускания F и уровень помех.
Существует фундаментальная теорема о выборках, которая доказывает, что сигнал, не содержащий в своем спектре частот выше значения F, может представляться 2F независимыми значениями в секунду, а совокупность значений, отстоящих друг от друга на Т секунд, определяет непрерывный сигнал полностью. Заметим, что выборкой является отсчет амплитуды сигнала в определенный момент (на рис. 6.12, а можно увидеть эти выборки, проводимые через интервал 1/2 F).
*S(t)
ii)i j і і і і *.
Рис. 6.12. Представление непрерывного сигнала в виде дискретных отсчетов (выборок), взятых через интервал 1/2F (а) и квантованных по амплитуде (б)
+І г*
1/2F
t
б
а
о
Термин выборки происходит от английского слова sample (в переводе — образец, модель, проба), теорему о выборках называют также теоремой отсчетов.
Эта теорема позволяет на интервале Т заменить непрерывный сигнал с ограниченным спектром последовательностью его дискретных значений, причем их нужно не бесконечное число, а вполне
определенное, равное 2FT. Уровень шумов (помех) не позволяет точно определить амплитуду сигнала и в этом смысле вносит некоторую неопределенность в значение отсчетов сигнала.
Максимально возможная скорость передачи информации по каналу связи при фиксированный ограничениях называется емкостью канала, обозначается буквой С и имеет размерность бит/с.
Рассмотрим соотношение для емкости канала связи, являющееся фундаментальным соотношением в теории связи. Оно позволяет понять некоторые принципиальные зависимости при передаче информации вообще.
Напомним, что количество информации /, снимающее неопределенность о состоянии объекта с L равновероятными состояниями, рассчитывается по формуле
J = log/.
Основание логарифма здесь не имеет значения. Если основание равно 2, то единицей измерения количества информации оказывается бит.
Определим количество различных сообщений, которое можно составить из п элементов, принимающих любые из т различных фиксированных состояний. Из ансамбля п элементов, каждый из которых может находиться в одном из т фиксированных состояний, можно составить т " различных комбинаций, т. е. L = тп. Тогда:
I = log тп = п log т.
При полосе F наибольшее число отсчетов сигнала равно 2F в единицу времени или 2/Т за время Т, т. е. п = 2FT.
Если бы шума не существовало, то число дискретных уровней сигнала было бы бесконечным. В случае наличия шума последний определяет степень различимости отдельных уровней амплитуды сигнала. Так как мощность является усредненной характеристикой амплитуды, число различимых уровней сигнала по мощности равно (Рс + Рш)/ Рш, а по амплитуде соответственно
т- ¦\J( PC +рш )! рт gt; ще Рс — мощность сигнала; Ли— мощность шума. Тогда емкость канала рассчитывается по формуле
Итак, емкость канала ограничивается двумя величинами: шириной полосы канала и шумом.
Приведенное соотношение известно как формула Хартли — Шеннона и считается основной в теории информации.Полоса частот и мощность сигнала входят в формулу таким образом, что да я С — const при сужении полосы необходимо увеличивать мощность сигнала, и наоборот.
Емкость канала является максимальной величиной скорости. Чтобы достигнуть такой скорости передачи, информация должна быть закодирована наиболее эффективным образом. Утверждение, что такое кодирование возможно, является важнейшим результатом созданной К.Э. Шенноном теории информации. Шеннон доказал принципиальную возможность существования такого эффективного кодирования, не определив, однако, конкретный путей его реализации. (Отметим, что на практике инженеры часто говорят о емкости канала, подразумевая под этим реальную, а не потенциальную скорость передачи.)
Эффективность систем связи характеризуется параметром, равным скорости передачи информации R на единицу ширины полосы F, т. е. R/F. Для иллюстрации существующих возможностей по созданию эффективных систем связи на рис. 6.13 приведе -
Рис. 6.13. Кривые зависимости эффективности цифровых систем связи при различных модуляциях:
1 — граница Шеннона; 2 — М-ичная фазовая модуляция;3 — М-ичная амплитудная модуляция; 4 — М-ичная частотная модуляция
ны графики зависимости эффективности передачи информации при различных видах М-ичной дискретной амплитудной модуляции (AM), частотной (ЧМ) и фазовой (ФМ) (кроме бинарной модуляции используется также модуляция с 4, 8, 16 и даже с 32 положениями модулируемого параметра) от отношения энергии одного бита к спектральной плотности мощности шума (Ео / No). Для сравнения показана также граница Шеннона.
Сравнение кривых показывает, в частности, что при неизменном отношении "сигнал — шум" наиболее популярный вид модуляции 4ФМ в три раза хуже потенциально достижимого. Из сравнения кривых можно сделать более общие выводы: наиболее эффективной оказывается передача с фазовой дискретной модуляцией; современные методы кодирования и модуляции еще весьма далеки от совершенства.