Канал связи обладает пропускной способностью. Пропускная способность каналов связи. Пропускная способность однородного симметричного канала связи

В любой системе связи через канал передается информация. Скорость передачи информации была определена в § 2.9. Эта скорость зависит не только от самого канала, но и от свойств подаваемого на его вход сигнала и поэтому не может характеризовать канал как средство передачи информации. Попытаемся найти способ оценки способности канала передавать информацию. Рассмотрим вначале дискретный канал, через который передаются в единицу времени символов из алфавита объемом При передаче каждого символа в среднем по каналу проходит следующее количество информации [см. (2.135) и (2.140)]:

где случайные символы на входе и выходе канала. Из четырех фигурирующих здесь энтропий -собственная информация передаваемого символа - определяется источником дискретного сигнала и не зависит от свойств канала. Остальные три энтропии в общем случае зависят как от источника сигнала, так и от канала.

Представим себе, что на вход канала можно подавать символы от разных источников, характеризуемых различными распределениями вероятностей (но, конечно, при тех же значениях . Для каждого такого источника количество информации, переданной по каналу, принимает свое значение. Максимальное количество переданной информации, взятое по всевозможным

источникам входного сигнала, характеризует сам канал и называется пропускной способностью канала. В расчете на один символ

где максимизация производится по всем многомерным распределениям вероятностей Можно также определить пропускную способность С канала в расчете на единицу времени (секунду):

Последнее равенство следует из аддитивности энтропии. В дальнейшем везде, где это особо не оговорено, будем под пропускной способностью понимать пропускную способность в расчете на секунду.

В качестве примера вычислим пропускную способность симметричного канала без памяти, для которого переходные вероятности заданы формулой (3.36). Согласно (3.52) и (3.53)

Величина в данном случае легко вычисляется, поскольку условная переходная вероятность принимает только два значения: , если еслн Первое из этих значений возникает с вероятностью а второе с вероятностью К тому же, поскольку рассматривается канал без памяти, результаты приема отдельных символов независимы друг от друга. Поэтому

Следовательно, не зависит от распределения вероятности В, а определяется только переходными вероятностями канала. Это свойство сохраняется для всех моделей канала с аддитивным шумом.

Подставив (3.56) в (3.55), получим

Поскольку в правой части только член зависит от распределения вероятностей то максимизировать необходимо его. Максимальное значение согласно (2.123) равно и реализуется оно тогда, когда все принятые символы равновероятны и независимы друг от друга. Легко убедиться, что это условие удовлетворяется, еслн входные символы равновероятны и независимы, поскольку

При этом и

Отсюда пропускная способность в расчете на секунду

Для двоичного симметричного канала пропускная способность в двоичных единицах в секунду

Зависимость от согласно (3.59) показана на рис. 3.9.

При пропускная способность двоичного канала поскольку при такой вероятности ошибки последовательность выходных двоичных символов можно получить, совсем не передавая сигналы по каналу, а выбирая их наугад (например, по результатам бросания монеты), т. е. при последовательности на выходе и входе канала независимы. Случай называют обрывом канала. То, что пропускная способность при в двоичном канале такая же, как при (канал без шумов), объясняется тем, что при достаточно все выходные символы инвертировать (т. е. заменить 0 на 1 и 1 на 0), чтобы правильно восстановить входной сигнал.

Рис. 3.9. Зависимость пропускной способности двоичного симметричного канала без памяти от вероятности ошибочного приема символа

Пропускная способность непрерывного канала вычисляется аналогично. Пусть, например, канал имеет ограниченную полосу пропускания шириной Тогда сигналы на входе и выходе канала по теореме Котельникова определяются своими отсчетами, взятыми через интервал и поэтому информация, проходящая по каналу за некоторое время равна сумме количеств информации, переданных за каждый такой отсчет. Пропускная способность канала на один такой отсчет

Здесь случайные величины - сечения процессов на входе и выходе канала и максимум берется по всем допустимым входным сигналам, т. е. по всем распределениям .

Пропускная способность С определяется как сумма значений Сотсч» взятая по всем отсчетам за секунду. При этом, разумеется, дифференциальные энтропии в (3.60) должны вычисляться с учетом вероятностных связей между отсчетами.

Вычислим, например, пропускную способность непрерывного канала без памяти с аддитивным белым гауссовским шумом, имеющим полосу пропускания шириной если средняя мощность сигнала (дисперсия не превышает заданной величины Мощность (дисперсию) шума в полосе обозначим Отсчеты входного и выходного сигналов, а также шума связаны равенством

н так как имеет нормальное распределение с нулевым математическим ожиданием, то и условная плотность вероятности при фиксированном и будет также нормальной - с математическим ожиданием и и дисперсией Найдем пропускную способность на один отсчет:

Согласно (2.152) дифференциальная энтропия нормального распределения не зависит от математического ожидания и равна Поэтому для нахождения нужно найти такую плотность распределения при которой максимизируется Из (3.61), учитывая, что независимые случайные величины, имеем

Таким образом, дисперсия фиксирована, так как заданы. Согласно (2.153), при фиксированной дисперсии максимальная дифференциальная энтропия обеспечивается нормальным распределением. Из (3.61) видно, что при нормальном одномерном распределении распределение будет также нормальным и, следовательно,

Переходя к пропускной способности С в расчете на секунду, заметим, что информация, переданная за несколько отсчетов, максимальна в том случае, когда отсчеты сигналов независимы. Этого можно достичь, если сигнал выбрать так, чтобы его спектральная плотность была равномерной в полосе Как было показано в отсчеты, разделенные интервалами, кратными взаимно некоррелированны, а для гауссовских величин некоррелированность означает независимость.

Поэтому пропускную способность С (за секунду) можно найти, сложив пропускные способности (3.63) для независимых отсчетов:

Она реализуется, если гауссовский процесс с равномерной спектральной плотностью в полосе частот (квазибелый шум).

Из формулы (3.64) видно, что если бы мощность сигнала не была ограничена, то пропускная способность была бы бесконечной. Пропускная способность равна нулю, если отношение сигнал/шум в канале равно нулю. С ростом этого отношения пропускная способность увеличивается неограниченно, однако медленно, вследствие логарифмической зависимости.

Соотношение (3.64) часто называют формулой Шеннона. Эта формула имеет важное значение в теории информации, так как определяет зависимость пропускной способности рассматриваемого непрерывного канала от таких его технических характеристик, как ширина полосы пропускания и отношение сигна/шум. Формула Шеннона указывает на возможность обмена полосы пропускания на мощность сигнала и наоборот. Однако поскольку С зависит от линейно, а от по логарифмическому закону, компенсировать возможное сокращение полосы пропускания увеличением мощности сигнала, как правило, нецелесообразно. Более эффективным является обратный обмен мощности сигнала на полосу пропускания.

С течением технического прогресса расширились и возможности интернета. Однако для того, чтобы пользователь мог ими воспользоваться в полной мере, необходимо стабильное и высокоскоростное соединение. В первую очередь оно зависит от пропускной способности каналов связи. Поэтому необходимо выяснить, как измерить скорость передачи данных и какие факторы на нее влияют.

Что такое пропускная способность каналов связи?

Для того чтобы ознакомиться и понять новый термин, нужно знать, что представляет собой канал связи. Если говорить простым языком, каналы связи - это устройства и средства, благодаря которым осуществляется передача на расстоянии. К примеру, связь между компьютерами осуществляется благодаря оптоволоконным и кабельным сетям. Кроме того, распространен способ связи по радиоканалу (компьютер, подключенный к модему или же сети Wi-Fi).

Пропускной же способностью называют максимальную скорость передачи информации за одну определенную единицу времени.

Обычно для обозначения пропускной способности используют следующие единицы:

Измерение пропускной способности

Измерение пропускной способности - достаточно важная операция. Она осуществляется для того, чтобы узнать точную скорость интернет-соединения. Измерение можно осуществить с помощью следующих действий:

  • Наиболее простое - загрузка объемного файла и отправление его на другой конец. Недостатком является то, что невозможно определить точность измерения.
  • Кроме того, можно воспользоваться ресурсом speedtest.net. Сервис позволяет измерить ширину интернет-канала, «ведущего» к серверу. Однако для целостного измерения этот способ также не подходит, сервис дает данные обо всей линии до сервера, а не о конкретном канале связи. Кроме того, подвергаемый измерению объект не имеет выхода в глобальную сеть Интернет.
  • Оптимальным решением для измерения станет клиент-серверная утилита Iperf. Она позволяет измерить время, количество переданных данных. После завершения операции программа предоставляет пользователю отчет.

Благодаря вышеперечисленным способам, можно без особых проблем измерить реальную скорость интернет-соединения. Если показания не удовлетворяют текущие потребности, то, возможно, нужно задуматься о смене провайдера.

Расчет пропускной способности

Для того чтобы найти и рассчитать пропускную способность линии связи, необходимо воспользоваться теоремой Шеннона-Хартли. Она гласит: найти пропускную способность канала (линии) связи можно, рассчитав взаимную связь между потенциальной пропускной способностью, а также полосой пропускания линии связи. Формула для расчета пропускной способности выглядит следующим образом:

I=Glog 2 (1+A s /A n).

В данной формуле каждый элемент имеет свое значение:

  • I - обозначает параметр максимальной пропускной способности.
  • G - параметр ширины полосы, предназначенной для пропускания сигнала.
  • A s / A n - соотношение шума и сигнала.

Теорема Шеннона-Хартли позволяет сказать, что для уменьшения внешних шумов или же увеличения силы сигнала лучше всего использовать широкий кабель для передачи данных.

Способы передачи сигнала

На сегодняшний день существует три основных способа передачи сигнала между компьютерами:

  • Передача по радиосетям.
  • Передача данных по кабелю.
  • Передача данных через оптоволоконные соединения.

Каждый из этих способов имеет индивидуальные характеристики каналов связи, речь о которых пойдет ниже.

К преимуществам передачи информации через радиоканалы можно отнести: универсальность использования, простоту монтажа и настройки такого оборудования. Как правило, для получения и способом используется радиопередатчик. Он может представлять собой модем для компьютера или же Wi-Fi адаптер.

Недостатками такого способа передачи можно назвать нестабильную и сравнительно низкую скорость, большую зависимость от наличия радиовышек, а также дороговизну использования (мобильный интернет практически в два раза дороже «стационарного»).

Плюсами передачи данных по кабелю являются: надежность, простота эксплуатации и обслуживания. Информация передается посредством электрического тока. Условно говоря, ток под определенным напряжением перемещается из пункта А в пункт Б. А позже преобразуется в информацию. Провода отлично выдерживают перепады температур, сгибания и механическое воздействие. К минусам можно отнести нестабильную скорость, а также ухудшение соединения из-за дождя или грозы.

Пожалуй, самой совершенной на данный момент технологией по передаче данных является использование оптоволоконного кабеля. В конструкции каналов связи сети каналов связи применяются миллионы мельчайших стеклянных трубок. А сигнал, передаваемый по ним, представляет собой световой импульс. Так как скорость света в несколько раз выше скорости тока, данная технология позволила в несколько сотен раз ускорить интернет-соединение.

К недостаткам же можно отнести хрупкость оптоволоконных кабелей. Во-первых, они не выдерживают механические повреждения: разбившиеся трубки не могут пропускать через себя световой сигнал, также резкие перепады температур приводят к их растрескиванию. Ну а повышенный радиационный фон делает трубки мутными - из-за этого сигнал может ухудшаться. Кроме того, оптоволоконный кабель тяжело восстановить в случае разрыва, поэтому приходится полностью его менять.

Вышесказанное наводит на мысль о том, что с течением времени каналы связи и сети каналов связи совершенствуются, что приводит к увеличению скорости передачи данных.

Средняя пропускная способность линий связи

Из вышесказанного можно сделать вывод о том, что каналы связи различны по своим свойствам, которые влияют на скорость передачи информации. Как говорилось ранее, каналы связи могут быть проводными, беспроводными и основанными на использовании оптоволоконных кабелей. Последний тип создания сетей передачи данных наиболее эффективен. И его средняя пропускная способность канала связи - 100 мбит/c.

Что такое бит? Как измеряется скорость в битах?

Битовая скорость - показатель измерения скорости соединения. Рассчитывается в битах, мельчайших единицах хранения информации, на 1 секунду. Она была присуща каналам связи в эпоху «раннего развития» интернета: на тот момент в глобальной паутине в основном передавались текстовые файлы.

Сейчас базовой единицей измерения признается 1 байт. Он, в свою очередь, равен 8 битам. Начинающие пользователи очень часто совершают грубую ошибку: путают килобиты и килобайты. Отсюда возникает и недоумение, когда канал с пропускной способностью 512 кбит/с не оправдывает ожиданий и выдает скорость всего лишь 64 КБ/с. Чтобы не путать, нужно запомнить, что если для обозначения скорости используются биты, то запись будет сделана без сокращений: бит/с, кбит/с, kbit/s или kbps.

Факторы, влияющие на скорость интернета

Как известно, от пропускной способности канала связи зависит и конечная скорость интернета. Также на скорость передачи информации влияют:

  • Способы соединения.

Радиоволны, кабели и оптоволоконные кабели. О свойствах, преимуществах и недостатках этих способов соединения говорилось выше.

  • Загруженность серверов.

Чем больше загружен сервер, тем медленнее он принимает или передает файлы и сигналы.

  • Внешние помехи.

Наиболее сильно помехи оказывают влияние на соединение, созданное с помощью радиоволн. Это вызвано сотовыми телефонами, радиоприемниками и прочими приемниками и передатчиками радиосигнала.

Безусловно, способы соединения, состояние серверов и наличие помех играют важную роль в обеспечении скоростного интернета. Однако даже если вышеперечисленные показатели в норме, а интернет имеет низкую скорость, то дело скрывается в сетевом оборудовании компьютера. Современные сетевые карты способны поддерживать интернет-соединение со скоростью до 100 Мбит в секунду. Раньше карты могли максимально обеспечивать пропускную способность в 30 и 50 Мбит в секунду соответственно.

Как увеличить скорость интернета?

Как было сказано ранее, пропускная способность канала связи зависит от многих факторов: способа соединения, работоспособности сервера, наличия шумов и помех, а также состояния сетевого оборудования. Для увеличения скорости соединения в бытовых условиях можно заменить сетевое оборудование на более совершенное, а также перейти на другой способ соединения (с радиоволн на кабель или оптоволокно).

В заключение

В качестве подведения итогов стоит сказать о том, что пропускная способность канала связи и скорость интернета - это не одно и то же. Для расчета первой величины необходимо воспользоваться законом Шеннона-Хартли. Согласно ему, шумы можно уменьшить, а также увеличить силу сигнала посредством замены канала передачи на более широкий.

Увеличение скорости интернет-соединения тоже возможно. Но оно осуществляется путем смены провайдера, замены способа подключения, усовершенствования сетевого оборудования, а также ограждения устройств для передачи и приема информации от источников, вызывающих помехи.

Пропускная способность систем передачи информации

Одной из основных характеристик любой системы передачи информации, кроме перечисленных выше, является ее пропускная способность.

Пропускная способность – максимально возможное количество полезной информации, передаваемое в единицу времени:

c = max{Imax} / TC ,

c = [бит/с].

Иногда скорость передачи информации определяют как максимальное количество полезной информации в одно элементарном сигнале:

s = max{Imax} / n,

s = [бит/элемент].

Рассмотренные характеристики зависят только от канала связи и его характеристик и не зависят от источника.

Пропускная способность дискретного канала связи без помех. В канале связи без помех информацию можно передавать неизбыточным сигналом. При этом число n = m, а энтропия элементарного сигнала HCmax = logK.

max{IC} = nHCmax= mHCmax .

Длительность элементарного сигнала , где – длительность элементарного сигнала.

где FC – спектр сигнала.

Пропускная способность канала связи без помех

Введем понятие скорости генерации элементарного сигнала источником информации:

Тогда, используя новое понятие, можно преобразовать формулу для скорости передачи информации:

Полученная формула определяет максимально возможную скорость передачи информации в дискретном канале связи без помех. Это следует из предположения о том, что энтропия сигнала максимальна.

Если HC < HCmax, то c = BHC и не является максимально возможной для данного канала связи.

Пропускная способность дискретного канала связи с помехами. В дискретном канале связи с помехами наблюдается ситуация, изображенная на рис. 6.

Учитывая свойство аддитивности, а также формулы Шеннона для определения количества информации, рассмотренные выше, можно записать

IC = TC FC log(AK PC),

IПОМ = TП FП log(APП).

Для получателя источник полезной информации и источник помехи равноценны, поэтому нельзя на приемной стороне выделить составляющую помехи в сигнале с результирующей информацией

IРЕЗ = TC FC log(AK (PП + PC)), если TC = TП, FC = FП.

Приемник может быть узкополосным, а помеха находиться в других интервалах частот. В этом случае она не будет влиять на сигнал.

Будем определять результирующий сигнал для наиболее “неприятного” случая, когда параметры сигнала и помехи близки друг к другу или совпадают. Полезная информация определяется выражением

Эта формула получена Шенноном. Она определяет скорость передачи информации по каналу связи в случае, если сигнал имеет мощность PC, а помеха – мощность PП. Все сообщения при такой скорости передадутся с абсолютной достоверностью. Формула не содержит ответа на вопрос о способе достижения такой скорости, но дает максимально возможное значение с в канале связи с помехами, то есть такое значение скорости передачи, при которой полученная информация будет абсолютно достоверной. На практике экономичнее допустить определенную долю ошибочности сообщения, хотя скорость передачи при этом увеличится.

Рассмотрим случай PC >> PП. Если ввести понятие отношения сигнал/шум

PC >> PП означает, что . Тогда

Полученная формула отражает предельную скорость мощного сигнала в канале связи. Если PC << PП, то с стремится к нулю. То есть сигнал принимается на фоне помех. В таком канале в единицу времени сигнал получить не удается. В реальных ситуациях полностью помеху отфильтровать нельзя. Поэтому приемник получает полезную информацию с некоторым набором ошибочных символов. Канал связи для такой ситуации можно представить в виде, изображенном на рис. 7, приняв источник информации за множество передаваемых символов {X}, а приемник – за множество получаемых символов {Y}.

Рис.7 Граф переходных вероятностей K- ичного канала связи

Между существует определенное однозначное соответствие. Если помех нет, то вероятность однозначного соответствия равна единице, в противном случае она меньше единицы.

Если qi – вероятность принятия yi за xi, a pij = p{yi / xi} – вероятность ошибки, то

.

Граф переходных вероятностей отражает конечный результат влияния помехи на сигнал. Как правило, он получается экспериментально.

Полезная информация может быть оценена как IПОЛ = nH(X · Y), где n – количество элементарных символов в сигнале; H(X · Y) – взаимная энтропия источника X и источника Y.

В данном случае источником X является источник полезной информации, а источником Y является приемник. Соотношение, определяющее полезную информацию, можно получить исходя из смысла взаимной энтропии: заштрихованный участок диаграммы определяет сообщения, переданные источником Xи полученные приемником Y; незаштрихованные участки отображают сигналы источника X, не дошедшие до приемника и полученные приемником посторонние сигналы, не передаваемые источником.

B – скорость генерации элементарных символов на выходе источника.

Для получения max нужно по возможности увеличить H(Y) и уменьшить H(Y/X). Графически эта ситуация может быть представлена совмещением кругов на диаграмме (Рис. 2г).

Если же круги вообще не пересекаются, X и Y существуют независимо друг от друга. В дальнейшем будет показано, как можно использовать общее выражение для максимальной скорости передачи при анализе конкретных каналов связи.

Характеризуя дискретный канал, используют два понятия скорости: техническая и информационная.

Под технической скоростью передачи RT, называемой также скоростью манипуляции, подразумевают число символов (элементарных сигналов), передаваемых по каналу в единицу времени. Она зависит от свойств линии связи и быстродействия аппаратуры канала.

С учетом различий в длительности символов техническая скорость определяется как

где - среднее время длительности символа.

Единицей измерения служит »бод» - это скорость, при которой за одну секунду передается один символ.

Информационная скорость или скорость передачи информации определяется средним количеством информации, которое передается по каналу за единицу времени. Она зависит как от характеристик конкретного канала (таких как объем алфавита используемых символов, технической скорости их передачи, статистического свойства помех в линии), так и от вероятностей поступающих на вход символов и их статистической взаимосвязи.

При известной скорости манипуляции скорость передачи информации по каналу задается соотношением:

,

где – среднее количество информации, переносимое одним символом.



Для практики важно выяснить, до какого предела и каким путем можно повысить скорость передачи информации по конкретному каналу. Предельные возможности канала по передаче информации характеризуются его пропускной способностью.

Пропускная способность канала с заданными переходными вероятностями равна максимуму передаваемой информации по всем входным распределениям символов источника X:

С математической точки зрения поиск пропускной способности дискретного канала без памяти сводится к поиску распределения вероятностей входных символов источника Х, обеспечивающего максимум переданной информации . При этом, на вероятности входных символов накладывается ограничение: , .

В общем случае, определение максимума при заданных ограничениях возможно с помощью мультипликативного метода Лагранжа. Однако такое решение требует чрезмерно больших затрат.

В частном случае для дискретных симметричных каналов без памяти пропускная способность (максимум , достигается при равномерном распределении входных символов источника X.

Тогда для ДСК без памяти, считая заданной вероятность ошибки ε и для равновероятных входных символов = = = =1/2, можно получить пропускную способность такого канала по известному выражению для :

где = – энтропия двоичного симметричного канала при заданной вероятности ошибки ε.

Интерес представляют граничные случаи:

1. Передача информации по бесшумному каналу (без помех):

, [бит/символ].

При фиксированных основных технических характеристиках канала (например, полосе частот, средней и пиковой мощности передатчика), которые определяют значение технической скорости, пропускная способность канала без помех будет равна [бит/сек].

В любой системе связи через канал передается информация. Ее скорость передачи была определена в § 4.2. Как видно из (4.25), эта скорость зависит не только от самого канала, но и от свойств подаваемого на его вход сигнала и поэтому не может характеризовать канал как средство передачи информации. Попытаемся найти способ оценки способности канала передавать информацию. Рассмотрим вначале дискретный канал, через который передаются в единицу времени v символов из алфавита объемом m. При передаче каждого символа в среднем по каналу проходит количество информации

I(A, В) = Н(А) - Н(А|В) = Н(В) - Н(В|А), (4.35)

где А и В - случайные символы на входе и выходе канала. Из четырех фигурирующих здесь энтропий H(A) - собственная информация передаваемого символа определяется источником дискретного сигнала * и не зависит от свойств канала. Остальные три энтропии в общем случае зависят как от источника сигнала, так и от канала.

* (Источником дискретного сигнала в системе связи (см. рис. 1.5) является совокупность источника сообщения и кодера. )

Представим себе, что на вход канала можно подавать символы от разных источников, характеризуемых различными распределениями вероятностей Р(А) (но, конечно, при тех же значениях m и v). Для каждого такого источника количество информации, переданной по каналу, принимает свое значение. Максимальное количество переданной информации, взятое по всевозможным источникам входного сигнала, характеризует сам канал и называется пропускной способностью канала в расчете на один символ

где максимизация * производится по всем многомерным распределениям вероятностей Р(A). Можно также определить пропускную способность С канала в расчете на единицу времени (например, секунду):

* (Если такого максимума не существует (что может быть при бесконечном числе возможных источников), то пропускная способность определяется как наименьшая верхняя грань sup I(А, В), т. е. такая величина, к которой I(А, B) может сколь угодно приблизиться, но не может ее превзойти. )

Равенство (4.37) следует из аддитивности энтропии. В дальнейшем везде, где это особо не оговорено, под пропускной способностью понимать будем пропускную способность в расчете на секунду.

В качестве примера вычислим пропускную способность симметричного канала без памяти, для которого переходные вероятности заданы (3.36). Согласно (4.36)

Величина


в данном случае легко вычисляется, поскольку условная (переходная) вероятность P(b j |a i) принимает только два значения: p/(m-1), если b j ≠a i и 1-р, если b j = a i . Первое из этих значений возникает с вероятностью р, а второе - с вероятностью 1-р. К тому же, поскольку рассматривается канал без памяти, результаты приема отдельных символов независимы друг от друга. Поэтому

Следовательно, Н(В|А) не зависит от распределения вероятности в ансамбле А, а определяется только переходными вероятностями канала. Это свойство сохраняется для всех моделей канала с аддитивным шумом.

Подставив (4.38) в (4.37), получим

Поскольку в правой части только член Н (В) зависит от распределения вероятностей Р(А), то максимизировать необходимо его. Максимальное значение Н (В) согласно (4.6) равно log m и реализуется оно тогда, когда все принятые символы b j равновероятны и независимы друг от друга. Легко убедиться, что это условие удовлетворяется, если входные символы равновероятны и независимы, поскольку в этом случае

При этом Н(В) = log m и

Отсюда пропускная способность в расчете на единицу времени

Для двоичного симметричного канала (m = 2) пропускная способность в двоичных единицах в единицу времени

С = v (4.42)

Зависимость C/v от р согласно (4.42) показана на рис. 4.3.

При р = 1/2 пропускная способность двоичного канала С = 0, поскольку при такой вероятности ошибки последовательность выходных двоичных символов можно получить совсем не передавая сигналы по каналу, а выбирая их наугад (например, по результатам бросания монеты), т. е. при р=1/2 последовательности на выходе и входе канала независимы. Случай С = 0 называют обрывом канала. То, что пропускная способность при р = 1 в двоичном канале такая же, как при р=0 (канал без шумов), объясняется тем, что при р = 1 достаточно все выходные символы инвертировать (т. е. заменить 0 на 1 и 1 на 0), чтобы правильно восстановить входной сигнал.

Пропускная способность непрерывного к а н а- л а вычисляется аналогично. Пусть, например, канал имеет ограниченную полосу пропускания шириной F. Тогда сигналы U(t) и Z{t) соответственно на входе и выходе канала по теореме Котельникова определяются своими отсчетами, взятыми через интервал 1/(2F), и поэтому информация, проходящая по каналу за некоторое время Т, равна сумме количества информации, переданной за каждый такой отсчет * . Пропускная способность канала на один такой отсчет

Здесь U и Z - случайные величины - сечения процессов U(t) и Z(t) на входе и выходе канала соответственно и максимум берется по всем допустимым входным сигналам, т. е. по всем распределениям U.

* (Можно вместо ряда Котельникова использовать разложение сигналов по- любому ортогональному базису и рассмотреть количество передаваемой информации на каждый член ряда. )

Пропускная способность С определяется как сумма значений Сотсч, взятая по всем отсчетам за секунду. При этом, разумеется, дифференциальные энтропии в (4.43) должны вычисляться с учетом вероятностных связей между отсчетами.

Вычислим, например, пропускную способность непрерывного канала без памяти с аддитивным белым гауссовским шумом, имеющим полосу пропускания шириной F, если средняя мощность сигнала (дисперсия U) не превышает заданной величины Р с. Мощность (дисперсию) шума в полосе F обозначим Р ш. Отсчеты входного и выходного сигналов, а также шума N связаны равенством

Z = U + N. (4.44)

Так как N имеет нормальное распределение с нулевым математическим ожиданием, то и условная плотность вероятности w(z|u) при фиксированном и будет также нормальной - с математическим ожиданием и и дисперсией Р ш.

Найдем пропускную способность на один отсчет (4.43):

Согласно (4.34) дифференциальная энтропия h(Z|U) нормального распределения w(Z|U) не зависит от математического ожидания и равна


Поэтому для нахождения С отсч следует найти такую плотность распределения w(U), при которой максимизируется h(Z). Из (4.44) учитывая, что U и N - независимые случайные величины, имеем для дисперсий:

D(Z) = D(U) + D(N) = P c + P ш. (4.45)

Таким образом, дисперсия Z фиксирована, так как Р с и Р ш заданы. Как было отмечено (см. стр. 114), при фиксированной дисперсии максимальная дифференциальная энтропия обеспечивается нормальным распределением. Из (4.44) видно, что при нормальном одномерном распределении U распределение Z будет также нормальным и, следовательно, обеспечивается максимум дифференциальной энтропии (4.34):

Переходя к пропускной способности С в расчете на секунду, заметим, что информация, переданная за несколько отсчетов, максимальна в том случае, когда отсчеты сигналов независимы. Этого можно достичь, если сигнал U(t) выбрать так, чтобы его спектральная плотность была равномерной в полосе F. Как было показано в § 2.2 [см. (2.48)], отсчеты, разделенные интервалами, кратными 1/(2F), взаимно некоррелированы, а для гауссовских величин некоррелированность означает независимость.

Поэтому пропускную способность С (за секунду) можно найти, сложив пропускные способности (4.46) для 2F независимых отсчетов:

С = 2FC отсч = F log (1 +Р с /Р ш). (4.47)

Она реализуется, если U(t) - гауссовский процесс с равномерной спектральной плотностью в полосе частот F (квазибелый шум).

Из (4.47) видно, что если бы мощность сигнала Р с не была ограничена, то пропускная способность была бы сколь угодно большой. Пропускная способность равна нулю, если отношение сигнал-шум Р с /Р ш в канале равно нулю. С ростом этого отношения пропускная способность увеличивается неограниченно, однако медленно, вследствие логарифмической зависимости.

Соотношение (4.47) часто называют формулой Шеннона. Эта формула имеет важное значение в теории информации, так как определяет зависимость пропускной способности рассматриваемого непрерывного канала от таких его технических характеристик, как ширина полосы пропускания и отношение сигнал-шум. Формула Шеннона указывает на возможность обмена полосы пропускания на мощность сигнала, и наоборот. Однако поскольку С зависит от F линейно, а от Р с /Р ш - по логарифмическому закону, компенсировать возможное сокращение полосы пропускания увеличением мощности сигнала, как правило, не выгодно. Более эффективным является обратный обмен мощности сигнала на полосу пропускания.

Заметим, что при Р c /P ш >>1 выражение (4.50) совпадает с характеристикой (1.2), названной в § 1.2 емкостью (объемом) канала.

Следует подчеркнуть, что формула Шеннона (4.47) справедлива только для канала с постоянными параметрами и аддитивным гауссовским белым (или квазибелым) шумом. Если распределение аддитивной помехи не является нормальным или же ее спектр неравномерен в полосе пропускания канала, то его пропускная способность больше, чем вычисленная по формуле (4.47). Мультипликативные помехи (замирания сигнала) обычно снижают пропускную способность канала.

На рис. 4.5 показаны зависимости С/F от среднего отношения Р с /Р ш для канала с постоянными параметрами (1) и канала с рэлеевскими замираниями (2). Из анализа кривых следует, что медленные рэлеевские замирания уменьшают пропускную способность канала не более чем на 17%.

5.2. Пропускная способность канала связи.

Характеристики системы связи в значительной мере зависят от параметров канала вязи, который используется для передачи сообщений. Исследуя пропускную способность канала мы предполагали, что их параметры сохраняются постоянными. Однако большинство реальных каналов обладают переменными параметрами. Параметры канала, как правило изменяются во времени случайным образом. Случайные изменения коэффициента передачи канала m вызывают замирания сигнала, что эквивалентно воздействию мультипликативной помехи

Однородный симметричный канал связи полностью определяется алфавитом передаваемого сообщения, скоростью передачи элементов сообщения u и вероятностью ошибочного приема элемента сообщения р (вероятностью ошибки).

Пропускная способность канала будет вычисляться по формуле:

в частном случае для двоичного канала (m=2) получим формулу:

, где р =0,003, t=15 10 -6

Сравнивая пропускную способность канала связи и производительность источника (после оптимального кодирования) можем сделать вывод, что условие К.Шеннона выполняется, т.е. производительность источника меньше пропускной способности канала, что позволит нам передавать информацию по данному каналу связи. Для некодированного источника это условие выполняется также, т.к. производительность некодированного источника меньше производительности оптимально закодированного источника.

6. Помехоустойчивое кодирование.

При передаче цифровых данных по каналу с шумом всегда существует вероятность того, что принятые данные будут содержать некоторый уровень частоты появления ошибок. Получатель как правило устанавливает некоторый уровень частоты появления ошибок, при превышении которого принятые данные использовать нельзя. Если частота ошибок в принимаемых данных превышает допустимый уровень, то можно использовать кодирование с исправлением ошибок., которое позволяет уменьшить частоту ошибок до приемлемой.

Кодирование с обнаружением и исправлением ошибок как правило связано с понятием избыточности кода, что приводит в конечном итоге к снижению скорости передачи информационного потока по тракту связи. Избыточность заключается в том, что цифровые сообщения содержат дополнительные символы, обеспечивающие индивидуальность каждого кодового слова. Вторым свойством связанным с помехоустойчивым кодированием является усреднение шума. Этот эффект заключается в том, что избыточные символы зависят от нескольких информационных символов.

При увеличении длинны кодового блока (т.е. количества избыточных символов) доля ошибочных символов в блоке стремиться к средней частоте ошибок в канале. Обрабатывая символы блоками, а не одного за другим можно добиться снижения общей частоты ошибок и при фиксированной вероятности ошибки блока долю ошибок, которые нужно исправлять.

Все известные в настоящее время коды могут быть разделены на две большие группы: блочные и непрерывные. Блочные коды характеризуются тем, что последовательность передаваемых символов разделена на блоки. Операции кодирования и декодирования в каждом блоке производится отдельно. Непрерывные коды характеризуются тем, что первичная последовательность символов, несущих информацию, непрерывно преобразуется по определенному закону в другую последовательность, содержащую избыточное число символов. При этом процессы кодирования и декодирования не требует деления кодовых символов на блоки.

Разновидностями как блочных, так и непрерывных кодов являются разделимые (с возможностью выделения информационных и контрольных символов) и неразделимые коды. Наиболее многочисленным классом разделимых кодов составляют линейные коды. Их особенность состоит в том, что контрольные символы образуются как линейные комбинации информационных символов.

6.1. Принцип обнаружения и исправления ошибок.

Корректирующие коды строятся так, чтобы количество комбинаций М превышало число сообщений М 0 источника. Однако в этом случае используется лишь М 0 комбинаций источника из общего числа для передачи информации. Такие комбинации называются разрешенными, а остальные – запрещенными М-М 0 . Приемнику известны все разрешенные и запрещенные комбинации, поэтому, если при приеме некоторого разрешенного сообщения в результате ошибки это сообщение попадает в разряд запрещенных, то такая ошибка будет обнаружена, а при определенных условиях исправлена. Следует заметить, что при ошибке, приводящей к появлению другого разрешенного сигнала, такая ошибка не обнаружима.

Расстоянием Хемминга d между двумя последовательностями называется число позиций, в которых две последовательности отличаются друг от друга. Наименьшее значение d для всех пар кодовых последовательностей называется кодовым расстоянием.

Ошибка обнаруживается всегда, если её кратность, т.е. число искаженных символов в кодовой комбинации: gd, то некоторые ошибки также обнаруживаются. Однако полной гарантии обнаружения ошибок нет, т.к. ошибочная комбинация может совпадать с какой-либо разрешенной комбинацией. Минимальное кодовое расстояние, при котором обнаруживаются любые одиночные ошибки, d=2.

Исправление ошибок в процессе декодирования сводится к определению переданной комбинации по известной принятой. Расстояние между переданной разрешенной комбинацией и принятой запрещенной комбинацией d 0 равно кратности ошибок g. Если ошибки в символах комбинации происходят независимо относительно друг друга, то вероятность искажения некоторых g символов в n-значной комбинации будет равна:

6.1. Коды с обнаружением ошибок.

Одним из кодов подобного типа является код с четным числом единиц. Каждая комбинация этого кода содержит помимо информационных символов – один контрольный, выбираемый равный 0 или 1 так, чтобы сумма количества единиц в комбинации всегда была четной.

Простейшим примером кода с проверкой на четность является код Бодо, в котором к пятизначным комбинациям информационных символов добавляется шестой контрольный символ: 11001,1; 10001,0. Правило вычисления контрольного символа находится как:

откуда вытекает, что для любой комбинации сумма всех символов по модулю два будет равна нулю. Это позволяет в декодирующем устройстве сравнительно просто производить обнаружение ошибок путем проверки на четность. Нарушение четности имеет место при появлении однократных, трехкратных и в общем случае нечетной кратности, что и дает возможность их обнаружить. Появление четных ошибок не изменяет четности суммы, поэтому такие ошибки не обнаруживаются.

Определим избыточность кода:

k=6 – число символов в помехоустойчивом коде

n=5 – число символов без избыточности

Заключение

В данной работе было рассмотрено:

1. Система когерентного приемника с ФМ. Рассчитав параметры и сравнив полученные в результате расчетов данные с другими системами приема сигналов выявлены некоторые преимущества и недостатки данной системы передачи и приема информационных сообщений. Также было проведено сравнение с идеальным приемником Котельникова, обеспечивающим потенциальную помехоустойчивость. Отмечено как можно улучшить характеристики приемника с помощью согласованных фильтров.

2. Передача непрерывных аналоговых сигналов цифровыми методами. Произведен анализ и сравнение дискретных методов (АИМ, ШИМ, ВИМ) с цифровым методом передачи непрерывных аналоговых сигналов ИКМ. Отмечены преимущества цифровых методов передачи информации по сравнению с аналоговыми.

3. Кодирование сообщений. Сравнивались и определялись характеристики статистического (эффективного кодирования) по сравнению с помехоустойчивым (избыточным) кодированием. Была определена пропускная способность канала связи и установлено, что данная система является работоспособной (т.е. выполняется условие К.Шеннона).

При рассмотрении передачи и приема сигналов методом ИКМ с кодированием сообщений, можно сделать вывод, что для повышения качества получаемых сообщений следует применять помехоустойчивое кодирование. Рассмотренный метод помехоустойчивого кодирования является самым простейшим. Для более эффективного использования канала связи нужно использовать более совершенные алгоритмы кодирования сообщений.

Литература


1. Зюко А.Г., Коробов Ю.Ф. Теория передачи сигналов – М.Связь 1972.

2. Б.Н.Бондарев, А.А.Макаров “Основы теории передачи сигналов” Новосибирск – 1969 г.

3. Э.Прагер, Б.Шимек, В.П.Дмитриев – “Цифровая техника в связи” – М. Радио и связь.

  • Сергей Савенков

    какой то “куцый” обзор… как будто спешили куда то