Рефераты - Афоризмы - Словари
Русские, белорусские и английские сочинения
Русские и белорусские изложения
 

Пропускная способность канала

Работа из раздела: «Радиоэлектроника»

Казанский Государственный технический университет им. А.Н. Туполева
                           Кафедра Радиоуправления



                      Пояснительная записка к курсовой
                               работе по курсу

                         ТЕОРИЯ ЭЛЕКТРИЧЕСКОЙ СВЯЗИ
                                   на тему

                     Пропускная способность канала.



                                          Выполнил студент гр.5313
                                          Алмазов А.И.
                                          Руководитель: _____________
                                          Оценка _____________
                                          Комиссия      ________ ( _______
)
                                                  ________ ( _________ )
                                                  ________ ( _________ )



                                 Казань 2002
Оглавление.
    1. Задание…………………………………………………………………..3стр.
    2. Введение…………………………………………...……………………4стр.
    3. Теоретическая часть…………...……………………………………….5стр.
    4. Практическая часть………………………………..…………………..11стр.
    5. Заключение………………………………………………..…………...14стр.
    6. Литература…………………………………………….……………… 15стр.
                                                  Задание.

       В канале  действует аддетивный белый гаусовский шум. Отношение
сигнал/шум (Pc/Pш) меняется с 25 до 15 дБ, с шагом 1дБ. F=1,5 кГц; Vк=8*103
сим/с.

    Рассчитать:
    1) Изменение пропускной способности канала.
    2) Изменение избыточности ? двоичного кода, необходимой для сведения
       ошибки декодирования к сколь угодно малой величине.
    Построить графики зависимостей с=f(Pc/Pш) и ?= f(Pc/Pш).
Введение.

    Поставленная задача интересна тем, что мы сможем  проследить  изменение
пропускной способности канала с  изменением  отношения  сигнал/шум  .  Можно
определить пропускную способность  С канала в расчете на один символ
    Ссимвол=maxI(A,B),бит/символ

или в расчете на единицу времени (например, на секунду):
    С=maxI’(A,B)=( Ссимвол , биит/с.
    В данном случае мы будем рассчитывать относительно времени. Для этого
мы воспользуемся формулой определяющей пропускную способность канала в
расчете на единицу времени.
    С=Fklog2(1+Pc/Pш),
    А для того чтобы определить избыточность передаваемой информации
воспользуемся  теоремой Шеннона. При условии если теорема Шеннона будет
выполняться, то  избыточность ? будет равняться 0, значит информация
передаётся без потерь. Если нет, то ? будет больше нуля (?>0). Т.е. чем
меньше величина ?, тем меньше будет вероятность ошибки декодирования.
Теоретическая часть.
                  Пропускная способность канала связи.
    В любой системе связи через канал передаётся информация. Её скорость
определяется по формуле:
    I’(А,В)=H’(А)-H’(А|В)=H’(А)-H’(В|А).
                   (1)
    Величина H(A|B) - это потери информации при передаче ее по  каналу.  Ее
также называют ненадежностью канала. H(B|A)  -  энтропия  шума;  показывает,
сколько бит шумовой информации примешивается к сигналу. Передачу сигнала  по
каналу иллюстрирует рис. 1.

                                    [pic]
              Рис. 1. Передача информации по каналу с помехами

    Здесь I’(A,B)=v*I(A,B) - скорость передачи информации по каналу.
    Как видно из формулы (1), эта скорость  зависит  не  только  от  самого
канала, но и от свойств подаваемого на его вход сигнала и поэтому  не  может
характеризовать канал как средство передачи информации.
    Рассмотрим дискретный канал, через который передаются в единицу времени
( символов из алфавита объёмом m. При передачи каждого символа в среднем  по
каналу проходит количество информации

    I(A,B)=H(A)-H(A|B)=H(B)-H(B|A),
                        (2)

    где А и В- случайные символы на  входе  и  выходе  канала.  Из  четырёх
фигурирующих  здесь  энтропий  Н(А)-  собственная  информация  передаваемого
символа  определяется  источником  дискретного  сигнала   и  не  зависит  от
свойств канала. Остальные  три  энтропии  в  общем  случае  зависят  как  от
источника сигнала, так и от канала.
     Величина I(A,B) характеризует не только свойства канала, но и свойства
источника информации.  Пусть  на  вход  канала  можно  подавать  сигналы  от
различных источников  информации  с  различными  распределениями  P(A).  Для
каждого источника  I(A,B)  примет  свое  значение.  Максимальное  количество
информации, взятое  по  всевозможным  Р(А),  характеризует  только  канал  и
называется пропускной способностью (ПС) канала в расчете на один символ:
    [pic]бит/символ,
    где  максимизация  производится  по  всем  многомерным   распределениям
вероятностей Р(А).
    Также определяют пропускную способность С канала в расчете  на  единицу
времени:
    [pic]бит/с,  (3)
где v - количество символов, переданное в секунду.
    В  качестве  примера  вычислим   пропускную   способность   дискретного
симметричного канала без памяти (рис. 2) с вероятностью ошибочного  перехода
- p.
                                    [pic]
          Рис. 2. Модель двоичного симметричного канала без памяти

    Согласно свойству взаимной информации 2 можно записать:  Ссим=max(H(B)-
H(B|A)). Распишем H(B|A). Исходя из условий  задачи  вероятность  правильной
передачи символа по каналу - 1-p, а вероятность  ошибочной  передачи  одного
символа p/(1-m), где m - число различных символов, передающихся  по  каналу.
Общее количество верных передач - m; общее количество ошибочных переходов  -
m*(m-1). Отсюда следует, что:
    [pic].
    Следовательно,  Н(В/А)  не  зависит  от  распределения   вероятности  в
ансамбле А,  а определяется только  переходными  вероятностями  канала.  Это
свойство сохраняется для всех моделей канала с аддитивным шумом.
    Максимальное значение Н(В)=log m. Отсюда следует:
    [pic]. (4)
    Пропускная  способность  в  двоичных  единицах  в  расчете  на  единицу
времени:
    [pic].                                                   (5)
    Для двоичного симметричного канала (m=2) пропускная способность в
двоичных единицах в единицу времени
    С=([1+p*log(p)+(1-p)*log(1-p)]
                             (6)
    Зависимость  С/( от р согласно (6) показана на рис.3
    [pic]
    рис.3 Зависимость  пропускной способности двоичного симметричного
канала без памяти от вероятности ошибочного приёма символа.

    При р=1/2 пропускная способность канала С=0, поскольку при такой
вероятности ошибки последовательность выходных символов можно получить
совсем не передавая сигнала по каналу, а выбирая их наугад, т.е. при р=1/2
последовательности на выходе и входе канала независимы. Случай С=0 называют
обрывом канала.

            Пропускная способность непрерывного канала связи.

    Вычисляется  аналогично  пропускной  способности  дискретного   канала.
Непрерывный сигнал дискретизируется во времени с помощью  отсчетов  согласно
теореме Котельникова и информация, проходящая по каналу за  время  Т,  равна
сумме количества информации, переданной за один  отсчет.  Поэтому  общая  ПС
канала равна сумме ПС на один такой отсчет:
    [pic], (7)
где U - переданный сигнал; Z - сигнал на  выходе  канала  с  наложенными  на
него шумами; N - шум; Z=U+N.
    Пусть U и N - случайные величины с плотностью распределения вероятности
w, распределенной по нормальному (гауссовскому) закону. Для таких сигнала  и
шума (см. вывод в [1, с. 114, 117-118]:
    [pic].
    Отсюда следует:
    [pic].
    ПС в расчете на секунду будет равна:
    [pic], (8)
поскольку при дискретизации сигнала по теореме Котельникова за одну  секунду
мы получим 2F отсчетов, где F - верхняя частота спектра сигнала.
    Подчеркнем, что формула (8) имеет такой вид  только  при  условии,  что
плотности распределения вероятностей w(U)  и  w(N)  подчиняются  нормальному
закону.
    Формула (8) имеет важное значение, т.к.  указывает  на  зависимость  ПС
канала от его  технических  характеристик  -  ширины  полосы  пропускания  и
отношения мощности сигнала к мощности шума.
    Чтобы выяснить как зависит  пропускная  способность  от  ширины  полосы
пропускания  выразим  мощность  шума  в  канале  через   его   одностороннюю
спектральную мощность N0. Имеем Рш=N0F; поэтому

    С=F*log(1+                Pc/N0*F                )=F*loge*ln(1+Pc/N0*F)
                  (9)

    При увеличении  F  пропускная  способность  С,  бит/с,  сначала  быстро
возрастает, а затем асимптотически стремится к пределу:

    C?=Lim(Pc/N0)*loge
                                  (10)

     Результат (10) получается очень просто, если учесть,  что  при  |(|<<1
ln(1+()((. Зависимость С и F показана на рис.4.
            [pic]F N0/Pc
            рис.4 Зависимость нормированной пропускной способности
                    гауссовского канала от его полосы пропускания.

                  Теорема кодирования для канала с помехами.

      Это  основная  теорема  кодирования  К.  Шеннона.   Применительно   к
дискретному источнику информации она формулируется так:
    Теорема.  Если  производительность  источника  сообщений  H’(A)  меньше
пропускной  способности  канала  С:  H’(A)<С,  то  существует  такой  способ
кодирования  (преобразования  сообщения  в  сигнал  на   входе   канала)   и
декодирования (преобразования сигнала в сообщение на  выходе),  при  котором
вероятность ошибочного декодирования и  ненадежность  канала  H(A|A*)  могут
быть сколь угодно малы. Если же H’(A)>С, то  таких  способов  кодирования  и
декодирования не существует.
    Модель:
           Н(А)                        Н’(В)



Н’(А)<с

    Если же Н’(А)>с, то такого кода не существует.
    Теорема указывает на возможность создания помехоустойчивых кодов.
    Н’(А)< Н’(В)
    Н’(В)=VkH
    Декодер выдаёт на код каналов Vk  символов в секунду. Если в канале
потерь нет, то Vk=с.
    При Н<1 будет тратится больше одного бита на символ, значит появляется
избыточность, т.е. не все символы несут полезную информацию.
    Делаем вывод, что смысл теоремы Шеннона заключается в том, что при
H’(A)>С невозможна безошибочная передача сообщений по данному каналу, если
же H’(A)<С, то ошибки могут быть сведены к сколь угодно малой величине.
Таким образом, величина С - это предельное значение скорости безошибочной
передачи информации по каналу

                        Практическая часть.

    Пропускная способность гауссовского канала определяется [1, стр.118]:
                                   [pic].
    Отношение сигнал/шум падает по условию задания с 25 до 15 дБ. Поэтому С
также будет уменьшаться. Необходимо уменьшать С/Ш с 25 до 15 дБ  с  шагом  1
дБ и вычислить по формуле 11  значений  С.  При  этом  надо  учесть,  что  в
формуле отношение  С/Ш  -  Pc/Pш  -  дано  в  разах,  поэтому  данные  в  дБ
необходимо пересчитать в разы: [pic]; отсюда [pic].
    С помощью программы MathCAD получили результаты подсчётов:
    С1=1,246*104  бит/с
    С2=1,197*104 бит/с
    С3=1,147*104 бит/с
    С4=1,098*104 бит/с
    С5=1,048*104 бит/с
    С6=9,987*103 бит/с
    С7=9,495*103 бит/с
    С8=9,003*103 бит/с
    С9=8,514*103 бит/с
    С10=8,026*103 бит/с
    С11=7,542*103 бит/с

    Производительность кодера H’(B)=vк*H(B) должна быть  меньше  пропускной
способности  канала  С,  иначе  неизбежны  потери   информации   в   канале.
Максимальное значение энтропии двоичного кодера Hmax=H(B)=log2=1  бит.  Если
С уменьшается, то для избежания потерь информации можно уменьшать H(B)  так,
чтобы H’(B) оставалась все время меньше С. Если  же  H(B)<1,  это  означает,
что кодовые  символы  не  равновероятны  и  зависимы  друг  от  друга,  т.е.
используется избыточный  (помехоустойчивый)  код.  Избыточность  этого  кода
вычисляется по формуле:
                                           [pic].
                                         (11)
    Итак, пропускная способность канала С  определяет  предельное  значение
производительности  кодера  H’(B):  H’(B)
ref.by 2006—2022
contextus@mail.ru