Главная » Каталог    
рефераты Разделы рефераты
рефераты
рефератыГлавная

рефератыБиология

рефератыБухгалтерский учет и аудит

рефератыВоенная кафедра

рефератыГеография

рефератыГеология

рефератыГрафология

рефератыДеньги и кредит

рефератыЕстествознание

рефератыЗоология

рефератыИнвестиции

рефератыИностранные языки

рефератыИскусство

рефератыИстория

рефератыКартография

рефератыКомпьютерные сети

рефератыКомпьютеры ЭВМ

рефератыКосметология

рефератыКультурология

рефератыЛитература

рефератыМаркетинг

рефератыМатематика

рефератыМашиностроение

рефератыМедицина

рефератыМенеджмент

рефератыМузыка

рефератыНаука и техника

рефератыПедагогика

рефератыПраво

рефератыПромышленность производство

рефератыРадиоэлектроника

рефератыРеклама

рефератыРефераты по геологии

рефератыМедицинские наукам

рефератыУправление

рефератыФизика

рефератыФилософия

рефератыФинансы

рефератыФотография

рефератыХимия

рефератыЭкономика

рефераты
рефераты Информация рефераты
рефераты
рефераты

Пропускная способность канала

Казанский Государственный технический университет им. А.Н. Туполева

Кафедра Радиоуправления

Пояснительная записка к курсовой

работе по курсу

ТЕОРИЯ ЭЛЕКТРИЧЕСКОЙ СВЯЗИ

на тему

Пропускная способность канала.

Выполнил студент гр.5313

Алмазов А.И.

Руководитель: _____________

Оценка _____________

Комиссия ________ ( _______

)

________ ( _________ )

________ ( _________ )

Казань 2002

Оглавление.

1. Задание…………………………………………………………………..3стр.

2. Введение…………………………………………...……………………4стр.

3. Теоретическая часть…………...……………………………………….5стр.

4. Практическая часть………………………………..…………………..11стр.

5. Заключение………………………………………………..…………...14стр.

6. Литература…………………………………………….……………… 15стр.

Задание.

В канале действует аддетивный белый гаусовский шум. Отношение

сигнал/шум (Pc/Pш) меняется с 25 до 15 дБ, с шагом 1дБ. F=1,5 кГц; Vк=8*103

сим/с.

Рассчитать:

1) Изменение пропускной способности канала.

2) Изменение избыточности ? двоичного кода, необходимой для сведения

ошибки декодирования к сколь угодно малой величине.

Построить графики зависимостей с=f(Pc/Pш) и ?= f(Pc/Pш).

Введение.

Поставленная задача интересна тем, что мы сможем проследить изменение

пропускной способности канала с изменением отношения сигнал/шум . Можно

определить пропускную способность С канала в расчете на один символ

Ссимвол=maxI(A,B),бит/символ

или в расчете на единицу времени (например, на секунду):

С=maxI’(A,B)=( Ссимвол , биит/с.

В данном случае мы будем рассчитывать относительно времени. Для этого

мы воспользуемся формулой определяющей пропускную способность канала в

расчете на единицу времени.

С=Fklog2(1+Pc/Pш),

А для того чтобы определить избыточность передаваемой информации

воспользуемся теоремой Шеннона. При условии если теорема Шеннона будет

выполняться, то избыточность ? будет равняться 0, значит информация

передаётся без потерь. Если нет, то ? будет больше нуля (?>0). Т.е. чем

меньше величина ?, тем меньше будет вероятность ошибки декодирования.

Теоретическая часть.

Пропускная способность канала связи.

В любой системе связи через канал передаётся информация. Её скорость

определяется по формуле:

I’(А,В)=H’(А)-H’(А|В)=H’(А)-H’(В|А).

(1)

Величина H(A|B) - это потери информации при передаче ее по каналу. Ее

также называют ненадежностью канала. H(B|A) - энтропия шума; показывает,

сколько бит шумовой информации примешивается к сигналу. Передачу сигнала по

каналу иллюстрирует рис. 1.

[pic]

Рис. 1. Передача информации по каналу с помехами

Здесь I’(A,B)=v*I(A,B) - скорость передачи информации по каналу.

Как видно из формулы (1), эта скорость зависит не только от самого

канала, но и от свойств подаваемого на его вход сигнала и поэтому не может

характеризовать канал как средство передачи информации.

Рассмотрим дискретный канал, через который передаются в единицу времени

( символов из алфавита объёмом m. При передачи каждого символа в среднем по

каналу проходит количество информации

I(A,B)=H(A)-H(A|B)=H(B)-H(B|A),

(2)

где А и В- случайные символы на входе и выходе канала. Из четырёх

фигурирующих здесь энтропий Н(А)- собственная информация передаваемого

символа определяется источником дискретного сигнала и не зависит от

свойств канала. Остальные три энтропии в общем случае зависят как от

источника сигнала, так и от канала.

Величина I(A,B) характеризует не только свойства канала, но и свойства

источника информации. Пусть на вход канала можно подавать сигналы от

различных источников информации с различными распределениями P(A). Для

каждого источника I(A,B) примет свое значение. Максимальное количество

информации, взятое по всевозможным Р(А), характеризует только канал и

называется пропускной способностью (ПС) канала в расчете на один символ:

[pic]бит/символ,

где максимизация производится по всем многомерным распределениям

вероятностей Р(А).

Также определяют пропускную способность С канала в расчете на единицу

времени:

[pic]бит/с, (3)

где v - количество символов, переданное в секунду.

В качестве примера вычислим пропускную способность дискретного

симметричного канала без памяти (рис. 2) с вероятностью ошибочного перехода

- p.

[pic]

Рис. 2. Модель двоичного симметричного канала без памяти

Согласно свойству взаимной информации 2 можно записать: Ссим=max(H(B)-

H(B|A)). Распишем H(B|A). Исходя из условий задачи вероятность правильной

передачи символа по каналу - 1-p, а вероятность ошибочной передачи одного

символа p/(1-m), где m - число различных символов, передающихся по каналу.

Общее количество верных передач - m; общее количество ошибочных переходов -

m*(m-1). Отсюда следует, что:

[pic].

Следовательно, Н(В/А) не зависит от распределения вероятности в

ансамбле А, а определяется только переходными вероятностями канала. Это

свойство сохраняется для всех моделей канала с аддитивным шумом.

Максимальное значение Н(В)=log m. Отсюда следует:

[pic]. (4)

Пропускная способность в двоичных единицах в расчете на единицу

времени:

[pic]. (5)

Для двоичного симметричного канала (m=2) пропускная способность в

двоичных единицах в единицу времени

С=([1+p*log(p)+(1-p)*log(1-p)]

(6)

Зависимость С/( от р согласно (6) показана на рис.3

[pic]

рис.3 Зависимость пропускной способности двоичного симметричного

канала без памяти от вероятности ошибочного приёма символа.

При р=1/2 пропускная способность канала С=0, поскольку при такой

вероятности ошибки последовательность выходных символов можно получить

совсем не передавая сигнала по каналу, а выбирая их наугад, т.е. при р=1/2

последовательности на выходе и входе канала независимы. Случай С=0 называют

обрывом канала.

Пропускная способность непрерывного канала связи.

Вычисляется аналогично пропускной способности дискретного канала.

Непрерывный сигнал дискретизируется во времени с помощью отсчетов согласно

теореме Котельникова и информация, проходящая по каналу за время Т, равна

сумме количества информации, переданной за один отсчет. Поэтому общая ПС

канала равна сумме ПС на один такой отсчет:

[pic], (7)

где U - переданный сигнал; Z - сигнал на выходе канала с наложенными на

него шумами; N - шум; Z=U+N.

Пусть U и N - случайные величины с плотностью распределения вероятности

w, распределенной по нормальному (гауссовскому) закону. Для таких сигнала и

шума (см. вывод в [1, с. 114, 117-118]:

[pic].

Отсюда следует:

[pic].

ПС в расчете на секунду будет равна:

[pic], (8)

поскольку при дискретизации сигнала по теореме Котельникова за одну секунду

мы получим 2F отсчетов, где F - верхняя частота спектра сигнала.

Подчеркнем, что формула (8) имеет такой вид только при условии, что

плотности распределения вероятностей w(U) и w(N) подчиняются нормальному

закону.

Формула (8) имеет важное значение, т.к. указывает на зависимость ПС

канала от его технических характеристик - ширины полосы пропускания и

отношения мощности сигнала к мощности шума.

Чтобы выяснить как зависит пропускная способность от ширины полосы

пропускания выразим мощность шума в канале через его одностороннюю

спектральную мощность N0. Имеем Рш=N0F; поэтому

С=F*log(1+ Pc/N0*F )=F*loge*ln(1+Pc/N0*F)

(9)

При увеличении F пропускная способность С, бит/с, сначала быстро

возрастает, а затем асимптотически стремится к пределу:

C?=Lim(Pc/N0)*loge

(10)

Результат (10) получается очень просто, если учесть, что при |(|С, то таких способов кодирования и

декодирования не существует.

Модель:

Н(А) Н’(В)

Н’(А)с, то такого кода не существует.

Теорема указывает на возможность создания помехоустойчивых кодов.

Н’(А)< Н’(В)

Н’(В)=VkH

Декодер выдаёт на код каналов Vk символов в секунду. Если в канале

потерь нет, то Vk=с.

При НС невозможна безошибочная передача сообщений по данному каналу, если

же H’(A)<С, то ошибки могут быть сведены к сколь угодно малой величине.

Таким образом, величина С - это предельное значение скорости безошибочной

передачи информации по каналу

Практическая часть.

Пропускная способность гауссовского канала определяется [1, стр.118]:

[pic].

Отношение сигнал/шум падает по условию задания с 25 до 15 дБ. Поэтому С

также будет уменьшаться. Необходимо уменьшать С/Ш с 25 до 15 дБ с шагом 1

дБ и вычислить по формуле 11 значений С. При этом надо учесть, что в

формуле отношение С/Ш - Pc/Pш - дано в разах, поэтому данные в дБ

необходимо пересчитать в разы: [pic]; отсюда [pic].

С помощью программы MathCAD получили результаты подсчётов:

С1=1,246*104 бит/с

С2=1,197*104 бит/с

С3=1,147*104 бит/с

С4=1,098*104 бит/с

С5=1,048*104 бит/с

С6=9,987*103 бит/с

С7=9,495*103 бит/с

С8=9,003*103 бит/с

С9=8,514*103 бит/с

С10=8,026*103 бит/с

С11=7,542*103 бит/с

Производительность кодера H’(B)=vк*H(B) должна быть меньше пропускной

способности канала С, иначе неизбежны потери информации в канале.

Максимальное значение энтропии двоичного кодера Hmax=H(B)=log2=1 бит. Если

С уменьшается, то для избежания потерь информации можно уменьшать H(B) так,

чтобы H’(B) оставалась все время меньше С. Если же H(B)<1, это означает,

что кодовые символы не равновероятны и зависимы друг от друга, т.е.

используется избыточный (помехоустойчивый) код. Избыточность этого кода

вычисляется по формуле:

[pic].

(11)

Итак, пропускная способность канала С определяет предельное значение

производительности кодера H’(B): H’(B)

значение энтропии кодера:

[pic]

По условию Vk=8*103 сим/с

В численном виде это выглядит так:

С/Vk1=1,558 бит/сим

С/Vk 2=1,496 бит/сим

С/Vk 3=1,434 бит/сим

С/Vk 4=1,372 бит/сим

С/Vk 5=1,31 бит/сим

С/Vk 6=1,248 бит/сим

С/Vk 7=1,187 бит/сим

С/Vk 8=1,125 бит/сим

С/Vk 9=1,064 бит/сим

С/Vk 10=1,003 бит/сим

В этих случаях энтропию Н(В) можно брать любой, вплоть до максимальной

(Hmax=1 бит/сим).

С/Vk 11=0,943 бит/сим

Т.к. в 11-ом случае условие H’(B)

так же не выполняется. Для того чтобы избежать потерь информации, вводим

избыточные символы.

Следующим шагом будет вычисление избыточности ? кода, по формуле (11):

?=0,057

Чтобы было более наглядно, построим графики зависимостей с=f(Pc/Pш) и

?= f(Pc/Pш).

График зависимости с=f(Pc/Pш) :

[pic]

График зависимости ?= f(Pc/Pш).

[pic]

Заключение.

В результате проведённой работы, мы можем сделать вывод, что с

уменьшением отношения сигнал/шум пропускная способность канала также

уменьшается, что приводит к потери информации. Для того чтобы избежать

возникновение ошибок, мы вводили избыточные символы. Избыточность этого

кода ?=0,057.

Сделаем вывод, что в результате проведенного расчета поставленная

задача была полностью решена.

Литература.

1. Зюко А.Г., Кловский Д.Д. и др. Теория передачи сигналов. -М.:

Радио и Связь, 1986.

2. Кловский Д.Д., Шилкин В.А. Теория электрической связи. -М.:

Радио и связь, 1990.

3. Методическое пособие по курсовой работе ТЭС.

-----------------------

ИС

КОДЕР

КАНАЛ

рефераты Рекомендуем рефератырефераты

     
Рефераты @2011