Расчет характеристик системы связи

  • Вид работы:
    Курсовая работа (т)
  • Предмет:
    Информатика, ВТ, телекоммуникации
  • Язык:
    Русский
    ,
    Формат файла:
    MS Word
    68,68 Кб
  • Опубликовано:
    2014-07-27
Вы можете узнать стоимость помощи в написании студенческой работы.
Помощь в написании работы, которую точно примут!

Расчет характеристик системы связи

Министерство транспорта Российской Федерации

Федеральное агентство железнодорожного транспорта

ГОУ ВПО «Дальневосточный Государственный Университет Путей Сообщения»

Кафедра: «Телекоммуникации»








Курсовой проект

по дисциплине «Теория передачи сигналов»

Расчет характеристик системы связи

Выполнила: Синица В.С.

Шифр: 10-АТС-087

4 курс

Руководитель: Строев О.Я





г. Хабаровск

Содержание

1. Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений

. Оценка теоретических и эмпирических вероятностей появления цепочек символов на выходе источника

. Вычисление безусловной и условной энтропии источника.

. Статистическое двоичное кодирование источника

. Построение графиков модулирующего и модулированного сигналов

. Расчет графиков спектров модулирующего и модулированного сигналов.

. Расчет средней мощности и практической ширины спектра модулирующего сигнала

. Расчет пропускной способности двоично-симметричного канала

. Расчет коэффициента использования канала связи.

. Расчет эквивалентной вероятности ошибочного приема двоичного элемента.

Список литературы.

1. Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений


Дискретным источником сообщений называют источник, выдающий последовательность символов, принадлежащих некоторому алфавиту

,

где K - объем алфавита; - символы алфавита.

Статистический анализ свойств источника заключается в нахождении указанных вероятностей. Для этого следует воспользоваться классической формулой определения вероятности:

 

Отсюда априорную вероятность появления отдельных символов можно найти как:


где  - количество символов  в тексте сообщения; =200 - общее количество символов в тексте сообщения.

Аналогично переходные вероятности появления символов для простейшего источника с памятью (марковский источник 1-го порядка) могут быть определены по формуле


где - вероятность появления символа , если перед ним был символ ; - количество появлений пар сочетаний символов  в тексте.

N(AA)=9;(AB)=45;(BB)=99;(BA)=46;

Априорные вероятности источника сообщений.

N()

a1=A

55

a2=B

145


Переходные вероятности источника сообщений

a1=A

a2=B


Для найденных вероятностей выполняются условия:

;

;

 

 

 

2. Оценка теоретических и эмпирических вероятностей появления цепочек символов на выходе источника


Эмпирическая вероятность - это вероятность, получаемая в результате практических испытаний. В нашем случае эмпирическая вероятность некоторой цепочки символов будет определяться по формулам.

 

 

 

 

Определим вероятность цепочки ВВ:

 

где N(‘BB’) - количество появлений цепочки ‘BB’ в тексте; N-1 - количество пар со смещением в тексте.


 

где N(‘BBB’) - количество появлений цепочки ‘BBB’ в тексте; N-2 - количество полных троек со смещением в тексте.

Вероятность цепочки ВВВA:

 

Теоретическая вероятность - это вероятность, определяемая с помощью формул и теорем теории вероятностей. Tеоретическая вероятность может быть определена из формулы произведения вероятностей наступления совместных событий.

 

 

 

Расчёт количества информации содержащейся в цепочке проводится согласно определению: количество информации - это величина, определяющая число двоичных символов, необходимых для передачи цепочки, и вычисляемая в соответствии с мерой информации по К.Шеннону:

 

где  - здесь и далее обозначает двоичный логарифм; Р(цепочка) - вероятность цепочки.

 

 

 

 

 

 

Отметим, что количество информации не зависит от качественного содержания сообщения (цепочки), в частности от степени его важности для получателя, возможных последствий его передачи и т.д. Количество информации, содержащейся в сообщении , есть логарифмическая функция от вероятности . Количество информации в достоверном событии (имеющем вероятность = 1) равно нулю, а количество информации в невозможном событии (имеющем вероятность = 0) равно бесконечности. Отсюда можно сделать вывод, что чем меньше вероятность сообщения (цепочки), тем большее количество информации оно содержит.

3. Вычисление безусловной и условной энтропии источника


Поскольку сообщения случайные, то и количество информации является случайной величиной. Для того чтобы охарактеризовать источник более полно используют среднюю меру, называемую энтропией. Отсюда, энтропия - это математическое ожидание по частным количествам информации сообщений, генерируемых источником. Безусловная энтропия источника вычисляется по формуле:

 

 

Если наибольшая неопределенность выбора при заданном объёме алфавита K соответствует ситуации, когда априорные вероятности всех выборов равны между собой. В этом случае энтропия равна:

 

Между значениями величин энтропий должно соблюдаться условие:


 

Учет статистических связей между символами, последовательно выбираемых источником ведет к дальнейшему уменьшению энтропии. На самом деле, чем больше вероятностные связи символов, тем меньше свобода выбора последующих символов, тем меньше в среднем информации приходится на каждый вновь выбираемый символ источника и тем меньше энтропия. Энтропия, учитывающая статистическую зависимость между символами, называется условной и находится по формуле:


Где

 - условная частная энтропия, вычисляемая для каждого символа ai.

 

 

Между условной энтропией и безусловной должно соблюдаться неравенство:

 

 

По сравнению с безусловной энтропией, условная энтропия учитывает более тонкую структуру вероятностных свойств источника, поэтому, является более точной характеристикой источника.

Наличие в сообщении большего числа букв или в кодовой комбинации большего числа элементов, чем это минимально необходимо для передачи содержащегося в них количества информации, называют избыточностью. Расчет избыточности проводится по формуле:

 

Производительность источника - это среднее количество информации, создаваемой источником в единицу времени:

 

где  - средняя длительность одного символа, выдаваемого источником.

4. Статистическое двоичное кодирование источника


Статистическое (или эффективное) кодирование используется для существенного уменьшения избыточности сообщений, обусловленной неравновероятностью и зависимостью символов, вырабатываемых источником. Суть статистического кодирования сводится к кодированию символов источника неравномерным двоичным кодом по следующему правилу: для часто встречающихся символов присваиваются короткие двоичные кодовые комбинации, а для редко встречающихся - длинные кодовые комбинации.

Одним из распространенных алгоритмов статистического кодирования, является код Хаффмана. Кодирование по Хаффману выполняется в следующем порядке:

.       

Похожие работы на - Расчет характеристик системы связи

 

Не нашли материал для своей работы?
Поможем написать уникальную работу
Без плагиата!