Преобразование детерминированного сигнала в линейных системах

  • 7 Общие сведения о сигналах. Классификация сигналов.
  • 8 Формы представления сигналов. Аналоговые, дискретные, цифровые сигналы.
  • 9 Детерминированные и случайные сигналы: периодические, почти периодические, переходные, стационарные, эргодические, нестационарные.
  • 10 Вычисление числовых характеристик сигналов
  • 11 Параметры, характеризующие форму сигнала
  • 12 Интегрирование полигармонических сигналов в частотной области
  • 13 Формирование периодических сигналов. Табличный способ.
  • 14 Формирование полигармонических сигналов.
  • 15 Единичный импульс. Представление дискретных сигналов.
  • 16 Дискретизация непрерывных сигналов. Теорема Котельникова. Частота Найквиста.
  • 17 Линейные системы, инвариантные к сдвигу.
  • 18 Импульсная характеристика линейных систем. Устойчивость и физическая реализуемость.
  • 19 Ряд Фурье и интегральное преобразование Фурье. Ряд Фурье в комплексной форме.
  • 20 Преобразование Фурье для прямоугольного импульса.
  • 21 Представление периодической последовательности единичных импульсов в частотной области.
  • 23 Быстрое преобразование Фурье. Алгоритм с прореживанием по времени. (цос_материалы_лекций 24-30)
  • 24 Алгоритм двоичной инверсии. Базовая операция бпф. (26-30)
  • 25 Применение бпф для обработки действительных последовательностей. (цос_материалы_лекций 29-31)
  • 26 Понятие линейной дискретной системы//метода 8.1
  • 27 Импульсная характеристика линейных систем. Устойчивость и физическая
  • 28. Цифровая свертка сигналов.
  • 29 Линейные разностные уравнения с постоянными коэффициентами.
  • 30 Z-преобразование: реализация, свойства, применение.
  • 32 Типовые z-преобразования. Z-преобразование цифрового единичного скачка.
  • 33 Типовые z-преобразования. Z-преобразование убывающей дискретной экспоненты.
  • 34 Обратное z-преобразование. Способы вычисления.
  • 35 Передаточная функция линейной дискретной системы. Определение по импульсной характеристике. (См. Вопрос)
  • 36 Передаточная функция линейной дискретной системы. Определение по разностному уравнению. Нули и полюсы.
  • 37 Передаточная функция звена первого порядка.
  • 38 Передаточная функция звена второго порядка.
  • 39 Частотная характеристика линейной дискретной системы.
  • 40 Расчет ачх и фчх по передаточной функции.
  • 41 Расчет ачх и фчх звена первого порядка.
  • 42 Расчет ачх и фчх звена второго порядка.
  • 43. Понятие цифрового фильтра.
  • 44 Этапы проектирования цифрового фильтра.
  • 45 Обеспечение линейности фчх цифрового фильтра.
  • 46 Цифровые фильтры с бесконечной импульсной характеристикой. Метод билинейного z-преобразования расчета бих-фильтров низкой частоты.
  • 47 Цифровые фильтры с бесконечной импульсной характеристикой. Метод билинейного z-преобразования расчета бих-фильтров высокой частоты.
  • 48 Цифровые фильтры с конечной импульсной характеристикой. Расчет ких-фильтров.
  • 49 Сглаживание данных. Скользящее усреднение.
  • 50 Сглаживание данных. Сглаживание параболами.
  • 51 Сглаживание данных. Сглаживание Спенсера.
  • 52 Сглаживание данных. Медианная фильтрация.
  • 53 Определение параметров тренда методом наименьших квадратов.
  • 54 Понятие вейвлет-преобразования, отличие от преобразования Фурье.
  • 55 Математическое описание вейвлетных функций.
  • 56 Расчет дискретных вейвлетов.
  • 17 Линейные системы, инвариантные к сдвигу.

    Система называется инвариантной к сдвигу (инвариантной во времени, а равно и по любым другим аргументам), если сдвиг входного сигнала по аргументам вызывает соответствующий сдвиг выходного сигнала:

    Линейность и инвариантность к сдвигу являются независимыми свойствами систем и не определяют друг друга. Так, например, операция квадратирования сигнала (возведения в квадрат всех значений сигнала) инвариантна к сдвигу, но нелинейна.

    В теории анализа и обработки данных основное место занимают системы, линейные и инвариантные к сдвигу (ЛИС - системы). Они обладают достаточно широкими практическими возможностями при относительной простоте математического аппарата. В дальнейшем, если это специально не оговаривается, рассматриваются именно такие системы.

    Преимущество, которое отдается ЛИС - системам в методах обработки информации, базируется на возможности разложения входного сигнала любой, сколь угодно сложной формы, на составляющие простейших форм, отклик системы на которые известен и хорошо изучен, с последующим вычислением выходного сигнала в виде суммы откликов на все составляющие входного сигнала. В качестве простейших форм разложения сигналов используются, как правило, единичные импульсы и гармонические составляющие. Первая применяется при представлении сигнала в динамической форме и использует преобразование свертки, вторая - частотное представление сигнала и преобразование Фурье.

    Другой важной особенностью ЛИС - систем является то, что любые их комбинации также являются ЛИС - системами, а любую сложную ЛИС - систему можно разложить на комбинации простых систем. Так, например, при последовательном (каскадном) соединении систем, когда выходной сигнал одной системы служит входным сигналом для второй и т.д., образуемая система в целом также является ЛИС - системой, если линейны и инвариантны к сдвигу все системы, в нее входящие, при этом по отношению к общей системной операции преобразования порядок соединения входящих в нее систем значения не имеет.

    18 Импульсная характеристика линейных систем. Устойчивость и физическая реализуемость.

    Импульсный отклик системы. По определению, импульсными характеристиками систем (второй широко используемый термин - импульсный отклик систем) называются функции для аналоговых идля цифровых систем, которые является реакцией (откликом) систем на единичные входные сигналы: дельта-функциюдля аналоговых и импульс Кронекерадля цифровых систем, поступающие на вход систем соответственно приt=0 иk=0 . Эта реакция однозначно определяется оператором преобразования:

    Импульсный отклик аналоговой системы, как результат операции над дельта-функцией, в определенной степени представляет собой математическую абстракцию идеального преобразования. С практической точки зрения под импульсным откликом аналоговой системы можно понимать математическое отображение реакции системы на импульсный входной сигнал произвольной формы с площадью, равной 1, если длительность сигнала пренебрежимо мала по сравнению со временем реакции системы или с периодом ее собственных колебаний. Под временем (длиной) реакции системы обычно понимают интервал, на котором значения функции существенно отличаются от нуля после прекращения действия единичного сигнала на ее входе.

    Рисунок 3.5 - Импульсный отклик системы ,

    входной сигнал и выходная реакция системы

    Для цифровых систем импульсный отклик однозначно определяется реакцией системы на импульс Кронекера =1 приk=0 .

    Функцию импульсного отклика называют также весовой функцией системы.

    На рисунке 3.5 приведен пример импульсного отклика интегрирующейRC -цепи. При подаче на входRC -цепи импульса зарядаq емкостьС заряжается до напряженияV о = q/C и начинает разряжаться через сопротивлениеR , при этом напряжение на ней изменяется по законуv(t) = V o e -t/RC = (q/C) e -t/RC . Отсюда, откликRC -цепи по выходному напряжению на входной сигналq = 1: h(t) = (1/C) e -t/RC . По существу, импульсным откликом системыопределяется доля входного сигнала, которая действует на выходе системы по истечении времениt после поступления сигнала на вход (запаздывающая реакция системы).

    Реакция системы на произвольный сигнал. Если функция импульсного отклика системы известна, то, с учетом принципа суперпозиции сигналов в линейной системе, можно выполнить расчет реакции системы в любой произвольный момент времени на любое количество входных сигналов с любыми моментами времени их прихода путем суммирования запаздывающих реакций системы на эти входные сигналы, как это показано на рисунке 3.5 для трех входных импульсов. В общем случае произвольный сигнал на входе системы может быть разложен в линейную последовательность взвешенных единичных импульсов:

    . (3.17)

    На основании принципа суперпозиции линейный оператор Т может быть внесен под знак интеграла, так как последний представляет собой предельное значение суммы. При этом операция преобразования действует только по переменной t :

    . (3.18)

    Это выражение представляет собой интеграл Дюамеля или свертку входного сигнала с импульсной характеристикой системы. Заменой переменных t- =можно убедиться в том, что эта операция, как и положено свертке, коммутативна:

    ..

    Аналогично, для дискретных и цифровых сигналов:

    . (3.20)

    В символической форме математического представления:

    В реальных физических системах импульсный отклик равен нулю приt<0 (реакция на выходе системы не может опережать входной сигнал) и, как правило, отличен от нуля только на определенном интервалеr , по которому и ведется интегрирование или суммирование в выражениях свертки. При обработке данных на ЭВМ требований по односторонности импульсного отклика не предъявляется, равно как и по его размерам вперед и назад от нуля по координатам.

    Устойчивость систем. Любая практическая система должна быть устойчивой , т.е. для сигналов, конечных по энергии или средней мощности, выходные сигналы также должны быть конечными по этим параметрам. Система называется устойчивой, если при любых начальных условиях реакция системы на любое ограниченное воздействие также ограничена.

    Для конечного по энергии входного сигнала, можно записать:

    .

    Отсюда следует условие, при котором выходной сигнал системы также будет ограниченным:

    т.е. необходимым и достаточным условием устойчивости системы является абсолютная сходимость ее импульсной характеристики, или, для цифровых систем, абсолютная суммируемость импульсного отклика:

    Анализ устойчивости может быть проведен по передаточной функции. В устойчивой системе значение H(z) должно быть конечным во всех точках z-плоскости, где |z| ≥ 1, а, следовательно, передаточная функция не должна иметь особых точек (полюсов) при z ≥ 1 (вне единичного круга на z-плоскости). Полюсы определяются корнями многочлена знаменателя передаточной функции H(z).

    Приведенный критерий устойчивости относится к несократимой дроби, т.к. в противном случае возможна компенсация полюса нулем передаточной функции и следует проверить наличие однозначных нулей и полюсов.

    Проверка на устойчивость требуется только для рекурсивных цифровых фильтров (систем с обратной связью), нерекурсивные системы всегда устойчивы.

    Функция Кронекера. Для дискретных и цифровых систем разрешающая способность по аргументу сигнала определяется интервалом его дискретизации Dt. Это позволяет в качестве единичного импульса использовать дискретный интегральный аналог дельта-функции - функцию единичного отсчета d(kDt-nDt), которая равна 1 в координатной точке k = n, и нулю во всех остальных точках. Функция d(kDt-nDt) может быть определена для любых значений Dt = const, но только для целых значений координат k и n, поскольку других номеров отсчетов в дискретных функциях не существует.

    Математические выражения d(t-t) и d(kDt-nDt) называют также импульсами Дирака и Кронекера. Однако, применяя такую терминологию, не будем забывать, что это не просто единичные импульсы в координатных точках t и nDt, а полномасштабные импульсные функции, определяющие как значения импульсов в определенных координатных точках, так и нулевые значения по всем остальным координатам, в пределе от -¥ до ¥.

    1.3. Системы преобразования сигналов

    Сигналы, в любой форме материального представления, содержат определенную полезную информацию. Если при преобразованиях сигналов происходит нарушение заключенной в них информации (частичная утрата, количественное изменение соотношения информационных составляющих или параметров, и т. п.), то такие изменения называются искажениями сигнала. Если полезная информация остается неизменной или адекватной содержанию во входном сигнале, то такие изменения называются преобразованиями сигнала.

    Математические преобразования сигналов осуществляются для того, чтобы получить какую-то дополнительную информацию, недоступную в исходном сигнале, или выделить из входного сигнала полезную информацию и сделать ее более доступной для дальнейшей обработки, измерений каких-либо параметров, передаче по каналам связи, и пр. Преобразованный сигнал принято называть трансформантой исходного.

    Любые изменения сигналов сопровождаются изменением их спектра, и по характеру этого изменения разделяются на два вида: линейные и нелинейные. К нелинейным относят изменения, при которых в составе спектра сигналов появляются (вводятся) новые гармонические составляющие, отсутствующие во входном сигнале. При линейных изменениях сигналов изменяются амплитуды и/или начальные фазы гармонических составляющих спектра (вплоть до полного подавления в сигнале определенных гармоник). И линейные, и нелинейные изменения сигналов могут происходить как с сохранением полезной информации, так и с ее искажением. Это зависит не только от характера изменения спектра сигналов, но и от спектрального состава самой полезной информации.

    Общее понятие систем. Преобразование и обработка сигналов осуществляется в системах. Понятия сигнала и системы неразрывны, так как любой сигнал существует в пределах какой-либо системы. Система обработки сигналов может быть реализована как в материальной форме (специальное устройство, измерительный прибор, совокупность физических объектов с определенной структурой взаимодействия и т. п.), так и программно на ЭВМ или любом другом специализированном вычислительном устройстве. Форма реализации системы существенного значения не имеет, и определяет только ее возможности при анализе и обработке сигналов.

    Безотносительно к назначению система всегда имеет вход , на который подается внешний входной сигнал, в общем случае многомерный, и выход , с которого снимается обработанный выходной сигнал. Собственно система представляет собой системный оператор (алгоритм) преобразования входного сигнала s(t) – воздействия или возбуждения , в сигнал на выходе системы y(t) – отклик или выходную реакцию системы. Символическое обозначение операции преобразования (трансформации сигнала): y(t) = T.

    Системный оператор T - это набор правил преобразования (transformation) сигнала s(t) в сигнал y(t). Так, например, в самом простейшем случае таким правилом может быть таблица перекодировки входных сигналов в выходные.

    Для детерминированных входных сигналов соотношение между выходными и входными сигналами всегда однозначно задается системным оператором. В случае реализации на входе системы случайного процесса происходит изменение статистических характеристик сигнала (математического ожидания, дисперсии, корреляционной функции и пр.), которое также определяется системным оператором.

    Для полного определения системы необходимо задание характера, типа и области допустимых величин входных и выходных сигналов. По типу обработки входных сигналов они обычно подразделяются на системы непрерывного времени для обработки сигналов в процессе измерений, и цифровые системы для обработки данных, зарегистрированных на промежуточных носителях. Совокупность системного оператора Т и областей входных и выходных сигналов образует математическую модель системы.

    Линейные и нелинейные системы составляют два основных класса систем обработки сигналов.

    Термин линейности (linear) означает, что система преобразования сигналов должна иметь произвольную, но в обязательном порядке линейную связь между входным сигналом (возбуждением) и выходным сигналом (откликом) с определенным изменением спектрального состава входного сигнала (усиление или подавление определенных частотных составляющих сигнала). В нелинейных (nonlinear) системах связь между входным и выходным сигналом определяется произвольным нелинейным законом с дополнением частотного состава входного сигнала частотными составляющими, отсутствующими во входном сигнале.

    Стационарные и нестационарные системы. Система считается стационарной и имеет постоянные параметры , если ее свойства (математический алгоритм оператора преобразования) в пределах заданной точности не зависят от входного и выходного сигналов и не изменяются ни во времени, ни от каких-либо других внешних факторов. В противном случае система является нестационарной, и называется параметрической или системой с переменными параметрами . Среди последних большое значение имеют так называемые адаптивные системы обработки данных. В этих системах производится, например, оценивание определенных параметров входных и выходных сигналов, по результатам сравнения которых осуществляется подстройка параметров преобразования (переходной характеристики системы) таким образом, чтобы обеспечить оптимальные по производительности условия обработки сигналов или минимизировать погрешность обработки.

    Основные системные операции. К базовым линейным операциям, из которых могут быть сформированы любые линейные операторы преобразования, относятся операции скалярного умножения, сдвига и сложения сигналов:

    y(t) = c ´ s(t), y(t) = s(t-Dt), y(t) = a(t)+b(t).

    Для нелинейных систем выделим важный тип безинерционных операций нелинейной трансформации сигнала, результаты которой зависят только от его входных значений. К ним относятся, например, операции квадратирования и логарифмирования сигнала:

    y(t) = 2, y(t) = log.

    Линейные системы. Система считается линейной, если ее реакция на входные сигналы аддитивна (выполняется принцип суперпозиции сигналов) и однородна (выполняется принцип пропорционального подобия). Другими словами, отклик линейной системы на взвешенную сумму входных сигналов должен быть равен взвешенной сумме откликов на отдельные входные сигналы независимо от их количества и для любых весовых коэффициентов , в том числе комплексных.

    При программной реализации линейных систем на ЭВМ особых затруднений с обеспечением линейности в разумных пределах значений входных и выходных сигналов, как правило, не возникает. При физической (аппаратной) реализации систем обработки данных диапазон входных и выходных сигналов, в котором обеспечивается линейность преобразования сигналов, всегда ограничен и должен быть специально оговорен.

    Инвариантность систем к сдвигу. Система называется инвариантной к сдвигу, если сдвиг входного сигнала по аргументам (времени, координатам пространства и т. п.) вызывает соответствующий сдвиг выходного сигнала:

    y(x, t) = T, T = y(x-Dx, t-Dt).

    Это означает, что форма выходного сигнала зависит только от входного сигнала, и не зависит от времени поступления сигнала на вход системы. Инвариантность системы к сдвигу является одним из подтверждений постоянства ее параметров.

    Линейные системы, инвариантные к сдвигу. Линейность и инвариантность к сдвигу являются независимыми свойствами систем и не определяют друг друга. Так, например, операция квадратирования сигнала инвариантна к сдвигу, но нелинейна.

    В теории анализа и обработки данных основное место занимают системы, линейные и инвариантные к сдвигу (ЛИС - системы). Они обладают достаточно широкими практическими возможностями при относительной простоте математического аппарата. В дальнейшем, если это специально не оговаривается, будем иметь в виду именно такие системы.

    Преимущество, которое отдается ЛИС - системам в методах обработки информации , базируется на возможности разложения входного сигнала любой, сколь угодно сложной формы, на составляющие простейших форм, отклик системы на которые известен и хорошо изучен, с последующим вычислением выходного сигнала в виде суммы откликов на все составляющие входного сигнала. В качестве простейших форм разложения сигналов используются, как правило, единичные импульсы и гармонические составляющие. Разложение по единичным импульсам применяется при динамическом представлении сигнала в зависимости от реальных физических аргументов (времени, координат и пр.) и использует операцию свертки. Разложение на гармонические составляющие использует спектральное (частотное) представление сигнала и преобразование Фурье.

    Рис. 1.3.2 Соединения систем.

    Соединения ЛИС - систем . При последовательном (каскадном) соединении систем выходной сигнал одной системы служит входным сигналом для второй и т. д. в зависимости от количества составляющих систем каскада. По отношению к общей системной операции преобразования порядок соединения входящих в нее систем значения не имеет. Так, для двух последовательно соединенных систем на рис. 1.3.2.

    177kb. 01.03.2010 20:05 290kb. 07.03.2010 21:27 152kb. 22.03.2010 21:39 188kb. 22.03.2010 21:39 174kb. 28.03.2010 22:25 197kb. 11.09.2008 19:16 136kb. 05.04.2010 18:57 179kb. 05.04.2010 18:57 153kb. 11.09.2008 19:34 479kb. 04.04.2010 20:32 613kb. 04.04.2010 21:26 324kb. 11.04.2010 19:04 4kb. 19.05.2010 00:41 8kb. 17.05.2010 22:04 5kb. 19.05.2010 00:45 8kb. 24.05.2010 23:20 5kb. 24.05.2010 23:20 4kb. 24.05.2010 23:20 133kb. 11.09.2008 20:05 7kb. 17.05.2010 21:48 6kb. 17.05.2010 21:47 7kb. 17.05.2010 21:46 7kb. 17.05.2010 21:45 7kb. 17.05.2010 21:44 7kb. 17.05.2010 21:42 5kb. 17.05.2010 21:41 6kb. 17.05.2010 21:41 6kb. 17.05.2010 21:39 9kb. 17.05.2010 21:39 8kb. 17.05.2010 22:03 6kb. 17.05.2010 21:36 7kb. 17.05.2010 21:34 8kb. 17.05.2010 21:32 7kb. 17.05.2010 21:28 6kb. 17.05.2010 22:05 6kb. 17.05.2010 22:01 7kb. 17.05.2010 21:59 7kb. 17.05.2010 21:58 6kb. 17.05.2010 21:56 7kb. 17.05.2010 21:55 7kb. 17.05.2010 21:54 6kb. 17.05.2010 21:53 9kb. 17.05.2010 21:52 4kb. 19.05.2010 00:41 9kb. 10.09.2008 00:26

    ts01.doc

    Функция единичного скачка или функция Хевисайда иногда называется также функцией включения. Полное математическое выражение функции:

    При моделировании сигналов и систем значение функции скачка в точке t=0 очень часто принимают равным 1, если это не имеет принципиального значения.

    Функция единичного скачка используется при создании математических моделей сигналов конечной длительности. При умножении любой произвольной функции, в том числе периодической, на прямоугольный импульс, сформированный из двух последовательных функций единичного скачка

    S(t) = (t) - (t-T),

    Из нее вырезается участок на интервале 0-Т, и обнуляются значения функции за пределами этого интервала.

    Функция Кронекера. Для дискретных и цифровых систем разрешающая способность по аргументу сигнала определяется интервалом его дискретизации t. Это позволяет в качестве единичного импульса использовать дискретный интегральный аналог дельта-функции - функцию единичного отсчета (kt-nt), которая равна 1 в координатной точке k = n, и нулю во всех остальных точках. Функция (kt-nt) может быть определена для любых значений t = const, но только для целых значений координат k и n, поскольку других номеров отсчетов в дискретных функциях не существует.

    Математические выражения (t-) и (kt-nt) называют также импульсами Дирака и Кронекера. Однако, применяя такую терминологию, не будем забывать, что это не просто единичные импульсы в координатных точках  и nt, а полномасштабные импульсные функции, определяющие как значения импульсов в определенных координатных точках, так и нулевые значения по всем остальным координатам, в пределе от - до .

    ^ 1.3. Системы преобразования сигналов

    Сигналы, в любой форме материального представления, содержат определенную полезную информацию. Если при преобразованиях сигналов происходит нарушение заключенной в них информации (частичная утрата, количественное изменение соотношения информационных составляющих или параметров, и т.п.), то такие изменения называются искажениями сигнала. Если полезная информация остается неизменной или адекватной содержанию во входном сигнале, то такие изменения называются преобразованиями сигнала.

    Математические преобразования сигналов осуществляются для того, чтобы получить какую-то дополнительную информацию, недоступную в исходном сигнале, или выделить из входного сигнала полезную информацию и сделать ее более доступной для дальнейшей , измерений каких-либо параметров, передаче по каналам связи, и пр. Преобразованный сигнал принято называть трансформантой исходного.

    Любые изменения сигналов сопровождаются изменением их спектра, и по характеру этого изменения разделяются на два вида: линейные и нелинейные. К нелинейным относят изменения, при которых в составе спектра сигналов появляются (вводятся) новые гармонические составляющие, отсутствующие во входном сигнале. При линейных изменениях сигналов изменяются амплитуды и/или начальные фазы гармонических составляющих спектра (вплоть до полного подавления в сигнале определенных гармоник). И линейные, и нелинейные изменения сигналов могут происходить как с сохранением полезной информации, так и с ее искажением. Это зависит не только от характера изменения спектра сигналов, но и от спектрального состава самой полезной информации.

    Общее понятие систем. Преобразование и обработка сигналов осуществляется в системах. Понятия сигнала и системы неразрывны, так как любой сигнал существует в пределах какой-либо системы. Система обработки сигналов может быть реализована как в материальной форме (специальное устройство, измерительный прибор, совокупность физических объектов с определенной структурой взаимодействия и т.п.), так и программно на ЭВМ или любом другом специализированном вычислительном устройстве. Форма реализации системы существенного значения не имеет, и определяет только ее возможности при анализе и обработке сигналов.


    Рис. 1.3.1. Графическое представление системы.
    Безотносительно к назначению система всегда имеет вход , на который подается внешний входной сигнал, в общем случае многомерный, и выход , с которого снимается обработанный выходной сигнал. Собственно система представляет собой системный оператор (алгоритм) преобразования входного сигнала s(t) – воздействия или возбуждения , в сигнал на выходе системы y(t) – отклик или выходную реакцию системы. Символическое обозначение операции преобразования (трансформации сигнала): y(t) = T.

    Системный оператор T - это набор правил преобразования (transformation) сигнала s(t) в сигнал y(t). Так, например, в самом простейшем случае таким правилом может быть таблица перекодировки входных сигналов в выходные.

    Для детерминированных входных сигналов соотношение между выходными и входными сигналами всегда однозначно задается системным оператором. В случае реализации на входе системы случайного процесса происходит изменение статистических характеристик сигнала (математического ожидания, дисперсии, корреляционной функции и пр.), которое также определяется системным оператором.

    Для полного определения системы необходимо задание характера, типа и области допустимых величин входных и выходных сигналов. По типу обработки входных сигналов они обычно подразделяются на системы непрерывного времени для обработки сигналов в процессе измерений, и цифровые системы для обработки данных, зарегистрированных на промежуточных носителях. Совокупность системного оператора Т и областей входных и выходных сигналов образует математическую модель системы.

    Линейные и нелинейные системы составляют два основных класса систем обработки сигналов.

    Термин линейности (linear) означает, что система преобразования сигналов должна иметь произвольную, но в обязательном порядке линейную связь между входным сигналом (возбуждением) и выходным сигналом (откликом) с определенным изменением спектрального состава входного сигнала (усиление или подавление определенных частотных составляющих сигнала). В нелинейных (nonlinear) системах связь между входным и выходным сигналом определяется произвольным нелинейным законом с дополнением частотного состава входного сигнала частотными составляющими, отсутствующими во входном сигнале.

    Стационарные и нестационарные системы. Система считается стационарной и имеет постоянные параметры , если ее свойства (математический алгоритм оператора преобразования) в пределах заданной точности не зависят от входного и выходного сигналов и не изменяются ни во времени, ни от каких-либо других внешних факторов. В противном случае система является нестационарной, и называется параметрической или системой с переменными параметрами . Среди последних большое значение имеют так называемые адаптивные системы обработки данных. В этих системах производится, например, оценивание определенных параметров входных и выходных сигналов, по результатам сравнения которых осуществляется подстройка параметров преобразования (переходной характеристики системы) таким образом, чтобы обеспечить оптимальные по производительности условия обработки сигналов или минимизировать погрешность обработки.

    Основные системные операции. К базовым линейным операциям, из которых могут быть сформированы любые линейные операторы преобразования, относятся операции скалярного умножения, сдвига и сложения сигналов:

    Y(t) = c  s(t), y(t) = s(t-t), y(t) = a(t)+b(t).

    Для нелинейных систем выделим важный тип безинерционных операций нелинейной трансформации сигнала, результаты которой зависят только от его входных значений. К ним относятся, например, операции квадратирования и логарифмирования сигнала:

    Y(t) = 2 , y(t) = log.

    Линейные системы. Система считается линейной, если ее реакция на входные сигналы аддитивна (выполняется принцип суперпозиции сигналов) и однородна (выполняется принцип пропорционального подобия). Другими словами, отклик линейной системы на взвешенную сумму входных сигналов должен быть равен взвешенной сумме откликов на отдельные входные сигналы независимо от их количества и для любых весовых коэффициентов , в том числе комплексных.

    При программной реализации линейных систем на ЭВМ особых затруднений с обеспечением линейности в разумных пределах значений входных и выходных сигналов, как правило, не возникает. При физической (аппаратной) реализации систем обработки данных диапазон входных и выходных сигналов, в котором обеспечивается линейность преобразования сигналов, всегда ограничен и должен быть специально оговорен.

    Инвариантность систем к сдвигу. Система называется инвариантной к сдвигу, если сдвиг входного сигнала по аргументам (времени, координатам пространства и т.п.) вызывает соответствующий сдвиг выходного сигнала:

    Y(x,t) = T, T = y(x-x,t-t).

    Это означает, что форма выходного сигнала зависит только от входного сигнала, и не зависит от времени поступления сигнала на вход системы. Инвариантность системы к сдвигу является одним из подтверждений постоянства ее параметров.

    Линейные системы, инвариантные к сдвигу. Линейность и инвариантность к сдвигу являются независимыми свойствами систем и не определяют друг друга. Так, например, операция квадратирования сигнала инвариантна к сдвигу, но нелинейна.

    В теории анализа и обработки данных основное место занимают системы, линейные и инвариантные к сдвигу (ЛИС - системы). Они обладают достаточно широкими практическими возможностями при относительной простоте математического аппарата. В дальнейшем, если это специально не оговаривается, будем иметь в виду именно такие системы.

    Преимущество, которое отдается ЛИС - системам в методах обработки информации, базируется на возможности разложения входного сигнала любой, сколь угодно сложной формы, на составляющие простейших форм, отклик системы на которые известен и хорошо изучен, с последующим вычислением выходного сигнала в виде суммы откликов на все составляющие входного сигнала. В качестве простейших форм разложения сигналов используются, как правило, единичные импульсы и гармонические составляющие. Разложение по единичным импульсам применяется при динамическом представлении сигнала в зависимости от реальных физических аргументов (времени, координат и пр.) и использует операцию свертки. Разложение на гармонические составляющие использует спектральное (частотное) представление сигнала и преобразование Фурье.


    Рис. 1.3.2 Соединения систем.
    Соединения ЛИС - систем . При последовательном (каскадном) соединении систем выходной сигнал одной системы служит входным сигналом для второй и т.д. в зависимости от количества составляющих систем каскада. По отношению к общей системной операции преобразования порядок соединения входящих в нее систем значения не имеет. Так, для двух последовательно соединенных систем на рис. 1.3.2:

    Y(t) = T 2 ] = T 1 ].

    При параллельном соединении входной сигнал поступает одновременно на входы всех составляющих систем, а выходные сигналы систем суммируются:

    Y(t) = T 1 + T 2 + ... + T N .

    Образуемые в результате соединений системы в целом также являются ЛИС - системами, если линейны и инвариантны к сдвигу системы, в них входящие.

    Обобщенная схема системы цифровой обработки сигналов на рис. 1.3.3 приведена в качестве примера.

    Рис. 1.3.3. Структурная схема системы дифференцирования сигналов.

    ^ 1.4. информационная емкость сигналов

    Объем информации, находящейся в обращении и необходимой для функционирования и развития современного общества, нарастает примерно пропорционально квадрату развития производительных сил. В передовых по научно-техническому развитию странах мира доля рабочей силы, занятой вопросами сбора, обработки и обеспечения информацией, превышает долю рабочей силы в сфере производства. Применение методов и средств автоматизации на всех этапах обращения информации, эффективная организация ее хранения, обработки и обмена, приобретают все большее значение в качестве основного условия успешного функционирования экономики стран.

    Понятие информации. В настоящее время нет общепринятого и однозначного понимания термина "Информация". Спектр бытующих понятий весьма широк, от общего философского - информация есть отражение реального мира, до практического - информация есть сведения, являющиеся объектом хранения, передачи и преобразования. Расхождения существуют и по вопросу места информации в материальном мире. Это свойство индивидуальных объектов или результат их взаимодействия? Присуща ли информация всем видам материи или лишь определенным образом организованной материи?

    В информатике под информацией понимается, как правило, совокупность сведений смыслового содержания, которые можно собирать, обрабатывать, передавать и т.п. Причем именно сведений в изначальном смысле латинского слова informatio, а не данных или сигналов, которые являются носителями этих сведений. В таком понимании процессы извлечения сведений из данных и их интерпретации неразрывно связаны с разумом, а конечным результатом обработки и восприятия информации с помощью разума является раскрытие неопределенности знаний о каком-либо объекте, явлении или процессе. Но при таком подходе размывается само понятие разума.

    С одной стороны, существование любого живого существа поддерживается до тех пор, пока действуют его органы чувств (датчики), преобразующие физические воздействия окружающего мира в сигналы, которые в материальной форме отображают данные об этих воздействиях. Данные собираются и интерпретируются определенной системой, которую в самой общей форме мы называем "разумом", из общей суммы данных извлекаются определенные сведения, степень неопределенности сведений об окружающей обстановке снижается, и... лиса распутывает заячий след. Живое существо существует до тех пор, пока способно воспринимать и обрабатывать внешние и внутренние воздействия. Нет сомнений и в том, что в коллективных сообществах его члены не только способны собирать и обрабатывать информацию, но и передавать ее другим членам сообщества, как, например, в пчелиной семье точный путь до продуктивного цветочного массива. Информационный танец пчелы в этом отношении по компактности содержания ничем не уступает телеграфному сообщению. Естественно, в принятой у пчел символьной форме.

    С другой стороны, если информация неразрывно связана с "разумом", то в этом случае нельзя отказать в "разуме" и электронной вычислительной машине, обыгрывающей в шахматы чемпиона мира, а равно и любым устройствам технической кибернетики, так как все они имеют системы сбора, передачи, накопления, хранения и обработки информации той или иной степени сложности, и на основе этой информации способны формировать сигналы обратной связи для управления определенными процессами.

    В технических отраслях знаний, где вопросы соотношения информации с разумом не стоят на первом месте, преобладает понимание информации в виде отображения такого всеобщего свойства материи, как разнообразие, как характеристики внутренней организованности материальных систем, процессов или явлений по множеству состояний, которые для них возможны. В такой трактовке информация существует независимо от того, воспринимается она каким-либо "разумом" или нет, и является одним из свойств материальных объектов. "Информация есть информация, а не материя и не энергия" (Норберт Винер). Это свойство в какой-то мере имеет потенциальный характер. Информация может проявлять себя при взаимодействии объектов или процессов, может возникать (создаваться) и исчезать (уничтожаться).

    Но и в такой трактовке возникает много вопросов, на которые трудно дать однозначные ответы. Насекомое третичного периода, неизвестное в настоящее время ученым, прилипло к капле смолы хвойного дерева. Новый слой смолы закрыл насекомое. Дерево упало, и его занесло песком. Смола превратилась в янтарь. Янтарь в потенциале содержит полную информацию о насекомом, потому как в нем десятки тысяч фрагментов ДНК - информация, достаточная для восстановления ДНК и воспроизводства насекомого, если не в настоящее время, то в ближайшем будущем. Но когда она возникла? В момент появления насекомого с его ДНК? В момент прилипания к смоле? В момент окаменения? Можно ли говорить о появлении информации, если еще не существовал субъект, способный извлечь и использовать эту информацию? Наконец, янтарь с насекомым найден и попал на глаза палеонтолога. Определен новый вид насекомого. Появилась первая частичная информация? Так может быть, информация появляется только при активном и целенаправленном воздействии на объект исследований? А если янтарь оказался непрозрачным, и его переплавили? Исчезла ли информация? И можно ли считать, что она вообще была?

    Ответы на эти и подобные им вопросы тяготеют к двум полюсам, а по существу, к двум диаметрально противоположным философским позициям.

    Сторонники первой позиции понимают под информацией только то, что может восприниматься, обрабатываться, осмысливаться и использоваться, т.е. является продуктом процесса сбора, организации, систематизации и использования сведений о материальных объектах и процессах.

    Противоположная позиция, это понятие информации как свойства объектов и процессов воспринимать и перерабатывать внутреннее состояние и внешнее воздействие окружающей среды, сохранять его результаты и передавать их другим объектам. С этой позиции все материальные объекты и процессы являются источниками, носителями и потребителями информации, на основе которой и идет развитие реального мира. По существу, это соответствует принятию материальности информации и информационной основы мироздания.

    При неопределенности самого понятия информации можно достаточно обоснованно считать, что информация проявляется, хранится и передается от одного объекта к другому в материально - энергетической форме в виде сигналов. Сигналом, как материальным носителем информации, может быть любой физический процесс (электрический, магнитный, оптический, акустический и пр.), определенные параметры которого (амплитуда, частота, энергия, интенсивность и др.) однозначно отображают информационные данные (сообщения).

    Количественная мера информации. Теория любого явления начинается с появления количественных взаимоотношений между объектами исследований, т.е. при установлении принципов измеряемости каких-либо свойств объектов. Единицу количественной меры информации - БИТ (сокращение binary digit - двоичная цифра), впервые предложил Р. Хартли в 1928 году. 1 бит - это информация о двух возможных равновероятных состояниях объекта, неопределенность выбора из двух равновероятных событий. Математически это отображается состоянием 1 или 0 одного разряда двоичной системы счисления. Количество информации Н (в битах), необходимое и достаточное для полного снятия неопределенности состояния объекта, который имеет N равновозможных состояний, измеряется как логарифм по основанию 2 из числа возможных состояний:

    H = log 2 N. (1.4.1)

    Соответственно, двоичный числовой информационный код одного из N возможных состояний объекта занимает Н двоичных разрядов.

    Пример. Необходимо поднять груз на определенный этаж 16 -ти этажного здания (нумерация этажей 0-15, N = 16). Сколько бит информации полностью определяют задание?

    H = log 2 N = log 2 16 = 4.

    Следовательно, 4 бита информации необходимы и достаточны для полного снятия неопределенности выбора. В этом можно убедиться применением логики исчисления с последовательным делением пополам интервалов состояний. Например, для 9-го этажа:

    1. Выше 7-го этажа? Да = 1. 2. Выше 11-го этажа? Нет = 0.

    3. Выше 9-го этажа? Нет = 0. 4. Выше 8-го этажа? Да = 1.

    Итог: этаж номер 9 или 1001 в двоичном исчислении, четыре двоичных разряда.

    Если в приведенном примере на этажах имеется по 4 квартиры с нумерацией на каждом этаже 0-3 (М=4), то при адресации груза в квартиру потребуется еще 2 бита информации. Такой же результат получим, если вместо независимой нумерации этажей и квартир на этажах (два источника неопределенности) будем иметь сквозную нумерацию квартир (обобщенный источник):

    H = log 2 N + log 2 M = log 2 16 + log 2 4 = 6  log 2 (N  M) = log 2 64 = 6,

    Т.е. количество информации отвечает требованию аддитивности: неопределенность объединенного источника равна сумме неопределенностей исходных источников, что соответствует интуитивному требованию к информации: она должна быть однозначной, а ее количество должно быть одним и тем же независимо от способа задания.

    Основание логарифма не имеет принципиального значения и определяет только масштаб или единицу неопределенности. Так, если за единицу неопределенности принять три равновероятных состояния, то для определения, например, одной фальшивой золотой монеты (более легкой) из 27 внешне неотличимых монет потребуется только H = log 3 27 = 3, т.е. три взвешивания на равноплечных весах. Логику исчисления взвешиваний предлагается определить самостоятельно.

    Двоичная мера информации получила общее признание в связи с простотой реализации информационной техники на элементах с двумя устойчивыми состояниями. В десятичном исчислении единицей информации является один десятичный разряд - ДИТ.

    Энтропия источника информации. Степень неопределенности состояния объекта (или так называемого источника информации) зависит не только от числа его возможных состояний, но и от вероятности этих состояний. При неравновероятных состояниях свобода выбора для источника ограничивается. Так, если из двух возможных состояний вероятность одного из них равна 0.999, то вероятность другого состояния соответственно равна 1-0.999 = 0.001, и при взаимодействии с таким источником результат практически предрешен.

    В общем случае, в соответствии с теорией вероятностей, источник информации однозначно и полно характеризуется ансамблем состояний U = {u 1 , u 2 ,..., u N } с вероятностями состояний соответственно {р(u 1), р(u 2),..., р(u N)} при условии, что сумма вероятностей всех состояний равна 1. Мера количества информации, как неопределенности выбора дискретным источником состояния из ансамбля U, предложена К. Шенноном в 1946 году и получила название энтропии дискретного источника информации или энтропии конечного ансамбля:

    H(U) = -p n log 2 p n . (1.4.2)

    Выражение Шеннона совпадает с выражением Больцмана для энтропии физических систем при оценке степени разнообразия их состояний. Мера энтропии Шеннона является обобщением меры Хартли на случай ансамблей с неравновероятными состояниями, в чем нетрудно убедиться, если в выражении (1.4.2) значение p n заменить значением p=1/N для ансамбля равновероятных состояний. Энтропия конечного ансамбля H(U) характеризует неопределенность, приходящуюся в среднем на одно состояние ансамбля.

    Учитывая, что в дальнейшем во всех математических выражениях, касающихся энтропии, мы будем использовать только двоичное основание логарифма, индекс 2 основания логарифма в формулах будем подразумевать по умолчанию.


    u i

    p i

    u i

    p i

    u i

    p i

    u i

    p i

    u i

    p i

    а

    .064

    з

    .015

    о

    .096

    х

    .009

    э

    .003

    б

    .015

    и

    .064

    п

    .024

    ц

    .004

    ю

    .007

    в

    .039

    й

    .010

    р

    .041

    ч

    .013

    я

    .019

    г

    .014

    к

    .029

    с

    .047

    ш

    .006

    -

    .124

    д

    .026

    л

    .036

    т

    .056

    щ

    .003

    е,ё

    .074

    м

    .026

    у

    .021

    ъ,ь

    .015

    ж

    .008

    н

    .056

    ф

    .020

    ы

    .016
    Пример. Вычислить энтропию ансамбля 32 букв русского алфавита. Вероятности использования букв приведены в таблице. Сравнить энтропию с неопределенностью, которая была бы у алфавита при равновероятном их использовании.

    Неопределенность на одну букву при равновероятности использования:

    H(u) = log 32 = 5

    Энтропия алфавита по ансамблю таблицы:

    H(u) = - 0.064 log 0.064 - 0.015 log 0.015 - . . . . . . . . . . . . . . . . . . - 0.143 log 0.143  4.42.

    Таким образом, неравновероятность состояний снижает энтропию источника.

    Основные свойства энтропии:

    1. Энтропия является величиной вещественной и неотрицательной, т.к. значения вероятностей p n находятся в интервале 0-1, значения log p n всегда отрицательны, а значения -p n log p n в (1.4.2) соответственно положительны.

    2. Энтропия - величина ограниченная, т.к. при p n  0 значение -p n log p n также стремится к нулю, а при 0 < p n  1 ограниченность суммы всех слагаемых очевидна.

    3. Энтропия равна 0, если вероятность одного из состояний источника информации равна 1, и тем самым состояние источника полностью определено (вероятности остальных состояний источника равны нулю, т.к. сумма вероятностей должна быть равна 1).

    4. Энтропия максимальна при равной вероятности всех состояний источника информации:

    H ma x (U) = -(1/N) log (1/N) = log N.


    Рис. 1.4.1.
    5. Энтропия источника с двумя состояниями u 1 и u 2 при изменении соотношения их вероятностей p(u 1)=p и p(u 2)=1-p определяется выражением:

    H(U) = -,

    И изменяется от 0 до 1, достигая максимума при равенстве вероятностей. График изменения энтропии приведен на рис. 1.4.1.

    6. Энтропия объединенных статистически независимых источников информации равна сумме их энтропий.

    Рассмотрим это свойство на двух источниках информации u и v. При объединении источников получаем обобщенный источник информации (u,v), который описывается вероятностями p(u n v m) всех возможных комбинаций состояний u n источника u и v m источника v. Энтропия объединенного источника при N возможных состояниях источника u и М возможных состояниях источника v:

    H(UV) = -
    p(u n v m) log p(u n v m),

    Источники статистически независимы друг от друга, если выполняется условие:

    P(u n v m) = p(u n)p(v m).

    С использованием этого условия соответственно имеем:

    H(UV) = -p(u n)p(v m) log =

    P(u n) log p(u n)p(v m) -p(v m) log p(v m)p(u m).

    С учетом того, что p(u n) = 1 иp(v m) = 1, получаем:

    H(UV) = H(U) + H(V). (1.4.3)

    7. Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля, игнорируя содержательную сторону ансамбля. Это расширяет возможности использования энтропии при анализе самых различных явлений, но требует определенной дополнительной оценки возникающих ситуаций. Как следует из рис. 1.4.1, энтропия состояний может быть неоднозначной, и если в каком-либо экономическом начинании действие u с вероятностью p u =p приводит к успеху, а действие v с вероятностью p v =1-p к банкротству, то выбор действий по оценке энтропии может оказаться и прямо противоположным, т.к. энтропия при p v =p равна энтропии при p u =p.

    Чтобы преобразовать входной сигнал в удобную для хранения, воспроизведения и управления форму, необходимо обосновать требования к параметрам систем преобразования сигнала. Для этого надо математически описать связь между сигналами на входе, выходе системы и параметрами системы.

    В общем случае система преобразования сигнала является нелинейной: при вхождении в нее гармонического сигнала на выходе системы возникают гармоники других частот. Параметры нелинейной системы преобразования зависят от параметров входного сигнала. Общей теории нелинейности не существует . Одним из способов описать связь между входным E вх (t ) и выходным E вых (t ) сигналами и параметром K нелинейности системы преобразования является следующий:

    (1.19)

    где t и t 1 – аргументы в пространстве выходного и входного сигналов соответственно.

    Нелинейность системы преобразования определяется видом функции K .

    Чтобы упростить анализ процесса преобразований сигнала, используют допущение о линейности систем преобразований. Это допущение применимо к нелинейным системам, если сигнал имеет малую амплитуду гармоник, либо когда систему можно рассматривать как совокупность линейного и нелинейного звеньев. Примером такой нелинейной системы являются светочувствительные материалы (подробный анализ их преобразующих свойств будет сделан ниже).

    Рассмотрим преобразование сигнала в линейных системах. Система называется линейной , если ее реакция на одновременное воздействие нескольких сигналов равна сумме реакций, вызываемых каждым сигналом, действующим отдельно , т. е. выполняется принцип суперпозиции :

    где t , t 1 – аргументы в пространстве выходного и входного сигналов соответственно;

    E 0 (t , t 1) – импульсная реакция системы.

    Импульсной реакцией системы называется выходной сигнал, если на вход подан сигнал, описываемый дельта-функцией Дирака. Эту функцию δ(x ) определяют тремя условиями:

    δ(t ) = 0 при t ≠ 0; (1.22)
    (1.23)
    δ(t ) = δ(–t ). (1.24)

    Геометрически она совпадает с положительной частью вертикальной оси координат, т. е. имеет вид луча, выходящего вверх из начала координат. Физической реализацией дельта-функции Дирака в пространстве является точка с бесконечной яркостью, во времени – бесконечно короткий импульс бесконечно большой интенсивности, в спектральном пространстве – бесконечно сильное монохроматическое излучение.

    Дельта-функция Дирака обладает следующими свойствами:

    (1.25)
    (1.26)

    Если импульс происходит не на нулевом отсчете, а при значении аргумента t 1 , то такую "сдвинутую" на t 1 дельта-функцию можно описать как δ(t t 1).

    Чтобы упростить выражение (1.21), связывающее выходной и входной сигналы линейной системы, принимают допущение о нечувствительности (инвариантности) линейной системы к сдвигу. Линейная система называется нечувствительной к сдвигу , если при сдвиге импульса импульсная реакция изменяет только свое положение, но не изменяет своей формы , т. е. удовлетворяет равенству:

    E 0 (t , t 1) = E 0 (t t 1). (1.27)

    Рис. 1.6. Нечувствительность импульсной реакции систем

    или фильтров к сдвигу

    Оптические системы, являясь линейными, чувствительны к сдвигу (не инвариантны): распределение, освещенность и размер "кружка" (в общем случае не являющегося кругом) рассеяния зависят от координаты в плоскости изображения. Как правило, в центре поля зрения диаметр "кружка" меньше, а максимальное значение импульсной реакции больше, чем по краям (рис.1.7).

    Рис. 1.7. Чувствительность импульсной реакции к сдвигу

    Для нечувствительных к сдвигу линейных систем выражение (1.21), связывающее входной и выходной сигналы, приобретает более простой вид:

    Из определения свертки следует возможность представить выражение (1.28) в несколько ином виде:

    что для рассматриваемых преобразований дает

    (1.32)

    Таким образом, зная сигнал на входе линейной и инвариантной к сдвигу системы, а также импульсную реакцию системы (отклик ее на единичный импульс), по формулам (1.28) и (1.30) можно математически определить сигнал на выходе системы, не реализуя физически саму систему.

    К сожалению, из указанных выражений невозможно непосредственно найти одну из подынтегральных функций E вх (t ) или E 0 (t ) по второй и известному выходному сигналу.

    Если линейная, нечувствительная к сдвигу система состоит из нескольких, последовательно пропускающих сигнал фильтрующих звеньев, то импульсная реакция системы представляет собой свертку импульсных реакций составляющих фильтров, что в сокращенном виде можно записать как

    что соответствует сохранению неизменного значения постоянной составляющей сигнала при фильтрации (это станет очевидным при анализе фильтрации в частотной области).

    Пример . Рассмотрим преобразование оптического сигнала при получении на светочувствительном материале миры с косинусоидальным распределением интенсивности. Мирой называется решетка или ее изображение, состоящие из группы полос определенной ширины. Распределение яркости в решетке обычно имеет прямоугольный или косинусоидальный характер. Миры необходимы для экспериментального изучения свойств фильтров оптических сигналов.

    Схема устройства для записи косинусоидальной миры представлена на рис. 1.8.

    Рис. 1.8. Схема устройства для получения миры
    с косинусоидальным распределением интенсивности

    Равномерно перемещающуюся со скоростью v фотопленку 1 освещают через щель 2 шириной A. Изменение освещенности во времени производится по косинусоидальному закону. Это достигается за счет прохождения светового пучка через осветительную систему 3 и два поляроидных фильтра 4 и 5. Поляроидный фильтр 4 равномерно вращается, фильтр 5 неподвижен. Вращение оси подвижного поляризатора относительно неподвижного обеспечивает косинусоидальное изменение интенсивности проходящего светового пучка. Уравнение изменения освещенности E (t ) в плоскости щели имеет вид:

    Фильтрами в рассматриваемой системе являются щель и фотопленка. Так как подробный анализ свойств светочувствительных материалов будет приведен ниже, то проанализируем только фильтрующее действие щели 2. Импульсную реакцию E 0 (х ) щели 2 шириной A можно представить в виде:

    (1.41)

    то окончательный вид уравнения сигнала на выходе щели следующий:

    Сравнение Е вых (x ) и Е вх (x ) показывает, что они отличаются лишь наличием множителя в переменной части. График функции типа sinc представлен на рис. 1.5. Она характеризуется осциллирующим с постоянным периодом убыванием от 1 до 0.

    Следовательно, при увеличении значения аргумента этой функции, т. е. при росте произведения w 1 A и уменьшении v , амплитуда переменной составляющей сигнала на выходе падает.

    Кроме того, эта амплитуда будет обращаться в нуль, когда

    Это имеет место при

    Где n = ±1, ±2…

    В таком случае вместо миры на пленке получится равномерное почернение.

    Изменения постоянной составляющей сигнала а 0 не произошло, т. к. импульсная реакция щели здесь являлась нормированной в соответствии с условием (1.37).

    Таким образом, регулируя параметры записи миры v , A , w 1 , можно подобрать оптимальную для данного светочувствительного материала амплитуду переменной составляющей освещенности, равную произведению a sinc ((w 1 A )/(2v )), и предотвратить брак.

    • Сергей Савенков

      какой то “куцый” обзор… как будто спешили куда то