- •Основные цели и задачи теории информационных процессов и систем. Характеристики информационных барьеров в развитии общества.
- •Основные понятия: информация, меры информации, сигнал, информационные системы.
- •Основные понятия: энтропия, система, канал передачи информации, сигнал, помеха, шум.
- •Понятие «система»: цель, функция, элемент, подсистема, иерархия, связь, состояние, поведение, целостность, открытые и закрытые системы.
- •Вероятностный подход в описании информационных процессов. Мера Хартли.
- •Виды информации: топологическая, лингвистическая, абстрактная, техническая, научная, безразмерная.
- •Закономерности систем. Целостность. Иерархичность. Закон необходимого разнообразия Эшби.
- •Дискретизация и кодирование непрерывных сообщений
- •Помехи и их классификации. Шум.
- •Формула Найквиста
- •Признаки детерминированных и стохастических систем
- •Системный подход и системный анализ
- •Общая характеристика количественных методов описания систем
- •Теоретико-множественное описание информационных систем
- •Область применения, назначение и основные технические характеристики scada - систем
- •Понятие о производительности системы и скорости передачи информации.
-
Область применения, назначение и основные технические характеристики scada - систем
Область применения: атомная промышленность, атомная энергетика, электроэнергетика, все виды транспорта, все виды связи и т.д.
Системы SCADA предназначены для разработки или обеспечения работы в реальном времени систем сбора, обработки, отображения и архивирования информации об объекте мониторинга или управления.
Основные функции:
1. мониторинг – сбор и оценка данных технического процесса.
2. управление параметрами технического процесса.
3. осуществление обратной связи входных и выходных данных в автоматическом режиме.
Технические характеристики
• С точки зрения структуры SCADA-системы можно разделить на
модульные и интегрированные
• Все рассматриваемые системы ориентированы на
Windows.
• К промышленным базам данных предъявляются
повышенные требования. Особенностями таких баз
данных является большой объем информации и
необходимость в высокой скорости обмена.
• Практически все SCADA-системы используют
синтаксис, который является независимым от типа базы
данных.
• Функционально средства создания графического интерфейса
SCADA-систем похожи.
-
Структурные элементы, системное ПО систем SCADA
Структурные элементы SCADA-систем: управление, главный терминал и каналы связи
-
Периодические сигналы. Линейчатый спектр.
Периодическим сигналом называют такой вид воздействия, когда форма сигнала повторяется через некоторый интервал времени T, который называется периодом.
Спектры, состоящие из отдельных линий, называют линейчатыми
-
Случайные сигналы и их аналитическое описание.
Случайные сигналы — сигналы, мгновенные значения которых не известны, а могут быть лишь предсказаны с некоторой вероятностью, меньшей единицы. Случайный процесс описывается случайной функцией, значения которой при любом значении аргумента являются случайными величинами.
-
Понятие о ковариационной функции случайного процесса
Ковариационной функцией случайного процесса называется математическое ожидание произведения центрированных сечений случайного процесса в моменты времени t1 и t2.
Ковариационная функция случайного процесса обычно интерпретируется как мера того, в какой степени знание прошлого случайного процесса позволяет предсказать его будущее.
-
Гауссовский случайный процесс
Гауссовский случайный процесс — процесс, для которого все кумулянтные функции начиная с третьего порядка равны 0.
-
Спектральная плотность мощности случайного процесса
Спектральная плотность случайного процесса определяется как преобразование Фурье корреляционной функции. Спектральную плотность случайного процесса можно найти, если известен механизм образования случайного процесса.
-
Классификация методов модуляции
Классификация методов модуляции
Модуляция - это процесс преобразования информационного сигнала в высокочастотный сигнал с целью передачи его на большие расстояния.
-
В процессе модуляции участвуют следующие сигналы:
- модулирующий сигнал A(t), содержащий передаваемое сообщение;
- несущий сигнал x(t) на который переносится модулирующий сигнал;
- модулированный сигнал S(t) как результат воздействия модулирующего сигнала на несущий.
-
По виду передаваемого сообщения различают два вида модуляций:
- Аналоговая модуляция если A(t) непрерывный сигнал
- Дискретная модуляция если A(t) цифровой сигнал
-
По виду несущего колебания x(t) различают два вида модуляций:
- модуляция с синусоидальной (гармонической) несущей;
- модуляция с импульсной несущей.
-
Аналоговая модуляция с синусоидальной несущей, в зависимости от модулирующего параметра может быть:
- амплитудная модуляция;
- частотная модуляция;
- фазовая модуляция.
Частотные и фазовые модуляции называются угловыми модуляциями
-
Классификация методов модуляции
Переносчик – гармоническое колебание:
амплитудная(АМ), частотная(ЧМ), фазовая(ФМ).
Переносчик – периодическая последовательность импульсов:
амплитудно-импульсная(АИМ), широтно-импульсная(ШИМ), время-импульсная(ВИМ), частотно-импульсная(ЧИМ).
При двочном коде:
дискретная и цифровая модуляции.
Относительная фазовая модуляция(ОФМ).
-
Спектр амплитудно-модулированных сигналов при тональной и сложной модулирующей функции.
При тональной: ширина спектра равна удвоенной частоте модуляции, а амплитуды колебаний боковых частот не могут превышать половины амплитуды немодулированного колебания.
При сложной: спектр состоит из двух полос, симметричных относительно несущей частоты, причем с увеличением числа составляющих в спектре снижается значение коэффициента модуляции.
-
Идеальные и реальные модели канала передачи информации.
Реальный канал – нелинейная инерционная система со случайными параметрами (стохастическая система).
Идеальный канал можно применять как модель реального канала, если в нём отсутствуют помехи любого вида, преобразование сигналов является детерминированным, мощность и полоса сигналов ограниченны.
-
Детектирование амплитудно-модулированных сигналов.
В процессе детектирования происходит органическое изменение спектра: из суммы гармонических колебаний высоких частот получаются низкочастотные составляющие модулирующего сигнала.
-
Понятие о дискретизации и квантовании сигналов.
Переход от аналогового представления сигнала к цифровому, который дает в ряде случаев значительные преимущества при передаче, хранении и обработке информации, связан с дискретизацией сигнала по времени и с квантованием по уровню.
Дискретизация состоит в преобразовании сигнала x(t) непрерывного аргумента t в сигнал x(ti) дискретного аргумента ti.
Квантование по уровню состоит в преобразовании непрерывного множества значений сигнала x(ti) в дискретное множество значений xk, k = 0,1,2,…,m-1.
-
Классификация методов дискретизации сигналов.
Основные группы: равномерная и неравномерная дискретизации.
Группы неравномерных методов: адаптивные и программируемые.
-
Критерии оценки точности дискретизации сигналов.
Критерий наибольшего отклонения
, E(t) – текущая погрешность
Среднеквадратический критерий
Интегральный критерий как мера отклонения
Вероятностный критерий
-
Равномерная дискретизация. Теорема Котельникова.
При равномерной дискретизации шаг ∆t и частота отсчета являются постоянными величинами. Точки отсчетов в этом случае равномерно размещены по оси t.
Теорема Котельникова - любую функцию F(t), состоящую из частот от 0 до f1, можно непрерывно передавать с любой точностью при помощи чисел, следующих друг за другом через 1/(2f1) секунд.
-
Понятие о кодировании информации.
Кодирование информации – представление сообщений в форме, удобной для передачи и хранения.
Кодированная информация имеет форму совокупности чисел или цифровую форму, основанную на применение какой-либо системы счисления или кодирования.
-
Структурная схема канала передачи данных.
Источник – Кодер – Передатчик – Линия связи (<- Помехи) – Приемник – Декодер – Получатель
-
Понятие о реальном и идеальном канале передачи данных.
В идеальном канале между элементами кодовых сигналов на входе и выходе существуют однозначное соответствие (ошибки в канале отсутствуют).
В реальных каналах всегда имеются ошибки при передаче сообщений. Ошибки приводят к уменьшению пропускной способности канала и потере информации. Вероятности появления ошибок во многом определяются искажениями сигналов и влиянием помех.
-
Гауссовский канал и его разновидности.
Гауссовский канал – коэффициент передачи и время задержки сигналов не зависят от времени и являются детерминированными величинами, известными в месте приема сигналов; в канале действует аддитивная флуктуационная помеха – гауссовский белый шум.
Гауссовский канал с неопределенной фазой сигнала – время задержки сигнала случайно, фаза выходного сигнала случайна.
Гауссовский однолучевой канал с замираниями – коэффициент передачи канала и фазовая характеристика – случайные величины.
Гауссовский многолучевой канал с замираниями – распространение сигналов от передатчика к приемнику по различным каналам. Длительность прохождения сигналов и коэффициенты передачи различных каналов являются неодинаковыми и случайными.
Гауссовский многолучевой канал с замираниями и аддитивными сосредоточенными помехами – модель является более общей и достаточно полно отражает свойства многих реальных каналов.
-
Методика формирования кода Шеннона-Фано, его достоинства и недостатки.
Алгоритм использует коды переменной длины: часто встречающийся символ кодируется кодом меньшей длины, редко встречающийся — кодом большей длины.
Недостатки: неоптимальность, а также данная методика не всегда приводит к однозначному построению кода.
-
Энтропия источника независимых сообщений.
Количество передаваемой информации можно увеличить не только за счет числа сообщений, но и путем повышения энтропии источника, т.е. информационной емкости его сообщений.
-
Энтропия источника зависимых сообщений.
Наличие статистических связей между сообщениями всегда приводит к уменьшению количества информации, приходящейся в среднем на одно сообщение.
-
Свойства энтропии. Мера Хартли.
Свойства энтропии:
-
энтропия всегда положительная величина, т. к. P < 1
-
энтропия источников равна 0, если P = 0
-
чем меньше P события, тем больше информации оно несет.
-
максимальная энтропия имеет место для системы из двух равновероятностных независимых событий.
Мера Хартли – количество информации в сообщении о некотором событии существенно зависит от вероятности этого события.