- •7. Основные свойства информации. Объективность и субъективность. Полнота, достоверность, адекватность, доступность, актуальность.
- •8. Понятие архитектуры эвм. Аппаратные и программные средства. Отличие архитектуры
- •9. Понятие о кодировании информации. Количественная мера информации
- •10. Системы счисления. Двоичная система счисления. Кодирование целых и действительных чисел.
- •11. Кодирование графической и звуковой информации. Растровые и векторные данные.
- •12. Понятие данных. Носители данных и их характеристики. Операции с данными.
- •13. Кодирование текстовых данных. Стандарты. Таблицы кодировки. Проблема национальных
- •14. Состав вычислительного комплекса. Конфигурация. Аппаратное обеспечение. Протокол.
- •15. Персональный компьютер. Базовая аппаратная конфигурация. Количественные
- •16. Устройство системного блока пк. Системы, расположенные на материнской плате.
- •17. Методы классификации компьютеров. Габариты. Производительность. СуперЭвм и
- •18. Программное обеспечение. Программная конфигурация. Базовый уровень. Системный
- •19. Классификация прикладных программных средств.
- •20. Классификация служебных программных средств.
- •20. Проблемы информационной безопасности. Средства обеспечения компьютерной
- •22. Функции операционных систем. Интерфейсы пользователя. Графическая операционная система Windows.
- •23. Классификация языков программирования. Примеры яну и яву, и их характеристика.
- •24. Количество информации при равновероятных состояниях элементов сообщения. Энтропия
- •25. Единицы измерения количества информации и энтропии. Представление сообщений и
- •26. Основные свойства энтропии.
- •27. Коэффициент сжатия и избыточность сообщений.
- •28. Канал связи, знаки и сигналы. Модель шума.
- •29. Семантическая и синтактическая информация. Два основных различных типа информации.
- •30. Дискретное выборочное пространство и события, определяемые на нем. Простой и
- •31. Основные этапы работы в системе ТеХ. Спецсимволы. Команды и их задание.
- •32. ТеХ. Команды с окружениями. Разные шрифты. Набор формул в простейших случаях.
- •33. ТеХ. Разбиение исходного файла на части. Математическая мода. Выделенные формулы.
- •34. ТеХ. Конструкция equation. Набор матриц.
- •35. ТеХ. Вставка готовых рисунков. Абрамов. Создание таблиц.
- •36. Арифметические основы работы эвм. Системы счисления. Выбор системы счисления.
- •37. Способы представления чисел в эвм с фиксированной и плавающей запятой.
- •38. Изображение отрицательных чисел в эвм. Прямой код. Дополнительный код.
- •39. Изображение чисел в эвм. Обратный код.
- •40. Понятие алгоритма. Граф алгоритма. Алгоритмы и способы их описания. Этапы решения
- •41. Алгоритмы. Линейная часть алгоритма. Цикл. Ветвлительные алгоритмы. Циклический
- •42. Стандарты для описания: схем, символов данных, процессов, символов линий,
- •48 Гост 19.701-90. Общие положения. Описание схем.
- •1. Общие положения
- •2. Описание схем
- •51 Гост 19.701-90. Символы линий. Специальные символы.
- •3.3. Символы линий
- •3.4. Специальные символы
- •43. Основные понятия теории сигналов. Периодическая функция, гармоника, амплитуда,
- •44. Ряд Фурье. Разложение периодического сигнала в ряд Фурье.
24. Количество информации при равновероятных состояниях элементов сообщения. Энтропия
сообщений.
Единицу количественной меры информации - БИТ (сокращение binary digit - двоичная цифра), впервые предложил Р. Хартли в 1928 году. 1 бит - это информация о двух возможных равновероятных состояниях объекта, неопределенность выбора из двух равновероятных событий. Математически это отображается состоянием 1 или 0 одного разряда двоичной системы счисления.
В 1528г Хартли создал формулу измерения информации. (Логарифмическая мера, мера Хартли).
I=logsL, Основание s мб произвольным, его опустим
I=logL
L – число различных состояний (кол-во различ слов)
I - кол-во инфы
L = mn
m - кол-во символов в алфавите
n - кол-во элементов в сообщении
Формула Хартли для равновероятных источников:
I = log L = log(mn) = n*log m
Удобнее работать с кол-вом информации(H), которая приходится на 1 элемент сообщений
H=1/n (8)-
энтропия - эта величина характеризует только информационные свойства самого источника. Так же она показывает сколько информации несет один символ в сообщении.
Обновлённая формула Хартли для равновероятных источников:
Количество информации Н (в битах), m - кол-во символов
Энтропия (информационная) — мера хаотичности информации, неопределённость появления какого-либо символа (события, имеющего разные исходы) первичного алфавита, характеризующая количество информации, приходящейся на одно сообщение источника.
25. Единицы измерения количества информации и энтропии. Представление сообщений и
определение количества информации и энтропии при разновероятных состояниях элементов.
За единицу количества информации приняли такое количество информации, при котором неопределённость уменьшается в два раза. Такая единица названа бит.
Бит – это такое количество информации, которое является достаточным для установки различий между двумя явлениями, имеющими одинаковую вероятность.
С точки зрения вероятности 1 бит — это такое количество информации, которое позволяет выбрать одно событие из двух равновероятных.
В технике под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Равновероятное, т.е. ни одно из них не имеет преимущества перед другим.
Для того чтобы количество информации имело положительное значение, необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных. Такое количество информации, которое находится в сообщении о том, что произошло одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту.
Для вычисления среднего количества информации и энтропии при разновероятных состояниях элементов можно использовать формулы Шенона:
- количество информации для n неравновероятных его элементов
- количество информации, которое в среднем приходится на одно событие
- частная энтропия
Получается, что энтропия H есть среднее значение для частных энтропий
x - некоторая система
n - количество элементов в сообщении
m - количество случайных независимых значений с вероятностью