Подготовим к ЕГЭ за оставшееся времяна нужные баллы.
Пробный период бесплатно

осталось мест 52
Новая Школа - онлайн-школа подготовки к ЕГЭ
При поддержке
Посмотреть все тесты нейросети

Тест на тему практическая работа по теме измерение информации в 2 вариантах

16 сентября 2025 10:01

{Другой предмет}
8 Класс

Этот тест сгенерирован искусственным интеллектом. Возможны ошибки.

Сгенерировать свой тест

Ниже приведены два варианта теста (Вариант А и Вариант Б) по теме практической работы измерение информации. Тип вопросов — открытые. Всего по 5 вопросов в каждом варианте. Для каждого варианта даны примерные ответы.

Вариант А

  1. В алфавите из 4 знаков встречаются знаки поровну вероятности. Сколько бит несет один символ такого алфавита?
    Ответ: 2 бита. Обоснование: I = log2(4) = 2.

  2. Сколько бит нужно для кодирования полного сообщения длиной 6 символов, если используется алфавит из 4 знаков и символы равновероятны?
    Ответ: 12 бит. Обоснование: 6 символов × log2(4) = 6 × 2 = 12.

  3. Объясните простыми словами, зачем измеряют информацию и почему она нужна в информатике.
    Ответ: Информация показывает, сколько вариантов нужно различить, чтобы передать сообщение точно. Чем больше вариантов (напр., больше алфавит или менее предсказуемый символ), тем больше информации в символе. Это позволяет понять, сколько места и сколько бит нужно для передачи или хранения данных и как оценивать эффективность кодирования.

  4. Запишите формулу информационного содержания конкретного символа и приведите пример с вероятностью p = 1/2.
    Ответ: I(x) = -log2 p(x). Пример: если p = 1/2, то I = -log2(1/2) = 1 бит.

  5. В алфавите из трёх знаков X, Y, Z встречаются с вероятностями p(X)=0.5, p(Y)=0.3, p(Z)=0.2. Найдите энтропию H одного символа.
    Ответ: H ≈ -[0.5 log2 0.5 + 0.3 log2 0.3 + 0.2 log2 0.2] ≈ 1.49 бит. Пояснение: расчёт даёт примерно 0.5·1 + 0.3·1.737 + 0.2·2.322 ≈ 1.49.

Вариант Б

  1. Алфавит из 5 знаков. Сколько бит несет один символ данного алфавита, если знаки равновероятны?
    Ответ: I = log2(5) ≈ 2.32 бита.

  2. Сколько бит понадобится для кодирования полного сообщения длиной 7 символов из этого алфавита?
    Ответ: 7 × log2(5) ≈ 7 × 2.32 ≈ 16.26 бит.

  3. Поясните, зачем измеряют информацию в задачах передачи данных и как это помогает экономить место и пропускную способность канала.
    Ответ: Измерение информации позволяет понять минимально необходимое число бит для представления данных. Это помогает выбирать эффективные схемы кодирования, удалять избыточность и не перегружать канал лишними данными, оптимизируя скорость передачи и размер файлов.

  4. В алфавите A, B, C вероятности p(A)=0.6, p(B)=0.3, p(C)=0.1. Найдите энтропию H на один символ.
    Ответ: H ≈ -[0.6 log2 0.6 + 0.3 log2 0.3 + 0.1 log2 0.1] ≈ 1.30 бит. Пояснение: значения примерно 0.6→0.737, 0.3→1.737, 0.1→3.322; сумма даёт около 1.30.

  5. Чем отличаются понятия "информация в сообщении" и "энтропия"? Приведите короткие примеры.
    Ответ: Информация в сообщении зависит от конкретного содержания и вероятностей его появления; она может быть больше или меньше в зависимости от того, как предсказать символы. Энтропия же — средняя информация на один символ при заданном распределении вероятностей и максимальная теоретическая граница для эффективного кодирования. Пример: редкое событие несет большую информацию (меньшая вероятность), тогда как часто встречающееся событие несет меньшую информацию; энтропия учитывает все вероятности и дает среднюю величину информации на символ.


Сгенерировать свой тест

Популярные тесты

{Другой предмет}
7 Класс
{Другой предмет}
9 Класс
{Другой предмет}
5 Класс

Саша — ассистент в телеграмме