Количество информации, которое несет один символ, определяется по формуле Шеннона:
\( I = \log_2{N} \),
где (I) – количество информации в битах, (N) – мощность алфавита.
Для первого текста:
\( I_1 = \log_2{16} = 4 \) бита.
Для второго текста:
\( I_2 = \log_2{256} = 8 \) битов.
Чтобы узнать, во сколько раз количество информации во втором тексте больше, чем в первом, нужно разделить (I_2) на (I_1):
\( \frac{I_2}{I_1} = \frac{8}{4} = 2 \).
Таким образом, количество информации во втором тексте в 2 раза больше, чем в первом.