б) 2
Решение:
Количество информации, необходимое для кодирования одного символа, определяется по формуле Шеннона:
\(I = log_2 N\), где N - мощность алфавита.
Для первого текста:
\(I_1 = log_2 16 = 4\) бита на символ.
Для второго текста:
\(I_2 = log_2 256 = 8\) бит на символ.
Отношение количества информации во втором тексте к количеству информации в первом тексте:
\(\frac{I_2}{I_1} = \frac{8}{4} = 2\)
Таким образом, количество информации во втором тексте в 2 раза больше, чем в первом.
Ответ: 2