Это не официальный сайт wikipedia.org 01.01.2023

Энтропия языка — Википедия

Энтропия языка — статистическая функция текста на определённом языке либо самого языка, определяющая количество информации на единицу текста.

С математической точки зрения энтропия языка определяется как

r = H ( M ) / N

где M  — сообщение, H ( M )  — его энтропия, N  — длина сообщения.

Согласно Клоду Шеннону и Томасу Каверу (англ. Thomas Cover), для английского языка эта величина составляет от 1,3 до 2,3 бита на букву.

ЛитератураПравить