Это не официальный сайт wikipedia.org 01.01.2023

Граница Джонсона — Википедия

Граница Джонсона

Грани́ца Джо́нсона определяет предел мощности кода длины n и минимального расстояния d .

ФормулировкаПравить

Пусть C   — q  -чный код длины n   над полем F = G F ( q )   или, другими словами, подмножество F q n  . Пусть d   — минимальное расстояние кода C  , то есть

d = min x , y C , x y d ( x , y )  

где d ( x , y )   — расстояние Хэмминга между кодовыми словами x   и y  .

Пусть C q ( n , d )   — множество всех q  -чных кодов длины n   и минимального расстояния d   и пусть C q ( n , d , w )   обозначает подмножество всех равновесных кодов в C q ( n , d )  , иными словами, всех кодов, вес всех кодовых слов которых равен w  .

Обозначим через | C |   количество кодовых слов в C  , а через A q ( n , d )   — максимальную мощность кода длины n   и минимального расстояния d  , то есть

A q ( n , d ) = max C C q ( n , d ) | C | .  

Похожим образом определим A q ( n , d , w )   как максимальную мощность кода в C q ( n , d , w )  :

A q ( n , d , w ) = max C C q ( n , d , w ) | C | .  

Теорема 1 (Граница Джонсона для A q ( n , d )  ):

При d = 2 t + 1  

A q ( n , d ) q n i = 0 t ( n i ) ( q 1 ) i + ( n t + 1 ) ( d t ) A q ( n , d , d ) A ( n , d , t + 1 ) ( q 1 ) t + 1 .  

Примечание: для нахождения верхней границы на A q ( n , d )   для чётных значений d = 2 t   можно воспользоваться следующим равенством

A q ( n , 2 t ) = A q ( n 1 , 2 t 1 ) .  

Теорема 2 (Граница Джонсона для A q ( n , d , w )  ):

При d > 2 w  

A q ( n , d , w ) = 1.  

При d 2 w   пускай t = d 2  , а также q = q 1  , тогда

A q ( n , d , w ) n q w ( n 1 ) q w 1 ( n w + t ) q t ,  

где оператор       обозначает целую часть числа.

Примечание: подставляя границу теоремы 2 в теорему 1, мы получим верхнюю границу для A q ( n , d )  .

Доказательство первой теоремыПравить

Пусть C   — код длины n  , мощности M = A q ( n , d )   с минимальным расстоянием d = 2 t + 1  , содержащий нулевой вектор. Обозначим через S i   множество векторов, находящихся на расстоянии i   от кода C  , то есть

S i = { u F n : v C   d ( u , v ) i w C   d ( w , u ) = i } .  

Таким образом, S 0 = C  . Тогда S 0 S 1 S d 1 = F n  , так как если бы нашёлся вектор, находящийся на расстоянии d   или больше от кода C  , то мы могли бы добавить его к C   и получить код ещё большей мощности. Поскольку множества S 0 , S 1 , S 2 , , S t   не пересекаются, то отсюда следует граница сферической упаковки. Для получения же искомой границы оценим мощность S t + 1  .

Выберем произвольное кодовое слово P   и соответствующим сдвигом кода переведём его в начало координат. Кодовые слова веса d = 2 t + 1   образуют равновесный код с минимальным расстоянием не менее 2 t + 1  , и поэтому число кодовых слов веса d   не превышает A q ( n , 2 t + 1 , 2 t + 1 ) = A q ( n , d , d )  .

Обозначим через W t + 1   множество векторов F n   веса t + 1  . Любой вектор из W t + 1   принадлежит либо S t  , либо S t + 1  . Каждому кодовому слову Q   веса d   соответствуют ( d t )   векторов веса t + 1  , находящиеся от Q   на расстоянии t  .

Все эти векторы различны и принадлежат множеству W t + 1 S t  . Следовательно,

| W t + 1 S t + 1 | = | W t + 1 | | W t + 1 S t | ( n t + 1 ) ( q 1 ) t + 1 ( d t ) ( q 1 ) t + 1 A q ( n , d , d ) .  

Вектор R   из множества W t + 1 S t + 1   находится на расстоянии t + 1   не более чем от A q ( n , d , t + 1 )   кодовых слов. Действительно, перенесём начало координат в точку R   и подсчитаем, сколько кодовых слов может находиться от R   на расстоянии t + 1   и иметь между собой расстояние Хэмминга d  . Таковых по определению не должно быть больше A q ( n , d , t + 1 )  . Стало быть, векторы из множества W t + 1 S t + 1   могут учитываться не более A q ( n , d , t + 1 )   раз, то есть каждому кодовому слову P   соответствуют по крайней мере

( n t + 1 ) ( d t ) A q ( n , d , d ) A ( n , d , t + 1 ) ( q 1 ) t + 1  

различных векторов на расстоянии t + 1   от P  .

ЛитератураПравить

  • S. Johnson, A new upper bound for error correcting codes, IRE Transactions on Information Theory, 203–207, April 1962.
  • F. J. MacWilliams and N. J. A. Sloane, The Theory of Error-Correcting Codes, Amsterdam, Netherlands, North-Holland, § 17.2, § 17.3, 1977.
  • W. C. Huffman, V. Pless, Fundamentals of Error-Correcting Codes, Cambridge University Press, 2003.

См. такжеПравить