Это не официальный сайт wikipedia.org 01.01.2023

Ёмкость Шеннона — Википедия

Ёмкость Шеннона

Ёмкость Шеннона (шенноновская ёмкость) — характеристика неориентированного графа, описывающая предельную плотность кодирования с возможностью гарантированного отслеживания ошибок в канале связи, модель которого представляет данный граф.

В этой модели вершины графа соответствуют символам алфавита, а наличие ребра между двумя вершинами означает, что при передаче первый символ может быть заменён на второй, а второй — на первый. Вероятности или частота, с которыми это происходит, в модели не рассматриваются, целью является построение оптимального способа кодирования, устойчивого к сколь угодно непредсказуемым ошибкам такого рода.

Несмотря на "практичную" формулировку, задача определения шенноновской ёмкости того или иного графа на текущий момент носит сугубо теоретический характер.

Мотивация к изучениюПравить

 
Граф C 5   с выделенным максимальным независимым множеством

Пусть по каналу связи передаётся текст, записанный с помощью алфавита из пяти символов: { 0 , 1 , 2 , 3 , 4 }  , причём физически чтение передаваемых символов реализовано через дискретизацию аналогового сигнала (взятие ближайшего из граничных значений). Из-за погрешностей в передаче сигнала могут перепутываться соседние символы, а также последний ( 4  ) перепутываться с первым ( 0  ). Граф G  , описывающий возможные ошибки этого канала связи, будет циклом длины 5.

Если передавать текст "как есть", то, получив символ 2  , получатель не сможет понять, был ли передан отправителем символ 2   или это был переданный отправителем символ 1  , при передаче которого произошла ошибка и он превратился в символ 2  .

Такая неоднозначность может возникать всегда когда используются хотя бы два символа, соединённые ребром в графе ошибок. Чтобы этого не происходило, можно выбрать независимое множество вершин этого графа и кодировать текст только с помощью символов, соответствующих этим вершинам. При этом, чтобы информационная ценность каждого символа страдала как можно меньше, уместно брать максимальное по размеру из таких множеств (его размер обозначается как α ( G )  ).

В рассматриваемом примере, очевидно, α ( G ) = 2   и поэтому текст нужно кодировать двумя символами (например, 1   и 3  ). Если длина передаваемого текста (количество символов исходного алфавита) равна n  , то существует всего 5 n   вариантов этого текста и чтобы закодировать их все символами двубуквенного алфавита понадобится не менее log 2 ( 5 n ) = n log 2 5   бит, то есть размер текста увеличится не менее чем в log 2 5   раз.

 
Граф C 5 2   c выделенным максимальным независимым множеством

Этот результат можно улучшить если рассматривать не множество ошибок передачи каждого отдельного символа, а ошибки при передаче пары символов. Граф пар символов, которые могут подменяться друг другом (его обозначают как G 2  ) будет иметь не меньшее число независимости.

В рассматриваемом примере α ( G 2 ) = 5   и одно из максимальных независимых множеств - { ( 0 , 3 ) , ( 1 , 0 ) , ( 2 , 2 ) , ( 3 , 4 ) , ( 4 , 1 ) }  . Это означает, что в передаваемом сообщении можно использовать все пять символов, но с условием, что при объединении их в последовательные пары будут образовываться только пары из этого множества (например, текст 00   использовать нельзя, потому что он может быть образован из текста 10  , который тоже используется). Если изначально в передаваемом тексте было n   символов, то каждый из них можно перевести в одну из этих пар и получить текст длины 2 n   с требуемыми свойствами отслеживания ошибок. Поскольку 2 < log 2 5  , то этот способ кодирования эффективнее первого.

Естественным образом возникает вопрос, можно ли улучшить этот результат, рассматривая не пары, а последовательные тройки, четвёрки и бо́льшее количество символов, и какого наилучшего результата можно достичь этим методом. Формализация этого вопроса и приводит к понятию ёмкости Шеннона.

Формальное определениеПравить

Для определения ёмкости Шеннона используется вспомогательное определение прямого произведения графов:

G 1 × G 2 = ( V 1 , E 1 ) × ( V 2 , E 2 ) = ( V , E )  , где

V = V 1 × V 2  
( ( v 1 , w 1 ) , ( v 2 , w 2 ) ) E ( ( v 1 , v 2 ) E 1 v 1 = v 2 ) ( ( w 1 , w 2 ) E 2 w 1 = w 2 ) ( ( v 1 , w 1 ) ( v 2 , w 2 ) )  

Это операция с точностью до изоморфизма является ассоциативной и коммутативной, так что можно естественным образом определить степень графа:

G k = G × G k 1  

Определение

Ёмкость Шеннона графа G   равна[1]

c ( G ) = sup n N α ( G n ) n = lim n α ( G n ) n  

Последнее равенство обусловлено тем, что α ( G × H ) α ( G ) α ( H )  [2].

Характер сходимостиПравить

Достижимость пределаПравить

Предел последовательности α ( G n ) n   достигается не всегда. Например, когда G   представляет собой объединение цикла длины 5 ( C 5  ) и изолированной вершины, то c ( G ) = 5 + 1  , но α ( G n ) n < 5 + 1  

Это обусловлено тем, что α ( G n ) = k = 1 n ( n k ) α ( C 5 k ) + 1   и α ( C 5 ) < c ( C 5 )  , так что аналогичное верно для объединения изолированной вершины с любым графом H  , для которого α ( H ) < c ( H )  

Скорость ростаПравить

Актуален вопрос о том, насколько быстро значения α n = α ( G n ) n   приближаются к c ( G )  . В 2006 году Алон и Любецкий показали. что при достаточно большом размере графа конечного числа значений α n   недостаточно чтобы узнать G   с точностью хотя бы до | G | ε ϵ > 0  . В той же работе они выдвинули несколько гипотез на эту тему.[3]

Теорема

Для любого целого v   существует сколь угодно большое N   и граф G   размера N   такие, что

α k = O ( log N )   при k < v  

α v = N 1 v  


Оценки и методы изученияПравить

Общих алгоритмов вычисления шенноновской ёмкости по состоянию на 2019 год неизвестно. Это связано не только с тем, что сама задача о числе независимости NP-полна и потому вычислительно трудна, но и с тем, что при вычисленных значениях α ( G k )   для малых k   задача предсказания дальнейшего роста этих величин также остаётся нетривиальной.

Более того, неизвестно даже точное значение ёмкости для цикла длины 7 или большей нечётной длины.[4][5] Однако для циклов нечётной длины известен предельный закон[6]:

c ( C 2 n + 1 ) = n + 1 2 + o ( 1 )  

Число ЛовасаПравить

Ласло Ловас в 1979 году показал, что c ( C 5 ) = α ( C 5 2 ) = 5  .[7] Для доказательства он вывел общую верхнюю оценку для ёмкости Шеннона через характеристику системы векторов ( u i ) i V  , структура которой связана со структурой графа G = ( V , E )  , а именно

u i T u j = { 1 , i = j , 0 , ( i , j ) E .  

При таком подходе чтобы получить верхнюю оценку достаточно предъявить хотя бы одну систему векторов c нужными свойствами, то есть происходит переход от задачи доказательства к задаче предъявления контрпримера.

В конструкции Ловаса с размером графа должно совпадать только количество векторов, но не размерность пространства. Например, для доказательства c ( C 5 ) = 5   использовались трёхмерные вектора.

Алгебраические оценкиПравить

Haemers получил оценку ёмкости через ранг матриц, похожих по структуре на матрицу смежности, а именно

c ( G ) R ( G ) = min B rank ( B ) ,  

где минимум берётся по всем матрицам B   размера n × n   в произвольном поле таким, что:

  • b i i 0  
  • ( i , j ) E b i j = 0  

Таким образом, для верхней оценки также достаточно предъявить хотя бы одну матрицу B  , имеющую малый ранг.[8]

См. такжеПравить

ПримечанияПравить

  1. Иногда также используется обозначение Θ ( G )  
  2. Слайды лекции МФТИ "Графовая модель канала связи. Шенноновская ёмкость"  (неопр.). Дата обращения: 30 декабря 2019. Архивировано 13 января 2017 года.
  3. Alon, Noga & Lubetzky, Eyal (2006), The Shannon capacity of a graph and the independence numbers of its powers, IEEE Transactions on Information Theory Т. 52: 2172–2176, DOI 10.1109/tit.2006.872856 .
  4. см. например, arXiv:1504.01472 Архивная копия от 30 декабря 2019 на Wayback Machine, где численное улучшение оценок на них представляется как тема отдельной работы
  5. Shannon capacity of the seven-cycle  (неопр.). Дата обращения: 30 декабря 2019. Архивировано 30 декабря 2019 года.
  6. Bohman, Tom (2003), A limit theorem for the Shannon capacities of odd cycles, Proceedings of the American mathematical society Т. 131 (11): 3559-3569 
  7. Lovász, László (1979), On the Shannon Capacity of a Graph, IEEE Transactions on Information Theory Т. IT-25 (1), DOI 10.1109/TIT.1979.1055985 
  8. Haemers, Willem H. (1978), An upper bound for the Shannon capacity of a graph, Colloquia Mathematica Societatis János Bolyai Т. 25: 267–272, <https://pure.uvt.nl/portal/files/997000/UPPER___.PDF>  Архивная копия от 4 марта 2016 на Wayback Machine. The definition here corrects a typo in this paper.