Это не официальный сайт wikipedia.org 01.01.2023

Дифференциальная приватность — Википедия

Дифференциальная приватность

Дифференциальная приватность — совокупность методов, которые обеспечивают максимально точные запросы в статистическую базу данных при одновременной минимизации возможности идентификации отдельных записей в ней.

ВведениеПравить

Дифференциальная приватность — математическое определение потери конфиденциальных данных отдельных лиц, когда их личная информация используется для создания продукта. Этот термин был введён Синтией Дворк в 2006 году[1], но он же используется в более ранней публикации Дворк, Фрэнка Макшерри[fr], Коби Ниссима[fr] и Адама Д. Смита[fr][2]. Работа основана в частности на исследованиях Ниссима и Ирит Динур[3][4], которые показали, что невозможно публиковать информацию из частной статической базы данных, не раскрывая некоторую часть приватной информации, и что вся база данных может быть раскрыта путём публикации результатов достаточно небольшого числа запросов[4].

После проведения исследования стало понятно, что обеспечение конфиденциальности в статистических базах данных с использованием существующих методов было невозможным, и, как следствие, появилась необходимость в новых, которые бы ограничивали риски, связанные с потерей частной информации, содержащихся в статистической базе данных. Как итог были созданы новые методы, позволяющие в большинстве случаев предоставить точную статистику из базы данных, и при этом обеспечивающие высокий уровень конфиденциальности[5][6].

Принцип и иллюстрацияПравить

Дифференциальная приватность основана на введении случайности в данные.

Простой пример, разработанный в социальных науках[7], заключается в том, чтобы попросить человека ответить на вопрос «Есть ли у вас атрибут А?» в соответствии со следующей процедурой:

  1. Подбросьте монету
  2. Если выпал орел, ответьте честно на вопрос.
  3. Иначе подбросьте ещё раз, если выпадет орел, ответь «Да», если решка — «Нет»

Конфиденциальность возникает, так как невозможно по ответу точно узнать, обладает ли человек данным атрибутом. Но тем не менее эти данные значительны, так как положительные ответы дают четверть от тех людей, у которых нет этого атрибута, и три четверти от тех, кто на самом деле им обладают. Таким образом, если p — истинная доля людей с A, то мы ожидаем получить (1/4) (1- p) + (3/4) p = (1/4) + p / 2 положительных ответов. Следовательно, можно оценить р.

Формальное определение и пример использованияПравить

Пусть ε — положительное действительное число и A — вероятностный алгоритм, который принимает на вход набор данных (представляет действия доверенной стороны, обладающей данными). Образ A обозначим imA. Алгоритм A является ε-дифференциально приватным, если для всех наборов данных D 1   и D 2  , которые отличаются одним элементом (то есть данными одного человека), а также всех подмножеств S множества imA:

P [ A ( D 1 ) S ] e ϵ × P [ A ( D 2 ) S ] ,  

где P — вероятность.

В соответствии с этим определением дифференциальная приватность является условием механизма публикации данных (то есть определяется доверенной стороной, выпускающей информацию о наборе данных), а не самим набором. Интуитивно это означает, что для любых двух схожих наборов данных, дифференциально-приватный алгоритм будет вести себя примерно одинаково на обоих наборах. Определение также даёт сильную гарантию того, что присутствие или отсутствие индивидуума не повлияет на окончательный вывод алгоритма.

Например, предположим, что у нас есть база данных медицинских записей D 1   где каждая запись представляет собой пару (Имя, X), где X   является нулём или единицей, обозначающим, имеет ли человек гастрит или нет:

Имя Наличие гастрита (Х)
Иван 1
Петр 0
Василиса 1
Михаил 1
Мария 0

Теперь предположим, что злонамеренный пользователь (часто называемый злоумышленником) хочет найти, имеет ли Михаил гастрит или нет. Также предположим, что он знает, в какой строке находится информация о Михаиле в базе данных. Теперь предположим, что злоумышленнику разрешено использовать только конкретную форму запроса Q i  , который возвращает частичную сумму первых i   строк столбца X   в базе данных. Чтобы узнать, есть ли гастрит у Михаила, злоумышленник выполняет запросы: Q 4 ( D 1 )   и Q 3 ( D 1 )  , затем вычисляет их разницу. В данном примере, Q 4 ( D 1 ) = 3  , а Q 3 ( D 1 ) = 2  , поэтому их разность равна 1  . Это значит, что поле «Наличие гастрита» в строке Михаила должно быть равно 1  . Этот пример показывает, как индивидуальная информация может быть скомпрометирована даже без явного запроса данных конкретного человека.

Продолжая этот пример, если мы построим набор данных D 2  , заменив (Михаил, 1) на (Михаил, 0), то злоумышленник сможет отличить D 2   от D 1   путём вычисления Q 4 Q 3   для каждого набора данных. Если бы злоумышленник получал значения Q i   через ε-дифференциально приватный алгоритм, для достаточно малого ε, то он не смог бы отличить два набора данных.

Пример с монеткой, описанный выше является ( ln 3 )  -дифференциально приватным[8].

Граничные случаиПравить

Случай, когда ε = 0, является идеальным для сохранения конфиденциальности, поскольку наличие или отсутствие любой информации о любом человеке в базе данных никак не влияет на результат алгоритма, однако такой алгоритм является бессмысленным с точки зрения полезной информации, так как даже при нулевом количестве людей он будет давать такой же или подобный результат.

Если устремить ε в бесконечность, то любой вероятностный алгоритм будет подходить под определение, поскольку неравенство P [ A ( D 1 ) S ] × P [ A ( D 2 ) S ] ,   — выполняется всегда.

ЧувствительностьПравить

Пусть d   — положительное целое число, D   — набор данных и f : D R d   — функция. Чувствительность [9] функции, обозначаемая Δ f  , определяется формулой

Δ f = max f ( D 1 ) f ( D 2 ) 1 ,  

по всем парам наборов данных D 1   и D 2   в D  , отличающихся не более чем одним элементом и где 1   обозначает 1   норму.

На выше приведённом примере медицинской базы данных, если мы рассмотрим чувствительность d   функции Q i  , то она равна 1  , так как изменение любой из записей в базе данных приводит к тому, что Q i   либо изменится на 1   либо не изменится.

Механизм ЛапласаПравить

В связи с тем, что дифференциальная приватность является вероятностной концепцией, любой её метод обязательно имеет случайную составляющую. Некоторые из них, как и метод Лапласа, используют добавление контролируемого шума к функции, которую нужно вычислить.

Метод Лапласа добавляет шум Лапласа, то есть шум от распределения Лапласа, который может быть выражен функцией плотности вероятности noise ( y ) exp ( | y | / λ )   и который имеет нулевое математическое ожидание и стандартное отклонение 2 λ  . Определим выходную функцию A   как вещественнозначную функцию в виде T A ( x ) = f ( x ) + Y   где Y Lap ( λ )  , а f   — это запрос, который мы планировали выполнить в базе данных. Таким образом T A ( x )   можно считать непрерывной случайной величиной, где

p d f ( T A , D 1 ( x ) = t ) p d f ( T A , D 2 ( x ) = t ) = noise ( t f ( D 1 ) ) noise ( t f ( D 2 ) )  

которая не более e | f ( D 1 ) f ( D 2 ) | λ e Δ ( f ) λ   (pdf — probability density function или функция плотности вероятности). В данном случае можно обозначить Δ ( f ) λ   фактором конфиденциальности ε. Таким образом T   в соответствие с определением является ε-дифференциально приватной. Если мы попытаемся использовать эту концепцию в вышеприведённом примере про наличие гастрита, то для того, чтобы A   была ε-дифференциальный приватной функцией, должно выполняться λ = 1 / ϵ  , поскольку Δ ( f ) = 1  ).

Кроме шума Лапласа также можно использовать другие виды шума (например, гауссовский), но они могут потребовать небольшого ослабления определения дифференциальной приватности[10].

КомпозицияПравить

Последовательное применениеПравить

Если мы выполним запрос в ε-дифференциально защищённой T   раз, и вносимый случайный шум независим для каждого запроса, тогда суммарная приватность будет (εt)-дифференциальной. В более общем случае, если есть N   независимых механизмов: M 1 , , M n  , чьи гарантии приватности равны ϵ 1 , , ϵ n   соответственно, то любая функция g ( M 1 , , M n )   будет ( i = 1 n ϵ i )  -дифференциально приватной[11].

Параллельная композицияПравить

Кроме того, если запросы выполняются на непересекающихся подмножествах базы данных, то функция g   была бы ( max i ϵ i )  -дифференциально приватной[11].

Приватность группыПравить

Дифференциальная приватность в целом предназначена для защиты конфиденциальности между базами данных, которые отличаются только одной строкой. Это означает, что ни один злоумышленник с произвольной вспомогательной информацией не может узнать, представил ли какой-либо один отдельно взятый участник свою информацию. Однако это понятие можно расширить на группу, если мы хотим защитить базы данных, отличающиеся на c   строк, чтобы злоумышленник с произвольной вспомогательной информацией, не мог узнать, предоставили ли c   отдельных участников свою информацию. Это может быть достигнуто если в формуле из определения заменить exp ( ϵ )   на exp ( ϵ c )  [12], тогда для D1 и D2 отличающихся на c   строчек

Pr [ A ( D 1 ) S ] exp ( ϵ c ) × Pr [ A ( D 2 ) S ]  

Таким образом, использование параметра (ε/c) вместо ε позволяет достичь необходимого результата и защитить c   строк. Другими словами, вместо того, чтобы каждый элемент был ε-дифференциально приватным, теперь каждая группа из c   элементов являются ε-дифференциально приватной, а каждый элемент (ε/c)-дифференциально приватным.

Применение дифференциальной приватности в реальных приложенияхПравить

На сегодняшний день известно несколько видов применения дифференциальной приватности:

ПримечанияПравить

  1. Dwork Cynthia, 2006, p. 8.
  2. Cynthia Dwork, Frank McSherry, Kobbi Nissim, and Adam Smith=. Calibrating noise to sensitivity in private data analysis // Proceedings of the Third conference on Theory of Cryptography (TCC'06), Shai Halevi and Tal Rabin (Eds.). — Springer-Verlag, Berlin, Heidelberg, 2006. — С. 266. — doi:10.1007/11681878_14.
  3. Dwork Cynthia, 2006, p. 12.
  4. 1 2 Nissim et al, 2003, pp. 202—206.
  5. HILTON, MICHAEL. Differential Privacy: A Historical Survey (неопр.)., p.1
  6. Dwork, 2008, pp. 3—13.
  7. Roth et al, 2014, p. 15.
  8. Roth et al, 2014, p. 30.
  9. Dwork et al, 2006, pp. 271—272.
  10. Dwork, 2008, p. 16.
  11. 1 2 McSherry, 2009, p. 6.
  12. Dwork Cynthia, 2006, p. 9.
  13. Machanavajjhala et al, 2008, p. 1.
  14. Erlingsson et al, 2014, p. 1.
  15. Tackling Urban Mobility with Technology by Andrew Eland  (неопр.). Google Policy Europe Blog. Дата обращения: 19 декабря 2017. Архивировано 10 декабря 2017 года.
  16. Apple - Press Info - Apple Previews iOS 10, the Biggest iOS Release Ever  (неопр.). Apple. Дата обращения: 16 июня 2016. Архивировано 29 апреля 2017 года.

ЛитератураПравить