Документ взят из кэша поисковой машины. Адрес оригинального документа : http://geo.web.ru/db/msg.html?mid=1161235&uri=node12.html
Дата изменения: Unknown
Дата индексирования: Wed Apr 13 05:13:43 2016
Кодировка: koi8-r
"Введение в криптографию" под редакцией В.В.Ященко - Все о Геологии (geo.web.ru)
Все о геологии :: на главную страницу! Геовикипедия 
wiki.web.ru 
Поиск  
  Rambler's Top100 Service
 Главная страница  Конференции: Календарь / Материалы  Каталог ссылок    Словарь       Форумы        В помощь студенту     Последние поступления
   Геология | Книги
 Обсудить в форуме  Добавить новое сообщение
Next: 2.2. Криптография и гипотеза Up: 2. Криптография и теория Previous: 2. Криптография и теория Contents: Содержание

2.1. Введение

В теоретической криптографии существуют два основных подхода к определению стойкости криптосистем и криптографических протоколов (в дальнейшем мы будем также использовать общий термин - криптографические схемы): теоретико-информационный и теоретико-сложностной. Теоретико-информационный подход предполагает, что противник, атакующий криптографическую схему, не имеет даже теоретической возможности получить информацию, достаточную для осуществления своих целей. Классическим примером здесь может служить шифр Вернама с одноразовыми ключами, абсолютно стойкий против пассивного противника.

Подавляющее большинство используемых на практике криптографических схем не обладает столь высокой стойкостью. Более того, обычно бывает несложно указать алгоритм, который выполняет стоящую перед противником задачу, но не практически, а в принципе. Рассмотрим следующий пример.

Пример 1. (Криптосистема с открытым ключом)   Криптосистема с открытым ключом полностью определяется тремя алгоритмами: генерации ключей, шифрования и дешифрования. Алгоритм генерации ключей $ G$ общедоступен; всякий желающий может подать ему на вход случайную строку $ r$ надлежащей длины и получить пару ключей $ (K_1,K_2)$. Открытый ключ $ K_1$ публикуется, а секретный ключ $ K_2$ и случайная строка $ r$ хранятся в секрете. Алгоритмы шифрования $ E_{K_1}$ и дешифрования $ D_{K_2}$ таковы, что если $ (K_1,K_2)$ - пара ключей, сгенерированная алгоритмом $ G$, то $ D_{K_2}(E_{K_1}(m))=m$ для любого открытого текста $ m$. Для простоты изложения предполагаем, что открытый текст и криптограмма имеют одинаковую длину $ n$. Кроме того, считаем, что открытый текст, криптограмма и оба ключа являются строками в двоичном алфавите.

Предположим теперь, что противник атакует эту криптосистему. Ему известен открытый ключ $ K_1$, но неизвестен соответствующий секретный ключ $ K_2$. Противник перехватил криптограмму $ d$ и пытается найти сообщение $ m$, где $ d=E_{K_1}(m)$. Поскольку алгоритм шифрования общеизвестен, противник может просто последовательно перебрать все возможные сообщения длины $ n$, вычислить для каждого такого сообщения $ m_i$ криптограмму $ d_i=E_{K_1}(m_i)$ и сравнить $ d_i$ с $ d$. То сообщение, для которого $ d_i=d$, и будет искомым открытым текстом. Если повезет, то открытый текст будет найден достаточно быстро. В худшем же случае перебор будет выполнен за время порядка $ 2^nT(n)$, где $ T(n)$ - время, требуемое для вычисления функции $ E_{K_1}$ от сообщений длины $ n$. Если сообщения имеют длину порядка 1000 битов, то такой перебор неосуществим на практике ни на каких самых мощных компьютерах.

Мы рассмотрели лишь один из возможных способов атаки на криптосистему и простейший алгоритм поиска открытого текста, называемый обычно алгоритмом полного перебора. Используется также и другое название: ``метод грубой силы''. Другой простейший алгоритм поиска открытого текста - угадывание. Этот очевидный алгоритм требует небольших вычислений, но срабатывает с пренебрежимо малой вероятностью (при больших длинах текстов). На самом деле противник может пытаться атаковать криптосистему различными способами и использовать различные, более изощренные алгоритмы поиска открытого текста. Естественно считать криптосистему стойкой, если любой такой алгоритм требует практически неосуществимого объема вычислений или срабатывает с пренебрежимо малой вероятностью. (При этом противник может использовать не только детерминированные, но и вероятностные алгоритмы.) Это и есть теоретико-сложностной подход к определению стойкости. Для его реализации в отношении того или иного типа криптографических схем необходимо выполнить следующее:

1) дать формальное определение схемы данного типа;

2) дать формальное определение стойкости схемы;

3) доказать стойкость конкретной конструкции схемы данного типа.

Здесь сразу же возникает ряд проблем.

Во-первых, в криптографических схемах, разумеется, всегда используются фиксированные значения параметров. Например, криптосистемы разрабатываются для ключей длины, скажем, в 256 или 512 байтов. Для применения же теоретико-сложностного подхода необходимо, чтобы задача, вычислительную сложность которой предполагается использовать, была массовой. Поэтому в теоретической криптографии рассматриваются математические модели криптографических схем. Эти модели зависят от некоторого параметра, называемого параметром безопасности, который может принимать сколь угодно большие значения (обычно для простоты предполагается, что параметр безопасности может пробегать весь натуральный ряд).

Во-вторых, определение стойкости криптографической схемы зависит от той задачи, которая стоит перед противником, и от того, какая информация о схеме ему доступна. Поэтому стойкость схем приходится определять и исследовать отдельно для каждого предположения о противнике.

В-третьих, необходимо уточнить, какой объем вычислений можно считать ``практически неосуществимым''. Из сказанного выше следует, что эта величина не может быть просто константой, она должна быть представлена функцией от растущего параметра безопасности. В соответствии с тезисом Эдмондса алгоритм считается эффективным, если время его выполнения ограничено некоторым полиномом от длины входного слова (в нашем случае - от параметра безопасности). В противном случае говорят, что вычисления по данному алгоритму практически неосуществимы. Заметим также, что сами криптографические схемы должны быть эффективными, т.е. все вычисления, предписанные той или иной схемой, должны выполняться за полиномиальное время.

В-четвертых, необходимо определить, какую вероятность можно считать пренебрежимо малой. В криптографии принято считать таковой любую вероятность, которая для любого полинома $ p$ и для всех достаточно больших $ n$ не превосходит $ 1/p(n)$, где $ n$ - параметр безопасности.

Итак, при наличии всех указанных выше определений, проблема обоснования стойкости криптографической схемы свелась к доказательству отсутствия полиномиального алгоритма, который решает задачу, стоящую перед противником. Но здесь возникает еще одно и весьма серьезное препятствие: современное состояние теории сложности вычислений не позволяет доказывать сверхполиномиальные нижние оценки сложности для конкретных задач рассматриваемого класса. Из этого следует, что на данный момент стойкость криптографических схем может быть установлена лишь с привлечением каких-либо недоказанных предположений. Поэтому основное направление исследований состоит в поиске наиболее слабых достаточных условий (в идеале - необходимых и достаточных) для существования стойких схем каждого из типов. В основном, рассматриваются предположения двух типов - общие (или теоретико-сложностные) и теоретико-числовые, т.е. предположения о сложности конкретных теоретико-числовых задач. Все эти предположения в литературе обычно называются криптографическими.

Ниже мы кратко рассмотрим несколько интересных математических объектов, возникших на стыке теории сложности и криптографии. Более подробный обзор по этим вопросам можно найти в книге [1].


Next: 2.2. Криптография и гипотеза Up: 2. Криптография и теория Previous: 2. Криптография и теория Contents: Содержание


Проект осуществляется при поддержке:
Геологического факультета МГУ,
РФФИ
   
TopList Rambler's Top100