Компромисс времени и памяти
Компромисс времени и памяти (англ. space–time trade-off, «выбор оптимального соотношения „место — время“», или, иначе, англ. time–memory trade-off, «выбор оптимального соотношения „время — память“») — компромиссный подход к решению ряда задач в информатике, при котором используется обратное соотношение требуемого объёма памяти и скорости выполнения программы: время вычислений может быть увеличено за счёт уменьшения используемой памяти или, наоборот, снижено за счёт увеличения объёма используемой памяти.
Благодаря уменьшению относительных расходов на объём ОЗУ (RAM) и памяти на жёстком диске (в течение некоторого периода времени стоимость места на жёстком диске дешевела значительно быстрее, чем стоимость других компонент ЭВМ), постепенное распространение получали приёмы, использующие доступную память для уменьшения времени вычислений. В то же время, такие приёмы, как сжатие данных, демонстрируют альтернативный подход — экономное использование памяти за счёт дополнительных преобразований данных из одного формата в другой.
Примеры применения
Таблицы поиска
Многие задачи поиска, такие как непрерывная задача о рюкзаке, задача о дискретном логарифме или задача обращения односторонней функции, решаясь, по сути, перебором, допускают в то же время использование т. н. таблиц поиска (англ. lookup tables)[1]. Идея такова: вместо того, чтобы, не используя дополнительную память, перебирать все допустимые решения, или один раз вычислить их все заранее и хранить их в памяти (часто нет ни первой, ни второй возможности), можно заранее вычислить часть допустимых значений, и, организовав их в специальную структуру данных — таблицу поиска, — осуществлять с её помощью дальнейший перебор уже непосредственно при решении задачи.
Применению данного подхода в криптографии посвящён отдельный раздел данной статьи.
Сжатие данных
Выбор оптимального соотношения «место — время» может быть применён и к проблеме хранения данных. Хранение данных в несжатом виде потребует большего объёма памяти, но на их извлечение понадобится меньше времени, чем на извлечение данных, хранящихся в сжатом виде. В зависимости от конкретной задачи может быть предпочтителен тот или иной вариант.
Классическим примером компактного представления данных может служить, к примеру, формат представления формул ΤΕΧ, используемый для написания научных статей. Результатом работы пользователя является файл специального формата, который при необходимости легко может быть преобразован в гораздо более «тяжеловесный» pdf-файл, который, в свою очередь, уже может быть использован для просмотра документа в более популярных программах просмотра нежели специфические для ΤΕΧ.
Раскрутка цикла
Раскрутка цикла (англ. loop unwinding) является весьма популярным приёмом оптимизации кода, используемым во многих компиляторах. Идея состоит в увеличении числа инструкций, исполняемых в течение одной итерации цикла. В результате уменьшается число итераций (в пределе до единицы: все инструкции исполняются одна за другой), что, в свою очередь, увеличивает эффективность работы кэша данных.
Криптография
В данном разделе рассмотрен классический пример использования подхода Space-Time Trade-Off в криптографии — применение таблиц поиска в решении криптографической проблемы обращения криптографической хеш-функции.
Криптоаналитический перебор требует значительных вычислительных затрат. В случае, если требуется многократно осуществлять взлом криптосистемы, логично было бы заранее выполнить исчерпывающий перебор и хранить вычисленные значения в памяти. Сделав это однократно, можно далее осуществлять перебор практически мгновенно[2]. Впрочем, в реальности этот метод неприменим из-за огромных затрат памяти.
Метод, предложенный Хеллманом
В 1980 году Мартин Хеллман предложил компромиссный подход к проблеме криптоанализа, позволяющий проводить анализ криптосистемы, имеющей [math]\displaystyle{ N }[/math] ключей, за [math]\displaystyle{ N^{2/3} }[/math] операций, с затратами по памяти также [math]\displaystyle{ N^{2/3} }[/math][1]. Это становится возможным после того, как единожды будет выполнено требующее O(n) операций предварительное получение возможных ключей.
Идея заключается в следующем.
Пусть в алгоритме шифрования используется односторонняя функция [math]\displaystyle{ S_{k_i}(P) }[/math]. По свойствам односторонней функции получение использованного ключа [math]\displaystyle{ k_i }[/math] по известной паре [math]\displaystyle{ P_0,C_0 }[/math] — трудная задача, в то время как вычисление функции от данного открытого текста — простая задача.
Криптоаналитик применяет атаку на основе подобранного открытого текста и получает единственный шифртекст [math]\displaystyle{ C_0 }[/math], соответствующий открытому тексту [math]\displaystyle{ P_0 }[/math]:
Задача — найти ключ [math]\displaystyle{ k }[/math], которым осуществлялось шифрование. Для этого следует найти способ вычисления возможных ключей. Введём т. н. функцию редукции [math]\displaystyle{ R(C) }[/math], ставящую шифртексту [math]\displaystyle{ C_i }[/math] в соответствие некий ключ [math]\displaystyle{ k_{i+1} }[/math] (длина ключа, как правило, меньше длины шифртекста, отсюда и термин):
Вычисление функции редукции — простая операция.
Функция [math]\displaystyle{ f = R[S_{k_i}(P_0)] }[/math]
ставит в соответствие ключу [math]\displaystyle{ k_i }[/math] другой ключ [math]\displaystyle{ k_{i+1} }[/math]. Теперь мы можем получить сколь угодно длинную цепочку ключей:
Для того, чтобы построить таблицу поиска, криптоаналитик задаётся [math]\displaystyle{ m }[/math] случайными элементами пространства ключей. Из каждого ключа описанным выше методом получаем цепочку ключей длины [math]\displaystyle{ t }[/math]. В память записываем только начальный и конечный ключи каждой цепочки (пары ключей сортируем по конечному ключу). Таким образом, готовая таблица занимает [math]\displaystyle{ O(m) }[/math] ячеек памяти. Генерация таблицы требует [math]\displaystyle{ mt }[/math] операций.
Имея построенную таблицу, криптоаналитик может проводить перебор следующим образом. Исходим из того, что использованный при шифровании ключ [math]\displaystyle{ k }[/math] встретился при генерации таблицы. В таком случае, из него не более, чем за t операций применения функции [math]\displaystyle{ f }[/math], можно получить один из [math]\displaystyle{ m }[/math] конечных ключей, сохранённых в памяти.
После каждого применения операции редукции криптоаналитик ищет очередной полученный ключ в таблице (найти его или убедиться в его отсутствии можно за [math]\displaystyle{ log(m) }[/math] операций, используя бинарный поиск, так как таблица отсортирована по конечному ключу). Встретив один из конечных ключей, можно по соответствующему ему начальному ключу восстановить всю соответствующую цепочку; искомый ключ является её предпоследним ключом.
Нахождение ключа, таким образом, занимает [math]\displaystyle{ O(t\cdot log(m)) }[/math][3]; пренебрегая логарифмическим множителем, имеем [math]\displaystyle{ O(t) }[/math]. При этом затраты памяти на хранение таблицы составляют [math]\displaystyle{ O(m) }[/math].
Анализ алгоритма, однако, должен учитывать, что вероятность [math]\displaystyle{ P_{success} }[/math] удачного дешифрования на самом деле меньше единицы, а время дешифрования может получится большим объявленного, по указанным ниже причинам.
- Возможны слияния цепочек, когда для некоторой пары индексов [math]\displaystyle{ i,j }[/math] совпадают [math]\displaystyle{ i }[/math]-й ключ одной и [math]\displaystyle{ j }[/math]-й ключ другой цепочки.
- Возможны т. н. «ложные тревоги» (англ. false alarms), когда криптоаналитик находит в таблице более одного конечного ключа. В таком случае ему приходится проверять все соответствующие цепочки.
Может быть получены[1] нижняя граница для вероятности успешного дешифрования:
Приведённое выражение соответствует приближению, что функция [math]\displaystyle{ f }[/math] — случайная величина с равномерным распределением на множестве ключей. Впрочем, устойчивая криптосистема должна быть хорошим псевдослучайным генератором[1].
Оценка данного выражения приводит к следующему результату: произведение [math]\displaystyle{ mt^2 }[/math] не имеет смысл брать большим, чем [math]\displaystyle{ N }[/math]: в противном случае, быстро падает нижняя граница вероятности успеха.
При [math]\displaystyle{ mt^2 = N }[/math] мы получим
Криптоаналитик может теперь может сгенерировать не одну, а [math]\displaystyle{ l }[/math] таблиц, в каждой таблице использовав свою функцию редукции (что позволит избежать слияний цепочек из разных таблиц). При этом нижняя граница вероятности успешного дешифрования составит:
Выбрав [math]\displaystyle{ l=t }[/math], криптоаналитик получает затраты [math]\displaystyle{ mt }[/math] по памяти и [math]\displaystyle{ t^2 }[/math] по времени (в каждой таблице использована своя функция редукции, поэтому при дешифровании надо получать свою цепочку для каждой таблицы) при вероятности успеха, близкой к единице[сноска, объясняющая почему будет мало и число ложных тревог и ссылка на Хеллмана]. Взяв [math]\displaystyle{ t=m=N^{1/3} }[/math], получим требуемые затраты [math]\displaystyle{ N^{2/3} }[/math] по времени и памяти.
Другие примеры
Другие алгоритмы, которые также используют «выбор оптимального соотношения „место — время“»:
- Алгоритм Шенкса, применяемый для расчёта дискретных логарифмов.
- Динамическое программирование, при котором временная сложность задачи, эффективно разбивающейся на подзадачи, может быть значительно снижена путём мемоизации — сохранения уже вычисленных решений подзадач.
- Радужные таблицы в криптографии — усовершенствованный вариант таблиц поиска для обращения криптографических хеш-функций.
См. также
- Эффективность алгоритма
- Computational resource[англ.]
- Blum's speedup theorem[англ.]
- Теорема Сэвича
- Размотка цикла
Примечания
- ↑ 1,0 1,1 1,2 1,3 Martin E. Hellman. A Cryptanalytic Time-Memory Trade-Off. // Transactions on Information Theory. — July 1980. — № 4.
- ↑ Philippe Oechslin. Making a Faster Cryptanalytic Time-Memory Trade-Off. // ISBN 3-540-40674-3.
- ↑ Кормен Т., Лейзерсон Ч., Ривест Р. Алгоритмы: построение и анализ. — 2-е. — М.: Вильямс, 2005. — 1296 с. — ISBN 5-8459-0857-4.