Управляемый рекуррентный блок

Эта статья находится на начальном уровне проработки, в одной из её версий выборочно используется текст из источника, распространяемого под свободной лицензией
Материал из энциклопедии Руниверсалис

Управляемые рекуррентные блоки (англ. Gated Recurrent Units, GRU) — механизм вентилей для рекуррентных нейронных сетей, представленный в 2014 году. Было установлено, что его эффективность при решении задач моделирования музыкальных и речевых сигналов сопоставима с использованием долгой краткосрочной памяти (LSTM).[1] По сравнению с LSTM у данного механизма меньше параметров, т.к. отсутствует выходной вентиль.[2]

Архитектура

[math]\displaystyle{ \circ }[/math] обозначает произведение Адамара. [math]\displaystyle{ h_0 = 0 }[/math].

[math]\displaystyle{ \begin{align} z_t &= \sigma_g(W_{z} x_t + U_{z} h_{t-1} + b_z) \\ r_t &= \sigma_g(W_{r} x_t + U_{r} h_{t-1} + b_r) \\ h_t &= z_t \circ h_{t-1} + (1-z_t) \circ \sigma_h(W_{h} x_t + U_{h} (r_t \circ h_{t-1}) + b_h) \end{align} }[/math]

Переменные

  • [math]\displaystyle{ x_t }[/math]: входной вектор
  • [math]\displaystyle{ h_t }[/math]: выходной вектор
  • [math]\displaystyle{ z_t }[/math]: вектор вентиля обновления
  • [math]\displaystyle{ r_t }[/math]: вектор вентиля сброса
  • [math]\displaystyle{ W }[/math], [math]\displaystyle{ U }[/math] и [math]\displaystyle{ b }[/math]: матрицы параметров и вектор

Функции активации

См. также

Примечания

  1. Chung, Junyoung; Gulcehre, Caglar; Cho, KyungHyun & Bengio, Yoshua (2014), Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling, arΧiv:1412.3555 [cs.NE]. 
  2. Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano – WildML. Дата обращения: 18 мая 2016. Архивировано 27 октября 2015 года.