Метод релевантных векторов

Эта статья находится на начальном уровне проработки, в одной из её версий выборочно используется текст из источника, распространяемого под свободной лицензией
Материал из энциклопедии Руниверсалис

Метод релевантных векторов (МРВ, англ. Relevance Vector Machine, RVM) — это техника машинного обучения, которая использует байесовский вывод для получения решений на принципе экономности для регрессии и вероятностной классификации[1]. МРВ имеет тот же функциональный вид, что и метод опорных векторов, но обеспечивает вероятностную классификацию.

Описание

Метод, фактически, эквивалентен модели гауссовского процесса с функцией ковариации[en]:

[math]\displaystyle{ k(\mathbf{x},\mathbf{x'}) = \sum_{j=1}^N \frac{1}{\alpha_j} \varphi(\mathbf{x},\mathbf{x}_j)\varphi(\mathbf{x}',\mathbf{x}_j) }[/math],

где [math]\displaystyle{ \varphi }[/math] является ядерной функцией[en] (обычно, гауссианом), [math]\displaystyle{ \alpha_j }[/math] являются априорными дисперсиями вектора весов [math]\displaystyle{ w \sim N(0,\alpha^{-1}I) }[/math], а [math]\displaystyle{ \mathbf{x}_1,\ldots,\mathbf{x}_N }[/math] являются входными векторами тренировочного набора[en][2].

По сравнению с методами опорных векторов байесовская формулировка МРВ позволяет избежать необходимости использования свободных параметров (что, обычно, требует постоптимизации на основе перекрёстных проверок). Однако МРВ использует метод обучения, подобный EM-алгоритму, а потому существует риск скатывания в локальный минимум. Это отличает его от стандартных алгоритмов на основе последовательной минимальной оптимизации[en], используемой методами опорных векторов и гарантирующей нахождение глобального оптимума (на выпуклой задаче).

Метод релевантных векторов запатентован в США[en] компанией Microsoft[3].

См. также

Примечания

  1. Tipping, 2001, с. 211-244.
  2. Candela, 2004.
  3. Michael E. Tipping, "Relevance vector machine", US 6633857

Литература

Программное обеспечение

Ссылки