Обучение слоя Кохонена: нормализация входных данных

Начальным (но не обязательным) этапом процесса обучения нейронной сети Кохонена является предварительная нормализация входных векторов. Это достигается за счет деления каждой компоненты входного вектора на длину самого вектора. Длина вектора находится извлечением квадратного корня из суммы квадратов всех компонент вектора. Все вышесказанное можно представить в виде следующей формулы:

{X}^{*}_i~=~{X_{i}}/{sqrt{x^{2}_{1}~+x^{2}_{2}~+~...~+~x^{2}_{n}}}

Такая нормализация преобразует входной вектор в единичный вектор без изменения направления, т.е. в вектор единичной длины в n-мерном пространстве.

Единичный входной вектор

Выражение (см. выше) обобщает хорошо известный случай двух измерений, когда длина вектора равна гипотенузе прямоугольного треугольника, образованного его x и y компонентами, как это следует из известной теоремы Пифагора. На рис. 1 такой двумерный вектор vec{M} представлен в координатах x и y, причем координата x равна четырем, а координата y – трем. Квадратный корень из суммы квадратов этих компонент равен пяти. Деление каждой компоненты vec{M} на пять дает вектор vec{M}^* с компонентами 3/5 и ~4/5, где длина вектора vec{M}^* равна единице, а сам вектор имеет то же направление, что и вектор vec{M}.

Двумерные единичные векторы на единичной окружности

На рис. 2 показано несколько единичных векторов. Они оканчиваются в точках единичной окружности (окружности единичного радиуса), что имеет место, когда у нейронной сети лишь два входа. В случае трех входов векторы представлялись бы стрелками, оканчивающимися на поверхности единичной сферы. Эти представления могут быть перенесены на сети, имеющие произвольное число входов, где каждый входной вектор является стрелкой, оканчивающейся на поверхности единичной гиперсферы (полезной абстракцией, хотя и не допускающей непосредственной визуализации).

Это интересно

Смотрите также