Учебное пособие по курсу «Нейроинформатика» - страница 17

Шрифт
Интервал

стр.

го эталона на j-ый). Известно, что векторы дуального множества можно записать в следующем виде:

(8)

где γ>ij>-1 — элемент матрицы Γ>-1({x>i}). Поскольку определитель матрицы Грама равен нулю, если множество векторов линейно зависимо, то матрица, обратная к матрице Грама, а следовательно и дуальное множество векторов существует только тогда, когда множество эталонов линейно независимо.

Для работ сети (6) необходимо хранить эталоны и матрицу Γ>-1({x>i}).

Рассмотрим процедуру добавления нового эталона к сети (6). Эта операция часто называется дообучением сети. Важным критерием оценки алгоритма формирования сети является соотношение вычислительных затрат на обучение и дообучение. Затраты на дообучение не должны зависеть от числа освоенных ранее эталонов.

Для сетей Хопфилда это, очевидно, выполняется — добавление еще одного эталона сводится к прибавлению к функции H одного слагаемого (x, x>m>+1)², а модификация связей в сети — состоит в прибавлении к весу ij-й связи числа x>i>m>+1x>j>m>+1 — всего n² операций.

Для рассматриваемых сетей с ортогональным проектированием также возможно простое дообучение. На первый взгляд, это может показаться странным — если добавляемый эталон линейно независим от старых эталонов, то, вообще говоря, необходимо пересчитать матрицу Грама и обратить ее. Однако симметричность матрицы Грама позволяет не производить заново процедуру обращения всей матрицы. Действительно, обозначим через G>m — матрицу Грама для множества из m векторов; через E>m — единичную матрицу размерности m×m. При обращении матриц методом Гаусса используется следующая процедура:

1 .Запишем матрицу размерности m×2m следующего вида: (G>m|E>m).

2. Используя операции сложения строк и умножения строки на ненулевое число преобразуем левую квадратную подматрицу к единичной. В результате получим (E>m|G>m>-1). Пусть известна G>m>-1 — обратная к матрице Грама для множества из m векторов x>i. Добавим к этому множеству вектор x>m>+1. Тогда матрица для обращения матрицы G>m+1 методом Гауса будет иметь вид:

После приведения к единичной матрице главного минора ранга m получится следующая матрица:

где b>i — неизвестные величины, полученные в ходе приведения главного минора к единичной матрице. Для завершения обращения матрицы G>m+1 необходимо привести к нулевому виду первые m элементов последней строки и (m +1)-го столбца. Для обращения в ноль i-го элемента последней строки необходимо умножить i-ю строку на (x, x>m>+1) и вычесть из последней строки. После проведения этого преобразования получим

где , .

b>0 = 0 только если новый эталон является линейной комбинацией первых m эталонов. Следовательно b>0 ≠ 0. Для завершения обращения необходимо разделить последнюю строку на b>0 и затем вычесть из всех предыдущих строк последнюю, умноженную на соответствующее номеру строки b>i. В результате получим следующую матрицу

где F>ij = G>mij>-1-b>ic>j/b>0. Поскольку матрица, обратная к симметричной, всегда симметрична получаем c>i/b>0 = -b>i/b>0 при всех i. Так как b>0 ≠ 0 следовательно b>i = -c>i.

Обозначим через d вектор ((x>1, x>m>+1), …, (x>m, x>m>+1)), через b — вектор (b>1, …, b>m). Используя эти обозначения можно записать b = G>m>-1d, b>0 = (x>m>+1,x>m>+1)-(d,b), b>0 = (x>m>+1,x>m>+1)-(d,b). Матрица G>m+1>-1 записывается в виде

Таким образом, при добавлении нового эталона требуется произвести следующие операции:

1. Вычислить вектор d (m скалярных произведений — mn операций, mnn²).

2. Вычислить вектор b (умножение вектора на матрицу — m² операций).

3. Вычислить b>0 (два скалярных произведения — m+n операций).

4. Умножить матрицу на число и добавить тензорное произведение вектора b на себя (2m² операций).

5. Записать G>m+1>-1.

Таким образом эта процедура требует m+n+mn+3m² операций. Тогда как стандартная схема полного пересчета потребует:

1. Вычислить всю матрицу Грама (nm(m+1)/2 операций).

2. Методом Гаусса привести левую квадратную матрицу к единичному виду (2m³+m²-m операций).

3. Записать G>m+1>-1.

Всего 2m³+m²–m+nm(m+1)/2 операций, что в m раз больше.

Используя ортогональную сеть (6), удалось добиться независимости способности сети к запоминанию и точному воспроизведению эталонов от степени коррелированности эталонов. Так, например, ортогональная сеть смогла правильно воспроизвести все буквы латинского алфавита в написании, приведенном на рис. 1.


стр.

Похожие книги