Логика мышления

Страница: 1 ... 6263646566676869707172 ... 95

y=?i?Rxi?i

Отклик нейрона будет тем выше, чем больше новый образ покрывает образ запомненный. Если нас интересует не степень покрытия, а уровень совпадения образов, то можно воспользоваться корреляцией образов, которая есть не что иное, как нормированная свертка:

y=?ixi?i?ix2i?i?2i???????????

Кстати, это же значение является косинусом угла, образованного вектором образа и вектором весов:

y=xT??x????

В результате, в каждой локальной группе детекторов при подаче новой картинки будут срабатывать нейроны-детекторы, наиболее точно описывающие свой локальный фрагмент.

Теперь сделаем следующее: будем генерировать для каждого нового образа свою уникальную метку-идентификатор и помечать ею активные нейроны-детекторы. Мы получим, что каждая подача образа сопровождается появлением на второй зоне коры картины активности, которая есть описание этого образа через доступные второй зоне признаки. Создание уникального идентификатора и маркировка им активных нейронов детекторов – это и есть запоминание конкретного события.

Если мы выберем один из маркеров, найдем нейроны-детекторы, его содержащие, и восстановим характерные для них локальные образы, то мы получим восстановление исходного изображения.

Чтобы запоминать и воспроизводить множество разных образов, нейроны-детекторы должны иметь неизменные синаптические веса и обладать возможностью хранить столько маркеров, сколько воспоминаний им предстоит запомнить.

Покажем работу распределенного запоминания на простом примере. Допустим, что мы генерируем на верхней зоне контурные изображения разнообразных геометрических фигур (рисунок ниже).

Подаваемое изображение

Будем обучать нижнюю зону на выделение различных факторов методом декорреляции. Основные образы, которые будут появляться в каждом малом рецептивном поле – это линии под разными углами. Будут и другие образы, например, пересечения и углы, свойственные геометрическим фигурам. Но линии будут доминировать, то есть встречаться чаще. Это значит, что они и выделятся в первую очередь в виде факторов. Реальный результат такого обучения показан на рисунке ниже.

Фрагмент поля факторов, выделенных из контурных изображений

Видно, что выделяется много вертикальных и горизонтальных линий, отличающихся своим положением на рецептивном поле. Это не удивительно, так как даже небольшое смещение создает новый фактор, не имеющий пересечений со своими параллельными «близнецами». Предположим, что мы каким-то образом усложнили нашу сеть так, что расположенные рядом параллельные «близнецы» слились в один фактор. Далее допустим, что в малых областях выделились факторы, как показано на рисунке ниже, с определенной дискретностью описывающие все возможные направления.

— 67 —
Страница: 1 ... 6263646566676869707172 ... 95