Иной подход – это временная близость явлений. Если два явления происходят одновременно, но при этом имеют разные описания, то все равно можно говорить об их определенной близости. Чем чаще явления случаются совместно, тем сильнее может быть истолкована их близость. На самом деле эти два подхода не противоречат, а взаимодополняют друг друга. Если два явления часто случаются совместно, то надо сделать вывод о наличии явления, которое является реализацией этой совместности. Это новое явление само может быть признаком, описывающим оба исходных явления. Теперь у этих явлений появилось общее в описании, а значит, и близость в описательном подходе. Будем называть близость, учитывающую одновременно и описательную и временную близость, обобщенной близостью. Представьте, что вы разглядываете какой-либо предмет с разных сторон. Возможно, эти виды будут совершенно различны в описательном плане, но тем не менее нельзя отрицать их близость в некотором ином смысле. Временная близость – это возможное проявление этого иного смысла. Несколько позже мы значительно глубже разовьем эту тему, сейчас же просто отметим необходимость учитывать оба подхода при определении близости понятий. Наиболее простая для понимания нейронная сеть, которая хорошо иллюстрирует самоорганизацию по степени описательной близости – это самоорганизующиеся карты Кохонена (рисунок ниже). Пусть у нас есть входная информация, заданная вектором x. Есть двумерная решетка из нейронов. Каждый нейрон связан с входным вектором x, эта связь определяется набором весов ?j. Вначале инициируем сеть случайными малыми весами. Подавая входной сигнал, для каждого нейрона можно определить его уровень активности как линейного сумматора. Возьмем нейрон, который покажет наибольшую активность, и назовем его нейроном-победителем. Далее сдвинем его веса в сторону образа, на который он оказался похож. Более того, проделаем аналогичную процедуру для всех его соседей. Будем ослаблять этот сдвиг по мере удаления от нейрона-победителя. ?j(n+1)=?j(n)+?(n)hj,i(x)(n)(x??j(n)) Здесь – ?(n) скорость обучения, которая падает со временем,hj,i(x)(n) — амплитуда топологической окрестности (зависимость от предполагает, что она тоже со временем уменьшается). Амплитуда окрестности может быть выбрана, например, Гауссовой функцией: hj,i(x)(n)=exp(?d2j,i2?2(n)) Где d – расстояние между корректируемым нейроном j и нейроном-победителем i. Функция Гаусса По мере обучения на такой самоорганизующейся карте будут выделяться зоны, соответствующие тому, как распределены обучающие образы. То есть сеть сама определит, когда во входном потоке встретятся похожие друг на друга картины, и создаст для них близкие представительства на карте. При этом, чем сильнее будут различаться образы, тем более обособленно друг от друга будут расположены и их представительства. В итоге, если соответствующим образом раскрасить результат обучения, то он будет выглядеть примерно так, как показано на рисунке ниже. — 52 —
|