Интернет магазин китайских планшетных компьютеров



Компьютеры - Нейронная сеть Кохонена - Сети векторного квантования

23 января 2011


Оглавление:
1. Нейронная сеть Кохонена
2. Сети векторного квантования
3. Самоорганизующиеся карты Кохонена
4. Упругие карты
5. Сети векторного квантования, обучаемые с учителем



Задача векторного квантования с k кодовыми векторами Wj для заданной совокупности входных векторов S ставится как задача минимизации искажения при кодировании, то есть при замещении каждого вектора из S соответствующим кодовым вектором. В базовом варианте сетей Кохонена используется метод наименьших квадратов и искажение D вычисляется по формуле

D=\sum_{j=1}^k \sum_{x \in K_j}\|x-W_j\|^2,

где Kj состоит из тех точек x \in S, которые ближе к Wj, чем к другим Wl. Другими словами, Kj состоит из тех точек x \in S, которые кодируются кодовым вектором Wj.

Если совокупность S задана и хранится в памяти, то стандартным выбором в обучении соответствующей сети Кохонена является метод K-средних. Это метод расщепления:

  • при данном выборе кодовых векторов Wj минимизацией D находим множества Kj — они состоит из тех точек x \in S, которые ближе к Wj, чем к другим Wl;
  • при данном разбиении S на множества Kj минимизацией D находим оптимальные позиции кодовых векторов Wj — для оценки по методу наименьших квадратов это просто средние арифметические:
W_j=\frac{1}{|K_j|}\sum_{x \in K_j} x,

где | Kj | — число элементов в Kj.

Далее итерируем. Этот метод расщепления сходится за конечное число шагов и даёт локальный минимум искажения.

Если же, например, совокупность S заранее не задана, или по каким-либо причинам не хранится в памяти, то широко используется онлайн метод. Векторы входных сигналов x обрабатываются по одному, для каждого из них находится ближайший кодовый вектор Wj. После этого данный кодовый вектор пересчитывается по формуле

W^{\rm new}_{j}=W^{\rm old}_{j}+x\theta,

где \theta \in — шаг обучения. Остальные кодовые векторы на этом шаге не изменяются.

Для обеспечения стабильности используется онлайн метод с затухающей скоростью обучения: если T — количество шагов обучения, то полагают θ = θ. Функцию θ > 0 выбирают таким образом, чтобы \theta \to 0 монотонно при T \to \infty и чтобы ряд \sum_{T=1}^{\infty}\theta расходился, например, θ = θ0 / T.

Векторное квантование является намного более общей операцией, чем кластеризация, поскольку кластеры должны быть разделены между собой, тогда как совокупности Kj для разных кодовых векторов Wj не обязательно представляют собой раздельные кластеры. С другой стороны, при наличии разделяющихся кластеров векторное квантование может находить их и по-разному кодировать.



Просмотров: 6578


<<< Метод главных компонент
Проекция максимальной интенсивности >>>