Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами

Практическое применение q-нарных моделей Поттса осложняется высокими требованиями к оперативной памяти (необходимо 32N^2q^2 бит, где N – число нейронов, q – число состояний нейрона). В работе исследуется модифицированная модель Поттса с бинаризованными синаптическими коэффициентами. Процедура бин...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Datum:2008
Hauptverfasser: Крыжановский, Б.В., Крыжановский, В.М.
Format: Artikel
Sprache:Russian
Veröffentlicht: Інститут проблем штучного інтелекту МОН України та НАН України 2008
Schlagworte:
Online Zugang:https://nasplib.isofts.kiev.ua/handle/123456789/7148
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами / Б.В. Крыжановский, В.М. Крыжановский // Штучний інтелект. — 2008. — № 3. — С. 540-547. — Бібліогр.: 13 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
Beschreibung
Zusammenfassung:Практическое применение q-нарных моделей Поттса осложняется высокими требованиями к оперативной памяти (необходимо 32N^2q^2 бит, где N – число нейронов, q – число состояний нейрона). В работе исследуется модифицированная модель Поттса с бинаризованными синаптическими коэффициентами. Процедура бинаризации позволяет в 32 раза уменьшить размер требуемой оперативной памяти (N^2q^2 бит) и более чем в q раз ускорить алгоритм. Ожидалось, что бинаризация приведет к ухудшению распознающих характеристик. Однако анализ показал неожиданные результаты: процедура бинаризации приводит к увеличению объема нейросетевой памяти в 2 раза. Полученные результаты согласуются с проведенными экспериментами. Практичне застосування q-нарних моделей Поттса ускладнюється високими вимогами до оперативної пам’яті (необхідно 32N^2q^2 біт, де N – число нейронів, q – число станів нейрона). У роботі досліджується модифікована модель Поттса з бінаризованими синаптичними коефіцієнтами. Процедура бінаризації дозволяє в 32 рази зменшити розмір необхідної оперативної пам’яті (N^2q^2 біт) і більш ніж в q разів прискорити алгоритм. Очікувалося, що бінаризація призведе до погіршення розпізнавальних характеристик. Проте аналіз показав несподівані результати: процедура бінаризації приводить до збільшення об’єму нейромережної пам’яті в 2 рази. Отримані результати узгоджуються з проведеними експериментами. Practical applications of q-state Potts models are complicated, as they require very large RAM (32N^2q^2 bits, where N is the number of neurons and q is the number of the states of a neuron). In this work we examine a modified Potts model with binarized synaptic coefficients. The procedure of binarization allows one to make the required RAM 32 times smaller (N^2q^2 bits), and the algorithm more than q times faster. One would expect that the binarization worsens the recognizing properties. However, our analysis shows an unexpected result: the binarization procedure leads to the increase of the storage capacity by a factor of 2. The obtained results are in a good agreement with the results of computer simulations.
ISSN:1561-5359