Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами
Практическое применение q-нарных моделей Поттса осложняется высокими требованиями к оперативной памяти (необходимо 32N^2q^2 бит, где N – число нейронов, q – число состояний нейрона). В работе исследуется модифицированная модель Поттса с бинаризованными синаптическими коэффициентами. Процедура бин...
Gespeichert in:
| Datum: | 2008 |
|---|---|
| Hauptverfasser: | , |
| Format: | Artikel |
| Sprache: | Russian |
| Veröffentlicht: |
Інститут проблем штучного інтелекту МОН України та НАН України
2008
|
| Schlagworte: | |
| Online Zugang: | https://nasplib.isofts.kiev.ua/handle/123456789/7148 |
| Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Zitieren: | Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами / Б.В. Крыжановский, В.М. Крыжановский // Штучний інтелект. — 2008. — № 3. — С. 540-547. — Бібліогр.: 13 назв. — рос. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| Zusammenfassung: | Практическое применение q-нарных моделей Поттса осложняется высокими требованиями к оперативной
памяти (необходимо 32N^2q^2 бит, где N – число нейронов, q – число состояний нейрона). В работе
исследуется модифицированная модель Поттса с бинаризованными синаптическими коэффициентами.
Процедура бинаризации позволяет в 32 раза уменьшить размер требуемой оперативной памяти (N^2q^2 бит) и
более чем в q раз ускорить алгоритм. Ожидалось, что бинаризация приведет к ухудшению распознающих
характеристик. Однако анализ показал неожиданные результаты: процедура бинаризации приводит к
увеличению объема нейросетевой памяти в 2 раза. Полученные результаты согласуются с проведенными
экспериментами.
Практичне застосування q-нарних моделей Поттса ускладнюється високими вимогами до оперативної
пам’яті (необхідно 32N^2q^2 біт, де N – число нейронів, q – число станів нейрона). У роботі досліджується
модифікована модель Поттса з бінаризованими синаптичними коефіцієнтами. Процедура бінаризації
дозволяє в 32 рази зменшити розмір необхідної оперативної пам’яті (N^2q^2 біт) і більш ніж в q разів
прискорити алгоритм. Очікувалося, що бінаризація призведе до погіршення розпізнавальних характеристик.
Проте аналіз показав несподівані результати: процедура бінаризації приводить до збільшення об’єму
нейромережної пам’яті в 2 рази. Отримані результати узгоджуються з проведеними експериментами.
Practical applications of q-state Potts models are complicated, as they require very large RAM (32N^2q^2 bits,
where N is the number of neurons and q is the number of the states of a neuron). In this work we examine a
modified Potts model with binarized synaptic coefficients. The procedure of binarization allows one to make
the required RAM 32 times smaller (N^2q^2 bits), and the algorithm more than q times faster. One would expect
that the binarization worsens the recognizing properties. However, our analysis shows an unexpected result:
the binarization procedure leads to the increase of the storage capacity by a factor of 2. The obtained results
are in a good agreement with the results of computer simulations.
|
|---|---|
| ISSN: | 1561-5359 |