О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат
Рассматриваются некоторые технологические процессы разработки нейросетевых моделей диагностики в экспертной системе Гомеопат. Приводятся известные подходы к построению таких моделей. Розглядаються деякі технологічні процеси розробки нейромережевих моделей діагностики в експертній системі Гомеопат. Н...
Saved in:
| Published in: | Компьютерная математика |
|---|---|
| Date: | 2010 |
| Main Author: | |
| Format: | Article |
| Language: | Russian |
| Published: |
Інститут кібернетики ім. В.М. Глушкова НАН України
2010
|
| Subjects: | |
| Online Access: | https://nasplib.isofts.kiev.ua/handle/123456789/84573 |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Journal Title: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Cite this: | О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат / Л.А. Катеринич // Компьютерная математика: сб. науч. тр. — 2010. — № 1. — С. 102-109. — Бібліогр.: 7 назв. — рос. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1859791289989464064 |
|---|---|
| author | Катеринич, Л.А. |
| author_facet | Катеринич, Л.А. |
| citation_txt | О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат / Л.А. Катеринич // Компьютерная математика: сб. науч. тр. — 2010. — № 1. — С. 102-109. — Бібліогр.: 7 назв. — рос. |
| collection | DSpace DC |
| container_title | Компьютерная математика |
| description | Рассматриваются некоторые технологические процессы разработки нейросетевых моделей диагностики в экспертной системе Гомеопат. Приводятся известные подходы к построению таких моделей.
Розглядаються деякі технологічні процеси розробки нейромережевих моделей діагностики в експертній системі Гомеопат. Наводяться відомі підходи до побудови таких моделей.
Some technological processes of neural network diagnostic model creation in "Gomeopat" diagnostic expert system are considered. The known approaches to construction of such models are given.
|
| first_indexed | 2025-12-02T11:51:28Z |
| format | Article |
| fulltext |
102 Компьютерная математика. 2010, № 1
Ìàòåìàòè÷åñêèå
ìîäåëè â áèîëîãèè
è ìåäèöèíå
Рассматриваются некоторые тех-
нологические процессы разработ-
ки нейросетевых моделей диагно-
стики в экспертной системе Го-
меопат. Приводятся известные
подходы к построению таких
моделей.
Л.А. Катеринич, 2010
ÓÄÊ 681.3
Ë.À. ÊÀÒÅÐÈÍÈ×
Î ÍÅÊÎÒÎÐÛÕ
ÔÎÐÌÀËÜÍÛÕ ÌÎÄÅËßÕ
ÐÀÇÐÀÁÎÒÊÈ ÍÅÉÐÎÑÅÒÅÂÛÕ
ÀËÃÎÐÈÒÌÎÂ Â ÑÈÑÒÅÌÅ ÃÎÌÅÎÏÀÒ
Введение. Известно, что автоматизация от-
дельных технологических процессов разра-
ботки программ, осуществляемая в операци-
онных средах, интегрированных средах про-
граммирования и специализированных ин-
тегрированных средах, значительно повыша-
ет производительность, качество и надеж-
ность соответствующего программного обе-
спечения. Этим в значительной степени объ-
ясняется научно-практическая заинтересо-
ванность специалистов в разработке унифи-
цированных механизмов, моделей, языков и
методологий создания интегрированных ин-
струментальных средств поддержки техноло-
гических процессов на всех этапах жизнен-
ного цикла программ – от проектирования,
отладки, документирования и реализации до
внедрения и усовершенствования.
Задача автоматизации в такой классиче-
ской постановке сохраняет свою актуаль-
ность и при создании прикладных программ-
ных систем нового поколения, в частности,
интеллектуальных информационных систем
с нейросетевыми и нечеткими моделями
представления и обработки данных [1–3].
В данной работе рассматриваются некото-
рые технологические процессы разработки
нейросетевых моделей диагностики в экс-
пертной системе Гомеопат [4, 5] учитывая
возможность их автоматизации.
Приводятся известные подходы [6] к по-
строению таких моделей, в частности, путем
описания последних оптимизационными
схемами.
О НЕКОТОРЫХ ФОРМАЛЬНЫХ МОДЕЛЯХ РАЗРАБОТКИ …
Компьютерная математика. 2010, № 1 103
Классификация. Первым и наиболее распространенным примером задач
диагностики является классификация без учителя, общая постановка которой
состоит в следующем. Задан набор объектов, каждому объекту сопоставлен
вектор значений признаков. Требуется разбить эти объекты на классы экви-
валентности.
Отнесение объекта к классу проводится путем его сравнения с типичными
элементами разных классов и выбора ближайшего. Простейшая мера близости
объектов – квадрат евклидового расстояния между векторами значений их при-
знаков (чем меньше расстояние, тем ближе объекты). Соответствующее опреде-
ление признаков типичного объекта – среднее арифметическое значение призна-
ков по выборке, представляющей класс. Другая мера близости, естественно воз-
никающая при обработке сигналов, изображений и т.п. – квадрат коэффициента
корреляции (чем он больше, тем ближе объекты). Возможны и иные варианты –
все зависит от задачи.
Если число классов m заранее определено, то формально задача классифи-
кации без учителя в общем случае ставится следующим образом.
Пусть {xp} – векторы значений признаков для рассматриваемых объектов
и в пространстве таких векторов определена мера их близости ρ{x, y}. Для опре-
деленности считаем, что чем ближе объекты, тем меньше ρ. С каждым классом
связываем его типичный объект. Далее называем его ядром класса. Требуется
определить набор из m ядер y1, y2, ..., ym и разбиение {xp} на классы:
m
p YYYx ∪∪∪= ...}{ 21
минимизирующее следующий критерий
,min
1
∑
=
→=
m
i
iDQ
где для каждого (i-го) класса Di – сумма расстояний от принадлежащих ему
точек выборки до ядра класса:
∑
∈
ρ=
i
p Yx
ip
i yxD ),( .
Минимум Q берется по всем возможным положениям ядер y i и всем раз-
биениям {xp}на m классов Yi.
Если число классов заранее не определено, то полезен критерий слияния
классов: классы Yi и Yj сливаются, если их ядра ближе, чем среднее расстояние
от элемента класса до ядра в одном из них.
Использовать критерий слияния классов можно так: сначала принимаем ги-
потезу о достаточном числе классов, строим их, минимизируя Q, затем некото-
рые Yi объединяем, повторяем минимизацию Q с новым числом классов и т. д.
Существует много эвристических алгоритмов классификации без учителя,
основанных на использовании мер близости между объектами. Каждый из них
Л.А. КАТЕРИНИЧ
Компьютерная математика. 2010, № 1 104
имеет свою область применения, а наиболее распространенным недостатком
является отсутствие четкой формализации задачи: совершается переход от идеи
кластеризации прямо к алгоритму, в результате неизвестно, что ищется (но что-
то в любом случае находится, иногда – неплохо).
Сетевые алгоритмы классификации без учителя строятся на основе итера-
ционного метода динамических ядер.
1. Задается выборка предобработанных векторов данных {xp} (пространство
векторов данных обозначается E; каждому классу векторов соответствует неко-
торое ядро a; пространство ядер обозначается A).
2. Для каждых x∈E и a∈A определяется мера близости d(x, a).
3. Для каждого набора из k ядер a1, ..., ak и любого разбиения {xp} на k клас-
сов {xp} = P1∪P2∪ ... ∪Pk определяется критерий качества
D D a a a P P P d x ak k i
x Pii
k
= =
∈=
∑∑( , , ..., , , , ... ) ( , )1 2 1 2
1
.
Требуется найти набор a1, ..., ak и разбиение {xp}=P1∪P2∪ ... ∪Pk, минимизи-
рующие D.
Последний шаг алгоритма разбивается на два.
3.1. Для фиксированного набора ядер a1, ..., ak ищется минимизирующее
критерий качества D разбиение {xp} = P1∪P2∪ ... ∪Pk; оно дается решающим
правилом: x∈Pi, если d(x, ai ) < d(x, aj ) при i ≠ j, в том случае, когда для x мини-
мум d(x, a) достигается при нескольких значениях i, выбор между ними может
быть сделан произвольно.
3.2. Для каждого Pi (i = 1, ..., k), полученного на шаге 3.1, ищется ai∈A,
минимизируещее критерий качества (т. е. слагаемое в D для данного i –
∑
∈
=
iPx
ii axdD ),( ).
Начальные значения a1, ..., ak, {xp} = P1∪P2∪ ... ∪Pk выбираются произволь-
но, либо по какому-нибудь эвристическому правилу.
На каждом шаге алгоритма уменьшается критерий качества D, отсюда сле-
дует сходимость алгоритма – после конечного числа шагов разбиение {xp} =
= P1∪P2∪ ... ∪Pk уже не меняется.
Если ядру ai сопоставляется элемент сети, вычисляющий по входному сиг-
налу x функцию d(x, ai), то решающее правило для классификации состоит в
следующем: элемент x принадлежит классу Pi, если выходной сигнал i-го эле-
мента d(x, ai) меньше всех остальных.
Единственная вычислительная сложность в алгоритме может состоять в по-
иске ядра по классу, т. е. в поиске a∈A, минимизирующего
∑
∈
=
iPx
i axdD ),( .
О НЕКОТОРЫХ ФОРМАЛЬНЫХ МОДЕЛЯХ РАЗРАБОТКИ …
Компьютерная математика. 2010, № 1 105
В связи с этим, в большинстве конкретных реализаций метода мера близо-
сти d выбирается такой, чтобы легко можно было найти a, минимизирующее D
для данного P .
В простейшем случае пространство ядер A совпадает с пространством век-
торов x, а мера близости d(x, a) – положительно определенная квадратичная
форма от x – a, например, квадрат евклидового расстояния или другая положи-
тельно определенная квадратичная форма. Тогда ядро ai, минимизирующее Di,
является центром тяжести класса Pi:
a
P
xi
i x Pi
=
∈
∑
1
| |
,
где |Pi| – число элементов в Pi.
В этом случае также упрощается и решающее правило, разделяющее
классы. Пусть d(x, a) = (x – a, x – a) – билинейная форма (если d – квадрат евкли-
дового расстояния между x и a, то билинейная форма – обычное скалярное про-
изведение). В силу билинейности
d(x, a) = (x – a, x – a) = (x, x) – 2(x, a) + (a, a).
Чтобы сравнить d(x, ai) для разных i и найти среди них минимальное, доста-
точно вычислить линейную неоднородную функцию от x:
d1(x, ai) = (ai, ai) – 2(x, ai).
Минимальное значение d(x, ai) достигается при том же i, что и минимум
d1(x, ai), поэтому решающее правило реализуется с помощью k сумматоров, вы-
числяющих d(x, a) и интерпретатора, выбирающего сумматор с минимальным
выходным сигналом. Номер этого сумматора и есть номер класса, к которому
относится x.
В описанных простейших случаях, когда ядро класса точно определяется
как среднее арифметическое (или нормированное среднее арифметическое) эле-
ментов класса, а решающее правило основано на сравнении выходных сигналов
линейных адаптивных сумматоров, нейронную сеть, реализующую метод дина-
мических ядер, называют сетью Кохонена. В определении ядер a для сетей
Кохонена входят суммы
x
x P∈
∑ .
Это позволяет накапливать новые динамические ядра, обрабатывая по од-
ному примеру и пересчитывая ai после появления в Pi нового примера. Сходи-
мость при такой модификации, однако, ухудшается.
Базовый способ использования полученных классификаторов состоит в сле-
дующем: для вектора данных xi и каждого ядра ai вычисляется yi = d(x, ai) (усло-
вимся считать, что правильному ядру отвечает максимум d, изменяя, если надо,
знак d); строка ответов yi преобразуется в строку, где только один элемент, соот-
ветствующий максимальному yi, равен 1, остальные – нули. Эта строка и являет-
ся результатом функционирования сети. По ней может быть определен номер
класса (номер места, на котором стоит 1) и другие показатели.
Л.А. КАТЕРИНИЧ
Компьютерная математика. 2010, № 1 106
Количественные и качественные характеристики нейронных сетей.
Далее исследуются два вопроса, встающие перед каждым исследователем,
решившим использовать нейронные сети: «Сколько нейронов необходимо для
решения задачи?» и «Какой должна быть структура нейронной сети?». Объеди-
няя эти два вопроса, мы получаем третий: «Как сделать работу нейронной сети
понятной для пользователя (логически прозрачной) и какие выгоды может при-
нести такое понимание?».
При ответе на вопрос «Сколько нейронов нужно использовать?» существует
две противоположные точки зрения. Одна из них утверждает, что чем больше
нейронов использовать, тем более надежная получится сеть.
Вторая точка зрения опирается на такое «эмпирическое» правило: чем боль-
ше подгоночных параметров, тем хуже аппроксимация функции в тех областях,
где ее значения были заранее неизвестны.
Подводя итог анализу двух крайних позиций, можно сказать следующее:
нужно выбирать число нейронов большим, чем необходимо, но не намного. Это
можно осуществить путем удвоения числа нейронов в сети после каждой не-
удачной попытки обучения. Однако существует более надежный способ оценки
минимального числа нейронов – использование процедуры контрастирования
[7]. Кроме того, процедура контрастирования позволяет ответить и на второй
вопрос: какой должна быть структура сети.
Рассмотрим процедуру контрастирования основанную на оценке показате-
лей чувствительности. Приведем два наиболее широко используемых способа
вычисления показателей чувствительности.
Контрастирование на основе оценки. Рассмотрим сеть, правильно ре-
шающую все примеры обучающего множества. Обозначим npwp ,,1 , …= веса
всех связей. При обратном функционировании сети по принципу двойственно-
сти или методу обратного распространения ошибки сеть вычисляет вектор гра-
диента функции оценки H по весам связей
{ }
1, ,
Grad( ) p p n
H H w
=
= ∂ ∂
…
.
Пусть 0w – текущий набор весов связей, а оценка текущего примера
равна 0H . Тогда в линейном приближении можно записать функцию оценки
в точке w как
)()( 0
1
0
pp
n
p p
ww
w
H
HwH −
∂
∂+= ∑
=
.
Используя это приближение можно оценить изменение оценки при замене
0
pw на pw∗ как
0( , ) p p
p
H
p q w w
w
∗∂χ = ⋅ −
∂
,
О НЕКОТОРЫХ ФОРМАЛЬНЫХ МОДЕЛЯХ РАЗРАБОТКИ …
Компьютерная математика. 2010, № 1 107
где q – номер примера обучающего множества, для которого были вычислены
оценка и градиент. Величину ( , )p qχ называют показателем чувствительности
к замене wp на pw∗ для примера q. Далее вычисляется показатель чувствитель-
ности, не зависящий от номера примера. Для этого можно воспользоваться
любой нормой. Обычно используется равномерная норма (максимум модуля):
),(max)( qpp
q
χ=χ .
Умея вычислять показатели чувствительности, можно приступать к процедуре
контрастирования. Приведем простейший вариант этой процедуры.
1. Вычисляем показатели чувствительности.
2. Находим минимальный среди показателей чувствительности – *p
χ .
3. Заменяем соответствующий этому показателю чувствительности вес
0
p
w ∗ на pw∗ , и исключаем его из процедуры обучения.
4. Предъявляем сети все примеры обучающего множества. Если сеть не
допустила ни одной ошибки, то переходим ко второму шагу процедуры.
5. Пытаемся обучить отконтрастированную сеть. Если сеть обучилась
безошибочному решению задачи, то переходим к первому шагу процедуры,
в противном случае переходим к шестому шагу.
6. Восстанавливаем сеть в состояние до последнего выполнения третьего
шага. Если в ходе выполнения шагов со второго по пятый был отконтрастирован
хотя бы один вес, (число обучаемых весов изменилось), то переходим к первому
шагу. Если ни один вес не был отконтрастирован, то получена минимальная
сеть.
Контрастирование без ухудшения. Пусть нам дана только обученная ней-
ронная сеть и обучающее множество. Допустим, что вид функции оценки и про-
цедура обучения нейронной сети неизвестны. В этом случае так же возможно
контрастирование сети. Предположим, что данная сеть идеально решает задачу.
Тогда нам необходимо так отконтрастировать веса связей, чтобы выходные сиг-
налы сети при решении всех задач изменились не более чем на заданную вели-
чину. В этом случае контрастирование весов осуществляется понейронно. На
входе каждого нейрона стоит адаптивный сумматор, который суммирует вход-
ные сигналы нейрона, умноженные на соответствующие веса связей. Для нейро-
на наименее чувствительным будет тот вес, который при решении примера даст
наименьший вклад в сумму. Обозначив q
px входные сигналы рассматриваемого
нейрона при решении q-го примера, получаем формулу для показателя чувстви-
тельности весов:
( )( , ) .q
p p pp q w w x∗χ = −
Л.А. КАТЕРИНИЧ
Компьютерная математика. 2010, № 1 108
Аналогично получаем
( )( ) max .q
p p p
q
p w w x∗χ = −
В самой процедуре контрастирования есть только одно отличие – вместо
проверки на наличие ошибок при предъявлении всех примеров проверяется, что
новые выходные сигналы сети отличаются от первоначальных не более чем на
заданную величину.
Обобщенная процедура обучения нейронных сетей. Математически про-
цесс обучения можно описать следующим образом.
В процес се функционирования нейронная сеть формирует выходной сигнал
Y в соответствии с входным сигналом X, реализуя некоторую функцию Y = G(X).
Пусть решением некоторой задачи является функция Y = F(X), заданная па-
рами входных-выходных данных (X1, Y1), (X2, Y2), …, (Xn, Yn), для которых Yk =
= F(Xk) (k = 1, …, n).
Обучение состоит в поиске функции G близкой к F в смысле некоторой
функции ошибки Е.
Если выбраны множество обучающих примеров – пар (Xk,Yk) (k = 1, …, n)
и способ вычисления функции ошибки Е, то обучение нейронной сети превра-
щается в задачу многомерной оптимизации, имеющую очень большую размер-
ность. В общем случае обучение нейронной сети это многоэкстремальная невы-
пуклая задача оптимизации.
Для решения таких задач могут быть использованы следующие алгоритмы:
– алгоритм локальной оптимизации с вычислением частных производных
первого порядка;
– алгоритм локальной оптимизации с вычислением частных производных
первого и второго порядка;
– стохастические алгоритмы оптимизации;
– алгоритмы глобальной оптимизации.
Выводы. Таким образом, процесс построения нейросетевых моделей реше-
ния задач диагностики в системе Гомеопат с учетом рассмотренных методов
авоматизации отдельных его стадий выглядит довольно просто и вроде бы не
вызывает проблем – необходимо просто реализовывать описанные методы по-
строения нейронных сетей. Точнее если сначала строим нейронную сеть и обу-
чаем ее решению задачи классификации. Потом приводим нейронную сеть к ло-
гически прозрачному виду с помощью процедуры контрастирования так, чтобы
полученную сетью способность можно было “прочитать”. В более сложных слу-
чаях применяются общие методы обучения нейронных сетей на основе много-
мерных оптимизационных схем.
О НЕКОТОРЫХ ФОРМАЛЬНЫХ МОДЕЛЯХ РАЗРАБОТКИ …
Компьютерная математика. 2010, № 1 109
Л.О. Катеринич
ПРО ДЕЯКІ ФОРМАЛЬНІ МОДЕЛІ РОЗРОБКИ НЕЙРОМЕРЕЖЕВИХ АЛГОРИТМІВ
У СИСТЕМІ ГОМЕОПАТ
Розглядаються деякі технологічні процеси розробки нейромережевих моделей діагностики в
експертній системі Гомеопат. Наводяться відомі підходи до побудови таких моделей.
L.O. Katerynych
ON SOME FORMAL MODELS OF CREATION OF NEURAL NETWORK
ALGORITHMS IN "GOMEOPAT" SYSTEM
Some technological processes of neural network diagnostic model creation in "Gomeopat" diagnos-
tic expert system are considered. The known approaches to construction of such models are given.
1. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы
и нечеткие системы. – М.: Горячая линия – Телеком, 2006. – 452 с.
2. Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети:
Учеб. пособие. – М.: Издательство физико-математической литературы, 2001. – 224 с.
3. Jacek Leski. Systemy neuronowo-rozmyte. – Warszawa: Wydawnictwo Naukowo-Techniczne,
2008. – 686 s.
4. Катеринич Л., Провотар А. Синтез нейронных сетей на основе информационных гранул
// International Book Series «Information Science and Computing: Advanced Research in Arti-
ficial Intelligence». – Sofia, 2008. – V1. – P. 179–182.
5. Катеринич Л., Провотар А. Диагностирование на нейронных сетях в системе Гомеопат
// XIII-th International Conference: Knowledge Dialogue Solution. – Sofia, 2007. – V 1. –
P. 64–68.
6. Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. – Ново-
сибирск: Наука, 1996. – 276 с.
7. Горбань А.Н. Обучение нейронных сетей. – М.: СП «ParaGraph», 1990. – 160 с.
Получено 15.12.2009
Îá àâòîðå:
Катеринич Лариса Александровна,
асистент кафедры информационных систем факультета кибернетики
Киевского национального университета имени Тараса Шевченко.
е-mail katerynich@unicyb.kiev.ua
|
| id | nasplib_isofts_kiev_ua-123456789-84573 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | ХХХХ-0003 |
| language | Russian |
| last_indexed | 2025-12-02T11:51:28Z |
| publishDate | 2010 |
| publisher | Інститут кібернетики ім. В.М. Глушкова НАН України |
| record_format | dspace |
| spelling | Катеринич, Л.А. 2015-07-10T14:46:42Z 2015-07-10T14:46:42Z 2010 О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат / Л.А. Катеринич // Компьютерная математика: сб. науч. тр. — 2010. — № 1. — С. 102-109. — Бібліогр.: 7 назв. — рос. ХХХХ-0003 https://nasplib.isofts.kiev.ua/handle/123456789/84573 681.3 Рассматриваются некоторые технологические процессы разработки нейросетевых моделей диагностики в экспертной системе Гомеопат. Приводятся известные подходы к построению таких моделей. Розглядаються деякі технологічні процеси розробки нейромережевих моделей діагностики в експертній системі Гомеопат. Наводяться відомі підходи до побудови таких моделей. Some technological processes of neural network diagnostic model creation in "Gomeopat" diagnostic expert system are considered. The known approaches to construction of such models are given. ru Інститут кібернетики ім. В.М. Глушкова НАН України Компьютерная математика Математические модели в биологии и медицине О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат Про деякі формальні моделі розробки нейромережевих алгоритмів у системі Гомеопат On some formal models of creation of neural network algorithms in "Gomeopat" system Article published earlier |
| spellingShingle | О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат Катеринич, Л.А. Математические модели в биологии и медицине |
| title | О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат |
| title_alt | Про деякі формальні моделі розробки нейромережевих алгоритмів у системі Гомеопат On some formal models of creation of neural network algorithms in "Gomeopat" system |
| title_full | О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат |
| title_fullStr | О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат |
| title_full_unstemmed | О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат |
| title_short | О некоторых формальных моделях разработки нейросетевых алгоритмов в системе Гомеопат |
| title_sort | о некоторых формальных моделях разработки нейросетевых алгоритмов в системе гомеопат |
| topic | Математические модели в биологии и медицине |
| topic_facet | Математические модели в биологии и медицине |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/84573 |
| work_keys_str_mv | AT kateriničla onekotoryhformalʹnyhmodelâhrazrabotkineirosetevyhalgoritmovvsistemegomeopat AT kateriničla prodeâkíformalʹnímodelírozrobkineiromereževihalgoritmívusistemígomeopat AT kateriničla onsomeformalmodelsofcreationofneuralnetworkalgorithmsingomeopatsystem |