Неокогнитрон для распознавания объектов топологии интегральных микросхем

С целью улучшения характеристик обработки информации и точности распознавания проводится анализ структуры НС «неокогнитрон» и описывается выбор архитектуры разработанной многослойной НС, которая реализует многоуровневый процесс распознавания объектов топологии интегральных микросхем....

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Datum:2008
1. Verfasser: Дудкин, А.А.
Format: Artikel
Sprache:Russian
Veröffentlicht: Інститут проблем штучного інтелекту МОН України та НАН України 2008
Schlagworte:
Online Zugang:http://dspace.nbuv.gov.ua/handle/123456789/7476
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:Неокогнитрон для распознавания объектов топологии интегральных микросхем / А.А. Дудкин // Штучний інтелект. — 2008. — № 4. — С. 339-347. — Бібліогр.: 10 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id irk-123456789-7476
record_format dspace
spelling irk-123456789-74762010-04-01T12:01:49Z Неокогнитрон для распознавания объектов топологии интегральных микросхем Дудкин, А.А. Распознавание образов. Системы цифровой обработки сигналов и изображений С целью улучшения характеристик обработки информации и точности распознавания проводится анализ структуры НС «неокогнитрон» и описывается выбор архитектуры разработанной многослойной НС, которая реализует многоуровневый процесс распознавания объектов топологии интегральных микросхем. З метою поліпшення характеристик обробки інформації і точності розпізнавання проводиться аналіз структури НС «неокогнітрон» і описується вибір архітектури розробленої багатошарової НС, яка реалізує багаторівневий процес розпізнавання об’єктів топології інтегральних мікросхем. Analysis of neocognitron structure is cаrried out in order to improve parameters of data processing and recognition accuracy. A choice of the multi layered neural network architecture is described for multilevel recognition process of integrated circuits layout objects. 2008 Article Неокогнитрон для распознавания объектов топологии интегральных микросхем / А.А. Дудкин // Штучний інтелект. — 2008. — № 4. — С. 339-347. — Бібліогр.: 10 назв. — рос. 1561-5359 http://dspace.nbuv.gov.ua/handle/123456789/7476 681.327 ru Інститут проблем штучного інтелекту МОН України та НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Russian
topic Распознавание образов. Системы цифровой обработки сигналов и изображений
Распознавание образов. Системы цифровой обработки сигналов и изображений
spellingShingle Распознавание образов. Системы цифровой обработки сигналов и изображений
Распознавание образов. Системы цифровой обработки сигналов и изображений
Дудкин, А.А.
Неокогнитрон для распознавания объектов топологии интегральных микросхем
description С целью улучшения характеристик обработки информации и точности распознавания проводится анализ структуры НС «неокогнитрон» и описывается выбор архитектуры разработанной многослойной НС, которая реализует многоуровневый процесс распознавания объектов топологии интегральных микросхем.
format Article
author Дудкин, А.А.
author_facet Дудкин, А.А.
author_sort Дудкин, А.А.
title Неокогнитрон для распознавания объектов топологии интегральных микросхем
title_short Неокогнитрон для распознавания объектов топологии интегральных микросхем
title_full Неокогнитрон для распознавания объектов топологии интегральных микросхем
title_fullStr Неокогнитрон для распознавания объектов топологии интегральных микросхем
title_full_unstemmed Неокогнитрон для распознавания объектов топологии интегральных микросхем
title_sort неокогнитрон для распознавания объектов топологии интегральных микросхем
publisher Інститут проблем штучного інтелекту МОН України та НАН України
publishDate 2008
topic_facet Распознавание образов. Системы цифровой обработки сигналов и изображений
url http://dspace.nbuv.gov.ua/handle/123456789/7476
citation_txt Неокогнитрон для распознавания объектов топологии интегральных микросхем / А.А. Дудкин // Штучний інтелект. — 2008. — № 4. — С. 339-347. — Бібліогр.: 10 назв. — рос.
work_keys_str_mv AT dudkinaa neokognitrondlâraspoznavaniâobʺektovtopologiiintegralʹnyhmikroshem
first_indexed 2025-07-02T10:16:26Z
last_indexed 2025-07-02T10:16:26Z
_version_ 1836529889612660736
fulltext «Штучний інтелект» 4’2008 339 4Д УДК 681.327 А.А. Дудкин Объединенный институт проблем информатики НАН Беларуси, г. Минск doudkin@newman.bas-net.by Неокогнитрон для распознавания объектов топологии интегральных микросхем С целью улучшения характеристик обработки информации и точности распознавания проводится анализ структуры НС «неокогнитрон» и описывается выбор архитектуры разработанной многослойной НС, которая реализует многоуровневый процесс распознавания объектов топологии интегральных микросхем. При обработке визуальной информации в различных предметных областях имеет место задача распознавания в условиях неполной и нечеткой информации. Наиболее подходят для ее решения нейросетевые технологии, нейроннная сеть (НС) при этом выступает в роли классификатора [1-4]. Отличительными особенностями задач обработки, анализа и идентификации изо- бражений топологии интегральных микросхем (ИС) являются следующие. Во-первых, информация об объекте представляется совокупностью изображений топологических слоев, число которых доходит до 30. Во-вторых, каждое изображение, представляю- щее собой информацию об одном слое, может содержать и информацию о смежных слоях изделия. В-третьих, изображения характеризуются наличием мешающего фона, а также неопределенностью положения и ориентации отдельных элементов, при- водящими к большой избыточности. В-четвертых, изображения, полученные в опти- ческом диапазоне, содержат, как правило, очень большой объем информации, которую необходимо переработать для их идентификации, выявления различий и принятия решений. Все это обусловливает жесткость требований к системам визуального контроля и идентификации по разрешающей способности и производительности. Наиболее подходящим для этой цели является неокогнитрон [5], который пред- ставляет собой многоуровневую НС, состоящую из каскадного соединения слоев нейронов. В основе его работы лежит принцип иерархической обработки, обеспечиваю- щий извлечение инвариантных признаков [6], [7]. Распознаваемый образ подается на входной слой НС и далее послойно обрабатывается последующими ее слоями, при этом нейроны из более глубокого слоя распознают более сложные признаки образа. Обработка обычно осуществляется в два этапа: сначала извлекаются признаки, затем достигается их инвариантность пространственным объединением. Для любого признака извлекается ряд значений с идентичными размерами рецепторных областей, но распределенными по входному слою. Это достигается путем разделения весовых коэффициентов между нейронами одного типа, выделяющими одинаковый признак. Объединение значений активностей соседних нейронов, чувствительных к одному и тому же локальному признаку в различных местоположениях, приводит к отклику на определенный признак, который инвариантен к местным изменениям. Концепция нейросетевой обработки и идентификации видеоизображений пред- полагает использование следующих подходов к обработке изображений топологических слоев ИС [8]: 1) проблемно-ориентированной предварительной обработки, сохраняющей информационные признаки топологических объектов; 2) выделения (идентификации) объекта на изображении для нейросетевой обработки за счет использования инфор- Работа частично поддержана Белорусским республиканским фондом фундаментальных исследований, проект № Т08-236. Дудкин А.А. «Искусственный интеллект» 4’2008 340 4Д мации об иерархии признаков; 3) использования набора классификаторов, в котором по результатам классификации на тестовой выборке производится выбор модели классификатора для обработки всех изображений. В данной статье рассмотрена реализация третьего подхода на примере неоког- нитрона. Обобщая сущность структурных и алгоритмических решений, применяемых в неокогнитроне, можно отметить следующее. 1. Во всех идентифицируемых изображениях выделяют два типа признаков: прос- тые, присущие всем изображениям (линии, точки пересечения линий); комплексные, присущие только определенному классу изображений (например, определенная про- странственно-геометрическая комбинация простых признаков). 2. В соответствии с критерием сложности все признаки образуют иерархию, где каждый уровень объединяет признаки одной сложности. Первый уровень состав- ляют простые признаки. Каждый следующий уровень является более сложным, и его признаки образуются путем пространственно-геометрической комбинации признаков предыдущего уровня. 3. Строится многослойная сеть, где количество слоев совпадает с количеством уровней сложности. Нейроны в слое делятся на группы, соответствующие признакам, выделяемым на данной слое. Функция отдельной группы заключается в обнаружении (выделении) соответствующего признака на всем изображении, т.е. значение актив- ности нейронов группы формирует карту распределения признака на изображении. Для обеспечения инвариантности сети к небольшим сдвигам признаков (искажениям типа «смещение») дополнительно вводятся обобщающие слои, которые дублируют карты распределения признаков соответствующих им подслоев, при этом каждый обнаруженный признак «размазывается» по некоторой его окрестности. 4. Идентификация образа производится путем последовательной активации слоев: от слоя, выделяющего простые признаки, до слоя, выделяющего признаки всего образа в целом. Таким образом, при создании неокогнитрона для решения задачи классификации необходимо определить: способ выделения признаков и структуру НС. Способ выделения признаков и обучение сети В основе правила активации нейронов лежит метод сравнения матриц яркостей изображений, который позволяет сравнивать матрицы с нечетким позиционированием соответствующих элементов матриц и основывается на расчете геометрических и яр- костных искажений по набору изображений объекта [9], [10]. Особенностью данного правила активации является инвариантность результатов сравнения к локальным искажениям формы объекта. В качестве правила обучения (правила модификации коэффициентов) используется функция нечеткого динамического среднего. В рассматриваемой здесь постановке задачи распознавания предполагается, что существует набор шаблонов изображений. Следовательно, имея такой набор образцов, необходимо разработать метод автоматической генерации обучающего множества для каждого слоя сети. Для каждого слоя сети можно определить размеры проекции рецепторного поля нейрона на входной слой сети. На рис. 1 изображена проекция рецепторного поля нейрона из второго на входной слой сети для случая одномерных входных данных. Таким образом, для одного обучающего изображения получим K обучающих изображений для некоторого i-го слоя сети: K = Nin – Ni + 1, где Nin – размер входных данных; Ni – размер проекции рецепторного поля i-го слоя сети. Обозначим через F среднюю частоту смены уровня яркости изображения, для которой соседние точки изображения считаются принадлежащими одному уровню. Теперь радиус геометрических искажений R зададим как R = [0,3×1/F], где [ ] – операция взятия ближайшего целого. Будем считать, что обучающие данные для i-го слоя сети являются информативными, если выполняется условие: Fin/Fk  0,8 или Fin/Fk  1,25. Неокогнитрон для распознавания объектов топологии интегральных микросхем «Штучний інтелект» 4’2008 341 4Д R S1 S2 Проекция рецепторного поля нейрона из второго слоя на входной слой сети O Рисунок 1 – Метод построения проекции рецепторного поля После построения обучающего множества для каждого слоя задача обучения слоя сводится к задаче кластеризации входных данных слоя, получаемых из обучаю- щего множества. В связи с тем, что входящие в одну группу нейроны имеют одинаковые матрицы весовых коэффициентов, всю группу можно представить в виде одного нейрона, а слой – в виде однослойной НС, в которой каждый нейрон соответствует одной из групп. Для обучения такой сети будем использовать алгоритм кластеризации, где каждый кластер будет соответствовать одному нейрону. После обучения сети будем использовать такую НС как прототип для построения искомого слоя в многослойной сети, где количество нейронов в прототипе будет соответствовать количеству групп, а весовые коэффициенты нейронов из прототипа – весовым коэффициентам у нейро- нов из соответствующих групп. Функция активации нейрона, а также информативность обучающей выборки сильно зависят от параметра B, определяющего максимально допустимое расстояние между значениями яркости двух пикселей изображения, которые считаются экви валентными. Для устранения этого недостатка предложена новая функция активации нейрона [8], которая позволяет отказаться от подбора параметра B. В качестве обучающих и тестовых данных для рассмотренной выше модели НС использовались изображения слоя металлизации ИС (пример дан на рис. 2). В част- ности, сеть обучалась на распознавание контактных окон. Рисунок 2 – Фрагменты ИС с обучающими и тестовыми данными Дудкин А.А. «Искусственный интеллект» 4’2008 342 4Д На изображениях слоя металлизации можно выделить два вида контактных окон, которые имеют приблизительно одинаковый размер. Пример обучающих изображе- ний показан на рис. 3. а) б) Рисунок 3 – Пример исходных обучающих изображений: а) первый тип; б) второй тип Генерация обучающего множества для первого слоя НС на примере одного обучающего изображения показана на рис. 4. Последовательность изображ ений внутри скользящего окна Последовательность обучаю щих изображ ений, отобранных в соответствии с критерием  Исходное обучающее изображение Скользящее окно, размер которого равен размеру рецепторного поля нейронов первого слоя Рисунок 4 – Генерация обучающего множества слоя После построения обучающего множества для каждого слоя решается задача клас- теризации входных данных слоя, к которой сводится задача обучения слоя. На примере (рис. 5) обученной двухслойной НС значения весовых коэффициентов нейронов Si, j отображены яркостью пикселей соответствующих изображений, где i – номер слоя; аj – номер нейрона. Слой 1 S1,1 S1,2 S1,3 S1,4 S1,5 S1,6 S1,7 S1,8 S1,9 S1,10 S2,1 S2,2 Слой 2 Матрицы коэффициентов нейронов из различных групп нейронов ( S1,1, …, S1,10) первого слоя Матрицы коэффициентов нейронов из группы S2,1, соответствующие рецепторным полям в различных группах нейронов предыдущего слоя Рисунок 5 – Результат обучения двухслойной НС Неокогнитрон для распознавания объектов топологии интегральных микросхем «Штучний інтелект» 4’2008 343 4Д Выбор архитектуры НС Поиск лучшей архитектуры НС осуществлялся следующим методом. Для различ- ных вариантов архитектуры сети она обучалась на обучающем множестве, затем тестиро- валась на тестовом множестве для обучения. По результатам тестов выбиралась лучшая архитектура. Чтобы сравнить качество распознавания в целом, проводилось тестирование классификатора (табл. 1), основанного на стандартном корреляционном методе иден- тификации. В первом столбце приведены следующие условные названия архитектур тестируемых НС: корреляция  НС, реализующая корреляционную модель классификации; 23×23  однослойная нейронная сеть с радиусом геометрических искажений R = 1, определяющим максимально допустимое смещение пикселей эталона на изоб- ражении (образе); 4_20  двухслойная НС с рецепторными полями 4×4 и 20×20 на первом и вто- ром слоях соответственно и R = 1 на обоих слоях; 5_19  двухслойная НС с рецепторными полями, равными на первом слое 5×5, на втором 19×19 и R = 1 на обоих слоях; 7_17  двухслойная НС с рецепторными полями на первом слое 7×7, на втором 17×17 и R = 1 на обоих слоях; 9_15  двухслойная НС с рецепторными полями на первом слое 9×9, на втором слое 15×15 и R = 1 на обоих слоях. Таблица 1 – Результаты тестирования Число объектов Распоз- нано Тип класси- фи- катора Тип всего найдено объектов (в %) Число ненай- денных объек- тов Нерас- позна- но объек- тов (в %) Число непра- вильно распоз- нанных объектов Непра- вильно распоз- нано объек- тов (в %) Суммар- ная ошибка (в %) 1 2 3 4 5 6 7 8 9 10 Изображение Me_5a0 2 18 18 100 0 0 3 16,67 1 43 41 95,35 2 4,65 11 25,58 Корре- ляция По всем 61 59 96,72 2 3,27 14 22,95 26,23 2 18 18 100 0 0 2 11,11 1 43 41 95,35 2 4,65 2 4,65 23x23 По всем 61 59 96,72 2 3,28 4 6,56 9,84 2 18 18 100 0 0 2 11,11 1 43 42 97,67 1 2,33 1 2,33 4_20 По всем 61 60 98,36 1 1,64 3 4,92 6,55 2 18 18 100 0 0 2 11,11 1 43 43 100 0 0 1 2,33 5_19 По всем 61 61 100 0 0 3 4,92 4,92 2 18 18 100 0 0 2 11,11 1 43 41 95,35 2 4,65 1 2,33 7_17 По всем 61 59 96,72 2 3,28 3 4,92 8,20 2 18 18 100 0 0 3 16,67 1 43 37 86,05 6 13,95 0 0 9_15 По всем 61 55 90,16 6 9,84 3 4,92 14,75 Дудкин А.А. «Искусственный интеллект» 4’2008 344 4Д Продолжение табл. 1 1 2 3 4 5 6 7 8 9 10 Изображение Me_5с0 2 35 34 97,14 1 2,86 1 2,86 1 13 5 38,46 8 61,54 1 7,69 Корре- ляция По всем 48 39 81,25 9 18,75 2 4,17 22,92 2 35 33 94,29 2 5,71 0 0 1 13 2 15,38 11 84,62 0 0 23x23 По всем 48 35 72,91 13 27,08 0 0 27,08 2 35 31 88,57 4 11,43 0 0 1 13 5 38,46 8 61,54 0 0 4_20 По всем 48 36 75 12 25 0 0 25 2 35 33 94,29 2 5,71 0 0 1 13 13 100 0 0 0 0 5_19 По всем 48 46 95,83 2 4,17 0 0 4,17 2 35 35 100 0 0 1 2,86 1 13 11 84,62 2 15,38 4 30,77 7_17 По всем 48 46 95,83 2 4,17 5 10,42 14,58 2 35 33 94,29 2 5,71 2 5,71 1 13 1 7,69 12 92,31 0 0 9_15 По всем 48 34 70,83 14 29,17 2 4,17 33,33 Изображение Me_be0 2 28 28 100 0 0 1 3,57 1 152 140 92,11 12 7,89 6 3,95 Корре- ляция По всем 180 168 93,33 12 6,67 7 3,89 10,56 2 28 28 100 0 0 0 0 1 152 129 84,87 23 15,13 1 0,66 23x23 По всем 180 157 87,22 23 12,78 1 0,56 13,33 2 28 28 100 0 0 0 0 1 152 138 90,79 14 9,21 0 0 4_20 По всем 180 166 92,22 14 7,78 0 0 7,78 5_19 2 28 28 100 0 0 0 0 1 152 141 92,76 11 7,24 0 0 По всем 180 169 93,89 11 6,11 0 0 6,11 2 28 28 100 0 0 2 7,14 1 152 143 94,08 9 5,92 1 0,66 7_17 По всем 180 171 95 9 5 3 1,67 6,67 2 28 28 100 0 0 1 3,57 1 152 117 76,97 35 23,03 0 0 9_15 По всем 180 145 80,56 35 19,44 1 0,56 20 Неокогнитрон для распознавания объектов топологии интегральных микросхем «Штучний інтелект» 4’2008 345 4Д Продолжение табл. 1 1 2 3 4 5 6 7 8 9 10 Изображение Me_430 2 1 65 63 96,92 2 3,08 1 1,54 Корре- ляция По всем 65 63 96,92 2 3,08 1 1,54 4,62 2 1 65 54 83,08 11 16,92 0 0 23x23 По всем 65 54 83,08 11 16,92 0 0 16,92 2 1 65 54 83,08 11 16,92 1 1,54 4_20 По всем 65 54 83,08 11 16,92 1 1,54 18,46 2 1 65 63 96,92 2 3,08 4 6,15 5_19 По всем 65 63 96,92 2 3,08 4 6,15 9,23 2 1 65 43 66,15 22 33,85 1 1,54 7_17 По всем 65 43 66,15 22 33,85 1 1,54 35,38 2 1 65 31 47,69 34 52,31 1 1,54 9_15 По всем 65 31 47,69 34 52,31 1 1,54 53,85 На графике (рис. 6) дана обобщенная информация о результатах эксперимента. По оси ординат отложены значения столбца 10 для каждой архитектуры классифика- тора, по оси абсцисс отложены типы архитектур по мере их усложнения. Приводятся графики результатов экспериментов для каждого тестового изображения: Me_5a0 – синий, Me_5c0 – розовый, Me_be0 – желтый, Me_430 – голубой. Как видно из графика, наилучшей структурой сети является 5_19, она дает наи- меньший процент ошибки по всем тестовым изображениям. Рисунок 6 – График зависимости ошибки от структуры НС Каждый из критериев вычислялся по следующим формулам: c rR  , c mM  , c wW  , c nN  , Корреляция 23x23 4_20 5_19 7_17 9_15 Дудкин А.А. «Искусственный интеллект» 4’2008 346 4Д где с – общее количество объектов; wmcr  – количество правильно классифи- цированных объектов; m – количество нераспознанных объектов; w – количество объектов, отнесенных к неправильному классу; n – количество областей, не являю- щихся объектами, но отнесенных к одному из классов. Были получены следующие результаты: R = 94,55 %; M = 5,29 %; W = 0,16 %; N = 8,8 %. Результаты тестов для архитектуры 5_19 приведены на рис. 7. Квадратами от- мечены области, отнесенные к объектам. На рис. 7д кружком другого цвета показаны фрагменты ИС, содержащие ошибки распознавания: нераспознанные объекты либо ошибочно отнесенные к объектам области. Заключение Нейросетевая технология обработки изображений топологии ИС заключается в использовании моделей интеллектуальных НС для основных этапов обработки объектов топологии, критичных для принятия решения при идентификации на изоб- ражениях области металлизации, контактных площадок и других топологических объектов, и классификации объектов. Возможность использования множества конку- рирующих нейросетевых архитектур обеспечивает стабильность и снижение вычисли- тельной сложности процесса обучения при нечеткой информации об объектах топологии, улучшая при этом качество распознавания. в) a) б) г) д) Рисунок 7 – Результаты тестов на изображениях: а) Me_5a0; б) Me_5c0; в) Me_be0; г) Me_430; д) ошибки распознавания Неокогнитрон для распознавания объектов топологии интегральных микросхем «Штучний інтелект» 4’2008 347 4Д Заметим, что сфера приложений ряда предложенных методов и алгоритмов не ограничивается лишь рассмотренной предметной областью. Описанная технология обработки апробирована также при решении таких практических задач, как иденти- фикация болезни сельскохозяйственных полей по цветовым характеристикам изобра- жений растений, управление мобильным роботом, сегментация многоспектральных изображений для тематической обработки изображений земной поверхности. Литература 1. Галушкин А.И. Теория нейронных сетей. Кн. 1: Учеб. пособие для вузов / Под общей ред. А.И. Галушкина – М.: ИПРЖР, 2000. – 528 с. 2. Сигеру Омату. Нейроуправление и его приложения. Кн. 2: Пер. с англ. Н.В. Батина / Под ред. А.И. Галушкина, В.А. Птичкина – М.: ИПРЖР, 2000. – 272 с. 3. Головко В.А. Нейронные сети: обучение, организация и применение. Кн. 4: Учеб. пособие для вузов / В.А. Головко; под общей ред. А.И. Галушкина. – М.: ИПРЖР, 2001. – 256 с. 4. Терехов В.А. Нейросетевые системы управления / В.А. Терехов – СПб.: Изд-во СПб. университета, 1999. – 265 с. 5. Fukushima K. Neocognitron: A neural network model for a mechanism of visual pattern recognition / K. Fukushima, S. Miyake, T. Ito // IEEE Trans. Syst., Man, Cybern., V. SMC-13. – 1983. – P. 826-834. 6. Reid M. B. Simultaneous position, scale, and rotation invariant pattern classification using third-order neural networks / M.B. Reid, L. Spirkovska, E. Ochoa // International Journal of Neural Networks – Research & Applications. – 1989. – № 1 (3) – P. 154–159. 7. Vaillant R., Original approach for the localisation of objects in images / R. Vaillant, C. Monrocq, Y. LeCun // IEE Proc. on Vision, Image, and Signal Processing. – 1994. – № 141(4). – P. 245-250. 8. Дудкин А.А. Нейросетевая технология распознавания объектов топологии интегральных микро- схем (в печати). 9. Ваткин М.Е. Многослойная нечеткая нейронная сеть для классификации объектов на полутоновых изоб- ражениях / М.Е. Ваткин, А.А. Дудкин // Информатика / ОИПИ НАН Беларуси. – 2005. – № 3. – C. 60-72. 10. Дудкин А.А. Нечеткая нейронная сеть для классификации объектов на полутоновых изображениях / А.А. Дудкин, М.Е. Ваткин // Интеллектуальные и многопроцессорные системы 2005. – Дивно- морское (Россия). – 2005 – ТРТУ – Таганрог, 2005. – Т. 2. – C. 188-192. О.А. Дудкін Неокогнітрон для розпізнавання об’єктів топології інтегральних мікросхем З метою поліпшення характеристик обробки інформації і точності розпізнавання проводиться аналіз структури НС «неокогнітрон» і описується вибір архітектури розробленої багатошарової НС, яка реалізує багаторівневий процес розпізнавання об’єктів топології інтегральних мікросхем. A.A. Doudkin Neocognitron for Layout Objects Recognition of Integrated Circuits Analysis of neocognitron structure is cаrried out in order to improve parameters of data processing and recognition accuracy. A choice of the multi layered neural network architecture is described for multilevel recognition process of integrated circuits layout objects. Статья поступила в редакцию 28.07.2008.