Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления
Описаны подходы, используемые для классификации корпуса текстовых документов. Предлагаются новые модели и методы позволяющие осуществлять тематическую классификацию и вычислять степень тематической принадлежности текста к образцу. Описано підходи, які використовуються для класифікації корпусу тексто...
Збережено в:
| Опубліковано в: : | Кибернетика и вычислительная техника |
|---|---|
| Дата: | 2012 |
| Автори: | , |
| Формат: | Стаття |
| Мова: | Російська |
| Опубліковано: |
Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України
2012
|
| Теми: | |
| Онлайн доступ: | https://nasplib.isofts.kiev.ua/handle/123456789/45882 |
| Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Цитувати: | Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления / П.А. Помилуйко, Л.А. Тимашова // Кибернетика и вычисл. техника. — 2012. — Вип. 170. — С. 67-75. — Бібліогр.: 3 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1859934801149034496 |
|---|---|
| author | Помилуйко, П.А. Тимашова, Л.А. |
| author_facet | Помилуйко, П.А. Тимашова, Л.А. |
| citation_txt | Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления / П.А. Помилуйко, Л.А. Тимашова // Кибернетика и вычисл. техника. — 2012. — Вип. 170. — С. 67-75. — Бібліогр.: 3 назв. — рос. |
| collection | DSpace DC |
| container_title | Кибернетика и вычислительная техника |
| description | Описаны подходы, используемые для классификации корпуса текстовых документов. Предлагаются новые модели и методы позволяющие осуществлять тематическую классификацию и вычислять степень тематической принадлежности текста к образцу.
Описано підходи, які використовуються для класифікації корпусу текстових документів. Запропоновано нові моделі і методи, які дозволяють реалізувати тематичну класифікацію та обчислювати ступінь тематичної приналежності тексту до зразка.
The result of this work is a new solution to the problem of finding documents in the sample. Developed: a model of structural representation of textual information, the method and algorithms of its thematic analysis that would allow the thematic classification and calculation of the degree of thematic text belonging to the sample.
|
| first_indexed | 2025-12-07T16:09:43Z |
| format | Article |
| fulltext |
67
УДК 519.21:681.142
П.А. Помилуйко, Л.А. Тимашова
МЕТОДЫ И МОДЕЛИ ДЛЯ АНАЛИЗА КОРПУСА
ДОКУМЕНТОВ НОРМАТИВНЫХ АКТОВ
В ЗАДАЧАХ ЭЛЕКТРОННОГО УПРАВЛЕНИЯ
Описаны подходы, используемые для классификации корпуса текстовых
документов. Предлагаются новые модели и методы позволяющие осуществлять
тематическую классификацию и вычислять степень тематической принадлежности текста
к образцу.
Введение
Развитие информационных технологий привело к новой форме общения
с государством – электронному управлению, под которым следует понимать
способ организации государственной власти с помощью систем локальных
информационных сетей и сегментов глобальной информационной сети. В
результате обеспечивается функционирование определенных служб в режиме
реального времени и делается максимально простым и доступным
ежедневное общение гражданина с официальными учреждениями. Считается,
что такая форма общения с государством приведет не только к более
эффективному и менее затратному администрированию, но и к
кардинальным изменениям взаимоотношений между гражданами и органами
государственной власти и местного самоуправления.
История создания электронного управления идет параллельно с
развитием информационных технологий. Введение информационно-
коммуникационных технологий (ИКТ) в государственное управление
позволит ускорить развитие экономики, снизить затраты на бюрократические
процедуры, повысить эффективность работы и производительность труда
государственных ведомств, расширить возможности населения в
формировании гражданского общества за счет улучшения доступа к
различному роду информации. В настоящее время донесение информации до
граждан носит, как правило, пассивный и нерегулярный характер, нет
технологии быстрого и качественного ознакомления с документами, когда
это действительно требуется. Особые трудности вызваны проблемой
понимания как законов, так и их изменений и связаны с недоступностью
информации, а также незаинтересованностью служащих госучреждений в
предоставлении юридических, производственных и финансовых услуг. Это
сложная задача, так как политические, социально-экономические и правовые
реформы, осуществляемые на Украине, требуют существенного обновления
законодательства.
Опыт последних лет показывает, что значительное увеличение
количества законов зачастую сказывается на их качестве, внутренней
согласованности и, как следствие, ведет к малой эффективности на практике,
что подрывает принцип верховенства законов, являющийся неотъемлемым
условием существования правового государства. Среди основных причин,
негативно отражающихся на качестве законов, необходимо также, выделить
недостаточную исследованность правил и приемов в юридической практике,
П.А. Помилуйко, Л.А. Тимашова, 2012
ISSN 0452-9910. Кибернетика и вычисл. техника. 2012. Вып. 170
68
а также недооценку ее влияния на качество и эффективность различных
видов правовой деятельности. Данное обстоятельство подтверждает
необходимость привлечения новых методов обработки и анализа правовой
информации, а также потребность создания правил и приемов юридической
техники, позволяющих обеспечивать качество нормативно-правовых актов,
новых методов решения задачи поиска документов. Чтобы решить подобные
проблемы, перечень и описание всех услуг госучреждения, нормативно-
правовая информация должны быть доступны всем в любое время. Главная
роль в решении этих проблем отводится информационным технологиям,
реализуемым с помощью систем локальных информационных сетей и
сегментов глобальной информационной сети.
Целью данной статьи является разработка методов повышения
эффективности аналитической обработки информации, представленной в
виде корпуса распределенных текстовых документов, в частности
документов, расположенных на различных веб-ресурсах. В статье
предлагается новый метод решения задачи поиска документов, для чего
разработаны: модель структурного представления текстовой информации,
метод и алгоритмы ее тематического анализа, позволяющие осуществлять
тематическую классификацию и вычислить степень тематической
принадлежности текста к образцу. Предложенная модель, метод и алгоритмы
могут использоваться как для решения конкретных задач поиска документов
по образцу, так и для решения общих задач тематического анализа и
обработки речевых высказываний.
Под текстовым корпусом в современной лингвистике понимается
ограниченный в размере набор текстов, пригодный для машинной обработки
и отобранный таким образом, чтобы наилучшим образом представлять
языковое множество. Такого рода представленный документально
юридический массив текстов можно считать текстовым корпусом. Возникает
проблема поиска и анализа правовой информации в корпусе
неструктурированных текстов.
Существует ряд средств для автоматизации семантического анализа
текстовой информации: Oracle Text, Intelligent Miner for Text, Text Miner, Text
Analyst и др. Продукты такого типа осуществляют интеллектуальный анализ
текстовых данных или так называемый text mining — «нетривиальный
процесс обнаружения действительно новых, потенциально полезных и
понятных шаблонов в неструктурированных текстовых данных» [1]. Text
mining является полезным инструментом обработки данных, однако
возрастающий объем информации вызывает необходимость в более глубоких
методах анализа текста.
Для решения этой задачи предлагаются: модифицированный алгоритм
выделения из текста доминантных термов, семантическая модель корпуса
документов и алгоритм поиска документов по образцу в глобальных сетях.
Постановка задачи
В данной работе текстовый документ рассматривается в виде
>,<= WTD , где }..., 1,= | {= nitT i — множество доминантных термов
69
документа, }..., 1,= | {= njwW j — множество весов термов,
показывающих важность терма it для документа D.
Неотъемлемой частью любой информационно-поисковой системы
является модуль индексации, который в автоматическом режиме создает на
базе текста индекс, т.е. переводит текст в записи таблицы базы данных. В
данной работе используется следующая структура индекса (рис. 1).
Для каждого терма хранится его идентификационный код, строковое
представление, начальная форма, идентификационный код документа, в
котором встретился данный терм.
Для каждого вхождения терма в документ хранится его
идентификационный код, идентификационный код терма, значение TF ⋅ IDF.
Для каждого документа хранится его идентификационный код, путь к
документу, дата индексации, количество слов в документе, количество
термов в документе, название документа и текст после обработки.
Рис 1. Структура индекса
Индексация текстового документа происходит по следующему
алгоритму: из файла или html-документа извлекается текст. Для этого
используется модуль импорта, который работает со всеми известными
текстовыми форматами (HTML,Word, Excel, Pdf).
1. Предобработка текстов. Так как тексты в цифровом виде, как
правило, оформлены для чтения, в них содержится много лишней для анализа
информации (комментарии, ссылки, введения и т.п.). Кроме того, тексты,
взятые из разных источников, могут быть оформлены по-разному, поэтому
предварительная чистка и унификация анализируемых текстов крайне
желательна, хотя иногда и необязательна. Также необходимо выполнить
процедуры декапитализации и деакцентизации. Декапитализация —
преобразование всех символов корпуса в нижний регистр. Деакцентизация —
прием используемый при обработке текстов на французском языке, в
которых существуют буквы с акцентами, к примеру é, è, à и т.п. Из-за
особенностей грамматики, одно и то же слово в разных контекстах может
появляться с акцентами и без, поэтому все символы с акцентами заменяются
на аналоги без акцентов.
2. Морфологический и синтаксический анализ текста. Большой
корпус текстов может исчисляться в десятках, сотнях тысяч, а иногда и
миллионах документов. Количество слов в таких корпусах текстов нередко
достигает десятков миллионов. При этом текст, написанный на естественном
языке, слабо структурирован и может содержать большое количество
70
ошибок.
Множество всех уникальных слов и словосочетаний, содержащихся в
корпусе U, формируется с помощью процедуры токенизации. Алгоритм
определяет границы слов с помощью множества стоп-знаков слова —
множества знаков, которые позволяют отделять в тексте слова друг от друга,
а также некоторых правил, после чего составляется список всех уникальных
словосочетаний в корпусе. Размер множества U, как правило, не превышает
50000 слов.
Требуется извлечь из текста не только отдельные слова, но и
словосочетания, т.к. основные понятия предметной области очень часто
представлены сочетаниями слов (например, прилагательное и
существительное) [2], к примеру, словосочетание «коммерческая
недвижимость» в большей степени характеризует документ, нежели слова
«коммерческая» и «недвижимость» по отдельности.
Наиболее важным на этом этапе является классификация всех слов по
категориальным (частеречным) признакам: существительное, глагол,
прилагательное и т.д. Для этого необходимо привести все слова к
нормальной форме, т.е. выполнить процесс лемматизации. Лемматизация
слов производится с помощью специального модуля автоматизированной
обработки текста, который присваивает каждому слову соответствующую
часть речи.
Данный подход основывается на гипотезе о том, что на определение
класса в большей степени влияют следующие части речи [3]:
Ø Существительное
Ø Прилагательное и существительное
3. Удаление стоп-слов. Стоп-лист — список вспомогательных слов,
несущих мало информации о содержании документа. Из текста удаляются
все слова из стоп-листа.
4. Определение доминантных термов. Семантический образ отражает
содержание документа и включает в себя множество термов, находящихся в
некоторой зависимости друг от друга. Один из вариантов выражения такой
зависимости — весовые коэффициенты, отражающие значимость (вес) того
или иного слова в конкретной тематике.
Для термов-кандидатов, частота вхождения которых в данный документ
превышает заданный порог (в данной работе значение порога было равно
единице), вычисляется значение меры TF ⋅ IDF. Данная мера позволяет
осуществить так называемый контрастный тест, понизив вес слов, которые
часто встречаются не только в данном документе, но и в других документах
корпуса. По этой причине для вычисления данной меры в общем случае
необходимо предварительно проиндексировать весь корпус.
Однако при большом объеме корпуса такой расчет потребовал бы
значительного времени, поэтому для вычисления уже на этапе индексации
одного документа вместо данных о частоте употребления слова в корпусе
используются данные, взятые из частотного словаря. При этом используется
формула
71
d
D
N
N
d
tfreqtW log
||
)(=)( , (1)
где )(tfreq — частота употребления терма t в документе; d —
количество слов в документе; DN — количество документов в
анализируемом корпусе; dN — количество документов из корпуса,
содержащих терм t.
5. Доминантными для документа терминами считаются те, значения
меры TF ⋅ IDF для которых превышает заданный порог. После этого все
данные записываем в базу.
Алгоритм поиска документа по образцу
Одной из задач информационного поиска является задача поиска по
документу-образцу. Именно эта задача представляет наибольший интерес в
рамках работы с нормативно-правовыми документами.
Документ-образец выступает в качестве одной из форм представления
информационных потребностей пользователя. Целью поиска является
обнаружение тематически близких документов. При этом, как правило, речь
идет не о поиске идентичных или синтаксически близких документов, а о
поиске документов, близких по содержанию, близких по смыслу.
Самым простым подходом к решению задачи поиска документов по
образцу является использование всех слов документа-образца в качестве
запроса. Однако длина такого запроса может оказаться очень большой, что
отрицательно скажется на качестве поиска, т.к. результатом поиска будут все
документы, в которых присутствовали данные слова, и таких документов
может быть очень много. Это повлияет как на саму поисковую систему —
вычислительные ресурсы и трафик не безграничны, и система может
оказаться перегруженной, так и на человека — просмотр и анализ найденных
документов может занять значительное время.
Приемлемым вариантом в данном случае является выделение тематики
документа. Под тематикой понимается множество доминантных термов,
описывающих, с некоторой степенью адекватности, содержание документа.
Поиск новых документов
В случае отсутствия заданного корпуса текстов, система использует
гипертекстовую архитектуру сети Интернет. Для этого производится анализ
структуры графа Интернета (вершинами которого выступают страницы, а
ребрами — ссылки). В качестве документа образца выступает некоторая
страница (наиболее релевантная для заданного класса), ссылки на данную
страницу и ссылки с нее используются в различных алгоритмах локального
анализа структуры графа Интернета. В работе [2] рассматривается один из
таких алгоритмов — HITS (Hyperlink Induced Topic Search). В рамках этого
алгоритма определяется два класса документов:
• «первоисточник» — документ, на который часто ссылаются в
контексте некоторой тематики (чем чаще ссылаются, тем лучше
«первоисточник»);
72
• «посредник» — документ, который ссылается на много
«первоисточников» (чем больше ссылок на первоисточники, тем лучше
«посредник»).
Алгоритм HITS состоит из двух шагов:
• выбор подмножества из Интернета на основе запроса;
• определение лучших «первоисточников» и «посредников» по
результатам анализа этого подмножества.
Подмножество строится методом расширения множества найденных по
запросу пользователя страниц за счет добавления всех страниц, связанных с
ними путем, состоящим из одной (иногда двух) ссылок. Далее для каждого
документа рекурсивно вычисляется его значимость как «первоисточника» и
как «посредника».
Суть алгоритма HITS состоит в том, чтобы выделить множество,
соответствующее тематике запроса, и на основе анализа этого множества
определить наиболее авторитетные страницы.
Для проведения информационного поиска новых нормативных
документов предлагается использовать агентный подход. Агент —
программный модуль, который осуществляет обход веб-ресурсов и загружает
с них файлы определенного типа. Поиск, осуществляемый агентом, можно
разделить:
• на поиск документов, информация о которых уже содержится в
базе данных агента (государственные организации);
• поиск новых URL-документов через базы данных Google.
Для поиска страниц «первоисточников» и «посредников» используются
спецкоманды к базе данных Google и Яндекс. Агент производит поиск во
всех известных текстовых форматах (HTML,Word, Excel, Pdf) и извлекает
содержимое документов в базу данных системы. На этом этапе главное —
отобрать релевантные тексты для заданного класса достаточного объема
(более 50000 слов). В дальнейшем по заданному пользователем расписанию
агент вновь посещает все веб-ресурсы и при наличии на них новых файлов
загружает их. Файлы, которые обрабатываются агентом, сохраняются в
указанной пользователем директории на сервере.
Латентно-семантический анализ
В данной работе использован латентный семантический анализ (LSA —
latent semantic analysis) как метод определения сходства значений слов и
документов путем статистических вычислений над большим текстовым
корпусом. Он использован, поскольку для вычислений с его помощью не
требуется никакой дополнительной информации, такой как построенные
вручную словари, семантические сети или базы знаний. В основе метода LSA
лежит гипотеза о том, что между словами и тем контекстом, в котором они
употребляются, существуют неявные (латентные) взаимосвязи.
Предполагается, что семантическое значение документа может быть
представлено как сумма значений входящих в него слов.
Метод позволяет вычислить корреляции между парой термов, между
парой документов и между термом и документом.
73
Документ-
образец
Корпус доступных
документов
Документы для анализа на
тематическую близость
w1
w2
wn
Предварительный
анализw – тематическая
близость
.
.
.
Рис. 2. Поиск документа по образцу
Каждая строка исходной матрицы C — вектор, соответствующий терму и
показывающий его связь с каждым из документов корпуса:
} ... , ,{= 21 niii
T
i wwwt . (2)
Каждый столбец исходной матрицы C — вектор, соответствующий
документу и показывающий его связь с каждым из термов корпуса:
im
i
i
i
w
w
w
d
...
= 2
1
. (3)
Скалярное произведение p
T
i tt двух векторов показывает корреляцию
между соответствующими термами. Произведение матриц TCC содержит
все такие скалярные произведения. Элемент (i, p) (равный элементу (p, i))
содержит скалярное произведение p
T
i tt = i
T
ptt . Аналогично, матрица CCT
содержит скалярные произведения между векторами всех документов,
показывающие корреляцию между ними: q
T
j dd = j
T
q dd .
Метод LSA заключается в сингулярном разложении матрицы C (SVD —
singular value decomposition) и аппроксимации ее матрицей kC меньшего
ранга k. Тогда матрица kC , содержащая только k первых линейно
74
независимых компонентов C, отражает структуру ассоциативных связей,
присутствующих в исходной матрице, и в то же время не содержит «шума».
Помимо этого, уменьшение размерности матрицы ведет к уменьшению
количества k вычислений.
По теореме о сингулярном разложении существует разложение
используются TUZVC = , такое, что U и V — прямоугольные матрицы, а Z —
диагональная матрица.
Сходство между двумя документами может быть получено на основании
следующего выражения:
==== TTTTTTTTTTT UZVUVZUZVUZVUZVUZVCC
T
))(()(
.))(( TTT VZVZZVVZ ==
(4)
Поскольку произведения матриц TZZ и ZZT являются диагональными
матрицами, то матрица U должна содержать собственные векторы TCC , а
матрица V — собственные векторы CCT . Оба произведения должны иметь
одинаковые не равные нулю собственные значения при не равных нулю
элементах TZZ или, что то же самое, при не равных нулю элементах ZZT .
Разложение матрицы C выглядит следующим образом:
[ ] [ ][ ]
[ ]
[ ]
=
ll
l
mnm
n
v
v
z
z
uu
w...w
.........
w...w
...
...0
.........
0...
...
11
1
1
111
, (5)
где lzz ...,,1 — сингулярные числа, luu ...,,1 и lvv ...,,1 — левый и правый
сингулярные векторы. Известно, что выбор k наибольших сингулярных
значений и соответствующих им сингулярных векторов из матриц U и V дает
наилучшую аппроксимацию матрицы С матрицей ранга k:
T
kkkk VZUC = . (6)
Теперь, применяя к уменьшенным матрицам полученное ранее
соотношение (4), можно вычислить сходство каждой пары документов как
скалярное произведение соответствующих векторов, умноженных на
сингулярные значения:
T
kkkkk
T
k )Z)(VZ(VCC = . (7)
Выводы
В работе рассмотрено новое решение задачи поиска документов по
образцу. Разработаны модель структурного представления текстовой
информации, метод и алгоритмы ее тематического анализа, позволяющие
осуществить тематическую классификацию и вычислить степень
тематической принадлежности текста к образцу. Предложенная модель,
метод и алгоритмы могут использоваться как для решения конкретных задач
поиска документов по образцу, так и для решения общих задач
75
тематического анализа и обработки речевых высказываний. Это направление
является весьма перспективным и будет приоритетным для развития систем
электронного управления в дальнейшем. Развитие информационных
технологий приведет к новой форме общения с государством —
электронному управлению, под которым следует понимать способ
организации государственной власти с помощью систем локальных
информационных сетей и сегментов глобальной информационной сети. В
результате функционирование определенных служб в режиме реального
времени сделает максимально простым и доступным ежедневное общение
гражданина с официальными учреждениями. Считается, что такая форма
общения с государством приведет не только к более эффективному и менее
затратному администрированию, но и к кардинальным изменениям
взаимоотношений между гражданином и органами государственной власти и
местного самоуправления.
1. Gibson D., Kleinberg J.M., Raghavan P. Inferring web communities from link topology //
Proc. of the UK Conf. on Hypertext. — 1998. — P. 225–234.
2. Salton G., Buckley C. Term-weighting approaches in automatic text retrieval // Information
Processing & Management. — 1988. — № 5 (24). — P. 513–523.
3. Некрестьянов И.C. Тематико-ориентированные методы информационного поиска:
Дис…. работа канд. техн. наук. — СПб., 2000. — 80 c.
Международный научно-учебный центр
информационных технологий и систем
НАН Украины и Министерства образования
и науки, молодежи и спорта Украины, Киев Получено 27.11.2012
|
| id | nasplib_isofts_kiev_ua-123456789-45882 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 0452-9910 |
| language | Russian |
| last_indexed | 2025-12-07T16:09:43Z |
| publishDate | 2012 |
| publisher | Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України |
| record_format | dspace |
| spelling | Помилуйко, П.А. Тимашова, Л.А. 2013-06-19T20:44:32Z 2013-06-19T20:44:32Z 2012 Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления / П.А. Помилуйко, Л.А. Тимашова // Кибернетика и вычисл. техника. — 2012. — Вип. 170. — С. 67-75. — Бібліогр.: 3 назв. — рос. 0452-9910 https://nasplib.isofts.kiev.ua/handle/123456789/45882 519.21:681.142 Описаны подходы, используемые для классификации корпуса текстовых документов. Предлагаются новые модели и методы позволяющие осуществлять тематическую классификацию и вычислять степень тематической принадлежности текста к образцу. Описано підходи, які використовуються для класифікації корпусу текстових документів. Запропоновано нові моделі і методи, які дозволяють реалізувати тематичну класифікацію та обчислювати ступінь тематичної приналежності тексту до зразка. The result of this work is a new solution to the problem of finding documents in the sample. Developed: a model of structural representation of textual information, the method and algorithms of its thematic analysis that would allow the thematic classification and calculation of the degree of thematic text belonging to the sample. ru Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України Кибернетика и вычислительная техника Информационные технологии и системы Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления Методи та моделі для аналізу корпусу документів нормативних актів у задачах електронного управління Models and methods for normative acts collection analysis in problems of electronic control Article published earlier |
| spellingShingle | Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления Помилуйко, П.А. Тимашова, Л.А. Информационные технологии и системы |
| title | Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления |
| title_alt | Методи та моделі для аналізу корпусу документів нормативних актів у задачах електронного управління Models and methods for normative acts collection analysis in problems of electronic control |
| title_full | Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления |
| title_fullStr | Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления |
| title_full_unstemmed | Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления |
| title_short | Методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления |
| title_sort | методы и модели для анализа корпуса документов нормативных актов в задачах электронного управления |
| topic | Информационные технологии и системы |
| topic_facet | Информационные технологии и системы |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/45882 |
| work_keys_str_mv | AT pomiluikopa metodyimodelidlâanalizakorpusadokumentovnormativnyhaktovvzadačahélektronnogoupravleniâ AT timašovala metodyimodelidlâanalizakorpusadokumentovnormativnyhaktovvzadačahélektronnogoupravleniâ AT pomiluikopa metoditamodelídlâanalízukorpusudokumentívnormativnihaktívuzadačahelektronnogoupravlínnâ AT timašovala metoditamodelídlâanalízukorpusudokumentívnormativnihaktívuzadačahelektronnogoupravlínnâ AT pomiluikopa modelsandmethodsfornormativeactscollectionanalysisinproblemsofelectroniccontrol AT timašovala modelsandmethodsfornormativeactscollectionanalysisinproblemsofelectroniccontrol |