Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта

В статье предложен эффективный метод решения интеллектуальных логических и вычислительных задач. В основе метода лежит построение полной модели знаний многоуровневого описания действительности, которая обладает предельными характеристиками. При оценке текущей ситуации производится ее предельное о...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2008
Автор: Прокопчук, Ю.А.
Формат: Стаття
Мова:Російська
Опубліковано: Інститут проблем штучного інтелекту МОН України та НАН України 2008
Теми:
Онлайн доступ:https://nasplib.isofts.kiev.ua/handle/123456789/7159
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта / Ю.А. Прокопчук // Штучний інтелект. — 2008. — № 3. — С. 727-736. — Бібліогр.: 2 назв. — рос.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1859518953491005440
author Прокопчук, Ю.А.
author_facet Прокопчук, Ю.А.
citation_txt Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта / Ю.А. Прокопчук // Штучний інтелект. — 2008. — № 3. — С. 727-736. — Бібліогр.: 2 назв. — рос.
collection DSpace DC
description В статье предложен эффективный метод решения интеллектуальных логических и вычислительных задач. В основе метода лежит построение полной модели знаний многоуровневого описания действительности, которая обладает предельными характеристиками. При оценке текущей ситуации производится ее предельное обобщение, допускаемое полной моделью знаний. Есть все основания предполагать, что данный метод отвечает базовым принципам работы естественного интеллекта. У статті запропоновано ефективний метод рішення інтелектуальних логічних і обчислювальних завдань. В основі методу лежить побудова повної моделі знань багаторівневого опису дійсності, що має граничні характеристики. При оцінці поточної ситуації виробляється її граничне узагальнення, що допускається повною моделлю знань. Є всі підстави припускати, що даний метод відповідає базовим принципам роботи природного інтелекту. The work deals with the efficient method of solution of intellectual logic and computing tasks. The method is based on construction of full knowledge model of the multilevel description of the reality, which includes the limiting characteristics. In estimating the current situation is generalizated as within the limits admitted by the full model of knowledge. There is good reason to believe is that a given method corresponds to basic principles of work of natural intelligence.
first_indexed 2025-11-25T20:53:13Z
format Article
fulltext «Штучний інтелект» 3’2008 727 8П УДК 519.237.5 Ю.А. Прокопчук ИТМ НАН и НКА Украины, г. Днепропетровск, Украина itk3@ukr.net Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта В статье предложен эффективный метод решения интеллектуальных логических и вычислительных задач. В основе метода лежит построение полной модели знаний многоуровневого описания действительности, которая обладает предельными характеристиками. При оценке текущей ситуации производится ее предельное обобщение, допускаемое полной моделью знаний. Есть все основания предполагать, что данный метод отвечает базовым принципам работы естественного интеллекта. Введение Модели предметной области (ПрО) представим в виде кортежа <O, k>, где О – модель онтологии этой предметной области, а k – модель адекватной системы знаний. Адекватность модели предметной области означает, что модель действительности A(< O, k >) совпадает с множеством моделей всех ситуаций, входящих в действи- тельность этой предметной области. Последнее означает, что если α – модель любой ситуации действительности, то α ∈ A(< O, k >), а если α’ – модель любой ситуации, не принадлежащей действительности, то α’ ∉ A(< O, k >). Будем считать, что k1 эквивалентно k2 по модели действительности (k1 ∼ k2), если A(< O, k1 >) = A(< O, k2 >). В развернутом виде модель знаний k представим следующим образом [1]: k = {f/µ: k1 → k2} ∪ Pk, где f/µ – функциональные отображения, реализующие те или иные математические модели; µ – разные механизмы реализации отображений; k1 – входные данные задачи (описание информационной среды и задание); k2 – выходные данные задачи; Pk – правила композиции схем задач, т.е. правила, описывающие способы объединения локальных задач. Приведем спецификации задач некоторых классов моделей знаний (τ/T – результаты тестов; d/D – заключения, диагнозы; h/H – прогностические гипотезы; r/R – программы управления; T, D, H, R – сорта или домены) [2]: F1 = {f/µ: {τ/T}1 → {τ/T}2} – класс моделей вычислительных знаний; F2 = {f/µ: {τ/T} → d/D} – класс моделей диагностических знаний; F3 = {f/µ: {τ/T} → ¬d/D} – класс моделей знаний, описы- вающих область запретов; F4 = {f/µ: {τ/T}, {d/D} → {h/H}} – класс моделей прогности- ческих знаний; F5 = {f/µ: {τ/T}, {d/D}, {h/H} → {r/R}} – класс моделей знаний по оптимизации управления (лечения); F6 = {f/µ: {τ/T} → {τ/T}’} – класс моделей знаний описания структуры и динамики сложных систем, представляющий собой совокупность причинно-следственных связей (как структурных, так и временных). Модели F2 – F4 представляют собой модели интерпретации состояний системы. Общая модель знаний k включает в себя все упомянутые выше классы моделей, а именно: F1 ∪ F2 ∪ F3 ∪ F4 ∪ F5 ∪ F6 ⊆ k. С помощью правил композиции (вывода) Pk строится замыкание множества функциональных отображений F+/Pk в процессе решения конкретной задачи [2]. Прокопчук Ю.А. «Искусственный интеллект» 3’2008 728 8П Индуктивное формирование предельных моделей знаний Пусть R+ = {α1, …, αm} – выборка примеров с полной информацией. Пред- положим, что существует конечное множество элементарных тестов {τ}, такое, что по значениям тестов {τ} однозначно восстанавливается любая ситуация дейст- вительности α из R+. Предположим, что по множеству всех реализаций теста τ, т.е. ∪α τ, путем выполнения операции обобщения можно определить область возможных значений теста (ОВЗ(τ)) [2], которая является доменом T. На фиксированном уровне общности значения каждого теста при описании любой ситуации действительности выбираются из одного домена (числового, вербального и т.д.). Таким образом, все ситуации действительности (с полной информацией) на заданном уровне общности описываются множеством тестов {τ/T}. Пусть один из тестов принимает значения из конечного и альтернативного множества D = {d1,…, dn}. Обозначим этот тест через τd. Потребуем, чтобы R+ содержало в достаточном количестве примеры, относящиеся ко всем dj ∈ D. Другими словами, можно считать, что |D| = n << |R+|. В качестве множества D могут выступать некоторые заключения: диагнозы, прогнозы, программы управления и т.д. Можно записать: R+ = ∪j=1,n R+(dj). Введем условие разделимости ситуаций действительности на основе множест- ва тестов {τ/T}\τd и некоторой транзитивной метрики ρ: ∀{τ}, {τ}, где {τ}⊆ {τ/T}\τd и ∃α, α’ ∈ R+: α = α({τ},d), α’ = α’({τ}’, d’) выполняется условие: ρ({τ}, {τ}’)= 0 ⇒ d = d’. Пусть γ – некоторая целевая функция, а k – модель знаний, реализующая (предположительно) данную целевую функцию для определенного типа ситуаций действительности α. Другими словами, определен одноместный предикат kγ (α) на R+, такой, что kγ (α) = t (истина), если для α достигнута цель γ, в противном случае: kγ(α)= f (ложь). Примерами целевых функций могут быть: диагностика, прогноз, выбор оптимального управления (уровня помощи, лечения и т.д.). Тот факт, что ∀α ∈ R+ выполняется kγ (α)= t, запишем следующим образом: <O, γ, k> |- R+. Последняя запись означает, что на выборке R+ не проявляется дефект неправильности реализации целевой функции γ. Пусть целевая функция γ есть «классификация» (связанная с диагностикой, прогнозированием, выбором управления), т.е. определение d на основе результатов тестов {τ}. Частным случаем общей задачи классификации является установление наличия или отсутствия dj для произвольного j. Истинной назовем такую модель знаний, которая позволяет решить целевую задачу для любой предъявленной ситуации действительности. Если одну и ту же прикладную задачу (класс прикладных задач) можно решить, используя при этом меньшее число понятий и меньшее число утверждений (теорем), то такая схема решения (модель знаний) будет считаться более эффективной. Концепция построения моделей знаний с минимальным числом объектов является доминирующей в предлагаемом методе. Метод предельных обобщений – эффективный принцип работы... «Штучний інтелект» 3’2008 729 8П Рассмотрим следующую задачу: Задача 1. Пусть на каком-либо уровне абстракции (уровень определяется доме- нами) задана представительная выборка ситуаций действительности R+ с полной информацией. Пусть задана метрика ρ такая, что на множестве R+ выполняется условие разделимости. Требуется на множестве R+ построить минимальную неиз- быточную модель знаний с точки зрения целевой функции γ – «классификация заключений из D». Представительность выборки означает, в частности, следующее: ∀τ ∪{τ/T| τ/T ∈ R+}= ОВЗ(τ) для заданного множества заключений D, где ОВЗ(τ)⊆ T. Другими словами, все результаты любого теста, содержащиеся в примерах из R+, образуют в совокупности область возможных значений данного теста для данной группы заключений. Последнее означает, что не могут появиться новые примеры с результатами теста, отличными от уже имеющихся. Точное определение «представи- тельности выборки» и более мягкое требование к наборам значений тестов будет сформулировано ниже. Решение задачи 1 будем искать в следующем классе моделей знаний (в рамках примитивной онтологии): KI = {{τ/T} → d} ∪ {¬{τ/T}1 &…&¬{τ/T}m →¬ d} ∪ (1) ∪ (d1∨…∨ dn, ¬ d1 &…& ¬dn-1 → dn). Последнее отображение записано с точностью до нумерации заключений. Оно же, помимо инструмента вывода, одновременно выполняет роль условия приме- нимости, так как предполагает истинность посылки (d1∨…∨ dn), т.е. утверждения, что других заключений нет. Другими словами, прежде чем применять модель знаний из класса KI, необходимо убедиться в истинности посылки (d1∨…∨ dn). Любая модель k из класса KI представима в виде: k = ka ∪ kp, где ka = {{τ/T} → d}; kp = {¬{τ/T}1&…&¬{τ/T}m→¬ d} ∪ (d1∨…∨ dn, ¬ d1 &…& ¬dn-1 → dn). Компоненту ka можно назвать активной частью модели знаний, а kp выполняет пассивную роль, так как полностью определяется активной частью. В качестве отображений {{τ/T} → d} будем рассматривать все неизбыточные отображения, т.е. такие отображения, в левой части которых стоят минимальные комбинации результатов тестов, которые достаточны для установления заключения по имеющимся данным (множеству примеров R+). Для каждого заключения dj ∈ D существует минимальный набор неизбыточных отображений, которые в совокупности покрывают все примеры из R+(dj). Строго говоря, минимальных наборов для каждого заключения может быть несколько. Для левых частей любого из минимальных наборов неизбыточных отображе- ний, покрывающих R+(dj), введем следующее обозначение: Ω (dj) = ∪l {τ/T}jl, где l =1,…,Lj. Числа Lj назовем индексами заключений. В результате для D на множестве примеров с полной информацией R+ определен кортеж индексов: <L1,…, Ln>. Для построения минимальных неизбыточных моделей знаний достаточно выбрать такое подмножество номеров I={i1,…, in-1}, которое обеспечивает минимум сумме индексов, а именно: Σj∈I Lj → min. (2) Прокопчук Ю.А. «Искусственный интеллект» 3’2008 730 8П Активную компоненту модели знаний определим следующим образом: ka = ∪ j∈I ∪l=1,Lj ({τ/T}jl → dj |{τ/T}jl ∈ Ω (dj)), (3) Общее количество отображений, входящих в ka, составляет: |ka| = Σj∈I Lj. В силу (2) компонента ka минимальна (состоит из минимального множества неизбыточных отображений). Так как R+ представляет собой либо полную, либо представительную выборку примеров (на некотором уровне абстракции), то пассивную компоненту модели знаний определим следующим образом: kp= ∪ j∈I (&l=1,Lj (¬{τ/T}jl | {τ/T}jl ∈ Ω (dj))→ ¬ dj) ∪ (4) ∪ (d1∨…∨ dn, & j∈I ¬dj → dj’). где j’ = {1, 2,…, n}\ I. Легко убедиться, что общее количество отображений, входящих в kp, составляет |kp| = n. Таким образом, доказано следующее предложение: Предложение 1. В рамках класса моделей знаний KI, определяемого (1), на представительном множестве примеров с полной информацией R+ минимальная неизбыточная модель знаний k/KI, являющаяся решением задачи 1, имеет вид: k = ka ∪ kp, где активная компонента ka определяется соотношением (3), а пассивная компонента kp определяется соотношением (4). Общее количество отображений в модели знаний составляет |k| = Σj∈I Lj + n. Примечание: если выборка примеров R+ на заданном уровне абстракции не является представительной, то класс моделей знаний KI использовать нельзя, так как в этом случае неверными являются отображения: ∪ j∈I (&l=1,Lj (¬{τ/T}jl | {τ/T}jl ∈ Ω (dj))→ ¬ dj). Из процесса построения минимальной модели видно, что она может быть не единственной. Некоторое обобщение понятия «функциональное отображение» в модели зна- ний приводит к появлению более общего класса KII: KII = {{τ/T∈Xτ} → d}∪{¬{τ/T∈Xτ}1 &…&¬{τ/T∈Xτ}m →¬ d}∪ (5) ∪ (d1∨…∨ dn, ¬ d1 &…& ¬dn-1 → dn). Поясним некоторые нотации. Пусть {τ1, τ2,…, τs} – набор тестов, которые прини- мают участие в формировании {τ/T∈Xτ}, тогда можно записать: {τ/T∈Xτ}≡ {τ1 ∈X1, τ2 ∈X2,…, τs ∈Xs} ∈ {<τ1, τ2,…, τs >}≡ X1 ×…× Xs, где X1 ×…× Xs – декартово произведение множеств. Следовательно, любое отображение {τ/T∈Xτ} → d эквивалентно множеству простейших отображений из класса KI {<τ1, τ2,…, τs > → d |<τ1, τ2,…, τs > ∈ X1 ×…× Xs }. (6) Процесс построения минимальных, неизбыточных моделей знаний в рамках класса KII практически аналогичен процессу построения таких же моделей в рамках класса KI с одним дополнением. После выделения всех простейших неизбыточных отображений необходимо выполнить операцию свертывания. Общее количество отображений подсчитывается по той же формуле, что приведена в предложении 1. Метод предельных обобщений – эффективный принцип работы... «Штучний інтелект» 3’2008 731 8П Классы KI и KII не исчерпывают все возможные классы, в рамках которых может производиться поиск решения задачи 1. Действительно, класс KII можно обобщить следующим образом: KIII = ∪j = 1,m (pj({τ/T∈Xτ}j) = t → d) ∪ {&j = 1,m pj({τ/T∈Xτ}j) = f→¬ d} ∪ ∪ (d1∨…∨ dn, ¬ d1 &…& ¬dn-1 → dn). Другими словами, на множестве результатов тестов могут быть определены любые предикаты, использующие произвольные функции. В отличие от классов KI и KII модели класса KIII можно отнести к непримитивным моделям знаний, так как могут появиться новые функциональные параметры (например, коэффициенты урав- нений, неравенств), не принадлежащие множеству тестов {τ/T}. Большинство моделей распознавания образов принадлежит классу KIII. Рассмотрим в некотором смысле базовую модель знаний k0: k0 = ∪ j=1,n ∪l=1,Lj ({τ/T}jl → dj |{τ/T}jl ∈ Ω (dj)) ∪ {d1∨…∨ dn = true}. (7) Последнее логическое выражение представляет собой условие применимости модели k0. Очевидно, базовая модель знаний не единственна, так как не единственным образом формируются Ω(dj). Создание базовой модели знаний не предполагает пред- ставительности выборки R+, однако предполагает выполнение условия разделимости. Представительной будем называть выборку примеров R+, на основе которой может быть построена такая базовая модель k0, что любой другой пример дейст- вительности удовлетворяет базовой модели k0 (понятие «представительная выборка» было использовано при формулировке задачи 1). Среди всего множества базовых моде- лей может найтись только одна модель, которая установит, что выборка примеров является представительной. Поскольку базовых моделей конечное множество, то на практике целесообразно формировать все множество базовых моделей. Появление новых примеров (ситуаций действительности) постепенно исключит все ошибочные модели, в пределе оставив лишь истинные базовые модели, если таковые принад- лежали исходному множеству (истинная модель может не принадлежать исходному множеству базовых моделей). В этом проявляется индуктивный характер процесса формирования истинных моделей знаний. Пользуясь таким определением представительности выборки, можно снять тре- бование о полноте набора значений всех тестов, а именно: только для тестов τ, участвующих в построении истинной модели k0, должно выполняться условие: ∪ {τ/T| τ/T ∈ R+}=ОВЗ(τ) для заданного D. Минимальная неизбыточная модель знаний позволяет еще более смягчить данное требование: условие полноты значений должно выполняться только для тестов, формирующих ∪ j∈I Ω (dj) для множества заключений dj (j∈I). Примечание: убедительный вывод относительно представительности выборки может быть сделан либо на основании системного семантического (смыслового) анализа результатов каждого теста либо по результатам длительной эксплуатации модели знаний. Если выборка примеров не является представительной, то модели k0 не являются полными (истинными) в том смысле, что не для всякой новой ситуации действительности может быть решена задача классификации. Действительно, если новая ситуация действительности не содержит комбинации значений тестов из множества ∪ j∈I Ω (dj), то заключение будет неопределенным. Прокопчук Ю.А. «Искусственный интеллект» 3’2008 732 8П Предложение 2. Пусть описание действительности R+ содержит представительную выборку для заключений из D. Базовая модель знаний является истинной тогда и только тогда, когда она строится на тестах, которые характеризуют представительную выборку. Предложение 3. Если существует истинная минимальная неизбыточная модель знаний, то это не всегда означает существование истинной базовой модели знаний. Однако если существует истинная базовая модель, то всегда существует истинная минимальная неизбыточная модель знаний. Предложение 3 показывает важнейшую особенность минимальных неизбыточных моделей знаний, что делает их наиболее привлекательными для практики. Отметим при этом, что не всякая минимальная неизбыточная модель знаний может быть истинной. Более того, среди всех минимальных неизбыточных моделей может не быть истинной модели. Это будет означать также отсутствие истинной базовой модели. Выше уже отмечалось, что базовые модели знаний и минимальные неиз- быточные модели определяются не единственным образом, следовательно, имеется возможность более глубокой оптимизации моделей знаний. Пусть {Ων (dj)} все минимальные наборы левых частей неизбыточных отобра- жений, покрывающих R+(dj). Для любого ν справедливо: |Ων (dj)| = Lj. Введем понятие веса левой части неизбыточного отображения {τ/T}jl ∈ Ων (dj) (l =1,…,Lj) как процент охвата ситуаций из R+(dj). Для веса введем следующее обозначение: w ({τ/T}jl) = wjl, для любого {τ/T}jl ∈ Ων (dj) (l =1,…,Lj). Очевидно, чем больше вес отображения, тем более характерным является данное отображение для ситуаций из R+(dj), следовательно, необходимо стремиться к выбору отображений с максимальными весами. Суммарный вес множества Ων (dj) определим как сумму весов всех элементов множества, а именно: Wjν = Σl (wjl | {τ/T}jl ∈ Ων (dj), l =1,…, Lj) Предложение 4. Для любых j и ν выполняется соотношение 100% ≤ Wjν ≤ Lj ⋅ 100%. Для любого j = 1,…,n существует хотя бы один набор Ων (dj) с максимальным весом, т.е. существует ν(j), такое, что W* j =maxν Wjν. Среди всех подмножеств номеров I = {i1,…, in-1}, которые обеспечивают минимум сумме индексов, необходимо выбрать такую комбинацию I*, которая обес- печивает максимум сумме весов: Σj (W* j | j∈I*) → max. Оптимальной моделью знаний для задачи классификации будем называть минимальную неизбыточную модель, которая основана на множествах Ων(j) (dj), где j∈I*. Оптимальная модель знаний также может быть не единственной. Оптимальной базовой моделью знаний для задачи классификации будем называть базовую модель k0, которая основана на множествах Ων(j) (dj), где j = 1,…,n. Оптимальная базовая модель знаний может быть не единственной. Все предыдущие построения неявно подразумевали, что все элементарные тесты {τ/T} равноправны. Однако на практике, как правило, тесты делятся на категории (по сложности или длительности выполнения, по стоимости, по вредности для объекта исследования и т.д.). Таким образом, среди минимальных неизбыточных моделей или среди оптимальных моделей можно выбрать модели, содержащие тесты приоритетных категорий. Метод предельных обобщений – эффективный принцип работы... «Штучний інтелект» 3’2008 733 8П Графы доменов Запись τ/T означает, что результаты теста τ могут принимать значения из разных доменов T. Домены могут быть разного уровня общности. Приведем примеры. Пусть T1 – T4 – разные домены для описания температуры тела: T1 = [34,42] градусов; T2 = {[34, 35], (35, 36.5), [36.5, 36.8], [36.9, 37.4], [37.5, 40]}; T3 = {пониженная; нормальная; повышенная; высокая}; T4 = {нормальная, ненормальная}, а В1, В2 – домены для описания возраста: В1 = [0…120]; В2 = {молодой, средних лет, пожилой, старческий}. Обе группы доменов обладают тем свойством, что если задано значение теста на одном домене, то с помощью определенных (однозначных) правил пересчета могут быть определены значения того же теста на доменах с большим номером. Другими словами, на приведенных доменах по критерию общности может быть задан нестрогий порядок, а именно: T1 ≤ T2 ≤ T3 ≤ T4; B1 ≤ B2. Если между двумя доменами Т и Т’ может быть установлен нестрогий порядок T ≤ T’, то домен Т назовем доминируемым, а домен Т’ – доминирующим, при этом должно выполняться соотношение: |T| > |T’|. Отношение нестрогого порядка (доминирования) между доменами является транзитивным. Это означает, что если T1 ≤ T2 ≤ T3, то T1 ≤ T3. Если между двумя доменами не может быть установлен нестрогий порядок (нельзя задать однозначные правила пересчета), то такие домены назовем несравнимыми. Правила пересчета значений из одного домена в другой можно задавать по- разному, например, на основе теории нечетких множеств. В качестве примера при- ведем самые простые правила: T2.{[34, 35], (35, 36.5)} → T3.«пониженная»; T2.{[36.5, 36.8]} → T3.«нормальная»; T2.{[36.9, 37.4]} → T3.«повышенная»; T2.{[37.5, 40]} → T3.«высокая »; T3.«нормальная» → T4.«нормальная»; T3.{пониженная; повышенная; высокая} → T4. «ненормальная»; В1.[0…33] → В2.«молодой»; В1.[34…59] → В2.«средних лет»; В1.[60…69] → В2.«пожилой»; В1.[70…100] → В2.« старческий». Введем в рассмотрение промежуточный домен В1-2 и домен В3 следующим образом: В1-2 = {юный, молодой, средних лет, пожилой, старческий}; В3 = {юный, молодой, немолодой}. Фрагмент новых правил пересчета значений из одного домена в другой зададим в виде: В1.[0…14] → В1-2.{юный}; В1.[15…33] → В1-2.{молодой}; В1-2.{юный; молодой} → В2.{молодой}. Правила пересчета значений из домена В1-2 в домен В3 очевидны. Введем предельный по уровню обобщения домен В4 = {молодой, немолодой} следующим образом: В2.{молодой} → В4.{молодой}; B2.{средних лет, пожилой, старческий} → В4.{немолодой}; В3.{юный, молодой} → В4.{молодой}; B3.{немолодой} → В4.{немолодой}. В результате для теста «Возраст» имеем две последовательности доменов: В1 ≤ В1-2 ≤ В2 ≤ В4 и В1 ≤ В1-2 ≤ В3 ≤ В4. Если знак «≤» заменить на знак следования – «→», то для отношения «доминирование» получим ориентированный граф доменов с одной корневой вершиной В1, которая символизирует объективный уровень (минимальный уровень общности). Ориентированные графы доменов всех тестов являются частью непримитивной онтологии предметной области. Наряду с доменом В4 можно определить другие дихотомические домены для теста «Возраст», например: В5 = {юный, неюный}; В6 = {трудоспособный, нетру- Прокопчук Ю.А. «Искусственный интеллект» 3’2008 734 8П доспособный} и т.д. (для домена В6 пересчет из домена В1 будет зависеть от пола). Очевидно, все дихотомические домены для одного теста являются несравнимыми между собой. На рис. 1 изображен результирующий граф доменов для теста «Возраст». Рисунок 1 – Граф доменов для теста «Возраст» Представленный граф возник в процессе поиска наиболее полной модели знаний многоуровневого описания действительности. Очевидно, что граф задается не един- ственным образом. Более того, для каждого теста может существовать одновременно множество графов доменов. Выбор того или иного графа в процессе решения при- кладной задачи осуществляется ситуативно. В процессе решения конкретных задач графы могут наращиваться (расти), т.е. может происходить обучение. Очевиден субъек- тивный и ситуативный характер процесса построения графов доменов. Графы доменов необходимо построить для каждого теста, улучшив предель- ные характеристики критических моделей. Другими словами, целесообразно решить следующую задачу: Задача 2. Для каждого теста построить максимально развернутый ориен- тированный граф доменов (или несколько графов). В процессе построения графа допу- стимо встраивание новых доменов с целью расширения предельных характеристик критических и закритических описаний. Алгоритм решения задачи 2 является частью общего алгоритма построения наиболее полной модели знаний многоуровневого описания действительности, т.е. такой модели, которая расширяется в процессе поиска решения, а не основывается на изначально фиксированном множестве доменов. Многоуровневые модели знаний Возможно, что для некоторых сочетаний доменов исходных тестов будет нару- шено условие разделимости. Комбинации альтернативных заключений, нарушающих условие разделимости на некоторых ситуациях действительности, обозначим через {∨ d}s (s ∈ S). Такие ситуации действительности назовем артефактами. Критическим набором доменов по критерию общности назовем такой набор, при котором в R+ отсутствуют артефакты, однако переход на более высокий уровень общ- ности по любому из тестов (в рамках графов доменов) приводит к появлению артефактов. Критическим описанием ситуаций действительности назовем такое описание, которое базируется на критическом наборе доменов. Пусть {α ({τ/Tτ *})} – одно из критических описаний. Это означает, в частности, следующее: ∀ {Tτ}: {Tτ ≤ Tτ *} описания {α ({τ/Tτ})} не содержат артефактов. Описания из совокупности {α ({τ/Tτ})} назовем докритическими описаниями. Если описание действительности не содержит артефактов (критические и докритические описания), то для построения модели знаний, соответствующей данному описанию, может использоваться любой из классов KI, KII, KIII в случае представительности выборки примеров или базовая модель k0 в случае, если выборка не является представительной. Описание действительности, содержащее артефакты, назовем закритическим (синонимом является термин надкритическое описание). Потребуем, чтобы множес- тво всех заключений в закритических описаниях действительности разбивалось хотя бы на два класса {∨d}s. Таким образом, обобщать можно до тех пор, пока описания остаются закритическими. Для закритических описаний также можно построить минимальные модели знаний [2]. Метод предельных обобщений – эффективный принцип работы... «Штучний інтелект» 3’2008 735 8П Предложение 5. Если описание {α ({τ/T})} является закритическим, то любое описание с доминирующими доменами также является закритическим (со своим набором артефактов). Если описание {α ({τ/T})} является докритическим, то любое описание с доминируемыми доменами также является докритическим. Суть предложения 5 состоит в том, что если некоторое описание действительности содержит артефакты, то дальнейшее обобщение по любому из тестов не устраняет артефакты, хотя сами артефакты, естественно, изменяются. И наоборот, если некоторое описание не содержит артефакты, то повышение точности описания (понижение уровня общности) по любому из тестов не приведет к появлению артефактов. Сформулируем одну из задач определения критических наборов доменов на заданном множестве графов. Задача 3. Пусть ситуации действительности описываются с помощью набора элементарных тестов {τ/T}. Для каждого теста τ задан набор доменов {T1, T2, …, Tp}τ, на котором определен нестрогий порядок по критерию общности: T1 ≤ T2 ≤ … ≤ Tp (p зависит от τ). Каждый домен (возможно, кроме первого) содержит конечное мно- жество альтернативных элементов. Исходное описание действительности R+ 0 задано с помощью доменов минимальной общности, т.е. R+ 0 ={α ({τ/T1})}. Описане R+ 0 не содер- жит артефактов. Требуется найти все критические описания ситуаций действительности. Решение задачи 3 может быть найдено простым перебором всех комбинаций доменов. Для задачи классификации критические описания действительности представляют значительную ценность, так как в случае представительности выборок они позволяют полностью решить задачу классификации при любых исходных данных и используют для этого домены максимальной (предельной) общности. Последнее обстоятельство означает возможность автоматической генерации моделей знаний для всех описаний меньшей общности (докритических описаний), следовательно, данные модели необязательно хра- нить в долговременной памяти. Обобщенной моделью знаний многоуровневого описания действительности для целевой функции «классификация» назовем совокупность всех моделей знаний для докритических и критических описаний действительности. Обобщенная модель зна- ний включает те, и только те описания, которые не содержат артефактов. Выявленные выше свойства критических описаний позволяют ввести в рас- смотрение понятие минимальной обобщенной модели знаний, состоящей из моделей знаний критических описаний действительности и/или моделей знаний недомини- руемых докритических описаний действительности. Полной моделью знаний многоуровневого описания действительности для целевой функции «классификация» назовем совокупность всех моделей знаний для докритичес- ких, критических и закритических описаний действительности. Остается открытым во- прос об истинности полной модели знаний многоуровневого описания действительности. В общем случае, не для всех описаний действительности полной модели существуют истинные модели знаний, так как не все описания содержат представительные выборки. Метод предельных обобщений Опишем применение полной модели знаний для решения задачи классификации нового наблюдения, для которого априорно неизвестно заключение d/D. Задача 4. Пусть P – новое наблюдение (ситуация) действительности, а {τ/T}P описание наблюдения. Предполагается доказанным утверждение, что заключение принадлежит множеству D. Предполагается также, что известна полная модель знаний многоуровневого описания действительности для целевой функции «классификация заключений из D». Требуется установить заключение d для наблюдения P. Прокопчук Ю.А. «Искусственный интеллект» 3’2008 736 8П В общем случае, если в полной модели знаний существуют описания с предста- вительными выборками, то решение задачи 4 для произвольного нового наблюдения может строиться следующим образом. Из памяти извлекается минимальная неизбы- точная модель знаний описания, соответствующего новому наблюдению, или предельного по общности доминирующего описания с представительной выборкой. Если выбрано доминирующее описание, то исходные данные преобразуются в формат доминирующего описания. Для каждого j ∈ I проверяется вхождение всех комбинаций значений тестов из Ω (dj) в {τ/T}P с учетом метрики ρ. Если та или иная комбинация входит в {τ/T}P, то соответствующее j помещается в JP. По окончании данной процедуры возможны три случая: |JP| = 0; |JP| = 1; |JP| > 1. Если |JP| = 1, то решением задачи 4 является соответствующее заключение dj (j ∈ JP). Если |JP| = 0 или |JP| > 1, то модель знаний неполна или противоречива (гипотеза о представи- тельности выборки неверна или неверно выбрана минимальная неизбыточная модель) и требуется скорректировать все модели многоуровневого описания действитель- ности с учетом данного случая. Таким образом, суть метода предельных обобщений состоит в следующем. 1. Для каждого теста, участвующего в описании задачи, строится максимально развернутый граф доменов (или несколько графов). При процессе построения графов активную роль играют эксперты ПрО. 2. Для каждого сочетания доменов, определяющего уровень общности описа- ния действительности, строится либо минимальная неизбыточная модель знаний (оптимальная), либо базовая модель. Совокупность всех моделей знаний определяет полную модель многоуровневого описания действительности. 3. При поиске решения для новой ситуации данная ситуация предельно обоб- щается до одного из описаний, содержащего истинную модель знаний (предпочти- тельно критическое описание). На новом уровне описания находится решение. Если решения нет, то модели знаний необходимо скорректировать. Отметим, что наличие или отсутствие решения может зависеть от субъективной оценки истинности моделей знаний (наличия представительной выборки на том или ином уровне общности). Литература 1. Прокопчук Ю.А. Интеллектуальные медицинские системы: формально-логический уровень. – Дн-ск: ИТМ НАНУ, 2007. – 259 с. 2. Информационные технологии в образовании и здравоохранении / Алпатов А.П., Прокопчук Ю.А., Юденко О.В., Хорошилов С.В. – Дн-ск: ИТМ НАНУ, 2008. – 287 с. Ю.О. Прокопчук Метод граничних узагальнень – ефективний принцип роботи обчислювального інтелекту У статті запропоновано ефективний метод рішення інтелектуальних логічних і обчислювальних завдань. В основі методу лежить побудова повної моделі знань багаторівневого опису дійсності, що має граничні характеристики. При оцінці поточної ситуації виробляється її граничне узагальнення, що допускається повною моделлю знань. Є всі підстави припускати, що даний метод відповідає базовим принципам роботи природного інтелекту. Yu. Prokopchuk The Method of Limiting Generalizations Is an Efficient Principle of Work of Computing Intelligence The work deals with the efficient method of solution of intellectual logic and computing tasks. The method is based on construction of full knowledge model of the multilevel description of the reality, which includes the limiting characteristics. In estimating the current situation is generalizated as within the limits admitted by the full model of knowledge. There is good reason to believe is that a given method corresponds to basic principles of work of natural intelligence. Статья поступила в редакцию 02.07.2008.
id nasplib_isofts_kiev_ua-123456789-7159
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 1561-5359
language Russian
last_indexed 2025-11-25T20:53:13Z
publishDate 2008
publisher Інститут проблем штучного інтелекту МОН України та НАН України
record_format dspace
spelling Прокопчук, Ю.А.
2010-03-25T12:06:01Z
2010-03-25T12:06:01Z
2008
Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта / Ю.А. Прокопчук // Штучний інтелект. — 2008. — № 3. — С. 727-736. — Бібліогр.: 2 назв. — рос.
1561-5359
https://nasplib.isofts.kiev.ua/handle/123456789/7159
519.237.5
В статье предложен эффективный метод решения интеллектуальных логических и вычислительных задач. В основе метода лежит построение полной модели знаний многоуровневого описания действительности, которая обладает предельными характеристиками. При оценке текущей ситуации производится ее предельное обобщение, допускаемое полной моделью знаний. Есть все основания предполагать, что данный метод отвечает базовым принципам работы естественного интеллекта.
У статті запропоновано ефективний метод рішення інтелектуальних логічних і обчислювальних завдань. В основі методу лежить побудова повної моделі знань багаторівневого опису дійсності, що має граничні характеристики. При оцінці поточної ситуації виробляється її граничне узагальнення, що допускається повною моделлю знань. Є всі підстави припускати, що даний метод відповідає базовим принципам роботи природного інтелекту.
The work deals with the efficient method of solution of intellectual logic and computing tasks. The method is based on construction of full knowledge model of the multilevel description of the reality, which includes the limiting characteristics. In estimating the current situation is generalizated as within the limits admitted by the full model of knowledge. There is good reason to believe is that a given method corresponds to basic principles of work of natural intelligence.
ru
Інститут проблем штучного інтелекту МОН України та НАН України
Архитектура, алгоритмическое и программное обеспечение интеллектуальных многопроцессорных систем
Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта
Метод граничних узагальнень – ефективний принцип роботи обчислювального інтелекту
The Method of Limiting Generalizations Is an Efficient Principle of Work of Computing Intelligence
Article
published earlier
spellingShingle Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта
Прокопчук, Ю.А.
Архитектура, алгоритмическое и программное обеспечение интеллектуальных многопроцессорных систем
title Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта
title_alt Метод граничних узагальнень – ефективний принцип роботи обчислювального інтелекту
The Method of Limiting Generalizations Is an Efficient Principle of Work of Computing Intelligence
title_full Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта
title_fullStr Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта
title_full_unstemmed Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта
title_short Метод предельных обобщений – эффективный принцип работы вычислительного интеллекта
title_sort метод предельных обобщений – эффективный принцип работы вычислительного интеллекта
topic Архитектура, алгоритмическое и программное обеспечение интеллектуальных многопроцессорных систем
topic_facet Архитектура, алгоритмическое и программное обеспечение интеллектуальных многопроцессорных систем
url https://nasplib.isofts.kiev.ua/handle/123456789/7159
work_keys_str_mv AT prokopčukûa metodpredelʹnyhobobŝeniiéffektivnyiprinciprabotyvyčislitelʹnogointellekta
AT prokopčukûa metodgraničnihuzagalʹnenʹefektivniiprinciprobotiobčislûvalʹnogoíntelektu
AT prokopčukûa themethodoflimitinggeneralizationsisanefficientprincipleofworkofcomputingintelligence