Use of ontological knowledge in machine learning methods for intelligent analysis of Big Data

The paper discusses problems related to the processing of Big Data in order to acquire implicit knowledge from them. Machine  learning (ML) methods oriented on these tasks can be combined with elements of the Semantic Web technologies and Artificial Intelligence (AI), which deals with intelligent be...

Full description

Saved in:
Bibliographic Details
Date:2019
Main Author: Rogushina, J.V.
Format: Article
Language:Ukrainian
Published: PROBLEMS IN PROGRAMMING 2019
Subjects:
Online Access:https://pp.isofts.kiev.ua/index.php/ojs1/article/view/336
Tags: Add Tag
No Tags, Be the first to tag this record!
Journal Title:Problems in programming
Download file: Pdf

Institution

Problems in programming
id pp_isofts_kiev_ua-article-336
record_format ojs
resource_txt_mv ppisoftskievua/90/fd039524c1101778649f08eabb94b790.pdf
spelling pp_isofts_kiev_ua-article-3362019-02-28T11:42:30Z Use of ontological knowledge in machine learning methods for intelligent analysis of Big Data Использование онтологических знаний в методах машинного обучения для интеллектуального анализа Big Data Використання онтологічних знань у методах машинного навчання для інтелектуального аналізу Big Data Rogushina, J.V. machine learning; Big Data; ontology UDC 004,853, 004.55 машинное обучение; онтология; Big Data УДК 004.853, 004.55 машинне навчання; онтологія; Big Data УДК 681.3 The paper discusses problems related to the processing of Big Data in order to acquire implicit knowledge from them. Machine  learning (ML) methods oriented on these tasks can be combined with elements of the Semantic Web technologies and Artificial Intelligence (AI), which deals with intelligent behavior, learning and adaptation in computational systems. We analyse challenges and opportunities background knowledge using to improve ML results, the role of ontologies and other   resources of domain knowledge. Domain knowledge could improve the quality of ML results by using reasoning techniques to select learning models and prepare the training and test data. We propose some examples demonstrated the  use of ontologies and semantic Wiki markup for improving the efficiency of machine learning are considered deal with functional posibilities of the portal version of the Great Ukrainian Encyclopedia. Ontological model of this informational resource is considered as a domain knowledge base. Groupping  of examples is based on high-level ontological classes, and semantic properties and their relations are used for construction of space of attributes.Problems in programming 2018; 4: 69-81  Рассмотрены проблемы, связанные с обработкой больших данных с целью получения из них неявных знаний. Проанализированы методы машинного обучения, которые могут применяться для этого, и целесообразность объединения их элементами искусственного интеллекта и технологиями Semantic Web. Рассмотрены примеры применения онтологий и семантической Wiki-разметки для повышения эффективности машинного обучения.Problems in programming 2018; 4: 69-81 Розглянуто проблеми, пов’язані з обробкою великих даних з метою здобуття з них неявних знань. Проаналізовано методи машинного навчання, що можуть застосовуватися для цього, та доцільність поєднання їх елементами штучного інтелекту та технологіями Semantic Web. Розглянуто приклади застосування онтологій та семантичної Wiki-розмітки для підвищення ефективності машинного навчання.       Problems in programming 2018; 4: 69-81 PROBLEMS IN PROGRAMMING ПРОБЛЕМЫ ПРОГРАММИРОВАНИЯ ПРОБЛЕМИ ПРОГРАМУВАННЯ 2019-02-28 Article Article application/pdf https://pp.isofts.kiev.ua/index.php/ojs1/article/view/336 10.15407/pp2018.04.069 PROBLEMS IN PROGRAMMING; No 4 (2018); 69-81 ПРОБЛЕМЫ ПРОГРАММИРОВАНИЯ; No 4 (2018); 69-81 ПРОБЛЕМИ ПРОГРАМУВАННЯ; No 4 (2018); 69-81 1727-4907 10.15407/pp2018.04 uk https://pp.isofts.kiev.ua/index.php/ojs1/article/view/336/336 Copyright (c) 2018 PROBLEMS OF PROGRAMMING
institution Problems in programming
baseUrl_str https://pp.isofts.kiev.ua/index.php/ojs1/oai
datestamp_date 2019-02-28T11:42:30Z
collection OJS
language Ukrainian
topic machine learning
Big Data
ontology
UDC 004,853
004.55
spellingShingle machine learning
Big Data
ontology
UDC 004,853
004.55
Rogushina, J.V.
Use of ontological knowledge in machine learning methods for intelligent analysis of Big Data
topic_facet machine learning
Big Data
ontology
UDC 004,853
004.55
машинное обучение
онтология
Big Data
УДК 004.853
004.55
машинне навчання
онтологія
Big Data
УДК 681.3
format Article
author Rogushina, J.V.
author_facet Rogushina, J.V.
author_sort Rogushina, J.V.
title Use of ontological knowledge in machine learning methods for intelligent analysis of Big Data
title_short Use of ontological knowledge in machine learning methods for intelligent analysis of Big Data
title_full Use of ontological knowledge in machine learning methods for intelligent analysis of Big Data
title_fullStr Use of ontological knowledge in machine learning methods for intelligent analysis of Big Data
title_full_unstemmed Use of ontological knowledge in machine learning methods for intelligent analysis of Big Data
title_sort use of ontological knowledge in machine learning methods for intelligent analysis of big data
title_alt Использование онтологических знаний в методах машинного обучения для интеллектуального анализа Big Data
Використання онтологічних знань у методах машинного навчання для інтелектуального аналізу Big Data
description The paper discusses problems related to the processing of Big Data in order to acquire implicit knowledge from them. Machine  learning (ML) methods oriented on these tasks can be combined with elements of the Semantic Web technologies and Artificial Intelligence (AI), which deals with intelligent behavior, learning and adaptation in computational systems. We analyse challenges and opportunities background knowledge using to improve ML results, the role of ontologies and other   resources of domain knowledge. Domain knowledge could improve the quality of ML results by using reasoning techniques to select learning models and prepare the training and test data. We propose some examples demonstrated the  use of ontologies and semantic Wiki markup for improving the efficiency of machine learning are considered deal with functional posibilities of the portal version of the Great Ukrainian Encyclopedia. Ontological model of this informational resource is considered as a domain knowledge base. Groupping  of examples is based on high-level ontological classes, and semantic properties and their relations are used for construction of space of attributes.Problems in programming 2018; 4: 69-81 
publisher PROBLEMS IN PROGRAMMING
publishDate 2019
url https://pp.isofts.kiev.ua/index.php/ojs1/article/view/336
work_keys_str_mv AT rogushinajv useofontologicalknowledgeinmachinelearningmethodsforintelligentanalysisofbigdata
AT rogushinajv ispolʹzovanieontologičeskihznanijvmetodahmašinnogoobučeniâdlâintellektualʹnogoanalizabigdata
AT rogushinajv vikoristannâontologíčnihznanʹumetodahmašinnogonavčannâdlâíntelektualʹnogoanalízubigdata
first_indexed 2025-07-17T09:50:15Z
last_indexed 2025-07-17T09:50:15Z
_version_ 1850410552596103168
fulltext Моделі та засоби систем баз даних і знань © Ю.В. Рогушина, 2018 ISSN 1727-4907. Проблеми програмування. 2018. № 4 69 УДК 681.3 https://doi.org/10.15407/pp2018.04.069 Ю.В. Рогушина ВИКОРИСТАННЯ ОНТОЛОГІЧНИХ ЗНАНЬ У МЕТОДАХ МАШИННОГО НАВЧАННЯ ДЛЯ ІНТЕЛЕКТУАЛЬНОГО АНАЛІЗУ BIG DATA Розглянуто проблеми, пов’язані з обробкою великих даних з метою здобуття з них неявних знань. Про- аналізовано методи машинного навчання, що можуть застосовуватися для цього, та доцільність поєд- нання їх з технологіями Semantic Web та елементами штучного інтелекту, що стосуються інтелектуаль- ної поведінки, навчання та адаптації обчислювальних систем. Наведено класифікацію типів задач інте- лектуального аналізу даних, для яких застосовують засоби машинного навчання, та розглянуто їх спе- цифіку, пов’язану з Big Data. Проаналізовано сучасні тенденції розвитку машинного навчання, пов’язані з глибоким навчанням та нейронними мережами. У роботі розглядаються сучасні засоби представлення знань про предметну область задачі, що базуються на технологіях Semantic Web, – онто- логії та семантична розмітка, та шляхи їх застосування для покращення результатів машинного навчан- ня. Розглянуто приклади застосування онтологій та семантичної Wiki-розмітки для підвищення ефек- тивності машинного навчання. Ключові слова: машинне навчання, онтологія, Big Data. Вступ Сучасні тенденції розвитку інфо- рмаційних технологій (ІТ) пов’язані із обробкою даних великого обсягу та неви- значеної структури із застосуванням еле- ментів штучного інтелекту (ШІ). На пот- ребу в застосуванні ШІ вплинули такі фак- тори, як: – поширення великих даних (Big Data) – інформації, для обробки якої тра- диційні засоби ІТ виявляються неефектив- ними через її великий обсяг та швидкість накопичення; – зниження вартості збере- ження й обробки таких даних; а також роз- виток методів і засобів інтелектуального аналізу даних (Data Mining). Використання зовнішніх знань дозволить інтегрувати Big Data з різних джерел, пов’язати їх з відпо- відними предметними областями (ПрО) та проінтерпретувати зміст результатів їх аналізу. Big Data Певний набір даних доцільно роз- глядати як Big Data, якщо йому притаман- ні одна чи кілька наступних характеристик [1], що отримали назву «П’ять V»: • обсяг (volume) – великі обсяги по- требують спеціалізованих засобів збере- ження та обробки; • швидкість (velocity) – дані нако- пичуються з високою швидкістю; • різноманіття (variety) – дані мо- жуть бути представлені у різноманітних форматах і типах даних, що ускладнює їх інтеграцію та обробку; • достовірність (veracity) – дані можуть містити помилки та шум, які не можуть бути перетворені в інформацію і, отже, не мають цінності. • цінність (value) – тільки частина даних може бути корисною. Можна класифікувати Big Data за походженням та структурованістю [2]. Дані, що обробляються рішеннями для великих даних, можуть генеруватися лю- диною (через різноманітні цифрові при- строї ) або комп’ютерами (програмними й апаратними засобами – у відповідь на по- дії реального світу), але здобуття з цих даних аналітичних результатів має бути автоматизованим. Серед них зустрічають- ся структуровані, слабо структуровані та неструктуровані дані. Через складність обробки Big Data можуть не мати моделі подання, але супроводжуються певними метаданими, що містять відомості щодо характеристики, походження і структури набору даних. З Big Data пов’язані нові моделі даних, інфраструктура та життєвий цикл, а також нова аналітика, що передбачає ана- http://dx.doi.org/10.7124/bc.000027 Моделі та засоби систем баз даних і знань 70 ліз в реальному часі, аналіз потоків, інте- рактивне машинне навчання [3]. Традиційна математична статисти- ка, яка довгий час залишалась основним інструментом аналізу даних, так само як і засоби оперативної аналітичної обробки даних (onlіne analytіcal processіng – OLAP), не достатні сьогодні для вирішення таких задач: такі методи використовуються для перевірки заздалегідь сформульованих гі- потез, але саме формулювання цих гіпотез виявляється найскладнішим завданням в аналізі даних. Використання методів ШІ в облас- тях, пов’язаних з машинним навчанням (ML – machine learning), логічним виве- денням та онтологічним аналізом, забезпе- чує їх взаємне вдосконалення. Але засто- сування ML до Big Data має значну специ- фіку і повинно враховувати властивості таких даних. Data Mining та машинне навчання Інтелектуальний аналіз даних (Data Mining – у буквальному перекладі з анг- лійської – «розкопка даних») – напрямок в ІТ, ціллю якого є автоматизоване здобуття знань, які неявним чином присутні в обро- блюваній інформації. Один із засновників цього напрямку Г. Пятецький-Шапіро ви- значив DataMining як це процес дослі- дження і виявлення у сирих даних комп’ютером прихованих знань, які рані- ше не були відомими і є нетривіальними, практично корисними та доступними для інтерпретації. Data Mining базується на ме- тодах машинного навчання (Machine Learning – ML), що призначені для розпі- знавання різних типів інформаційних об’єктів [4]. Але Data Mining – це більш широке поняття порівняно з ML, яке вра- ховує й семантичні аспекти аналізу даних. Найбільш розповсюдженими зада- чами Data Mining є: - класифікація, - кластеризація, - прогнозування, - асоціація, - візуалізація, - аналіз і виявлення відхилень, - оцінювання, - аналіз зв'язків, - підведення підсумків. Можна використовувати дуже зага- льне визначення «навченості», яке дає Т. Мітчелл [5]: «Комп'ютерна програма навчається в міру накопичення досвіду щодо деякого класу задач T і цільової функції P, якщо якість рішення цих задач (щодо P) поліпшується з отриманням но- вого досвіду». Хоча це визначення є над- звичайно узагальненим, воно насправді дозволяє прояснити деякі важливі момен- ти. Наприклад, центральне місце в ML за- ймають не дані, що обробляються, а цільо- ва функція. Вирішуючи будь-яку практич- ну задачу, важливо ще до початку навчан- ня визначити цільову функцію та засоби її оцінювання. Вибір цільової функції навіть у схожих задачах може привести до зовсім різних моделей. Інтуїтивно зрозуміло, що «навчан- ня» – це коли деяка модель якимсь обра- зом «навчається», а потім починає прогно- зувати нові результати [6]. ML базується на теорії ймовірнос- тей. Ідея застосування оцінки ймовірнос- тей апріорних й апостеріорних гіпотез для ML походить до роботи Т. Байєса «На- риси до рішення проблеми доктрини шан- сів» (An Essay towards solving a Problem in the Doctrine of Chances), що вийшла вже після смерті автора, у 1763 році [7]. Фор- мула Байєса (x)p (y)p)y(xp )x(yp   дозволяє переоцінювати апріорні предста- влення про світ (y)p на основі часткової інформації (даних), отриманих у вигляді спостережень )y(xp ), як висновок одер- жуючи новий стан представлень )x(yp . Це і складає байєсівський підхід до ймовірностей. Сам термін з’явився в середині XX століття в роботі Х. Джеф- фриса «Теорія ймовірностей» [8] і Л. Севіджа [9]. Випадкові величини поділяють на дискретні і безупинні. Дискретна випадко- ва величина може мати скінчену або пере- Моделі та засоби систем баз даних і знань 71 раховувану кількість станів. Розподіл ймо- вірності описує, з якою ймовірністю випа- дкова величина чи множина випадкових величин приймає кожне можливе значен- ня. Спосіб завдання розподілу ймовірності залежить від того, є випадкова величина безупинною чи дискретною. Ключові моменти сучасних ML [10]: - формування простору ознак; - перевірка гіпотез про об’єкти і класи об’єктів, визначення мір подібності для класів об’єктів; - формування навчальної вибірки; - формування тестової вибірки; - вибір алгоритму навчання. На жаль, в процесі аналізу “сирих” даних значна частина праці пов’язана з пі- дготовкою та очищенням даних (за дани- ми, наведеними у [11] – до 60 % часу дос- ліджень, порівняно з 4 % на побудову на- вчаючої вибірки та 9 % – безпосередньо на дослідження даних на наявність закономі- рностей). Це викликає потребу використо- вувати там, де це можливо, вже структуро- вані (хоча б частково) та верифіковані да- ні, за якими може будуватися навчаюча вибірка для традуктивного виведення. Задачі машинного навчання поді- ляють на два основні класи – навчання з учителем (supervised learning) і навчання без учителя (unsupervised learning). При навчанні з учителем на вхід подається на- бір класифікованих прикладів – навчальна вибірка (training set), і завдання полягає у тому, щоб класифікувати приклади з тес- тового набору даних (test set). Основне припущення полягає у тому, що дані з на- вчальної вибірки та тестового набору, схожі на ті дані, на яких потім буде засто- совуватися результат навчання. Задачі на- вчання з учителем звичайно поділяються на задачі класифікації і регресії. У задачі класифікації потрібно поданий на вхід об’єкт визначити в один із скінченої мно- жини класів, а в задачі регресії прогнозу- вати значення деякої функції, у якої може бути нескінченно багато різних значень (наприклад, за ростом людини прогнозува- ти її вагу). У найбільш загальному випадку за- дача ML з учителем має наступний вигляд: На вхід подається навчальна вибірка   n1,i,)f(x,xX ii  – набір з n класифікованих прикладів, де  11 iii x,...,xx . Задачею навчання є побудова функції g(x) , такої, що )f(x)g(x ii  або хоча б )f(x)g(x ii  . Класифікація – найбільш проста і розповсюджена задача Data Mining. У ре- зультаті вирішення задачі класифікації ви- являються ознаки, що характеризують групи об’єктів досліджуваного набору да- них – класи; за цими ознаками новий об’єкт можна віднести до того чи іншого класу. Для вирішення задачі класифікації можуть використовуватися методи най- ближчого сусіда, дерева рішень, нейронні мережі тощо. Для виявлення таких зв’язків можна скористатися методами індуктивного і тра- дуктивного здобуття знань з даних, більш детальний огляд яких наведено в [12]. Існують незалежні підходи до реа- лізації подібних методів: ID3, ACLS, CART і т. д. Найбільш цікавим, у зв'язку зі специфікою проведеної роботи, виявився алгоритм ID3 [13], що спеціально розроб- лений для здобуття корисної інформації з великих обсягів слабко структурованих даних. Незростаючий алгоритм ID3 приз- начений для узагальнення досвіду експе- риментів, параметри і результати яких описані через якісні оцінки (лінгвістичні перемінні). Він забезпечує побудову біна- рного дерева рішень, а цього недостатньо зручно для представлення закономірнос- тей багатьох ПрО. Його модифікація ID3m [14] призначена для довільної (скінченої) кількості рішень. Він також належить до незростаючих алгоритмів. Якщо ж розміченого набору даних, відповідного конкретній задачі, немає, а є просто дані, з яких треба здобути який- небудь зміст, то виникають задачі навчан- ня без учителя. Типові приклади навчання без учителя – це кластеризація (clustering) та зниження розмірності (dimensionality reduction) та оцінки щільності. Зазвичай Моделі та засоби систем баз даних і знань 72 такі задачі виникають на попередніх ета- пах дослідження даних. Задача кластеризації є логічним продовженням ідеї класифікації і полягає в розподілі множини об’єктів на групи (кластери), при цьому в кожному кластері зібрані об’єкти, які схожі за параметрами. Варто зауважити, що на відміну від класи- фікації, кількість кластерів і їхніх характе- ристик можуть бути заздалегідь невідоми- ми і визначатися в ході побудови класте- рів, виходячи зі ступеня близькості поєд- нуваних об’єктів за сукупністю параметрів. Зазначені вище задачі у залежності від використовуваних моделей, забезпе- чують опис (descrіptіve) і прогнозування (predictive) [15]. У результаті рішення описових задач аналітик отримує шаблони, що описують дані, які піддаються інтер- претації. Ці задачі описують загальну концепцію аналізованих даних, визнача- ють інформативні, підсумкові, відмінні риси даних. Концепція описових задач має на увазі характеристику і порівняння на- борів даних. Характеристика набору даних забезпечує короткий і стиснутий опис де- якого набору даних. Порівняння забезпе- чує порівняльний опис двох чи більш на- борів даних. Задачі прогнозування (predictive) ґрунтуються на аналізі даних, створенні моделі, передбаченні тенденцій чи власти- востей нових або невідомих даних. До них відносяться: класифікація об'єктів (для за- здалегідь заданих класів); регресійний аналіз, аналіз часових рядів. До описових задач належать: по- шук асоціативних правил або патернів (зразків); групування об'єктів, кластерний аналіз; побудова регресійної моделі. Значна частина методів ML викори- стовує тільки параметричні моделі, які до- зволяють отримувати функцію, що описа- на вектором параметрів скінченого розмі- ру. У непараметричних моделей такого обмеження немає. Деякі непараметричні моделі – це просто теоретичні абстракції (наприклад, алгоритм, пошуку серед усіх можливих розподілів ймовірності), не реалізовані на практиці. Однак існують і корисні непара- метричні моделі, складність яких залежить від розміру навчального набору. Прикла- дом непараметричного алгоритму навчан- ня є метод k найближчих сусідів, що не обмежений фіксованою кількістю параме- трів. Звичайно вважається, що цей алго- ритм узагалі не має параметрів, а реалізує просту функцію від навчальних даних. На етапі тестування потрібно знай- ти в навчальному наборі X k найближчих сусідів для x, а потім повернути середнє значення від відповідних їм міток y . Ця ідея працює для будь-якого виду навчання з учителем, за умови що можна визначити поняття середньої мітки. Алгоритм k найближчих сусідів, будучи непараметричним, може досягати дуже високої ємності, що дозволяє отри- мати високу правильність для великої на- вчальної вибірки, але це призводить до ви- сокої вартості обчислень. При малому на- вчальному наборі алгоритм погано уза- гальнюється. Одне з слабких місць алгори- тму k найближчих сусідів – невміння зро- зуміти, що одна ознака є більш важливою, ніж інша. Ще один тип алгоритму навчання, що також розбиває простір входів на обла- сті, кожна з який описується окремими па- раметрами, – дерево рішень [16] і його чи- сленні варіанти. З кожним вузлом дерева рішень асоційована область простору вхо- дів, і внутрішні вузли розбивають цю об- ласть на дві частини – по одній для кожно- го дочірнього вузла (звичайно розсікаючи паралельно осі). Таким чином, простір входів поділяється на непересічні області, що взаємно однозначно відповідають лис- товим вузлам. Звичайно кожен листовий вузол зіставляє кожній вхідній точці у сво- їй області той самий вихід. Алгоритм на- вчання можна вважати непараметричним, якщо йому дозволено будувати дерево до- вільного розміру. Глибоке навчання Стимулами для розробки концепції глибокого навчання були як нездатність традиційних алгоритмів отримати узагаль- нення на таких задач ШІ, як розпізнаванні мови й зображень, так і відсутність масш- табованості традиційних методів ML: зро- Моделі та засоби систем баз даних і знань 73 стання обсягу даних викликає експонен- ційне ускладнення обчислень. Сучасне глибоке навчання пропо- нує розвинуту інфраструктуру навчання з учителем. Завдяки додаванню додаткових шарів і блоків у межах одного шару глибо- ка мережа може представляти усе більш і більш складні функції. Більшість задач, що зводяться до відображення вхідного векто- ра у вихідний, з якими легко справляється людина, може бути вирішено методами глибокого навчання за наявності досить великих моделей і наборів позначених прикладів. Інші задачі, які не можна опи- сати як асоціювання одного вектора з ін- шим чи настільки важкі, що людині потрі- бно час для їхнього рішення, поки не під- даються глибокому навчанню. Глибокі мережі прямого поширен- ня, що називають також нейронними ме- режами прямого поширення, чи багатоша- ровими перцептронами – це типові прик- лади моделей глибокого навчання. Ціль мережі прямого поширення – апроксиму- вати деяку функцію *f . Наприклад, у ви- падку класифікатора )(xfy * відображає вхід x у категорію у. Мережа прямого поширення визначає відображення )θf(x;y  і шляхом навчання знаходить значення параметрів θ , що дають найкра- щу апроксимацію. Глибоке навчання – окремий випа- док машинного навчання. Більшість алго- ритмів глибокого навчання базуються на алгоритмі оптимізації, що називається стохастичним градієнтним спуском (СГС), який узагальнює алгоритм градієн- тного спуску. Ідея методу СГС полягає у тому, що градієнт – це математичне очікування, і, отже, його можна оцінити за невеликою множиною прикладів. Точніше, на кожнім кроці алгоритму можна взяти міні-пакет (minibatch) m – невелику рівномірну ви- бірку з навчального набору m . Розмір мі- ні-пакета m звичайно складає кілька со- тень прикладів. Важливо, що розмір m не залежить від розміру навчального набору m . Це робить такий підхід придатним для обробки Big Data. Майже всі алгоритми глибокого на- вчання можна описати як комбінацію на- бору даних, функції вартості, процедури оптимізації і моделі. Більшість алгоритмів машинного навчання в тому чи іншому вигляді вклю- чає оптимізацію, тобто знаходження міні- муму чи максимуму цільової функції )f(x при зміні x. Цільова функція може відо- бражати розміри вартості, помилок тощо. Найчастіше в ролі функції вартості висту- пає негативна логарифмічна правдоподіб- ність, тому її мінімізація дає оцінку мак- симальної правдоподібності. Ключова ідея полягає у тому, що дуже велику кількість областей, порядку )O(2k , можна визначити за допомогою O(k) прикладів, якщо ввести деякі залеж- ності між областями за допомогою додат- кових припущень про істинний породжу- ючий розподіл. Таким чином, з’являється можливість нелокального узагальнення. Щоб скористатися нею, у багатьох алго- ритмах глибокого навчання приймаються явні чи неявні припущення, дійсні для ши- рокого кола задач ШІ. В основі багатьох ідей машинного навчання лежить концепція різноманіття. Різноманіття – це зв’язна область, яку можна розглядати як множину точок, асоційованих з околицею кожної точки. З будь-якої точки локальне різноманіття виглядає як евклідів простір. У ML цей термін використовують для позначення зв'язної множини точок у просторі висо- кої розмірності, яку можна добре апрок- симувати, вводячи в розгляд лише неве- лику кількість ступенів волі, чи вимірів. Кожен вимір відповідає локальному на- прямку зміни. Багато задач машинного навчання здаються безнадійними, якщо очікувати, що в результаті навчання алгоритм повин- ний знайти функції з нетривіальними змі- нами у всьому просторі. Алгоритми на- вчання різноманіть переборюють цю пе- решкоду, припускаючи, що велика частина – неприпустимі вхідні дані, а цікаві входи зосереджені тільки в наборі різноманіть, що містить невелику підмножину точок, причому цікаві зміни результуючої навче- Моделі та засоби систем баз даних і знань 74 ної функції відбуваються тільки уздовж напрямків, що належать якомусь одному різноманіттю, чи при переході з одного різноманіття до іншого. Навчання різно- маніть зародилося при розгляді безупин- них даних у випадку навчання без учителя, хоча сама ідея концентрації ймовірності узагальнюється і на дискретні дані, і на навчання з учителем: ключове допущення полягає у тому, що маса ймовірності скон- центрована в малій області. Припущення про те, що дані розта- шовані уздовж різноманіття низької розмі- рності, не завжди виявляється правильним чи корисним. Але в задачах ШІ, зокрема при обробці зображень, звуку чи тексту, припущення про різноманіття, принаймні, приблизно правильно. Якщо дані розташовані на різнома- нітті малої розмірності, то в алгоритмі ма- шинного навчання їх найбільше природно представляти координатами на цьому різ- номанітті, а не в R . У побуті ми розгляда- ємо дороги як одномірні різноманіття, за- нурені в тривимірний простір. Бажаючи повідомити адресу будинку, ми вказуємо його номер щодо вулиці, а не координати в просторі. Перехід у систему координат рі- зноманіття – важка задача, але її рішення обіцяє помітне поліпшення багатьох алго- ритмів машинного навчання. Цей загаль- ний принцип застосуємо в самих різних контекстах. Мережі прямого поширення важли- ві для практичного застосування машин- ного навчання. Вони лежать в основі бага- тьох важливих комерційних додатків. На- приклад, згорткові мережі, які використо- вують для розпізнавання об’єктів на фото- графіях, – це окремий випадок мереж пря- мого поширення. Нейронні мережі прямого поши- рення називаються мережами, тому що во- ни, як правило, утворені композицією ба- гатьох різних функцій. З моделлю асоційо- ваний орієнтований ациклічний граф, що описує композицію. Наприклад, можна зв’язати три функції f3 f2, f1, у ланцюжок )))f1(f2(f3(x = f(x) . Такі ланцюгові структури найчастіше ви- користовуються в нейронних мережах. У даному випадку f1 називається першим шаром мережі, f2 – другим шаром і т. д. Загальна довжина ланцюжка визначає гли- бину моделі. Назва «глибоке навчання» безпосе- редньо пов’язана з цією термінологією. Останній шар мережі прямого поширення називається вихідним. У ході навчання нейронної мережі потрібно наблизити )x(f до )x(f * . Навчальні дані – це зашум- лені наближені приклади )x(f * , обчислені в різних точках. Кожен приклад х супро- воджується міткою )x(fy * . Навчальні приклади прямо вказують, що у вихідному шарі повинне відповідати кожній точці x , це має бути значення, близьке до y . Поведінка інших шарів прямо на- вчальними даними не визначається. Алго- ритм навчання повинний вирішити, як ви- користовувати ці шари для породження бажаного виходу, але навчальні дані нічо- го не говорять про те, що саме повинний робити кожен шар. Алгоритму навчання треба самостійно вирішити, як за допомо- гою цих шарів домогтися найкращої апро- ксимації *f . Оскільки навчальні дані не визначають виходів кожного з цих шарів, вони називаються схованими шарами. Ці мережі називаються нейронни- ми, тому що їхня ідея запозичена з нейро- біології. Кожен схований шар мережі зви- чайно виробляє векторні значення. Розмі- рність схованих шарів визначає ширину моделі. Кожен елемент вектора можна ін- терпретувати як нейрон. Замість того щоб розглядати шар як представлення функції з векторними аргументами і векторними значеннями, можна вважати, що шар скла- дається з багатьох блоків, що працюють паралельно, і що кожен такий блок пред- ставляє функцію, що відображає вектор y скаляр. Кожен блок нагадує нейрон у тім розумінні, що отримує дані від багатьох інших блоків і обчислює власне значення активації. Ідея використання багатьох ша- рів векторних представлень прийшла з нейробіології. Вибір функцій (x)fi , що ви- користовуються для обчислення цих пред- ставлень, також походить від експеримен- Моделі та засоби систем баз даних і знань 75 тально отриманих фактів про функції, що обчислюються біологічними нейронами. Але перед нейронною мережею не ста- виться ціль змоделювати роботу мозку. Краще розглядати мережі прямого поши- рення не як моделі функціонування мозку, а як машини для апроксимації функцій, що спроектовані з метою статистичного уза- гальнення й іноді використовують деякі знання про мозок людини. Один із способів розібратися в ме- режах прямого поширення полягає в тому, щоб почати з лінійних моделей і переборо- ти їхнього обмеження. Лінійні моделі, такі як логістична регресія і лінійна регресія, привабливі тим, що дають ефективну і на- дійну апроксимацію в замкнутій формі чи за допомогою опуклої оптимізації. Але в лінійних моделей є очевидний недолік – ємність моделі обмежена лінійними функ- ціями, тому модель нездатна відобразити довільний зв’язок між двома величинами. Щоб узагальнити лінійну модель на представлення нелінійних функцій від x , можна застосувати її не до самого x , а до результату обчислення ф(x) , де ф – нелі- нійне перетворення. Можна вважати, що ф дає набір ознак, що описують x , чи но- ве представлення x . Тоді питання зводиться до вибору відображення ф . 1. Один з варіантів – узяти дуже за- гальне відображення ф . Якщо розмірність ф(x) досить велика, то ємності моделі ви- стачить для апроксимації навчального на- бору, але узагальненість на тестовому на- борі часто залишає бажати кращого. Дуже загальні відображення ознак звичайно ба- зуються на принципі локальної гладкості, і закодованої в них апріорної інформації не- достатньо для рішення складних задач. 2. Інший варіант – спроектувати ві- дображення ф вручну. До виникнення глибокого навчання так в основному і ро- били. Але для кожної задачі потрібні були десятиліття людської праці і фахівці у від- повідній предметній області, наприклад, з розпізнавання мови чи комп'ютерного зо- ру, а передачі знань між різними областя- ми майже немає. 3. Стратегія глибокого навчання складається в навчанні ф. При такому під- ході є модель wθ)ф(x;w)θ;f(x;y T . Параметри  використовуються для на- вчання ф , обраної із широкого класу фун- кцій, і параметри w, що відображають ф(x) у бажаний вихід. Це приклад глибо- кої мережі прямого поширення, де ф ви- значає схований шар. Це єдиний із трьох підходів, що не потребує припущення про опуклість задачі навчання, але його пере- ваги переважують недоліки. У цьому ви- падку потрібно параметризувати представ- лення y вигляді θ)ф(x; і застосувати ал- горитм оптимізації для знаходження відо- браження ф , якому відповідає гарне пред- ставлення. В цьому підході є усі переваги узагальненості першого – для цього потрі- бно тільки взяти дуже широке сімейство функцій θ)ф(x; . Глибоке навчання може також скористатися перевагами другого підходу. Дослідник може включити в мо- дель свої знання, спроектувавши сімейство функцій, яке, на його думку, повинне доб- ре узагальнюватися. Перевага в тому, що людині потрібно тільки відшукати придат- не сімейство функцій, а не одну конкретну функцію. При навчанні мережі прямого по- ширення необхідно враховувати ті ж речі, що для лінійних моделей: вибір оптиміза- тора, функції вартості і вигляд вихідних блоків. Оскільки в мережах прямого поши- рення є приховані шари, то потрібно виб- рати функції активації, що будуть викори- стані для обчислення вироблюваних ними значень. Крім того, потрібно спроектувати архітектуру мережі: скільки в ній схованих шарів, як ці шари зв’язані між собою, скі- льки блоків у кожному шарі. Напрямки інтеграції інтелектуальних технологій з обробкою Big Data Дослідження інформаційних ресу- рсів Web та Big Data спрямовані на здо- буття з них потрібних користувачам відо- Моделі та засоби систем баз даних і знань 76 мостей та знань. Такі знання можуть відо- бражати зв’язки між різними фактами та твердженнями. Для цього доцільно застосовувати методи машинного навчан- ня, але необхідно враховувати можливість їх масштабування для Big Data, тобто оці- нювати їх обчислювальну складність і прогнозувати час роботи на великих на- вчальних вибірках. Щоб спростити таку обробку, виникає потреба у використанні вже наявних зовнішніх знань про ті інформаційні об’єкти, відомості про які потрібно здобути: це дозволяє виключити здобуття вже відомих закономірностей, структурувати простір ознак та конкрети- зувати вимоги до рішення. Це дозволяє використовувати складні методи ML для обробки великих обсягів даних. Тому на- укові дослідження в цій сфері – розробка відповідних моделей і методів та оцінка їх ефективності є сьогодні одним з пріори- тетних напрямків наукових досліджень. Перші розробки з ML (приміром, машинний переклад з використанням ста- тистичних методів) припускали, що ре- зультати можна отримувати субсимвольно, тобто без конкретних представлень про знання на неінтерпретованих даних. Такі системи здатні до оптимізації набору па- раметрів моделі для підвищення продук- тивності з часом, але цей процес не має ніякої подібності до того, як міркують та вчаться люди. Більш сучасні методи ШІ використо- вують, крім оптимізації і статистичних підходів, біоподібні нейронні мережні ар- хітектури. Ці методи теж є субсимвольни- ми і працюють «знизу нагору» – від да- них, таких як текст і зображення. Така вза- ємодія з текстом і зображеннями теж си- льно відрізняється від набагато більш ши- рокого, біологічно подібного досвіду взає- модії з світом. До теперішнього часу ШІ ще не опа- нував більш широкими формами навчання і розуміння, що походять з реального дос- віду. Деякі вважають, що таке навчання на основі реального досвіду повинне почина- ти створення системи з когнітивного ядра, а потім послідовно розробляти більш складні когнітивні моделі. Соціальний ас- пект реального досвіду містить у собі ви- вчення загальних знань від інших інтелек- туальних агентів, а також з їхніх інформа- ційних продуктів, до яких відносяться текст, дані і фізичні дії. Водночас як здо- буття знань щодо ПрО і створення методів міркувань для ПрО продовжують покра- щуватися, виявилося, що реалізувати на- вчання знизу нагору без яких-небудь базо- вих знань дуже складно. Прикладом інтересу до цього на- прямку є Онтологічний самміт 2017 “AI, LEARNING, REASONING AND ONTO- LOGIES” [17], на якому досліджено тенде- нції використання методів ШІ в області ML, міркувань і онтології для їхнього вза- ємного покращення. В основі цих дослі- джень лежить діаграма онтологічного на- вчання (Ontology Learning Layer Cake), що використовувалася як об’єднуючий еле- мент для всіх напрямків. Ця діаграма он- тологічного навчання (рис. 1) містить на- ступні рівні: терміни; синоніми; поняття; ієрархія понять; відношення; ієрархія від- ношень; схеми аксіом; загальні аксіоми. Ця діаграма забезпечує концептуальну ос- нову для обговорення того, які типи знань будуються в результаті застосування ML до Big Data. Для онтологічного аналізу розроб- ляються і можуть бути використані різні підходи й інструменти ML, у тому числі статистичні і лінгвістичні, які дозволяють здобувати інформацію і структуровані знання з різних джерел для полегшення розробки і підтримки онтологій, а також гармонізувати онтології для керування залежністю від особливостей наборів даних. Велике значення набуває викорис- тання апріорних знань та онтологій ПрО для поліпшення результатів ML. Знання дозволяють поліпшити якість результатів ML, використовуючи методи логічного виводу для вибору моделей навчання і під- готовки даних для навчання і тестування (скорочення великих, зашумлених наборів даних до керованих) та зробити результати ML більш зрозумілими. Моделі та засоби систем баз даних і знань 77 Терміни Синоніми Поняття Ієрархія понять Відношення Ієрархія відношень Схеми аксіом Загальні аксіоми Місто Країна Країна Держава Ріка = С:=Країна:=<ID,C1,…,Cn> Столиця Місто Місто КраїнаЗнаходиться в Знаходиться в Є частиною Місто КраїнаНе перетинаються з  Країна  Столиця  Місто Рис.1. Діаграма онтологічного навчання Використання ML в аналізі роботи е-ВУЕ Розглянемо це на прикладі аналізу інформації в електронній версії Великої української енциклопедії [18]. Найпростіша задача прогнозування пов’язана з аналізом переходів між сторін- ками е-ВУЕ. Такий аналіз спрямований на вдосконалення навігації на порталі (пере- ходи, що виконуються користувачами най- більш часто, доцільно зробити найбільш зручними). Навчальна вибірка це множина пар Похідна сторінка – Сторінка переходу з значеннями їх властивостей (наявність ка- тегорій, значення семантичних властивос- тей, тип сторінки). Цю інформацію можна розглядати як Big Data – хоча ці відомості структуро- вані, але вони надходять швидко й у вели- кій кількості. Якщо користуватися безпосередньо методами традиційного ML, то виникає надто складна задача з великим простором ознак. Тому доцільно застосувати апріорні знання щодо даної ПрО – створення елект- ронних енциклопедій. Ці знання, відповід- но до діаграми онтологічного навчання, – поняття, ієрархія понять, відношення та ієрархія відношень. Відповідна онтологія дозволяє виділити наступні типи шість ти- пів сторінок (рис. 2), що відрізняються за- собами навігації. Переходом до сторінок кожного з цих типів притаманний окремий вигляд користувацького інтерфейсу (рис. 3): - сторінки-гасла; - категорії, організовані в набір іє- рархій; - сторінки авторів; - сторінки медіафайлів; - сторінки літературних посилань; - спеціальні сторінки. Визначення цих типів для сторінок підтримується семантичною розміткою сторінок убудованими засобами середови- ща Semantic MediaWiki [19]. Таким чином, не потрібно прогно- зувати переходи від кожної сторінки ip до сторінки jp . Задача зводиться до того, щоб за властивостями і типом сторінки ip ви- значити ймовірність того, що сторінка 1,6k,tp kj  . Слід відмітити, що приклади з такої навчальної вибірки можуть бути супереч- ними у тому розумінні, що однаковим ряд- кам можуть відповідати різні результати. Моделі та засоби систем баз даних і знань 78 Ієрархія класів онтології Відношення між класами онтології Рис. 2. Онтологічна модель е-ВУЕ Пошук гасла за назвою Перехід на головну сторінку Виклик спеціальних сторінок Перехід на сторінку іншого гасла Перехід на сторінку автора гасла Перехід на сторінку посилання Перехід на сторінки категорій Рис. 3. Засоби навігації в е-ВУЕ на сторінці гасла Моделі та засоби систем баз даних і знань 79 Це пояснюється тим, що за різних умов користувачі можуть переходити з тієї ж самої сторінки на різні сторінки, більш то- го – на сторінки різних типів. Крім того, потрібно враховувати, що значення ознак в навчальній вибірці є дискретними та якіс- ними, а не кількісними. Через це їх немо- жливо впорядковувати. Тому доцільно для обробки таких даних застосувати метод к-найближчих сусідів. В результаті аналізу даних буде побудовано набір комірок, що відповіда- ють однаковим значенням параметрів. Всередині кожної такої комірки буде зна- ходитися множина значень типів сторінок переходу (припустима ситуація, коли та- ких типів буде кілька). Для того, щоб оці- нити ймовірність переходу від кожної сто- рінки, потрібно підрахувати відношення сторінок переходу певного типу до загаль- ної кількості сторінок переходу у комірці. На сьогодні отримати реальні дані для такого навчання не є можливим через те, що портал е-ВУЕ працює поки що в процесі налагодження, а дії (і відповідно – переходи між сторінками) розробників порталу суттєво відрізняються від типових дій користувачів. Але розробка методів рішення таких задач має виконуватися за- здалегідь. Уявляється корисним надалі засто- совувати методи ML, інтегровані з онтоло- гією порталу, для аналізу більш довгих ла- нцюгів переходів (не з двох, а з більшої кількості кроків) та виконувати цю задачу до окремих підмножин сторінок порталу – приміром, окремо DL кожної галузі знань або для типу інформаційних об’єктів. Інша, більш складна множина задач ML пов’язана з інтеграцією дій користува- чів на порталі е-ВУЕ з їх діяльністю на порталі періодичних наукових видань України. У цьому випадку кожен рядок на- вчальної вибірки пов’язується з діями од- ного користувача на обох порталах, а про- стір ознак складається з категорій сторінок та інформаційних ресурсів, до яких зверта- ється цей користувач. Е-ВУЕ використову- ється головним чином як джерело знань про ієрархію понять та інформаційних об’єктів. Прикладом задачі, що може ви- рішуватися на таких даних, є класифікація наукових публікацій та їх прив’язка до пе- вних гасел та категорій е-ВУЕ. Висновки Використання зовнішніх знань що- до ПрО дозволяє зменшувати простір ознак та значно спрощувати складність машинного навчання, у тому числі – для методів глибокого навчання. Тому доціль- но виконувати дослідження у напрямку інтеграції аналізу Big Data з методами ML з використанням онтологій, щоб дозволити інтелектуальним застосуванням здобувати з цих даних потрібні для їх функціювання відомості. Джерелами таких знань можуть бути онтології відповідних ПрО та семан- тично розмічені Wiki-ресурси. При цьому слід враховувати, що ефективність ML залежить від алгоритмів здобуття знань, даних для обробки (Big Data) та моделей подання отриманих знань, тоді як вибір моделей та методів (а також їх параметрів) повністю визначаєть- ся конкретною задачею навчання. У багатьох практичних задачах, пов’язаних з обробкою якісних ознак ін- формаційних об’єктів, доцільно орієнту- ватися на непараметричні моделі (метод найближчих сусідів, дерева рішень), але використовувати різні форми нейронних мереж для попереднього аналізу та класте- ризації Big Data. Інтеграція між різними рівнями моделі теж має базуватися на он- тологічному аналізі ПрО. Література 1. Laney D. 3-D data management: Controlling data volume, velocity and variety. Application Delivery Strategies by META Group Inc. 2001, P. 949. http://blogs.gartner.com/doug- laney/files/2012/01/ad949-3D-Data- Management-Controlling-Data-Volume- Velocity-and-Variety.pdf. 2. Gandom A., Haide, M. Beyond the hype: Big data concepts, methods, and analytics. International Journal of Information Management. 2015. 35(2). P. 137–144. https://www.sciencedirect.com/science/article /pii/S0268401214001066. Моделі та засоби систем баз даних і знань 80 3. Demchenko Y., De Laat C., Membrey P. Defining architecture components of the Big Data Ecosystem. Collaboration Technologies and Systems (CTS). 2014. P. 104–112. 4. Гладун А.Я., Рогушина Ю.В. Семантичні технології: принципи та практики. К.: ТОВ "АДЕФ-Україна". 2016. 308 с. 5. Mitchell T.M. Machine learning. 1997. Burr Ridge, IL: McGraw Hill. 45(37). 1997. P. 870–877. 6. Николенко С.И., Кадурин А.А., Арханге- льская Е.О. Глубокое обучение. Издатель- ский дом "Питер", 2017. 7. Bayes T. An Essay Towards Solving a Problem in the Doctrine of Chances. Philosophical Transactions of the Royal Society of London. 1763. Vol. 53. P. 370–418. 8. Jeffreys H. Theory of Probability, Oxford: Oxford University Press, 1939. 9. Savage L. The Foundations of Statistics, New York: Wiley, 1954. 10. Goodfellow I., Bengio Y., Courville A., Bengio Y. Deep learning (Vol. 1). Cambridge: MIT press, 2016. 11. Эрли С. Искусственный интеллект для ма- сштабируемой персонализации. Открытые систем. № 1. 2018. С. 20–24. 12. Рогушина Ю.В., Гладун А.Я., Осадчий В.В., Прийма С.М. Онтологічний аналіз у Web. Монографія. Мелітополь: МДПУ ім. Богдана Хмельницького, 2015. 407 с. 13. Quinlan J.R. Discovery rules from large collections of examples: a case study. Expert Systems in the Microelectronic Age. Edinburg, 1979. P. 87–102. 14. Рогушина Ю.В., Гришанова И.Ю. Исполь- зование метода индуктивного вывода для усовершенствования онтологии предмет- ной области поиска. Системні досліджен- ня та інформаційні технології. 2007. № 1. С. 62–70. 15. Гладун А.Я., Рогушина Ю.В. Data Mining: пошук знань в даних. К.: ТОВ "ВД "АДЕФ-Україна", 2016. 452 с. 16. Breiman L. Bagging predictors. Machine Learning. 1994. 24(2). P. 123–140. 17. Baclawski K., Bennett M., Berg-Cross G., Fritzsche D., Schneider T., Sharma R., Westerninen A. Ontology Summit 2017 communiqué–AI, learning, reasoning and ontologies. Applied Ontology. (Preprint). 2018. P. 1–16. http://www.ccs.neu.edu/ home/kenb/pub/2017/09/public.pdf. 18. Рогушина Ю.В. Використання семантич- них властивостей вікі-ресурсів для розши- рення функціональних можливостей «Ве- ликої української енциклопедії». Енцикло- педичні видання в сучасному інформацій- ному просторі: колективна монографія / За ред. Киридон А.М. К.: Державна наукова установа «Енциклопедичне видавництво». 2017. С. 104–115. 19. Rogushina J. Semantic Wiki resources and their use for the construction of personalized ontologies. CEUR Workshop Proceedings. 1631. 2016. P. 188–195. References 1. Laney D. 3-D data management: Controlling data volume, velocity and variety. Application Delivery Strategies by META Group Inc. 2001, P. 949. http://blogs.gartner.com/doug- laney/files/2012/01/ad949-3D-Data- Management-Controlling-Data-Volume- Velocity-and-Variety.pdf. 2. Gandom A., Haide, M. Beyond the hype: Big data concepts, methods, and analytics. International Journal of Information Management, 35(2), 2015. P. 137–144. https://www.sciencedirect.com/science/article /pii/S0268401214001066. 3. Demchenko Y., De Laat C., Membrey P. Defining architecture components of the Big Data Ecosystem // Collaboration Technologies and Systems (CTS). 2014. P. 104–112. 4. Gladun A.Y., Rogushina J.V. Semantic technologies: principles and practics. K.: ADEF-Ukraine, 2016. 308 p. [in Ukrainian] 5. Mitchell T.M. Machine learning. 1997. Burr Ridge, IL: McGraw Hill. 45(37). 1997. P. 870–877. 6. Nikolenko S.I., Kadurin A.A., Arhangelskaya E.O. Deep Learning. Piter. 2017. [in Russian] 7. Bayes T. An Essay Towards Solving a Problem in the Doctrine of Chances. Philosophical Transactions of the Royal Society of London. 1763. Vol. 53. P. 370–418. 8. Jeffreys H. Theory of Probability, Oxford: Oxford University Press, 1939. 9. Savage L. The Foundations of Statistics, New York: Wiley, 1954. 10. Goodfellow I., Bengio Y., Courville A., Bengio Y. Deep learning (Vol. 1). Cambridge: MIT press, 2016. 11. Erli S. Artificial Intelligence for scalable personification. Open Systems. 2018. N 1. P. 20–24. [in Russian] http://www.ccs.neu.edu/ Моделі та засоби систем баз даних і знань 81 12. Rogushina J.V., Gladun A.Y., Osadchy V.V., Pryima S.M. Ontological Analysis for Web. Melitopol: Bogdan Hmelnitsky MDUPU. 2015. 407 p. [in Ukrainian] 13. Quinlan J.R. Discovery rules from large collections of examples: a case study. Expert Systems in the Microelectronic Age. Edinburg, 1979. P. 87–102. 14. Rogushina J.V., Grishanova I.Y. Use of inductive inference method for improvement of ontology of search domain. System research and information technologies. 2007. N 1. P. 62–70. [in Russian] 15. Gladun A.Y., Rogushina J.V. Data Mining: retrieval of knowlegde into data. K.: ADEF- Ukraine. 2016. 452 p. [in Ukrainian] 16. Breiman L. Bagging predictors. Machine Learning. 1994. 24(2). P. 123–140. 17. Baclawski K., Bennett M., Berg-Cross G., Fritzsche D., Schneider T., Sharma R., Westerninen A. Ontology Summit 2017 communiqué–AI, learning, reasoning and ontologies. Applied Ontology. (Preprint). 2018. P. 1–16. http://www.ccs.neu.edu/ home/kenb/pub/2017/09/public.pdf. 18. Rogushina J.V. Use of semantic properties of the Wiki resources for expansion of functional posibilities of “Great Ukrainian Encyclopedia”. Encyclopaedias in the modern information space: collective monograph / Ed. Kirillon A.M. Kyiv. 2017. P. 104–115. [in Ukrainian] 19. Rogushina J. Semantic Wiki resources and their use for the construction of personalized ontologies. CEUR Workshop Proceedings 1631. 2016. P. 188–195. Одержано 07.11.2018 Про автора: Рогушина Юлія Віталіївна, кандидат фізико-математичних наук, старший науковий співробітник. Кількість наукових публікацій в українських виданнях – 140. Кількість наукових публікацій в зарубіжних виданнях – 30. Індекс Хірша – 3. http://orcid.org/0000-0001-7958-2557. Місце роботи автора: Інститут програмних систем НАН України, 03181, Київ-187, проспект Академіка Глушкова, 40. Тел.: 066 550 1999. E-mail: ladamandraka2010@gmail.com http://www.ccs.neu.edu/ mailto:ladamandraka2010@gmail.com