Структурно-віземний аналіз артикуляції українського мовлення

У статті пропонується підхід до структурно-віземного аналізу візуальної складової мовленнєвого процесу 
 у відеопотоці. Підхід дозволяє отримувати інформацію про кількісну присутність візем з заданого 
 базового набору на кадрі анімації при обчисленні параметрів оптимального стану тр...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:Штучний інтелект
Datum:2011
Hauptverfasser: Крак, Ю.В., Тернов, А.С., Лісняк, М.П.
Format: Artikel
Sprache:Ukrainisch
Veröffentlicht: Інститут проблем штучного інтелекту МОН України та НАН України 2011
Schlagworte:
Online Zugang:https://nasplib.isofts.kiev.ua/handle/123456789/59839
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:Структурно-віземний аналіз артикуляції українського мовлення / Ю.В. Крак, А.С. Тернов, М.П. Лісняк // Штучний інтелект. — 2011. — № 3. — С. 156-166. — Бібліогр.: 18 назв. — укр.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
Beschreibung
Zusammenfassung:У статті пропонується підхід до структурно-віземного аналізу візуальної складової мовленнєвого процесу 
 у відеопотоці. Підхід дозволяє отримувати інформацію про кількісну присутність візем з заданого 
 базового набору на кадрі анімації при обчисленні параметрів оптимального стану тривимірної моделі 
 голови людини. Проведені експериментальні дослідження показали можливість використання запропонованої 
 моделі для ідентифікації базових станів губ при артикуляції на тестовій вибірці відеофрагментів 185 слів 
 української мови. An approach to the structural analysis of visemes of visual component of speech process in the video stream
 is proposed in this paper. The approach allows to compute numeric information about presence of a viseme in
 an animation frame chosen from the given base set by calculating the optimal parameters of state for threedimensional
 model of a human head. Experimental studies have shown the efficiency of using the proposed
 model to identify the basic states of lip articulation by test video samples with 185 words of the Ukrainian
 language.
ISSN:1561-5359