Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала
Описано формирование лингвистической модели для распознавания слитной речи на основе объединения слов в классы. Широко применяемый для этого метод кластеризации с учетом рекурсии частот слов обеспечивает приемлемую скорость при работе со славянскими языками из-за огромного обилия словоформ. Анализ п...
Saved in:
| Date: | 2012 |
|---|---|
| Main Author: | |
| Format: | Article |
| Language: | Russian |
| Published: |
Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України
2012
|
| Series: | Кибернетика и вычислительная техника |
| Subjects: | |
| Online Access: | https://nasplib.isofts.kiev.ua/handle/123456789/45881 |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Journal Title: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Cite this: | Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала / Н.Н. Сажок // Кибернетика и вычисл. техника. — 2012. — Вип. 170. — С. 59-66. — Бібліогр.: 8 назв. — рос. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| id |
nasplib_isofts_kiev_ua-123456789-45881 |
|---|---|
| record_format |
dspace |
| spelling |
nasplib_isofts_kiev_ua-123456789-458812025-02-23T20:23:09Z Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала Кластеризація слів при побудові лінгвістичної моделі для автоматичного розпізнавання мовленнєвого сигналу Word clustering for speech signal recognition language model development Сажок, Н.Н. Информационные технологии и системы Описано формирование лингвистической модели для распознавания слитной речи на основе объединения слов в классы. Широко применяемый для этого метод кластеризации с учетом рекурсии частот слов обеспечивает приемлемую скорость при работе со славянскими языками из-за огромного обилия словоформ. Анализ построения критерия точности аппроксимации дал возможность ввести рекурсию в итерации кластеризации на уровне компонентов критерия, что привело к существенному уменьшению сложности вычислений. Впервые автоматически сформированные для лингвистической модели распознавания украинской речи классы слов обобщают грамматические, семантические и фонетические признаки. Описано формування лінгвістичної моделі для розпізнавання злитого мовлення на основі об’єднання слів у класи. Найбільш поширений для цього метод кластеризації з урахуванням рекурсії частот слів не забезпечує прийнятної швидкості при роботі зі слов’янськими мовами через величезний надмір словоформ. Аналіз побудови критерію точності апроксимації дав змогу ввести рекурсію в ітерації кластеризації на рівні компонент критерію, що привело до суттєвого зменшення складності обчислень. Уперше автоматично сформовані для лінгвістичної моделі розпізнавання українського мовлення класи слів узагальнюють граматичні, семантичні та фонетичні ознаки. Operating with word classes rather than words is a constructive advance in speech recognition linguistic component development. Formed classes generalize grammatical, semantic and phonetic word features. The proposed method showed essential word clustering acceleration that is an important step to covering the entire lexicon in continuous speech recognition systems for Ukrainian. 2012 Article Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала / Н.Н. Сажок // Кибернетика и вычисл. техника. — 2012. — Вип. 170. — С. 59-66. — Бібліогр.: 8 назв. — рос. 0452-9910 https://nasplib.isofts.kiev.ua/handle/123456789/45881 004.934 ru Кибернетика и вычислительная техника application/pdf Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України |
| institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| collection |
DSpace DC |
| language |
Russian |
| topic |
Информационные технологии и системы Информационные технологии и системы |
| spellingShingle |
Информационные технологии и системы Информационные технологии и системы Сажок, Н.Н. Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала Кибернетика и вычислительная техника |
| description |
Описано формирование лингвистической модели для распознавания слитной речи на основе объединения слов в классы. Широко применяемый для этого метод кластеризации с учетом рекурсии частот слов обеспечивает приемлемую скорость при работе со славянскими языками из-за огромного обилия словоформ. Анализ построения критерия точности аппроксимации дал возможность ввести рекурсию в итерации кластеризации на уровне компонентов критерия, что привело к существенному уменьшению сложности вычислений. Впервые автоматически сформированные для лингвистической модели распознавания украинской речи классы слов обобщают грамматические, семантические и фонетические признаки. |
| format |
Article |
| author |
Сажок, Н.Н. |
| author_facet |
Сажок, Н.Н. |
| author_sort |
Сажок, Н.Н. |
| title |
Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала |
| title_short |
Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала |
| title_full |
Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала |
| title_fullStr |
Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала |
| title_full_unstemmed |
Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала |
| title_sort |
кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала |
| publisher |
Міжнародний науково-навчальний центр інформаційних технологій і систем НАН України та МОН України |
| publishDate |
2012 |
| topic_facet |
Информационные технологии и системы |
| url |
https://nasplib.isofts.kiev.ua/handle/123456789/45881 |
| citation_txt |
Кластеризация слов при построении лингвистической модели для автоматического распознавания речевого сигнала / Н.Н. Сажок // Кибернетика и вычисл. техника. — 2012. — Вип. 170. — С. 59-66. — Бібліогр.: 8 назв. — рос. |
| series |
Кибернетика и вычислительная техника |
| work_keys_str_mv |
AT sažoknn klasterizaciâslovpripostroeniilingvističeskojmodelidlâavtomatičeskogoraspoznavaniârečevogosignala AT sažoknn klasterizacíâslívpripobudovílíngvístičnoímodelídlâavtomatičnogorozpíznavannâmovlennêvogosignalu AT sažoknn wordclusteringforspeechsignalrecognitionlanguagemodeldevelopment |
| first_indexed |
2025-11-25T05:40:17Z |
| last_indexed |
2025-11-25T05:40:17Z |
| _version_ |
1849739679951224832 |
| fulltext |
59
Информационные технологии
и системы
УДК 004.934
Н.Н. Сажок
КЛАСТЕРИЗАЦИЯ СЛОВ ПРИ ПОСТРОЕНИИ
ЛИНГВИСТИЧЕСКОЙ МОДЕЛИ
ДЛЯ АВТОМАТИЧЕСКОГО РАСПОЗНАВАНИЯ
РЕЧЕВОГО СИГНАЛА
Описано формирование лингвистической модели для распознавания
слитной речи на основе объединения слов в классы. Широко применяемый для этого
метод кластеризации с учетом рекурсии частот слов обеспечивает приемлемую скорость
при работе со славянскими языками из-за огромного обилия словоформ. Анализ
построения критерия точности аппроксимации дал возможность ввести рекурсию в
итерации кластеризации на уровне компонентов критерия, что привело к существенному
уменьшению сложности вычислений. Впервые автоматически сформированные для
лингвистической модели распознавания украинской речи классы слов обобщают
грамматические, семантические и фонетические признаки.
Введение. Характеристики систем распознавания речевого сигнала все
больше приближаются к требованиям пользователя, которые, в свою очередь,
неуклонно возрастают. Основными характеристиками эргономичности при
этом выделим наличие практически всех слов, произносимых пользователем,
в словаре системы распознавания и минимизацию количества времени,
необходимого для «привыкания» системы к новому диктору.
Раньше пользователя удовлетворяло требование проводить обучение
системы путем произнесения всех слов словаря, которым оперирует система.
В настоящее время пользователь ожидает от системы возможности
преобразования речи в текст уже с момента начала его взаимодействия с
системой.
Переход от слова к фонеме в качестве базового элемента позволило
избежать необходимости внесения в обучающую выборку всех слов словаря
[1]. Таким образом, требования к настраиванию на голос диктора
теоретически сократились до произнесения диктором некоторого
фонетически обогащенного текста, составляющего несколько тысяч слов.
Современные системы распознавания речи процедуру настраивания на
голос диктора в значительной мере компенсируют предварительно
обработанными громадными корпусами речи кооператива дикторов.
Дополнительная возможность адаптировать систему на голос диктора,
особенно с учетом гендерности, приводит к уменьшению ошибок
распознавания до двух раз [2]. Этот показатель достигается уже при
произнесении примерно сотни слов.
Таким образом, на пути увеличения словаря распознавания было
преодолено физическое препятствие, касающееся участия пользователя в
Н.Н. Сажок, 2012
ISSN 0452-9910. Кибернетика и вычисл. техника. 2012. Вып. 170
60
настраивании системы. Это, в свою очередь, актуализировало проблему
увеличения словаря.
Опыт создания системы реального времени для распознавания
украинской речи на 100 тысяч слов показал, что объемы лингвистической
базы данных и знаний такой системы превышают один гигабайт [3]. Согласно
исследованиям [4], чтобы охватить лексикон произвольной речи на 99 % и
более, система распознавания должна обрабатывать словарь объемом не
менее 200 тысяч слов для западных языков и более миллиона слов для
славянских языков, что обусловлено таким свойством славянских языков, как
обилие словоформ. Соответственно, увеличение лингвистической базы
данных и знаний станет еще более критичным, особенно учитывая
дальнейшие работы по улучшению качества аппроксимации модели в целом.
Объединяя слова в классы, т.е. рассматривая определенные слова как
эквивалентные, мы сможем существенно сократить количество элементов
лингвистической модели и их контекстов. Существующие алгоритмы и
инструментарий показывают свою ограниченность при их применении к
славянским языкам. Таким образом, разработка усовершенствованных
методов кластеризации слов по текстовому корпусу является критической
задачей для развития речевой информатики в Украине.
Лингвистическая составляющая генеративной модели распознавания
речи основывается на оценивании вероятности
( ) ( )∏
=
−=
kK
k
kk wwwPP
1
11 ...,,|w , (1)
где ( )KK www ...,,, 21:1 =w — гипотетическая последовательность слов ответа
распознавания [5]. Исходя из вычислительных соображений количество
предыдущих слов ограничивается до N – 1, и, таким образом, формируется N-
граммная лингвистическая модель (ЛМ):
( ) ( )∏
=
+−−−=
K
k
Nkkkk wwwwPP
1
121 ...,,,|w , (2)
где N обозначает ширину контекста ЛМ и обычно используется в пределах от
двух до четырех. Вероятности N-грамм оцениваются по текстовому корпусу
путем статистических подсчетов. Например, если обозначить
( )kkNk wwwC ,...,, 11 −+− как частоту N-граммы ( )kkNk www ,...,, 11 −+− , то
( ) ( )
( )11
11
121 ...,,
,...,,...,,,|
−+−
−+−
+−−− ≈
kNk
kkNk
Nkkkk wwC
wwwCwwwwP . (3)
Наибольшей теоретической проблемой при построении ЛМ является
оценивание вероятностей тех N-грамм, для которых не набирается
достаточно статистики. Тогда такая оценка проводится на основании
статистик (N–1)-грамм. Другой проблемой является наличие в текстовом
корпусе внесловарных слов, т.е. слов, не вошедших в рабочий словарь
системы распознавания. Приемлемое решение этой проблемы достигается
61
путем введения категории неизвестного слова, заменяющего в текстовом
корпусе все внесловарные слова. По своей сути, категория неизвестного
слова уже является неким кластером или классом слов. Объединяя другие
слова в классы, т.е. рассматривая определенные слова как эквивалентные, мы
сможем существенно сократить историю наблюдения элементов ЛМ и их
контекстов. С использованием функции классификации G(w) = g, где g
принадлежит множеству классов слов, для биграмного контекста (N = 2)
вероятности в произведении (2) могут быть представлены в виде [6]
( ) ( ) ( )( ) ( ) ( )( )11111class' ,|,,|| −−−−− = kkkkkkkkk wwGwGPwwGwGwPwwP . (4)
Предполагается, что ( ) ( )( )11 ,,| −− kkkk wwGwGwP не зависит от ( )1−kwG и
1−kw , а ( ) ( )( )11 ,| −− kkk wwGwGP не зависит от 1−kw . Это приводит к
заключительной модели:
( ) ( )( ) ( ) ( )( )11class ||| −− = kkkkkk wGwGPwGwPwwP . (5)
Аналогичным образом рассматриваются более широкие контексты
(N > 2).
Модель объединения слова в классы методами кластеризации. Пусть
W – последовательность всех реализаций слов ( )...,,, 321 www из обучающей
выборки на основе некоторого текстового корпуса, V – словарь или
множество всех слов из W. Тогда, исходя из выражения (1), для биграмного
контекста наилучшее объединение слов в классы приводит к максимуму
вероятности:
( ) ( ) ( )∏
∈
=
V
W
yx
yxCyxPP
,
,
classclass | , (6)
где (x, y) означает пару слов, в которой слово x следует за словом y в
последовательности W, а функция C(⋅) вычисляет частоту наблюдения
аргумента в обучающей выборке. Во избежание проблем с малыми
величинами применяется логарифмирование:
( ) ( ) ( )∑
∈
=
V
W
yx
yxPyxCP
,
classclass |log,log . (7)
Применяя к ( )yxP |class выражение (5) и (3), проведя ряд последующих
преобразований и отбросив компоненты, не зависимые от функции
классификации [6], приходим к формулировке окончательного критерия:
( ) ( ) ( ) ( )∑∑
∈∈
−=
GG
G
ghg
gCgChgChgCF log2,log,
,
. (8)
где (g, h) означает следование класса g за классом h.
Идея поиска некоего наилучшего объединения слов в заданное число
классов состоит в вычислении изменения критерия FG при гипотетическом
отнесении каждого из слов в альтернативные классы с последующим
перемещением в класс с наибольшим критерием. Таким образом, классы как
62
бы обмениваются словами, т.е. осуществляют некий словообмен, до тех пор
пока критерий не перестает улучшаться. Ниже приводится пошаговая схема
алгоритма словообмена.
Приведенный алгоритм относится к семейству «жадных» и не
гарантирует глобального экстремума. На улучшение результата могут влиять
способ инициализации и динамика наращивания классов. Кроме того,
возможно получить лучший критерий, исходя из указания учителя-эксперта.
Шаг А. Инициализация: для всех слов из словаря вводится первоначальная
функция классификации, которая относит все слова к одному классу,
G(w) = 1, или распределяет слова по классам, исходя из соображений,
например, частотности
Шаг Б. Итерация: для заданного количества итераций или по достижению
определенного условия останова
Шаг Б1. Итерация: для каждого слова w из словаря V
Шаг Б1а. Итерация: для каждого класса g из множества G
– Перемещаем слово w в класс g, запоминая изначальный
класс
– Вычисляем изменение FG для этого перемещения (8)
– Возвращаем слово w в изначальный класс
Шаг Б1б. Перемещаем слово w в класс с наибольшим FG
Для проведения дальнейших исследований алгоритма необходимо
удостовериться в достижимости соответствующих вычислений на доступных
вычислительных ресурсах за приемлемое время. Поэтому рассмотрим
практическую сторону реализации алгоритма.
Рекуррентность в алгоритме словообмена. Прямое применение (8)
приводит к сложности вычислений O( I V G3), где I — количество итераций
шага Б, V — объем словаря обучающей выборки, G — число классов.
В работе [7] предложен способ уменьшения количества арифметических
операций за счет использования рекуррентных формул для частот при
вычислении изменения критерия FG на шаге Б1а. Это позволяет выйти на
уровень сложности вычислений O( I V G2).
Произведенные замеры показали, что итерация с учетом базовой
рекурсии для частот на шаге Б для словаря в 20 000 словоформ и количества
классов в пределах 1000 протекает менее суток. Но, как видим далее, даже с
учетом развития вычислительной техники достигнутый темп вычислений
является неприемлемым при моделировании славянских языков.
Общеизвестно, что, например, для украинского языка, количество словоформ
на одно базовое слово в среднем превышает 15, тогда как для английского
языка этот показатель равен двум. Т.е. соотношение объемов словаря равной
по объему обучающей выборки для украинского и английского языков
справедливо принять равным шести. Как показано в следующем разделе,
соотношение количества классов слов для обоих языков примерно такое же.
Таким образом, сложность вычислений может возрасти в 63 раз, а значит
крайне необходимо дальнейшее ускорение работы алгоритма.
63
Предположим, что на предыдущей итерации шага Б при выполнении
шага Б1б функция классификации ( )⋅−G отнесла слово w к классу u, т.е.
( ) uwG =− . Далее, на шаге Б1а, предстоит проверить гипотезу перемещения w
в класс v, т.е. ( ) vwG = .
Пронумеруем все классы G∈ig от 1 до G и обозначим как
( )jiij ggCC ,= , Gji ≤≤ ,1 , частоту, вычисляемую при проверке гипотезы
перемещения на шаге Б1а, а для частот в условиях изначального класса
введем обозначение −
ijC .
Очевидно, что наибольший вклад в сложность вычислений критерия (8)
вносит первая сумма, которую, с учетом введенных обозначений,
представляем в виде
{ } { }
.loglogloglog
,
,,
,,
,,
∑∑∑∑
≠
==
∅=∩
++=
vui
vuj
ijij
j
vui
ijij
vuji
ji
ijij
ji
ijij CCCCCCCC
(9)
Таким образом, мы разбили изначальную сумму на три части:
1) не меняющуюся при перемещении слова w из класса u в класс v (пустые
ячейки на рис. 1) и 2) меняющуюся за счет исходного класса и 3)
меняющуюся за счет потенциально перспективного тестируемого класса.
Первая сумма в правой части выражения (9) представима в рекуррентном
виде относительно первоначальной гипотезы:
{ } { } { } { }
.logloglog
loglog
,
,,,
,,
,
,,
,
+−=
==
∑∑∑
∑∑
≠
=
−−
=
−−−−
∅=∩
−−
∅=∩
vui
vuj
ijij
j
vui
ijij
ji
ijij
vuji
ji
ijij
vuji
ji
ijij
CCCCCC
CCCC
(10)
u v Изменяются частоты биграмм
классов с участием слов:
u - исходного класса
v - тестируемого класса
- обоих классов
Рис. 1. Влияние перемещения некоторого слова из класса u в класс v
на изменение частот биграмм классов Cij
Приведенный анализ рекурсии позволяет свести количество базовых
операций к минимуму. Путем ввода осторожной стратегии ограничения
64
проверяемых классов сложности вычислений уменьшается до
обуславливаемого экспериментальными исследованиями уровня, достигая
ускорения работы алгоритма, кратного, например, корню квадратному из
общего числа классов. Учитывая постоянное расширение текстовой базы,
введение многоязычия и увеличения порядка лингвистической модели,
необходимо дальнейший рост быстродействия, что возможно за счет
распараллеливания вычислений.
Связь классов слов лингвистической модели с лингвистическими
категориями. При анализе результатов процедуры кластеризации возникает
закономерный вопрос, каким образом соотносится содержание построенных
кластеров с категориями, которыми оперирует лингвистическая наука, т.е.
существует ли взаимосвязь автоматически сформированных классов слов с
их грамматическим (части речи и формы слов), фонетическим и
семантическим наполнением.
Предположим, что кластеризация происходит по признакам,
определяемым перечисленными лингвистическими категориями. Оценим,
потенциальное количество таких кластеров.
Анализируя семантическое наполнение, исходим из того, что имеется
некоторое множество семантических признаков. В табл. 1 приведено одно из
возможных разбиений на категории, включающие один или больше
признаков, с примерами слов. Слова, не обладающие ни одним из введенных
признаков, выделяются в отдельную категорию.
Таблица 1
Примеры семантических признаков с разбиением по категориям
Семантические признаки Примеры слов
Имена Валя, Миколині, Антононівна, Джоне
Фамилии Петренко, Обамою, кучмівської
Названия ООН, Укрнафта, Артеку, НАНУ, Динамо
Территории Україна, Крим, Арізона, райський
Имена собственные,
топонимы и их
производные (всего 8)
Города Київ, Харківське, Вашингтону
Прочее (3) Трубіж, Егейське; Еверест; Великодні
Общественная виборці, команда, парламентські
Интеллектуальная знання, говорив, інтеграл, створено
Физическая ходити, пити, сон, чистий
Человеческая деятельность
Пространство метр, близько, праворуч, над, літрів
Время секунд,завтра,раніше,після,десятирічний
Вес грам, тонн, легко, фунтів
Безразмерные відсотків,бали,ступеню,більше,половина
Числительные (5) один; десятий; двісті; мільйони; багато
Количество, мера (всего 14)
Прочее (5) гривень; байт; градуси; вольт; карат
Обращаясь к лексикографической базе данных и знаний [8], можно
оценить количество грамматических форм слов для различных частей речи с
учетом введенных семантических признаков (табл. 2). Подсчеты показывают
справедливость оценки, превышающей 1000 лингвистических категорий в
целом.
Отдельный интерес вызывает обработка слов-омографов. Эти слова
имеют одинаковое орфографическое написание (возможно, с точностью до
ударения), но их отнесение к лингвистическим (грамматическим и
65
семантическим) категориям является неоднозначным. Например, слова руки
и ноги, которые могут быть отнесены как к категории существительного
родительного падежа единственного числа, так и именительного падежа
множественного числа, а слово мило может принадлежать к одной из трех
грамматических категорий.
Таблица 2
Разнообразие лингвистических категорий
в грамматико-семантической плоскости
Имена
собственные,
топонимы и их
производные
(всего 8)
Человеческая
деятельность
Количество, мера
(всего 14) Часть
речи
Количество
форм
(оценка)
категории форм категории формы категории формы
Сущ. 13 5 10 3 12 10 12
Прил. 20 5 20 3 24 10 24
Гл. 40 - - 2 40 1 40
Числ. 18 - - - - 5 15
Нескл. 1 5 1 3 1 10 1
Логично предположить, что омографы должны выделяться в отдельные
классы согласно набору лингвистических категорий, который порождается
неоднозначностью. Таких наборов на основе [8] выявлено несколько сотен.
Результаты кластеризации показали чувствительность к фонетическому
наполнению слов. Например, в украинском языке перевод слова,
обозначающего союз и, передается одним из трех слов: і, й, та. Будучи
одинаковыми по смыслу, каждое из этих трех слов имеет
регламентированное употребление в зависимости от фонетического
окружения. Так, обычно союз і употребляется после слов, оканчивающихся
на согласный, й ставится между словами, в конце и начале которых стоит
гласный. Подобным образом обусловлено употребление ряда слов,
относящихся как к служебным частям речи (у/в/уві/вві, з/зі/із/зо, б/би, ж/же),
так и к существительным, прилагательным и глаголам (вчений/учений,
іти/йти). Однако для последних примеров разделение на классы с учетом
фонетического признака не наблюдалось.
Таблица 3
Примеры автоматически сформированных кластеров
Слова Частота Слова Частота Слова Частота
багато 134590 які 590681 заявив 163547
чимало 24482 котрі 24499 вважає 99803
безліч 7696 яки 465 повідомив 80043
немало 2191 де 246376 заявила 32795
якнайбільше 760 куди 31966 заявляє 31965
багацько 255 звідки 15373 розповів 30504
богато 123 звідкіль 120 говорить 29756
В табл. 3 приведено полное содержание нескольких классов за
исключением последнего класса. Наиболее встречаемое слово в классе
выделено полужирным шрифтом. Нетрудно заметить, что объединенные в
66
классы слова содержат общие грамматические и семантические признаки.
Написанные с ошибками слова (богато и яки) были, тем не менее, отнесены к
наиболее соответствующим классам. В примере последнего класса общими
являются грамматические категории 3-го лица глагола и двух времен и родов.
Кроме приведенных примеров, следует отметить достаточно четкое
выделение в классы имен собственных и числительных по признакам,
указанным в таблицах 1 и 2.
Выводы. Идея отнесения слов к классам и оперирования скорее
классами слов, чем словами является конструктивным развитием
лингвистического компонента систем распознавания речи. Впервые
сформированные классы слов для украинского языка представленными в
работе автоматическими средствами обобщают грамматические,
семантические и фонетические признаки слов.
Углубленный анализ существующего алгоритма кластеризации показал
возможность существенного ускорения его работы, что позволяет приступить
к созданию лингвистических моделей славянских языков на основе
текстовых корпусов, представляющих все разнообразие языка.
1. Винцюк Т.К., Анализ, распознавание и смысловая интерпретация речевых сигналов. —
Киев: Наукова думка, 1987. — 264 с.
2. Сажок М.М., Селюх Р.А., Юхименко О.А. Адаптація до голосу диктора на основі
гендернозалежних акустичних моделей фонем для української мови // Десята
Всеукраїнська міжнар. конф. УкрОбраз’2010. — Київ, 2010. — С.59–62.
3. Робейко В., Сажок М. Розпізнавання спонтанного мовлення на основі акустичних
композитних моделей слів у реальному часі // Штучний інтелект. — Донецьк, 2012. —
№ 4. — С. 253–263.
4. Whittaker E.W.D. Statistical Language Modelling for Automatic Speech Recognition of
Russian and English. PhD thesis. — Cambridge University, 2000. — 140 p.
5. Gales M., Young S. The Application of Hidden Markov Models in Speech Recognition //
Foundations and Trends in Signal Proc. — 2007. — 1(3). — P. 195–304.
6. The HTK Book Version 3.4 / S.J. Uoung, G. Evermann, M. Gales et al. — Cambridge
University, 2006. — 360 p.
7. Martin S., Liermann J., Ney H. Algorithms for bigram and trigram word clustering // Proc. of
Eurospeech. — Madrid, 1995. — Vol. 2, — 1293–1256 p.
8. Широков В.А., Манако В.В. Організація ресурсів національної словникової бази //
Мовознавство. — 2001. — № 5. — С. 3–13.
Международный научно-учебный центр
информационных технологий и систем
НАН Украины и Министерства образования
и науки, молодежи и спорта Украины, Киев Получено 27.11.2012
|