Энтропийные методы в теории самоорганизационных процессов
Обсуждаются вопросы применения энтропийных методов при исследовании сложных систем. Описаны свойства как термодинамической, так и информационной энтропии. Показано, что для случая, когда состояние системы описывается многомерным нормальным вектором, можно достичь уменьшения энтропии за счет увеличен...
Збережено в:
Дата: | 2010 |
---|---|
Автор: | |
Формат: | Стаття |
Мова: | Russian |
Опубліковано: |
Інститут технічної механіки НАН України і НКА України
2010
|
Назва видання: | Техническая механика |
Онлайн доступ: | http://dspace.nbuv.gov.ua/handle/123456789/88111 |
Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
Цитувати: | Энтропийные методы в теории самоорганизационных процессов / Е.С. Переверзев // Техническая механика. — 2010. — № 3. — С. 81-90. — Бібліогр.: 16 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraineid |
irk-123456789-88111 |
---|---|
record_format |
dspace |
spelling |
irk-123456789-881112015-11-08T03:02:49Z Энтропийные методы в теории самоорганизационных процессов Переверзев, Е.С. Обсуждаются вопросы применения энтропийных методов при исследовании сложных систем. Описаны свойства как термодинамической, так и информационной энтропии. Показано, что для случая, когда состояние системы описывается многомерным нормальным вектором, можно достичь уменьшения энтропии за счет увеличения парных коэффициентов корреляции. Обговорюються питання застосування ентропійних методів при дослідженні складних систем. Опи-сано властивості як термодинамічної, так і інформаційної ентропії. Показано, що для випадку, коли стан системи описується багатомірним нормальним вектором, можна досягти зменшення ентропії за рахунок збільшення парних коефіцієнтів кореляції. Problems of entropy methods application in research of complex systems are considered. Features of thermodynamic and informational entropies are described. It is shown that an entropy decrease due to an increase of double coefficients of correlation can be obtained when the system state is described by a multidimensional normal vector. 2010 Article Энтропийные методы в теории самоорганизационных процессов / Е.С. Переверзев // Техническая механика. — 2010. — № 3. — С. 81-90. — Бібліогр.: 16 назв. — рос. 1561-9184 http://dspace.nbuv.gov.ua/handle/123456789/88111 621. 192:519.2 ru Техническая механика Інститут технічної механіки НАН України і НКА України |
institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
collection |
DSpace DC |
language |
Russian |
description |
Обсуждаются вопросы применения энтропийных методов при исследовании сложных систем. Описаны свойства как термодинамической, так и информационной энтропии. Показано, что для случая, когда состояние системы описывается многомерным нормальным вектором, можно достичь уменьшения энтропии за счет увеличения парных коэффициентов корреляции. |
format |
Article |
author |
Переверзев, Е.С. |
spellingShingle |
Переверзев, Е.С. Энтропийные методы в теории самоорганизационных процессов Техническая механика |
author_facet |
Переверзев, Е.С. |
author_sort |
Переверзев, Е.С. |
title |
Энтропийные методы в теории самоорганизационных процессов |
title_short |
Энтропийные методы в теории самоорганизационных процессов |
title_full |
Энтропийные методы в теории самоорганизационных процессов |
title_fullStr |
Энтропийные методы в теории самоорганизационных процессов |
title_full_unstemmed |
Энтропийные методы в теории самоорганизационных процессов |
title_sort |
энтропийные методы в теории самоорганизационных процессов |
publisher |
Інститут технічної механіки НАН України і НКА України |
publishDate |
2010 |
url |
http://dspace.nbuv.gov.ua/handle/123456789/88111 |
citation_txt |
Энтропийные методы в теории самоорганизационных процессов / Е.С. Переверзев // Техническая механика. — 2010. — № 3. — С. 81-90. — Бібліогр.: 16 назв. — рос. |
series |
Техническая механика |
work_keys_str_mv |
AT pereverzeves éntropijnyemetodyvteoriisamoorganizacionnyhprocessov |
first_indexed |
2025-07-06T15:49:07Z |
last_indexed |
2025-07-06T15:49:07Z |
_version_ |
1836913208372232192 |
fulltext |
УДК 621. 192:519.2
Е.С. ПЕРЕВЕРЗЕВ
ЭНТРОПИЙНЫЕ МЕТОДЫ В ТЕОРИИ САМООРГАНИЗАЦИОННЫХ
ПРОЦЕССОВ
Обсуждаются вопросы применения энтропийных методов при исследовании сложных систем. Опи-
саны свойства как термодинамической, так и информационной энтропии. Показано, что для случая, когда
состояние системы описывается многомерным нормальным вектором, можно достичь уменьшения энтро-
пии за счет увеличения парных коэффициентов корреляции.
Обговорюються питання застосування ентропійних методів при дослідженні складних систем. Опи-
сано властивості як термодинамічної, так і інформаційної ентропії. Показано, що для випадку, коли стан
системи описується багатомірним нормальним вектором, можна досягти зменшення ентропії за рахунок
збільшення парних коефіцієнтів кореляції.
Problems of entropy methods application in research of complex systems are considered. Features of
thermodynamic and informational entropies are described. It is shown that an entropy decrease due to an increase
of double coefficients of correlation can be obtained when the system state is described by a multidimensional
normal vector.
Энтропийные методы широко применяются при исследовании сложных
систем [1], при управлении качеством и разработке методов оценки надежно-
сти [2, 3]. Но особенно эффективно применение энтропийных методов при
построении теории процессов самоорганизации, закономерности которых
изучает новая научная дисциплина синергетика [4]. Различают термодинами-
ческую энтропию и информационную S H [5 – 9]. Кратко рассмотрим ме-
тоды термодинамической энтропии при изучении эволюционных процессов и
динамики иерархических систем [10, 11]. Изменение термодинамической эн-
тропии определяется как dS
T
Q
dS
,
где – изменение теплоты в процессе; Q T – абсолютная температура.
В общем случае приращение энтропии можно представить в виде
суммы двух слагаемых [12]
dS
ie dSdSdS ,
где изменение энтропии, обусловленное обменом с окружающей сре-
дой; приращение энтропии, вызванное необратимыми изменениями
внутри системы.
edS
idS
В соответствии с законами термодинамики может принимать как
положительные, так и отрицательные значения. Приращение же в соот-
ветствии со вторым законом термодинамики может быть только положитель-
ным. Для изолированной системы
edS
idS
0edS , и в такой системе энтропия мо-
жет только возрастать. Величину
dt
dSi называют производством энтро-
пии. Эта величина характеризует скорость накопления необратимых измене-
ний. В термодинамике необратимых процессов полагают [12]
, (1) j
j
jJX
Е.С. Переверзев, 2010
Техн. механика. – 2010. – № 3.
81
где термодинамическая сила; термодинамический поток, вызван-
ный действием силы .
iX iJ
iX
Методы нахождения термодинамических сил и потоков основаны на ана-
лизе законов сохранения энергии и вещества. Термодинамическими силами
обычно являются температура, химический потенциал, тензор напряжений и
т.д. Термодинамическими потоками являются тепловой поток, скорость хи-
мической реакции, тензор скорости деформации и др.
При термодинамическом равновесии 0iJ , . Поэтому при малом
отклонении от положения равновесия принимают:
0iX
, i
n
i
jii XLJ
1
где кинетические коэффициенты; число термодинамических сил и
потоков.
jiL n
Полагают, что коэффициенты от потоков и сил не зависят, но зависят
от параметров состояния, и поэтому в каждом конкретном случае необходи-
мо искать способы вычисления этих коэффициентов. На основе принципа
микроскопической обратимости Онзагер показал, что для большого числа
процессов при соответствующем выборе потоков и сил
ijL
ijji LL . (2)
Последнее соотношение обычно называют принципом Онзагера. Этот
принцип позволяет учитывать эффекты наложения. Заметим, что при описа-
нии эффектов наложения в соответствии с принципом Онзагера необходимо,
чтобы необратимые процессы имели одинаковый тензорный ранг.
Для термодинамики необратимых процессов большое значение имеет
поиск вариационных принципов, из которых могут быть получены опреде-
ляющие уравнения. Онзагер первым показал, что соотношения взаимности
(2) эквивалентны некоторому вариационному принципу, который назван
принципом наименьшего рассеяния. В этом принципе используется неравно-
весная потенциальная функция
j
ji
iji XXLXX
,
,
2
1
.
Для линейных процессов
JXXX ,,
2
1 .
В соответствии с этим принципом функция
XXJXG ,,
имеет максимум по сравнению со всеми возможными необратимыми процес-
сами с теми же потоками, но различными сопряженными им силами.
При стационарных необратимых процессах в открытых системах дисси-
пация энергии минимальна. К аналогичному выводу можно прийти, если ис-
пользовать потенциальную функцию
82
JXJJLJJ
ji
jiji ,,,
,
2
1
2
1 1 .
В этом случае, варьируя функцию JJJXF ,, по потокам при
заданных силах, получаем
0 XXF .
К принципу наименьшего рассеяния можно прийти, варьируя соответст-
вующим образом следующие потенциальные функции: 1G и
. 1F
Принцип Пригожина формулируется следующим образом. В стационар-
ном состоянии производство энтропии в открытой системе при фиксиро-
ванных внешних параметрах минимально.
В соответствии с приведенными принципами при определенных ограни-
чениях на внешние воздействия стационарное состояние линейных необра-
тимых процессов в открытых системах характеризуется минимумом произ-
водства энтропии. По-видимому, и для нелинейных необратимых процессов,
допускающих представление (1), если существует для них такая потенциаль-
ная функция рассеяния , что
i
i X
J
,
ijji XXXX
22
,
при оговоренных выше условиях в стационарном состоянии будет выпол-
няться принцип минимального производства энтропии.
Рассмотрим вопрос об устойчивости стационарного состояния. Как из-
вестно, для устойчивости системы достаточно, чтобы производная по време-
ни от знакоопределенной функции Ляпунова была противоположна по знаку
выбранной функции или тождественно равна нулю. Возьмем в качестве
функции Ляпунова производство энтропии . Эта функция является поло-
жительно определенной и в стационарном состоянии 0
dt
d
. Отсюда в соот-
ветствии с теоремой Ляпунова следует вывод, что в стационарном состоянии
открытая система является устойчивой. При стремлении системы к устойчи-
вому стационарному состоянию 0
dt
d
. По-видимому, открытые системы
стремятся к стационарному состоянию кратчайшим путем.
Как уже отмечалось, критерий устойчивости стационарного состояния
определяется знаком скорости производства энтропии
dt
d
. Разложим ее сле-
дующим образом на две составляющие
dt
d
dt
d
dt
d Jx
,
где
83
dt
dX
J
dt
d i
i
i
x
;
dt
dJ
X
dt
d i
i
i
J
.
Стационарное состояние характеризуется постоянством потоков. В этом
случае 0
dt
dJi и
dt
d
dt
d x
.
Ввиду того, что в стационарном состоянии 0
dt
d
dt
d x и при стрем-
лении к стационарному состоянию скорость производства энтропии отрица-
тельна, критерием эволюции открытых диссипативных систем по Пригожину
является условие
0
dt
d x .
Рассматривая накопление повреждений в элементах технических уст-
ройств в процессе их эксплуатации, можно сделать заключение, что реальные
термодинамические системы при 0 могут находиться в стационарном
состоянии в течение ограниченного времени. Это обусловлено непрерывным
расходованием ресурса технических систем в процессе эксплуатации. Поэто-
му, начиная с какого-то времени *tt , необратимые процессы в реальных
системах становятся нестационарными. Величина может выбираться из
условия
*t
, *
*
Sdtt
t
0
где некоторое значение приращения необратимой составляющей энтро-
пии, начиная с которого скорость производства энтропии
*S
dt
d
возрастает.
Поэтому эксплуатировать технические системы целесообразно в области
*tt или, по крайней мере, начиная с *tt своевременно прогнозировать
наступление отказа. Очевидно, при производная *tt 0
dt
d
. В соответст-
вии с теоремой Ляпунова система становится с этого момента неустойчивой и
стремится к новому равновесному состоянию. В области , по-видимому,
имеет место принцип максимальной скорости порождения энтропии, сфор-
мулированный Циглером [13]. В соответствии с этим принципом система,
подверженная действию заданных термодинамических сил, стремится к ко-
нечному состоянию кратчайшим путем.
*tt
Качественная картина изменения производства энтропии представлена на
рис. 1, из которого видно, что весь интервал времени можно разделить на три
участка.
84
Рис. 1
На участке I, где 0
dt
d
, система кратчайшим путем стремится к ста-
ционарному состоянию. На участке II 0
dt
d
и производство энтропии при
заданных ограничениях достигает минимального значения. На участке III
0
dt
d
и система кратчайшим путем стремится к новому равновесному
состоянию. При этом участки I и II являются устойчивыми, а III – неустой-
чивым.
В [14] предложено следующее выражение для вероятности безотказной
работы
K
S
S
d
P
t
expexp
*
0 ,
где ; ; математическое ожидание приращения энтро-
пии, при котором происходит отказ.
t
dS
0
* *SK S
Последняя формула аналогична известной формуле Больцмана в класси-
ческой термодинамике, устанавливающей связь между энтропией и вероят-
ностью нахождения термодинамической системы в данном состоянии, и ее
можно получить, проделав выкладки, аналогичные тем, которые использова-
лись при выводе формулы Больцмана.
Подчеркнем, что коэффициент не является постоянной Больцмана,
хотя их размерности совпадают.
K
Приведенное соотношение, устанавливающее связь между вероятностью
безотказной работы и приращением энтропии, имеет большое методологиче-
ское значение. Если известен конкретный физический механизм накопления
повреждений, на этапе проектирования можно проводить приближенные ве-
роятностные расчеты, полагая
*S
t
t
,
где t математическое ожидание производства энтропии.
85
До сих пор нами рассматривалась термодинамическая энтропия, кото-
рая для одного моля идеального газа может быть вычислена по формуле
Больцмана
, (3) dvvfvfRS
ln
где – универсальная газовая постоянная; R vf – плотность распределения
скоростей движения молекул газа.
В последнее время развивается теория самоорганизационных процессов,
при построении которой особенно эффективно применение информационной
энтропия . Для произвольной случайной величины m u энтропия m вычис-
ляется по формуле
, (4) dxxgxgm
ln
где – плотность распределения случайной величины xg X .
Из сравнения выражений (3), (4) видно, что они отличаются только по-
стоянным множителем. Если рассматривать одну частицу, то
, dvvfvfks
ln
где
aN
R
k – постоянная Больцмана; – число Авогадро. aN
Некоторые авторы полагают [2], что если информационную энтропию
произвольной случайной величины умножить на постоянную Больцмана, то
получим термодинамическую энтропию. Такое утверждение справедливо
только в том случае, если вычисляется информационная энтропия случайной
величины, которая описывает энергетические характеристики, например ско-
рость движения молекул газа. Так как рассматриваемые выражения отлича-
ются только постоянным множителем, то у них много общих свойств. На-
пример, в равновесном состоянии систем соблюдается принцип максимума
энтропии. Исходя из этого принципа, можно обосновать вид закона распре-
деления изучаемых случайных величин. Например, если известны только ко-
нечные пределы изменения случайной величины, то максимальная энтропия
у равномерного распределения. При заданном математическом ожидании
максимальная энтропия у экспоненциального распределения, при заданной
дисперсии максимальная энтропия у нормального распределения. Вот поче-
му, исходя из принципа максимума энтропии, распределения скоростей дви-
жения молекул идеального газа описываются нормальным законом.
В соответствии с принципом максимума энтропии при заданной диспер-
сии микронапряжений распределения микронапряжений в нагруженных эле-
ментах конструкций также будет описываться нормальным законом.
При изучении динамики многих сложных систем по аналогии с произ-
водством энтропии можно вводить скорость изменения информационной эн-
тропии.
В общем случае необходимо учитывать одновременно изменение термо-
динамической и информационной энтропии. В этом случае при решении ва-
86
риационных задач функция , подлежащая исследованию на экстремум, за-
писывается так:
, BHS
либо
. bSH
Между коэффициентами и должно выполняться соотношение B b
. 1bB
В самоорганизационных процессах скорость
dt
dH
принимает отрица-
тельные значения. Заметим, что энтропию H можно также определить по
формуле
, WH ln
где – число микросостояний, которым может быть реализовано данное
макросостояние. Отсюда
W
HW exp .
Величина H вычисляется по формуле (4). Для одного моля идеального
газа
2/1
1
1
6
log
M
eRT
H ,
где – масса одного моля. 1M
Соответственно
2/1
1
1
6
M
eRT
W .
В большинстве случаев основные свойства энтропии исследуются для не-
зависимых систем. Исследуем, как влияет на изменение энтропии зависи-
мость элементов системы. Рассмотрим систему, состояние которой описыва-
ется многомерным нормальным вектором u . Информационная энтропия в
этом случае вычисляется по формуле [15]
21
2
/
log KeH n ,
где n – размерность вектора; K – определитель корреляционной матрицы.
Для удобства рассмотрим систему, у которой все компоненты имеют
одинаковые дисперсии . Тогда 2
Cj 2 ,
где – определитель нормированной корреляционной матрицы
nnnn
n
n
rrr
rrr
rrr
...,
.................
...,
...,
21
22221
11211
,
87
где , ijr nji ,, 1 – коэффициенты корреляции между отдельными случайны-
ми величинами.
При таком представлении
2122
/
log CneH .
Исследуем влияние коэффициентов корреляции на величину m при
. С уменьшением значений коэффициентов корреляции энтропия уве-
личивается и при
0ijr
0ijr
1
достигает максимального значения . При
определитель
maxН
0ijr и соответственно
222
/
max log
n
eH .
С увеличением значений коэффициентов корреляции энтропия m
уменьшается, при определитель 1ijr 0 и . m
Физически реализовать системы со всеми коэффициентами корреляций
компонентов, равными единице, по-видимому, невозможно. Представляет
интерес определить значения коэффициентов корреляции, при которых эн-
тропия достигает нулевого значения. Значение определителя в этом случае
вычисляется по формуле
nne 22
1
.
Приведем выражения для для конкретных значений соот-
ветствующие определители обозначим
;,, 432n
432 ,, .
Для имеем 2n
. 2
122 1 r
Соответственно для 3n
. 21312
2
23
2
13
2
123 1 rrrrrr
Для краткости выражение для определителя 4 приводится ниже для ча-
стного случая rrij .
Для удобства анализа предельных случаев положим все коэффициенты
корреляции одинаковыми, т.е. njirrij ,,, 1 .
В этом случае
, 32
3 231 rr
. 432
4 3861 rrr
При соответственно имеем 1r
0432 .
Из приведенных выражений находим значения r , при которых энтропия
равна нулю.
88
Для 2 получим n
22
1
1
)(
e
r .
Для необходимое значение 3n r определяется из выражения
12312 3233 rre)( ,
соответственно для находится из выражения rn 4
138612 43244 rrre)( .
Анализ приведенных выражений показывает, что при заданных значени-
ях коэффициентов корреляции с увеличением определитель C C уменьша-
ется. Так, при имеем: 50,r
3125050750 432 ,;,;, .
Нами исследовалось изменение информационной энтропии от степени
связи между элементами для многомерного нормального вектора.
Покажем, что и для произвольных распределений с увеличением связи
между ее элементами энтропия системы уменьшается. В [16] приведено сле-
дующее приближенное выражение для произвольных многомерных распре-
делений
n
n GxGxG 11 1 , (5)
где – параметр, учитывающий степень зависимости между случайными
величинами; – одномерная функция распределения;
xG1 xGn – много-
мерная функция распределения.
Параметр изменяется от нуля до единицы. При 0 случайные вели-
чины независимые и
xGxG n
n 1 .
В этом случае энтропия системы H равна сумме энтропий отдельных
элементов. Для одинаковых элементов
, (6) Chm
где – энтропия отдельного элемента. h
При между случайными величинами наибольшая зависимость и 1
xGxGn 1 . (7)
В этом случае энтропия системы равна энтропии элемента
. hm
Из сравнения выражений (6), (7) следует, что в предельном случае при
имеет место соотношение 1
C
H
H …еƒ
ƒ=" , (8)
89
где , – соответственно энтропии систем с зависимыми и незави-
симыми элементами.
ƒ="H …еƒH
Для произвольных значений 10 согласно выражению (5) можно за-
писать
maxmin HHH 1 , (9)
где – минимальное значение энтропии при minH 1 ; – максимальное
значение энтропии при
maxH
0 .
Для одинаковых элементов получим
nhhH 1 . (10)
Таким образом, для систем с зависимыми элементами повышение слож-
ности системы приводит к уменьшению энтропии.
Из изложенного выше следует, что для уменьшения энтропии реальных
систем необходимо находить конструктивные методы увеличения зависимости
между составляющими элементами, а для систем с зависимыми элементами –
методы повышения их сложности за счет увеличения числа элементов.
1. Вильсон А. Дж. Энтропийные методы моделирования сложных систем / А. Дж. Вильсон. – М. : Наука,
1978. – 246 с.
2. Завальнюк П. А. Термодинамическая концепция управления качеством / П. А. Завальнюк – Тверь : Изд-
во Твер. у-та, 1992. – 149 с.
3. Воробьев В. Л. Термодинамические основы диагностики и надежности микроэлектронных устройств /
В. Л. Воробьев. – М. : Наука, 1989. – 160 с.
4. Хакен Г. Синергетика : Иерархии неустойчивостей в самоорганизующихся системах и устройствах : Пер.
с англ. / Г. Хакен. – М. : Мир, 1985. – 423 с.
5. Дьярмати И. Неравновесная термодинамика : Теория поля и вариационные принципы / И. Дьярмати. –
М. : Мир, 1974. – 304 с.
6. Митюгов В. В. Физические основы теории информации / В. В. Митюгов. – М. : Сов. радио, 1976. –
216 с.
7. Коган И. М. Прикладная теория информации / И. М. Коган. – М. : Радио и связь, 1981. – 216 с.
8. Шамбадаль П. Развитие и приложения понятия энтропии / П. Шамбадаль. – М. : Наука, 1967. – 278 с.
9. Поплавский Р. П. Термодинамика информационных процессов / Р. П. Поплавский. – М. : Наука, 1981. –
255 с.
10 Николис Дж. Динамика иерархических систем: Эволюционное представление : Пер. с англ. /
Дж. Николис. – М. : Мир, 1989. – 488 с.
11. Николис Г. Познание сложного. Введение : Пер. с англ. / Г. Николис, И. Пригожин. – М. : Мир, 1990. –
344 с.
12. Базаров И. П. Термодинамика : Учебник. – 3-е изд., перераб. и доп. / И. П. Базаров. – М. : Высш. шк.,
1983. – 344 с.
13. Циглер Г. Экстремальные принципы термодинамики необратимых процессов и механика сплошных
сред / Г. Циглер. – М. : Мир, 1966. – 133 с.
14. Переверзев Е. С. Модели накопления повреждений в задачах долговечности / Е. С. Переверзев. – Киев :
Наук. думка, 1995. – 358 с.
15. Пугачев В. С. Теория случайных функций и ее применение к задачам автоматического управления /
В. С. Пугачев. – Физматгиз, 1960. – 883 с.
16. Переверзев Е. С. Вероятностные распределения и их применение / Е. С. Переверзев, Ю.Ф. Даниев. –
Днепропетровск : Институт технической механіки НАН Украины и НКА Украины, 2004. – 418 с.
Институт технической механики Получено 18. 05.10,
НАН Украины и НКА Украины, в окончательном варианте 18.05.10
Днепропетровск
90
|