сотрудник с 01.01.2007 по 01.01.2025
г. Москва и Московская область, Россия
Большинство приложений теории вероятностей в естественных науках связано с построением и изучением некоторого случайного процесса, описывающего математическую модель изучаемого явления. Общая математическая теория случайных процессов сводится к изучению весьма ограниченной совокупности таких процессов. Теория случайных процессов – научная дисциплина, основанная на теории вероятностей и получившая применение в различных областях науки и техники. Если в традиционной теории вероятностей производится изучение мгновенно складывающихся ситуаций, то теория случайных процессов изучает во времени всевозможные явления, на которые воздействуют случайные факторы. В данной работе рассматривается достаточно широкий класс точечных процессов, которые могут применяться для анализа накопления повреждений в металлах.
методика, моделирование, процесс накопления, усталостная прочность, металлорежущие инструменты, случайные процессы
Положения в основании построения математической модели
В настоящей работе используется аппарат обработки статистических данных, подробно описанный в монографии [1]. Как видно из различных примеров (возникновение катастроф на шахтах, отказы в компьютерах [1]), накопление событий происходит либо по линейной зависимости, либо по экспоненте.
Накопление событий по линейной зависимости, с точки зрения теории случайных процессов, соответствует суммированию независимых в совокупности событий. В случае непрерывного времени между событиями должно проявляться свойство отсутствия последействия, т.е. между последовательными событиями проходит случайный интервал времени, подчиняющийся показательному распределению. Наиболее простыми и наглядными примерами такого процесса являются простейший процесс восстановления или случайный процесс Пуассона.
Нужно отметить, что важным этапом в развитии теории случайных процессов явилось открытие А.А. Марковым цепей. Они поразительно близки ко многим процессам реального мира. Основное свойство цепей Маркова – независимость будущего от прошлого при фиксированном настоящем [2]. Возникло отдельное направление в общей теории марковских процессов – теория восстановления [3].
Накопление событий по экспоненциальной зависимости предполагает связь между последовательными событиями, которые происходят в сложной дискретной или континуальной среде. Рассматриваемый Коксом и Льюисом пример отказов в компьютерах [4] относится к середине 1960-х годов, когда они состояли из большого числа дискретных элементов (транзисторов, микросхем, резисторов и т.д.), соединенных большим числом разъемов и кабелей, что в итоге приводило после каждого отказа компьютера к его разборке и извлечению печатной платы. Такой ремонт в итоге являлся косвенным источником внесения новых дефектов в отремонтированное устройство. Подобная процедура приводит нас к выводу о том, что после каждого ремонта электронная среда деградирует и среднее время между отказами монотонно уменьшается и, как следствие, увеличивается средняя интенсивность событий. Такое накопление событий уже предполагает зависимость между последовательными событиями, в связи с чем такой алгоритм накопления может быть смоделирован случайным ветвящимся процессом, в котором предполагается зависимость между последовательными событиями. Простейшим примером такого случайного ветвящегося процесса может служить процесс чистого размножения Юла [5]. В этой модели чистого размножения длительность интервалов также подчиняется показательному распределению, но параметр распределения зависит от порядкового номера события. Эти две математические модели мы считаем основными для описания накопления событий усталостной прочности в режущем инструменте.
Если рассматривать модель как случайный процесс Пуассона, то число дефектов в режущем инструменте нужно считать прямо пропорциональным числу воздействий заготовки на режущую кромку, в то время как при рассмотрении случайного процесса чистого размножения Юла к непосредственному воздействию на инструмент добавляется развитие дефектов, размножающихся в среде инструмента.
Краткие сведения из теории случайных процессов
В предлагаемых моделях процесса прочностной усталости рассматриваются единичные события, происходящие через случайные интервалы времени: τ1, τ2, τ3, … Эти случайные интервалы между событиями имеют показательное распределение P(i,t>T)=1-exp{-λ_i T}, или в других обозначениях P(i,t)=1-exp{-λ_i t}, где порядковый номер события.
Разрушение инструмента происходит при достаточно большом номере события. Предмет анализа состоит в том, чтобы найти распределение времени по достижении достаточно большого по номеру события и получить теоретическое распределение времени разрушения инструмента. Фактически надо получить распределение G(i,t=∑_(k=1)^i▒τ_i ), которое образуется как распределение i независимых случайных величин.
Одновременно необходимо получить функцию накопленного числа событий (рис. 1).
Рис. 1. Распределения длительностей интервалов и функция накопления числа событий в случае процесса Пуассона
Fig. 1. Distributions of interval durations and the cumulative function of the number of events in the case of a Poisson process
В верхней части рис. 1 показаны распределения длительностей интервалов от начала процесса в момент времени t = 0 до i-го события в случае, когда распределения длительностей интервалов между соседними событиями носят показательный характер с одним значением параметра λ_i={λ|i=1,2,3,…}. В нижней части рис. 1 показана линейная функция накопления числа произошедших событий.
Если случайный процесс описывается процессом чистого размножения Юла, то следует рассматривать распределение длительностей интервалов от начала процесса в момент времени t = 0 до i-го события. Тогда распределение длительностей интервалов между соседними событиями имеет показательный характер с уменьшающимися длительностями между соседними событиями τ_i=1/λ_i =1/iλ и соответствующими значениями параметра λ_i={iλ|i= 1,2,3,…}. На рис. 2 показаны распределения длительностей интервалов для процесса чистого размножения Юла.
Рис. 2. Распределение длительностей интервалов с начального момента времени t = 0 до i-го события (вверху) и экспоненциальный рост числа событий, (внизу) в случае процесса чистого размножения Юла
Fig. 2. Distribution of interval durations from the initial time t = 0 to the i-th event (top) and exponential growth of the number of events, (bottom) in the case of the Yule pure reproduction process
Эти два случая, в основном, описывают процессы, определяющие разрушение металла. Кроме этих случаев далее рассмотрена оригинальная интегральная модель, в которой учтены достоинства обеих моделей. В ней воздействие на резец происходит по закону Пуассона, а образовавшиеся центры разрушения начинают развиваться по закону чистого размножения Юла.
Важным при описании моделей этих двух представлений процессов является то, что мы совмещаем классические описания с точки зрения теории случайных ветвящихся процессов и с точки зрения теории восстановления, учитывая при этом число накопленных событий во времени. Объединение двух этих подходов позволяет не изучать экспериментально количество дефектов на сколе резца, а проводить эксперименты по определению критического времени стойкости резца до его полного разрушения.
Единственным критерием в этом случае будет временной параметр – стойкость резца вплоть до его разрушения. На выборочной совокупности, не превышающей в большинстве случаев 20…30 образцов, можно определить среднее значение и стандартное отклонение стойкости резца.
Математическая часть работы предназначена для обоснования предельной формы распределения стойкости токарного резца нормальным законом Гаусса. Данная работа отличается от многих аналогичных работ обоснованием методики проводимых экспериментов по определению стойкости инструмента.
Операции со случайными величинами
Целочисленная дискретная случайная величина. Неотрицательная целочисленная случайная величина ξ характеризуется своим распределением вероятностей ξ={p_0,p_1,p_2,p_3,....,p_i,....}, где P{ξ=i}=p_i – вероятность того, что случайная величина ξ принимает значение i∈N^1∪{0}. Для распределения вероятностей случайной величины ξ должно выполняться условие нормировки ∑_(i=0)^∞▒p_i =1, при этом p_i≥0,i=¯(0:∞).
Математическое ожидание случайной величины ξ равноM{ξ}=∑_(i=0)^∞▒〖p_i i〗, а ее дисперсия D{ξ}=M{(ξ-M{ξ})^2 }=M{ξ^2 }-M^2 {ξ}=∑_(i=1)^∞▒〖p_i (i-M{ξ} )^2 〗.
Непрерывные случайные величины. Особую роль в этой работе играют случайные величины с показательным распределением. Это обусловлено их следующим свойством. Если ξ – случайная величина с показательным распределением P{ξ<x}=1-exp{-λx}, то P(ξ>t+τ|ξ>t+τ|)=P(ξ>t) при . Это верно для любой неотрицательной случайной величины τ, не зависящей от ξ.
Указанное свойство показательного распределения часто называю либо основным свойством, либо свойством отсутствия последействия, либо свойством отсутствия памяти, либо свойством отсутствия старения. Это свойство можно записать в таком виде: P(ξ>t+τ)=P(ξ>t)P(ξ>τ) при . Доказательство производится непосредственной проверкой:
P(ξ>t+τ|ξ>t+τ|)=(P(ξ>t+τ,ξ>τ))/(P(ξ>τ))=(P(ξ>t+τ))/(P(ξ>τ))=
=(∫_0^∞▒〖P(ξ>t+u)dP(τ<u)〗)/(∫_0^∞▒〖P(ξ>u)dP(τ<u)〗)==(∫_0^∞▒〖exp{-λ(t+u)} dP(τ<u)〗)/(∫_0^∞▒〖exp{-λu} dP(τ<u)〗)=exp{-λt}=P(ξ>t)
Характеристические функции непрерывных случайных величин. Для описания непрерывной случайной величины ξ, заданной на всей действительной числовой прямой , используются аналитический аппарат характеристических функций. Характеристической функцией случайной величины ξ мы будем называть функцию φ_ξ (ϑ) от действительного аргумента ϑ, равную φ_ξ (ϑ)=M exp{iϑξ} или φ(ϑ)=M exp{iϑξ}.
Случайная величина ξ с функцией распределения F_ξ (x) и плотностью (если она существует) p_ξ (x) имеет характеристические функции, вычисляемые по следующим формулам: φ_ξ (ϑ)=∫_(-∞)^(+∞)▒〖exp{iϑx} dF_ξ (x)〗 и φ_ξ (ϑ)=∫_(-∞)^(+∞)▒〖exp{iϑx} p_ξ (x)dx〗. Характеристическая функция φ_ξ (ϑ) вполне определяется функцией распределения F_ξ (x) случайной величины ξ.
Основные свойства характеристических функций:
– |φ_ξ (ϑ)|≤1 при каждом действительном ϑ, от φ_ξ (ϑ=0)=1;
– если η=aξ+b, где a,b-const, то φ_η (ϑ)=exp{iϑb} φ_η (aϑ), что следует из равенства φ_η (ϑ)=M exp{iϑη}=M exp{iϑ(aξ+b)}=exp{iϑb} M exp{iϑaξ}=exp{iϑb} φ_ξ (aϑ);
– если случайные величины ξ_1,ξ_2,...,ξ_n независимы, то характеристическая функция суммы n случайных величин S_n=ξ_1+ξ_2+...+ξ_n будет равна φ_(S_n ) (ϑ)=φ_(ξ_/+ξ_2+...+ξ_n ) (ϑ)=∏_(k=1)^n▒〖φ_(ξ_k ) (ϑ)〗.
Из независимости ξ_1,ξ_2,...,ξ_n следует независимость exp{iϑξ_1 }, exp{iϑξ_2 }, …, exp{iϑξ_n }. Используя свойство мультипликативности математического ожидания, получаем:
φ_(S_n ) (ϑ)=φ_(ξ_/+ξ_2+...+ξ_n ) (ϑ)=M exp{iϑ∑_(k=1)^n▒ξ_k }=M∏_(k=1)^n▒〖exp{iϑξ_k }=〗 ∏_(k=1)^n▒〖M exp{iϑξ_k } 〗.
Введем обозначения:
– φ_ξ (-ϑ)=¯(φ_ξ )(ϑ);
– m_n=Mξ^n, причем для конечных величин существуют все производные (∂^k φ(ϑ))/(∂ϑ^k ) для всех k≤n.
Имеет место следующее разложение характеристической функции φ(ϑ)=∑_(k=1)^n▒〖((iϑ)^k)/k! m_k 〗+ο(ϑ^n): если F_ξ (s)=Ms^ξ – производящая функция целочисленной случайной величины, то φ_ξ (ϑ)=F_ξ (exp{iϑ}).
Характеристические функции конкретных распределений. Биномиальное распределение. Для распределения вероятностей P{ξ=k}=C_n^k p^k (1-p)^(n-k), где k=0,1,2,...,n, характеристическая функция имеет вид φ_ξ (ϑ)=(exp{iϑ} p+1-p)^n. Для распределения вероятностей P{ξ=k}=λ^k/k! exp{-λ}, k=0,1,2,…, характеристическая функция следующая: φ_ξ (ϑ)=exp{λ(exp{iϑ}-1)}.
Нормальный закон распределения. Для случайной величины ξ с нормальным законом распределения N(0,1) характеристическая функция имеет вид: φ_ξ (ϑ)=1/√2π ∫_(-∞)^(+∞∫{iϑx-x^2/2})▒exp.
Продифференцируем это равенство по ϑ: (∂φ_ξ (ϑ))/∂ϑ=i/√2π ∫_(-∞)^(+∞∫{iϑx-x^2/2})▒xexp.
Интегрируя это выражение по частям, приходим к дифференциальному уравнению (∂φ_ξ (ϑ))/∂ϑ=i/√2π [-exp{iϑx-x^2/2} ├|■(+∞@@-∞)+iϑ┤ ∫_(-∞)^(+∞∫{iϑx-x^2/2})▒exp[]]. Решая это уравнение с начальным условием φ_ξ (ϑ=0)=1, получаем φ_ξ (ϑ)=exp{-ϑ^2/2}.
В общем случае для нормального распределения N(m,σ^2), согласно свойству смещения и преобразования стандартного гауссова распределения, имеем связь φ_ξ (ϑ)=exp{iϑm-σ^2 ϑ^2/2}.
Показательное распределение. Плотность распределения p(x)=μ exp{-μx}. Функция распределения F(x)=1-exp{-μx}, . Характеристическая функция φ_ξ (ϑ)=1/(1-iϑ).
Сумма непрерывных случайных величин. Свертка n показательных распределений будет иметь определенную характеристическую функцию. Если случайные величины ξ_1,ξ_2,...,ξ_n независимы, то характеристическая функция суммы n случайных величин S_n=ξ_1+ξ_2+...+ξ_n будет равна произведению отдельных характеристических функций: φ_(S_n ) (ϑ)=φ_(ξ_/+ξ_2+...+ξ_n ) (ϑ)=∏_(k=1)^n▒〖φ_(ξ_k ) (ϑ)〗. При необходимости эту сумму можно представить сверткой.
Для независимых случайных величин ξ при и p=const характеристическая функция имеет вид: φ_ξ (ϑ)=1/((1-iϑ)^n ).
Широко известно вероятностное распределение Муавра-Лапласа, для которого вероятность того, что значения случайной величины S=lim┬(n→∞) S_n=lim┬(n→∞) ∑_(k=1)^n▒ξ_k находятся на отрезке , равна P(a≤(S-np)/√(np(1-p))≤b)→1/√2π ∫_a^b▒exp{-x^2/2} dx.
В случае нормального закона распределения большая часть событий группируется симметрично вокруг среднего значения, а распределения, которые изучает теоретическая информатика, имеют ярко выраженную асимметрию.
Дискретная геометрически распределенная случайная величина. Рассматриваются испытания Бернулли до первой «неудачи», когда последовательность исходов испытаний заканчивается «успехами» с вероятностью P{ξ=1}=p на каждом испытании, а n-ое испытание заканчивается «неудачей» с вероятностью P{ξ=0}=q=1-p. Для случайной величины получаем ряд распределения .
Вероятность того, что сразу будет «неудача», на первом же испытании, равна , вероятность того, будет одна «удача», затем «неудача» – , вероятность того, будет две подряд «удачи», затем «неудача» – и так далее.
Условие нормировки можно записать в виде ∑_(i=0)^∞▒P{ξ=n} =∑_(i=0)^∞▒〖p^(n-1) q=q〗 ∑_(i=0)^∞▒〖p^(n-1)=1〗 при .
Случайная величина геометрического распределения имеет математическое ожидание M(ξ)=1/(1-p) и дисперсию D(ξ)=1/((1-p)^2 ).
Преобразование Фурье
Для операций с распределением Гаусса используется аналитический аппарат преобразования Фурье φ(ϑ)=∫▒〖exp{iϑx} p(x)dx〗.
Вычислим преобразование Фурье нормального закона.
φ(ϑ)=1/(σ√2π) ∫_(-∞)^(+∞)▒〖exp{iϑx-((x-m)^2)/(2σ^2 )} dx〗=
=1/(σ√2π) ∫_(-∞)^(+∞)▒〖exp{iϑx-((x-m)^2)/(2σ^2 )} dx〗=1/(σ√2π) exp{miϑ+σ^2 ϑ^2/2} ∫_(-∞)^(+∞)▒〖exp{-u^2/2} du〗=
=exp{imϑ-σ^2 ϑ^2/2} 1/(σ√2π) ∫_(-∞)^(+∞)▒〖exp{-u^2/2} du〗=exp{imϑ-σ^2 ϑ^2/2}
Семейство нормальных распределений N(m,σ^2) обладает устойчивостью относительно операции свертки N(m_1,σ_1^2)∙N(m_2,σ_2^2)=N(m_1+m_2,σ_1^2+σ_2^2). Свертка гауссовских распределений является также гауссовским распределением.
Найдем оценку вероятности больших значений стандартной гауссовской случайной величины P{X>x)}=1-Φ(x)=1/√2π ∫_x^(+∞)▒exp{-u^2/2} du. Сделаем замену переменных и получим выражение , где – плотность стандартного распределения Гаусса , .
Учитывая неравенство , находим, что , следовательно:
1/√2π(x^(-1)-x^(-3))exp{-x^2/2}≤1-Φ(x)≤1/√2π(x^(-1))exp{-x^2/2}.
Таким образом, вероятность убывает при несколько быстрее, чем плотность распределения случайной величины , подчиняющейся нормальному закону распределения: P{X≥x)}=1-Φ(x)≈1/√2π x^(-1) exp{-x^2/2}~1/x exp{-x^2/2}. Но, поскольку убывание 1/x идет с гораздо меньшей скоростью, чем exp{-x^2/2}, эта оценка носит, главным образом, теоретический характер.
Математическая модель накопления повреждений на основе случайного процесса Пуассона
Случайный процесс Пуассона с непрерывным временем возникает из схемы суммирования Бернулли, где каждое испытание происходит через фиксированный интервал времени , а сами интервалы времени пронумерованы натуральным рядом
Дискретная случайная величина ξ={q,p} через интервал Δt принимает одно за двух значений:
– событие произошло: ξ=1 с вероятностью P(ξ=1)=p;
– событие не произошло: ξ=0 с вероятностью P(ξ=0)=q.
Вероятности должны удовлетворять классическим условиям: P(ξ=0)+P(ξ=1)=q+p=1 и .
Определим новую случайную величину S_n=∑_(i=1)^n▒ξ_i , равную сумме независимых случайных величин ξ, следующим образом: S_n=⏟(ξ+ξ+ξ+....+ξ)┬n. Ее производящая функция, в силу независимости испытаний, равна произведению производящих функций одного испытания Бернулли:
F_n (s)=⏟(F(s)F(s)....F(s))┬n={F(s)}^n=F^n (s)=(q+ps)^n.
Распределение случайной величины будет иметь следующий вид:
S_n={■(0,P(ξ=0)=(1-p)^n=q^n;@1,P(ξ=1)=p(1-p)^(n-1)=pq^(n-1);@i,P(ξ=i)=C_n^i p^i (1-p)^(n-i)=C_n^i p^i q^(n-i);@n,P(ξ=n)=p^n.)┤
Случайная величина носит название биномиального распределения. Можно показать, что ∑_(i=0)^n▒〖P(ξ〗=i)=1, на основании формулы бинома Ньютона, равна комбинаторному выражению ∑_(i=0)^n▒〖P(ξ〗=i)=∑_(i=0)^n▒〖C_n^i p^i (1-p)^(n-i)=(〗 p+(1-p))^n=1. Математическое ожидание этой случайной величины имеет вид M(S_n)=∑_(i=0)^n▒〖iP{ξ=i}=〗 ∑_(i=0)^n▒〖iC_n^i p^i (1-p)^(n-i)=〗 np, а дисперсия выражается формулой: D(S_n)=∑_(i=0)^n▒〖P{ξ=i}(i-M{S_n } )^2=〗 ∑_(i=0)^n▒〖(i-np)^2 C_n^i p^i (1-p)^(n-i)=〗 np(1-p).
Математическое ожидание случайной величины в испытаниях:
,
а дисперсия:
,
,
,
.
Нахождение вероятностей распределения суммы случайных величин ξ не вызывает трудностей и производится по формуле:
, .
Математическое ожидание .
Дисперсия .
Производящая функция биномиального распределения, являющегося результатом n испытаний Бернулли, равна:
,
с математическим ожиданием:
,
и дисперсией:
.
Переход к непрерывному времени в случайном процессе Пуассона
Случайные процессы с дискретным временем позволяют анализировать появление событий, которые происходят в некоторые фиксированные моменты времени единичной длины {0,Δt,2Δt,...,nΔt,...}, где Δt=1. Переход от дискретного к непрерывному времени осуществляется уменьшением интервала времени между дискретными шагами Δt→0.
Дискретная временная целочисленная шкала n∈{0,1,2,...} естественным образом переносится на шкалу t∈{0,Δt,2Δt,3Δt,...,nΔt,...} с произвольным Δt и затем – на непрерывную шкалу при Δt→0.
Суммирование n случайных величин ξ можно осуществить через рекуррентную формулу на дискретной временной шкале Δt: .
Поведение производящей функции F(s,Δt) при Δt→0 предполагает зависимость q(Δt) и p(Δt) от временного шага Δt:
F(s,Δt)=q(Δt)+p(Δt)s=1-p(Δt)+p(Δt)s,
q(Δt)+p(Δt)+ο(Δt)=1-p(Δt)+p(Δt)+ο(Δt)=1.
За нулевой интервал времени новое событие произойти не может, поэтому lim┬(Δt→0) F(s,Δt)=1. Это автоматически означает lim┬(Δt→0) P{ξ(Δt)=0}=1, т.е. вероятность того, что событие не произошло за Δt=0, равна единице.
Вероятность появления нового события на интервале Δt≠0 выражается через вероятность p(Δt), которая является линейной функцией от Δt в силу свойств дифференциала на бесконечно малом интервале . В этом случае можно написать: p(Δt)=λΔt+ο(Δt) или (dp(Δt))/dΔt=λ+ο(Δt), при этом p(Δt)→λΔt, а q(Δt)→1-λΔt, так как сумма вероятностей полной группы событий всегда равна единице: q(Δt)+p(Δt)=1. В итоге получаем разностное уравнение для случайного процесса Пуассона с непрерывным временем:
F(s,t+Δt)=F(s,t)(1-λΔt+λΔts+ο(Δt)) или, после преобразований,
F(s,t+Δt)-F(s,t)=F(s,t)(-λΔt+λΔts+ο(Δt)).
Представим это разностное уравнение в виде дифференциального уравнения при Δt→0, разделив на Δt обе части уравнения и устремив временной интервал к нулю (Δt→0):
(F(s,t+Δt)-F(s,t))/Δt=F(s,t)(-λ+λs)+ο(Δt).
Это приводит к дифференциальному уравнению (dF(s,t))/dt=λ(s-1)F(s,t).
Решением этого дифференциального уравнения для производящей функции при начальном условии , когда в начальный момент времени случайная величина ξ(t=0)=0, является следующее выражение: F(s,t)=exp{λt(s-1)}.
Распределение вероятностей случайной величины ξ(t) имеет вид:
P(i,t)=1/i! (∂F(s,t))/∂s |■(@s=1)=((λt)^i)/i! exp{-λt} ┤, i=0,1,2,3,…
Условие нормировки ∑_(i=0)^∞▒〖P(i,t)=1〗 для распределения вероятностей ξ(t) принимает следующий вид:
∑_(i=0)^∞▒〖P(i,t)〗=∑_(i=0)^∞▒〖((λt)^i)/i! exp{-λt} 〗=exp{-λt} ∑_(i=0)^∞▒〖((λt)^i)/i!=〗 exp{λt} exp{-λt}=1.
Математическое ожидание числа событий случайной величины ξ(t) выражается зависимостью:
M{ξ(t)}=(∂F(s,t))/∂s |■(@s=1)┤=∂/∂s (exp{λt(s-1)} )|■(@s=1)┤=λt exp{λt(s-1)} |■(@s=1)┤=λt.
Дисперсия случайной величины ξ(t):
D{ξ(t)}=(∂^2 F(s,t))/(∂s^2 ) |■(@s=1)┤+(∂F(s,t))/∂s |■(@s=1)┤-((∂F(s,t))/∂s)^2 |■(@s=1)┤,
(∂F(s,t))/∂s |■(@s=1)┤=λt, ((∂F(s,t))/∂s)^2 |■(@s=1)┤=(λt)^2,
(∂F^2 (s,t))/(∂s^2 ) |■(@s=1)┤=∂^2/(∂s^2 ) {exp{λt(s-1)} }|■(@s=1)┤=(λi)^2 exp{λt(s-1)} |■(@s=1)┤=(λt)^2,
D(ξ(t))=(∂^2 F(s))/(∂s^2 ) |■(@s=1)┤+(∂F(s))/∂s |■(@s=1)┤-{(∂F(s))/∂s}^2 |■(@s=1)┤=(λt)^2+λt-(λt)^2=λt.
Если в момент времени происходит первое событие, начальное условие приобретает вид P(i=1,t=0)=1, а производящая функция F(s,t=0)=s.
Решение дифференциального уравнения для производящей функции (∂F(s,t))/∂t=λ(s--1)F(s,t) с новым начальным условием равно F(s,t)=s exp{λt(s-1)}, что дает следующее распределение вероятностей случайной величины ξ(t):
P(i,t)=1/i! (∂F^i (s,t))/(∂s^i ) |■(@s=0)=((λt)^(i-1))/((i-1)!)┤ exp{-λt}, i=1,2,3,… – условие нормировки.
∑_(i=1)^∞▒〖P(i,t)〗=∑_(i=1)^∞▒〖((λt)^(i-1))/((i-1)!) exp{-λt} 〗=exp{-λt} ∑_(i=0)^∞▒〖((λt)^i)/i!=〗 exp{λt} exp{-λt}=1.
Математическое ожидание случайной величины ξ(t) равно значению:
M{ξ(t)}=(∂F(s,t))/∂s |■(@s=1)┤=(exp{λt(s-1)} )+sλt(exp{λt(s-1)} )|■(@s=1)┤=1+λt,
а ее дисперсия:
D{ξ(t)}=(∂^2 F(s,t))/(∂s^2 ) |■(@s=1)┤+(∂F(s,t))/∂s |■(@s=1)┤-((∂F(s,t))/∂s)^2 |■(@s=1)┤,
(∂F(s,t))/∂s |■(@s=1)┤=1+λt, ((∂F(s,t))/∂s)^2 |■(@s=1)┤=(λt+1)^2,
(∂F^2 (s,t))/(∂s^2 ) |■(@s=1)┤=∂^2/(∂s^2 ) {s exp{λt(s-1)} }|■(@s=1)┤=∂/∂s {exp{λt(s-1)}+sλt exp{λt(s-- 1)} }|■(@s=1)┤={λt exp{λt(s-1)}+λt exp{λt(s-1)}+s(λt)^2 exp{λt(s-1)} }|■(@s=1)┤=2λt+(λt)^2. D(ξ(t))=(∂^2 F(s,t))/(∂s^2 ) |■(@s=1)┤+∂F(s,t)/∂s |■(@s=1)┤-{∂F(s,t)/∂s}^2 |■(@s=1)┤=2λt+(λt)^2+λt+1-(λt+1)^2=λt.
Связь между случайным процессом Пуассона и процессом восстановления
Для случайного процесса Пуассона имеет место его представление в виде временной последовательности событий t_1,t_2,...,t_i,…, причем первое событие происходит в начальный момент времени t_1=0 {t:i=¯(1:∞),t∈[0,∞),t_i<t_(i+1) }. Для такого процесса представляет интерес изучение функции числа событий N(t) за время t, N(t)=max{i:N(t=0)=1,i=¯(1:∞),t_i<t,t∈[0,∞)}. Длительности интервалов времени между последовательными событиями τ_i=t_i-t_(i-1), являются случайными величинами с показательным законом распределения.
Рассмотрим поведение длительностей интервалов до i-го события: t_i=τ_1+τ_2+τ_3+...+τ_i для независимых случайных величин, имеющих длительности интервалов {τ_i:i=¯(1:∞)}. Число событий N(t) за фиксированный интервал время t называют числом восстановлений. Эта величина является основной характеристикой случайных процессов.
Наибольший интерес представляет случай, когда моменты времени {τ_i:i=¯(1:∞)} являются независимыми одинаково распределенными случайными величинами с показательной функцией распределения G(t)=1-exp{-λt}. Этот процесс называют простым процессом восстановления или пуассоновским процессом восстановления с интенсивностью . В этом случае среднее время между последовательными событиями равно ¯T=∫_0^∞▒〖τG(τ)〗=1/λ.
Распределение длительности интервала времени до i-го события с момента t = 0, когда произошло первое событие, можно рассматривать как свертку распределений длительностей интервалов последовательных событий:
G(i,t)=G(τ_1+τ_2+...τ_i≤t)=G_1 (τ_1≤t)*G_2 (τ_2≤t)*G_3 (τ_3≤t)*....*G_i (τ_i≤t),
где – операция свертки, а вычисления производятся по рекуррентной формуле:
G(i=2,t)=∫_0^t▒〖G_2 (t-τ)dG_1 (τ)〗, G(i=3,t)=∫_0^t▒〖G_3 (t-τ)dG(i=2,τ)〗,
G(i,t)=∫_0^t▒〖G_i (t-τ)dG(i-1,τ)〗, i=2,3,4,… .
Для первого события в момент времени t=0 значение G(i=1,t=0)=1, для второго события G(i=2,t)=1-exp{-λt)}.
В случае процесса Пуассона функция распределения длительностей всех интервалов выражается зависимостью G_i (τ_i≤t)=G(i,t)=G(t)=1-exp{-λt}, тогда можно написать:
G(i,t)=G(τ_1+τ_2+...τ_i≤t.)=⏟(G(τ_1≤t)*G(τ_2≤t)*....*G_i (τ_i≤t))┬(i-раз)
Функция распределения длительности суммы из i последовательных интервалов будет равна G(i-1,t)=1-∑_(ik=0)^(i-1)▒e^(-λt) ((λt)^k)/k!.
В случае, когда первое событие произошло в момент t=0, распределение длительности интервала до i-го события выражается формулой:
G(i,t)=1-∑_(k=1)^(i-1)▒((λt)^(k-1))/((k-1)!) e^(-λt).
Вероятность P(i,t)=G(i,t)-G(i+1,t).
Функция восстановления или среднее число событий линейно растет во времени:
M(t)=∑_(i=1)^∞▒〖G(i,t)=λt+1〗.
Переход от случайного процесса Пуассона к случайному процесса Гаусса
Производящая функция дискретного целочисленного случайного процесса Пуассона имеет вид F(s,t)=exp{λt(s-1)} в случае, если процесс начинается с нулевого события F(s,t=0)=s^0=1, и F(s,t)=s^n xp{λt(s-1)} в случае, если процесс начинается с n-го события, т.е. F(s,t=0)=s^n.
В первом случае распределение вероятностей равно P(i,t)=((λt)^i)/i! exp{-λt}, где i=0,1,2,… , а во втором P(i,t)=((λt)^(i-n))/((i-n)!) exp{-λt}, где i=n,n+1,n+2,… .
С помощью производной (dF(s,t))/dt=λ(s-1)F(s,t) перейдем к дифференциальному уравнению для характеристической функции:
(dφ(ϑ,t))/dt=λ(exp{iϑ}-1)φ(ϑ,t).
Разложим экспоненту в ряд:
exp(iϑ)=1+iϑ+((iϑ)^2)/2!+ο(ϑ)=1+iϑ-ϑ^2/2+ο(ϑ),
exp(iϑ)-1=iϑ+((iϑ)^2)/2!+ο(ϑ)=iϑ-ϑ^2/2+ο(ϑ),
(dφ(ϑ,t))/dt=λ(iϑ-ϑ^2/2)φ(ϑ,t) при ϑ→0,
(dφ(ϑ,t))/(φ(ϑ,t))=λ(iϑ-ϑ^2/2)dt.
Решением обыкновенного дифференциального уравнения при начальном условии будет следующее выражение: φ(ϑ,t=0)=exp{iϑ},
φ(ϑ,t)=exp{λt(iϑ-ϑ^2/2)}=exp{iϑλt-λt ϑ^2/2},
которое при обращении дает плотность вероятности:
p(x,t)=1/√2πλt exp{-((x-λt)^2)/2λt},
где .
Рассмотрим переход к диффузионному представлению процесса [6] при λt>>1, когда среднее число событий существенно больше единицы. Замена s→exp{iϑ} приводит к выражению для характеристической функции φ(ϑ,t)=exp{λt(exp(iϑ)-1)}.
Разложим экспоненту характеристической функции по степеням ϑ в ряд Маклорена при ϑ→0: exp(iϑ)=1+iϑ+((iϑ)^2)/2!+ο(ϑ)=1+iϑ-ϑ^2/2+ο(ϑ). Подставим это разложение характеристической функции в выражение для случайного процесса Пуассона:
φ(ϑ,t)=exp{λt(iϑ-ϑ^2/2+ο(ϑ)}=exp{λtiϑ-λt ϑ^2/2+ο(ϑ^2)}.
Выражение для характеристической функции φ(ϑ,t) при ϑ→0 приобретает вид:
φ(ϑ,t)=exp{iλtϑ-λt ϑ^2/2}.
Таким образом, получена характеристическая функция нормального распределения Гаусса с математическим ожиданием m=λt и дисперсией σ^2=λt:
φ(ϑ,t)=exp{imϑ-σ^2 ϑ^2/2}.
Обращение характеристической функции дает выражение для плотности распределения вероятностей случайной величины ξ(t):
p(x,t)=1/√2πλt exp{-((x-λt)^2)/2λt},
где x∈(-∞,+∞).
Полученное выражение позволяет определить среднее значение и стандартное отклонение для функции распределения длительности временных интервалов:
p(t)=1/(σ√2π) exp{-((λt-m)^2)/(2σ^2 )},
где t∈(0,+∞),
G(t)=1/(σ√2π) ∫_0^t▒〖exp{-((λt-m)^2)/(2σ^2 )} dt〗.
Отсюда сразу можно сделать вывод о точности приближения случайного процесса Пуассона. Полученное распределение Гаусса симметрично относительно математического ожидания. Это обусловлено тем, что мы пренебрегли членами разложения характеристической функции со степенями больше второй, причем полученное распределение распространяется и на область отрицательных значений случайной величины.
Полученную точность приближения можно оценить таким образом, чтобы отрицательные значения, составляющие около 0,2 % от общего числа значений случайной величины ξ(t), выходили за границы 3σ.
Из условия граничного отношения Ρ(|m-x|>3σ)=0,002 или для случайного процесса Пуассона |m-3σ|>0, m/σ=λt/√λt=√λt=3, λt=9≈10 видно, что в этом случае значение параметра превышает λt > 10.
Математическая модель накопления разрушений на основе случайного процесса чистого размножения Юла
Схема суммирования для случайного процесса чистого размножения Юла с дискретным временем
Для процесса чистого размножения Юла с дискретным временем используется итерационная схема суммирования случайного числа одинаково распределенных целочисленных дискретных случайных величин, имеющих одинаковые неслучайные характеристики. Теория случайных ветвящихся процессов [7] с дискретным временем, основанная на итерационных схемах суммирования случайного числа неотрицательных целочисленных случайных величин, имеет простую наглядную интерпретацию. Исторически в этой схеме рассматриваются однотипные частицы, которые могут в следующем поколении превращаться в случайное число частиц (размножаться).
Первой работой, посвященной данному процессу, была работа английского математика и социолога Ф. Гальтона [8], в которой такой процесс был использован для оценки вырождения (исчезновения) известных фамилий, в дальнейшем названный ветвящимся процессом Гальтона-Ватсона с дискретным временем [9]. В начальный момент времени имеется одна частица (индивид, микроорганизм), производящая случайное число частиц (потомков) в соответствии со случайной величиной ξ, каждая из которых производит в следующем поколении (итерации) также случайное число частиц в соответствии с той же случайной величиной ξ. Этот процесс порождает структуру, сходную с «деревом» (рис. 3), где числа показывают номер итерации (порядковый номер поколения, дискретное время). На каждом этапе одна частица может превратиться в две новые или исчезнуть совсем.
Рис. 3. Структура, порождаемая случайным процессом чистого размножения Юла
Fig. 3. Structure generated by the random process of pure Yule reproduction
Каждый узел возникающего случайного дерева имеет путь, соединяющий его с прародителем (корнем дерева). Каждый узел порождает поддерево, растущее от него, при этом некоторые узлы продолжения не имеют, так как число потомков у них может быть равно нулю.
Основное предположение состоит в максимальной независимости и однородности отдельных процессов: число потомков, произведенных одной частицей, не зависит от числа потомков, произведенных другими частицами.
Случайные величины ξ, определяющие ветвящийся процесс, считаются независимыми и одинаково распределенными, и распределение их потомков в следующих поколениях определяет ветвящийся процесс.
Рассмотрим, как принято в теории случайных ветвящихся процессов, частицы, которые могут либо исчезать, или производить в следующем поколении (итерации) конечное, но целое, число частиц. Пусть – вероятность того, что частица в следующем поколении (итерации) останется без изменения, – вероятность того, что частица в следующем поколении (итерации) превратится в две частицы, а сама исчезнет.
Процесс начинается с одной частицы, производящая функция которой равна Φ_0 (s)=s^1. В первом поколении (итерации) производящая функция частиц Φ_1 (s)=F(s), и это означает, что вместо одной частицы с производящей функцией s^1, появятся новые частицы с производящей функцией F(s). Во втором поколении Φ_2 (s)=Φ_1 (F(s)). В n-ом поколении (итерации) производящая функция будет равна Φ_n (s)=Φ_(n-1) (F(s)). Использование такой схемы суммирования автоматически показывает, что разные частицы в одном поколении превращаются в другие частицы независимо друг от друга.
Дальнейшее развитие этой схемы суммирования случайных величин связано с последовательным суммированием случайных сумм S_(n-1), полученных на предыдущем n-1 этапе, число которых также является случайной величиной ξ. Эта операция выполняется последовательно n раз.
На нулевом этапе суммой является единица с производящей функцией s, на первом этапе (итерации) суммой является сама случайная величина ξ, S_1=ξ, ξ={0,p_1,p_2 } с производящей функцией F(s)=p_1 s+ps^2. На втором этапе (итерации) вычисляется сумма одинаково распределенных и независимых случайных величин ξ, при этом число слагаемых в сумме подчиняется той же самой случайной величине ξ.
Сумма случайных величин S_2=⏟(ξ+ξ+...+ξ)┬(ξ-раз) имеет производящую функцию F_2 (s)=p_0+p_1 F(s)+p_2 F^2 (s)=F(F(s)) и распределение вероятностей .
Математическое ожидание S_2 равно выражению:
M(S_2)=(∂Φ_2 (s))/∂s |■(@s=1)┤=(∂F(F(s)))/(∂F(s)) (∂F(s))/∂s |■(@s=1)┤=M^2 {ξ}=m^2,
а ее дисперсия:
D(S_2)=(∂^2 Φ_2 (s))/(∂s^2 ) |■(@s=1)┤+(∂F_2 (s))/∂s |■(@s=1)┤-{(∂F_2 (s))/∂s}^2 |■(@s=1)┤=σ^2 m+σ^2 m^2.
На третьем этапе (итерации) рассматривают случайную сумму случайных величин ξ, когда число слагаемых равно сумме случайных величин предыдущего этапа S_3=⏟(ξ+ξ+...+ξ)┬(S_2 ). В этом случае число слагаемых определяется случайной величиной S_2.
Производящая функция суммы случайного числа величин S_3 равна:
F_3 (s)=p_1^((2)) F(s)+p_2^((2)) F^2 (s)=F(F(F(s))).
По методу полной математической индукции можно написать выражение для производящей функции для n-го этапа суммирования S_n=⏟(ξ+ξ+...+ξ)┬(S_(n-1) ), где число слагаемых случайных величин ξ определяется случайной величиной S_(n-1):
F_n (s)=M{s^(ξ+ξ+...+ξ) }=p_1^((n-1)) F(s)+p_2^((n-1)) F^2 (s)+p_3^((n-1)) F^3 (s)+...=⏟(F(..(F(s))...))┬(n-раз),
где .
В итоге получаем выражение для производящей функции такой схемы суммирования.
Аналогичный результат можно получить, рассматривая несколько измененную схему суммирования. На втором этапе сумма случайных величин S_2=⏟(ξ+ξ+...+ξ)┬ξ имеет ту же производящую функцию:
F_2 (s)=M{s^(ξ+ξ+...+ξ) }=p_1 F(s)+p_2 F^2 (s)+p_3 F^3 (s)+⋯ =∑_(i=1)^∞▒p_i F^i (s)=F(F(s)).
На третьем этапе сумма выражается суммированием сумм S_2: S_3=⏟(S_2+S_2+...+S_2 )┬(ξ-раз), когда число слагаемых равно ξ. Тогда производящая функция принимает вид:
F_3 (s)=p_1 F_2 (s)+p_2 F_2^2 (s)+p_3 F_2^3 (s)+...+p_i F_2^i (s)+...=⏟(F(F(F(s))))┬(3-раза).
Последовательно можно получить выражение для производящей функции для n-го этапа (итерации) F_n (s)=F_(n-1) (F(s))=F(F_(n-1) (s)).
В общем виде производящая функция записывается как:
F_n (s)=⏟(F(F(...F(s)...))┬(n-раз)=⏟(F∘...∘F(s))┬(n-раз),
где ⏟(F∘...∘F(s))┬(n-раз) означает n-ую итерацию отображения s→F(s), в частности отсюда получается выражение F_n (s)=F(F_(n-1) (s)).
Переход к непрерывному времени
Итерационная схема суммирования случайных величин ξ с дискретным временем для случая, когда одна частица на каждом этапе либо не изменяется (исчезает и возникает вновь на следующей итерации), либо превращается в две (сама исчезает, а на следующей итерации возникают две новых) с производящей функцией на каждом этапе F(s)=p_1 s+p_2 s^2 и случайной величиной ξ={0,p_1,p_2,0,...,0,....} (p_1+p_2=1).
Переход к непрерывному времени от дискретной временной шкалы с шагом, равным единице t={0,1,2,3,…,n,…}, к непрерывной t∈[0,∞) производит шкалу t={0,Δt,2Δt,3Δt,…,nΔt,…} при Δt→0.
Производящая функция F_n (s) для n-й итерации будет иметь вид F_n (s)=F_(n-1) (F(s)).
Заменим обозначения для дискретного времени: F_n (s)=F(F_(n-1) (s))=F_(n-1) (F(s)) на F(s,n)=F(F(s,n-1))=F(F(s),n-1), аналогично F(s,n+1)=F(F(s,n)) и F(s,n+1)=F(F(s),n)) для n+1-й итерации.
Осуществим переход к непрерывному времени, сделав замену n→t и n+1→t+Δt в предположении, что Δt=1. Тогда уравнения могут быть записаны в виде F(s,t+Δt)=F(F(s,t),Δt) или F(s,t+Δt)=F(F(s,Δt),t).
При переходе к непрерывному времени интервал Δt между последовательными итерациями процесса станет неопределенным, поэтому производящая функция для одной итерации F(s,Δt) будет также функцией от Δt.
Рассмотрим поведение F(s,Δt) при Δt→0. Очевидно, что ветвление (превращения частиц) не должно происходить при Δt=0, поэтому совершенно ясно, что lim┬(Δt→0) F(s,Δt)=s, P{ξ(t=0)=1}=1. За промежуток времени Δt=0 превращения отдельной частицы в другие происходить не будет.
Вероятности превращений одной частицы должны зависеть от Δt, поэтому можно написать F(s,Δt)=p_1 (Δt)s+p_2 (Δt)s^2.
Учитывая, что ветвления случайной функции ξ(t) не будет происходить при Δt=0, так как lim┬(Δt→0) F(s,Δt)=s, можно написать новое представление для производящей функции: F(s,Δt)=s+(p_1 (Δt)-1)s+p_2 (Δt)s^2. При этом предполагается выполнение, как всегда, условия нормировки p_1 (Δt)+p_2 (Δt)=1 для всех Δt≠0.
В итоге, уравнение ветвления примет следующий вид:
F(s,Δt)=s-p_2 (Δt)s+p_2 (Δt)s^2.
Введем плотность (dp_2 (Δt))/dt=λ вероятности превращения частицы в две как зависящую от времени p_2 (Δt)=(dp_2 (Δt))/dt Δt+ο(Δt)=λΔt+ο(Δt). Тогда уравнение для производящей функции случайной величины ξ(t) на интервале Δt примет вид F(s,Δt)=s-λΔts+λΔts^2+ο(Δt).
Возможны два пути перехода инерционных уравнений к непрерывному времени.
Путь первый. Итерационное уравнение ветвящегося процесса в случае непрерывного времени при подстановке F(s,Δt)=s-λΔts+λΔts^2+ο(Δt) в уравнение F(s,t+Δt)=F(F(s,Δt),t) примет вид:
F(s,t+Δt)=F(s-λΔts+λΔts^2+ο(Δt)),t).
Сделаем предельный переход при Δt→0, разложив в ряд Тейлора [10] правую часть уравнения по степеням s:
F(s,t+Δt)=F(s,t)+(∂F(s,t))/∂s(-λs+λs^2)Δt+ο(Δt).
Тогда можно написать разностное уравнение:
(F(s,t+Δt)=F(s,t))/Δt=(∂F(s,t))/∂s(-λs+λs^2)Δt+ο(Δt),
а затем дифференциальное уравнение при Δt→0: (∂F(s,t))/∂t=λ(s^2-s)(∂F(s,t))/∂s с начальным условием F(s,t=0)=s, чтобы в момент времени t=0 была бы только одна частица.
Решение этого уравнения проводится стандартными методами решения дифференциальных уравнений в частных производных.
Первые интегралы ds/(λs(s-1))=-dt преобразуются к виду (1/(s-1)-1/s)ds=-λdt, и после интегрирования получаем ln〖(s-1)/s〗=-λt+lnC и (s-1)/s=C exp{-λt}.
Общим решением этого уравнения в частных производных будет произвольная дифференцируемая функция f(⋅)вида F(s,t)=f((s-1)/s exp{λt} ).
Частное решение уравнения с начальным условием F(s,t=0)=s можно получить, написав выражение при t=0: F(s,t=0)=f((s-1)/s)=s.
Введя новую переменную x=(s-1)/s, получаем f(x)=1/(1-x).
Производящая функция в произвольный момент времени t в итоге будет иметь следующий вид:
F(s,t)=f(x)=1/(1-x)=1/(1-((s-1)/s exp{λt} ) )=
=s/(s-s exp{λt}+exp{λt} )=(s exp{-λt})/(1-s(1-exp{-λt})).
Разложим в ряд производящую функцию F(s,t) по степеням s, что позволит написать выражения для вероятностей случайной величины ξ(t):
F(s,t)=∑_(i=1)^∞▒〖(1/i! (∂F(s,t))/∂s ├|■(@s=1)┤) s^i=〗 ∑_(i=1)^∞▒〖(exp{-λt} (1-exp{-λt} )^(i-1) ) s^i 〗, F(s,t)=∑_(i=1)^∞▒〖P(i,t)s^i 〗 и P(i,t)=exp{-λt} (1-exp{-λt} )^(i-1), i=1,2,3,… .
Введя новую переменную q(t)=exp{-λt}, 0<q<1, получаем выражение для геометрического распределения вероятностей в произвольный момент времени t:
P(i,t)=q(t)(1-q(t))^(i-1), i=1,2,3,… .
При увеличении t величина q(t) стремится к нулю.
Математическое ожидание числа частиц для случайной величины ξ(t):
M{ξ(t)}=(∂F(s,t))/∂s |■(@s=1)┤=∂/∂s ((s exp{-λt})/(1-s(1-exp{λt})))|■(@s=1)┤=
=∂/∂s ((exp{-λt} (1-s(1-exp{-λt})+s exp{-λt} (1-exp{-λt}))/((1-s(1-exp{-λt} )^2 ))|■(@s=1)┤=
=(exp{-λt} (1-(1-exp{-λt})+exp{-λt} (1-exp{-λt}))/((exp{-λt} )^2 ) = (1-1+exp{-λt}+1-exp{-λt})/exp{-λt} =exp{λt}.
Дисперсия случайной величины ξ(t):
D{ξ(t)}=(∂^2 F(s,t))/(∂s^2 ) |■(@s=1)+┤ (∂F(s,t))/∂s |■(@s=1)-{(∂F(s,t))/∂s}^2 ├|■(@s=1)┤┤ = exp{λt} (exp{λt}-1),
так как (∂F(s,t))/∂s |■(@s=1)┤=exp{λt}, {(∂F(s,t))/∂s}^2 |■(@s=1)┤=exp{2λt}, а вторая производная производящей функции выражается следующим образом:
(∂^2 F(s,t))/(∂s^2 ) |■(@s=1)=┤ ∂/∂s ((exp{-λt} (1-s(1-exp{-λt})+s exp{-λt} (1-exp{-λt}))/((1-s(1-exp{-λt} )^2 ))|■(@s=1)┤ =
=exp{-λt} ∂/∂s (((1-s+s exp{-λt})+s-s exp{-λt}))/((1-s(1-exp{-λt} )^2 ))|■(@s=1)┤ =
=exp{-λt} ∂/∂s (1/((1-s(1-exp{-λt} )^2 ))|■(@s=1)┤ =
=exp{-λt} ((2(1-exp{-λt})/((1-s(1-exp{-λt} )^3 ))|■(@s=1)┤ =
=exp{-λt} (2(1-exp{-λt}))/exp{-3λt} =2 exp{2λt}-2 exp{λt}.
Проведенные преобразования дают возможность заключить, что дисперсия ξ(t) определяется выражением:
D{ξ(t)}=(∂^2 F(s,t))/(∂s^2 ) |■(@s=1)+┤ (∂F(s,t))/∂s |■(@s=1)-{(∂F(s,t))/∂s}^2 ├|■(@s=1)┤┤ =
=2 exp{2λt}-2 exp{λt}+exp{λt}-exp{2λt}=exp{2λt}-exp{λt}=exp{λt} (exp{λt}-1) =exp{λt} (exp{λt}-1).
При увеличении t дисперсия ξ(t) ведет себя как квадрат математического ожидания: D{ξ(t)}=exp( λt){exp( λt)-1}≈exp( 2λt)≈M^2 {ξ(t)}.
В случайном процессе чистого размножения Г. Юла среднее число частиц M{ξ(t)}=exp{λt} экспоненциально растет во времени, что подтверждает связь между случайным процессом Юла и процессом восстановления.
Математическая модель на основе кластерного случайного процесса
Схема суммирования для кластерного случайного процесса показана на рис. 4.
■(τ_1^4&τ_2^4&&&&&↑_ увеличение^ числа^ элементов@↑&↑&↑&↑&↑&&в^ кластерах@τ_1^3&τ_2^3&τ_3^3&τ_4^3&τ_5^3&&@↑&↑&↑&↑&↑&↑&@τ_1^2&τ_2^2&τ_3^2&τ_4^2&τ_5^2&τ_6^3&@↑&↑&↑&↑&↑&↑&@0&〖τ_2^1〗^ •→&〖τ_3^1〗^ •→&〖τ_4^1〗^ •→&〖τ_5^1〗^ •→&〖τ_6^1〗^ •→&〖τ_7^1〗^ •→увеличение^ кластеров)
Рис. 4. Схема суммирования для кластерного случайного процесса
Fig. 4. Summation scheme for a cluster random process
По горизонтальной оси представлен процесс образования кластеров единичного размера, возникающих в результате ударных воздействий на режущий инструмент. По мере возникновения новых кластеров в них происходит развитие древообразных ветвящихся структур. Образование новых кластеров происходит в соответствии с теорией ветвящихся процессов.
Поведение количественно нарастающей древообразной ветвящейся структуры влияет на величину напряжений в металлорежущем инструменте [11], что в конечном итоге и приводит к накоплению именно усталостных напряжений [12].
Заключение
Количество столкновений режущей кромки инструмента с микрочастицами повышенной твердости в обрабатываемом материале приводит к появлению усталостных напряжений. Формирование усталостных напряжений в режущем инструменте, как следствие, вызывает уменьшение периода стойкости металлорежущего инструмента.
Усталостные напряжения в режущем инструменте приводят к возрастанию максимального напряжения вплоть до критического, определяющего разрушение инструмента.
Представленное в работе теоретическое описание моделей точечных случайных процессов, с точки зрения теории вероятностей, дает возможность количественно оценить, в соответствии с представленным математическим аппаратом, возникающую в инструментальном материале усталость и накапливающиеся в процессе работы инструмента усталостные напряжения, приводящие к его разрушению.
1. Каширская Е.Н. Математическое представление разрушения режущего инструмента. М.: ИНФРА-М, 2025. – 120 с.
2. Романовский И.В. Дискретный анализ. – СПб.: Невский Диалект; БХВ-Петербург, 2003. – С. 270-279.
3. Borovikov A.A. Generalized recovery processes. M.: RAS, 2020. – 455 p.
4. Кокс Д., Льюис П. Статистический анализ последовательностей событий. – М.: Мир, 1969. – 310 с.
5. Yule G.U. A mathematical theory of evolutionary based on conclusions of dr. J.C. Willis, F.R.S. // Philos. Trans. Royal. Soc. – 1924. – V. B213. – P. 21-87.
6. Medvedev G.A. Transition probability densities of diffusion processes. // Vestnik Tomskogo gosudarstvennogo universiteta. Series «Management, Computer Engineering and Information Science». – 2009. – № 3 (8). – P. 41-55.
7. Boeinghoff C., Dyakonova E.E., Kersting G., Vatutin V.A. Branching processes in random environment which extinct at a given moment // Markov Processes and Related Fields. – 2010. – V. 16. – N. 2. – P. 329-350.
8. Galton F. Hereditary talent and character // Macmillan's Magazine. – 1865. – N12.
9. Vatutin V.A., Dyakonova E.E., Topchii V.A. Critical Galton-Watson branching processes with a countable set of types and infinite second moments // Sb. Math. – 2021. – № 212. – Т. 1. – pp. 1-24.
10. Севастьянов Б.А. Ветвящиеся процессы. СПб.: Ленанд, 2019. – 440 с.
11. Каширская Е.Н. Влияние усталостных напряжений на стойкость металлорежущего инструмента. // Актуальные проблемы механики сплошной среды: Труды II междунар. конф. (в 2-х томах). Т. 1. – Ереван, 2010. – С. 283-286.
12. Каширская Е.Н., Иванов С.А. Износ металлорежущего инструмента вследствие накопления усталостных напряжений. // Современные проблемы математики, механики, информатики: Междунар. научн. конф. Тезисы докладов. – Тула, 2010.



