Масштабтық инварианттылық: информациялық критерийлер және информацияның қозғалмайтын нүктелері I1=0.567, I2=0.806


Пән: Физика
Жұмыс түрі:  Материал
Тегін:  Антиплагиат
Көлемі: 4 бет
Таңдаулыға:   

Масштабтық инварианттылықтың информациялық критерилері.

Информация ұғымы кибернетика, генетика, әлеуметтануда кең қолданылады. Синергетика мен ашық жүйелер физикасының дамуы әр түрлі ғылымдарда қолдануға информацияның әмбебап анықтамасын қалайды. Анықтаманың өзі информация ұғымына ие: ашық жүйе деп сыртқы ортамен зат, энергия, информация алмасатын жүйені атайды.

Әшейінде, күрделі жүйенің анықтамасы оның қасиеттері арқылы сипатталады. Кейбір x x физикалық өлшемнің статистикалық реализациясының информациясы I ( x ) I(x) оң шама болып табылады және I ( x ) I ( x 0 ) , I(x) \neq I\left( x_{0} \right), тепе-теңсіздігі орындалады, егер x x 0 . {x \neq x}_{0}. Егер P ( x ) P(x) x x шамасының пайда болу ықтималдылығы болса, онда информация сандары үшін:

I ( x ) = ln P ( x ) I(x) = - \ln{P(x) } (2. 26)

осы қасиеттерді сипаттайды. Процестің қайталануы мен тепе-теңсіздігі 0 < P ( x ) < 1 0 < P(x) < 1\ орындалады. Әр түрлі ғылымдардың көзқарастырына сәйкес информацияның көптеген анықтамасы ұсынылады. (2. 26) формула осы барлық анықтамаларға тиесілі.

Кейбір шарттарда y y информациясын шартсыз және шартты энтропияның айырмасы арқылы анықтайды:

I ( x y ) = S ( x ) S ( x y ) I\left( \frac{x}{y} \right) = S(x) - S\left( \frac{x}{y} \right) (2. 27)

бұл формула техникалық есептерде орындалады, мысалы, байланыс каналының өту қабілеттілігін бағалау үшін. Алайда информациялық энтропияның өзі S ( x ) S(x) - Шеннон энтропиясы информацияның орташа шамасы болып келеді:

S ( x ) = i P i ( x ) I i ( x ) = i P i ( x ) ln P i ( x ) S(x) = \sum_{i}^{}{P_{i}(x) I_{i}(x) } = - \sum_{i}^{}{P_{i}(x) \ln{P_{i}(x) }} (2. 28)

мұндағы, i i - x x мәнінің көптіліктің бөлу ұяшығының нөмірі. Сондықтан (2. 26) формуланы біз информацияның негізгі анықтамасы ретінде қабылдаймыз.

Ықтималдылық тығыздығын енгізе отыра, x x үздіксіз айнымалыға өтуде (2. 28) формула бойынша энтропия мәні шексіздікке ұмтылады. Біз масштабтық-инварианттылық заңдылығын іздегендіктен, информациялық түзіліс теориясынан басқа жаңа жол іздеу керекпіз. Анықталатын байланыссыз айнымалыға информацияның өзін алуға болады. Процестің статистикалық сипаттамаларын информация арқылы өрнектеп, өлшеу масштабына байланысты емес информацияның жаңа қасиеттерін табуға болады.

Осыдан соң (2. 26) сәйкес информация реализациясының ықтималдылығын P ( I ) P(I) \ айта беруге болады:

P ( I ) = e I P(I) = e^{- I} (2. 29)

Ықтималдылық тығыздығы үшін f ( I ) f(I) \ формуланы қолданамыз:

0 P ( I ) 1 , 0 I ; 0 f ( I ) d I = 1 , 0 \leq P(I) \leq 1, \ \ 0 \leq I \leq \infty; \ \int_{0}^{\infty}{f(I) dI = 1}, \ \

P ( I ) = I f ( I ) d I , f ( I ) = P ( I ) = e I P(I) = \int_{I}^{\infty}{f(I) dI, }\ \ f(I) = P(I) = e^{- I}\ (2. 30)

Информация реализациясының ықтималдылық функциясы P ( I ) P(I) ықтималдылық таралу тығыздық функциясымен сәйкес келеді. (2. 26) арқылы анықталған информация масштабтық инварианттылыққа ие: толықтай да, бөлігі де бірдей таралу заңына ие. Информацияның таралу мәнінің информациялық энтропиясын S ( I ) S(I) информацияның орташа мәні ретінде анықтаймыз:

S ( I ) = I I f ( I ) d I = ( 1 + I ) e I S(I) = \int_{I}^{\infty}{If(I) dI} = (1 + I) e^{- I}\ (2. 31)

0 I 0 \leq I \leq \infty үшін 1 S 0 1 \geq S \geq 0 болады, яғни энтропия бірлікке нормаланған. Біз үздіксіз көптіліктің энтропиясының соңғы мәнін Лебег өлшемімен алынған жолмен алдық. Өлшем ретінде информацияның өзін алып, (2. 31) нәтижені алдық.

Масштабтық-инварианттылық қасиетке ие кей сипаттамалық g ( x ) g(x) функциясына қанағатанатын белгілі функцияналдық теңдікті қолданайық:

g ( x ) = α g ( g ( x α ) ) g(x) = \alpha g\left( g\left( \frac{x}{\alpha} \right) \right) (2. 32)

мұндағы, α \alpha - масштабтық көбейткіш. Кез келген үздіксіз функция өзінің қозғалмайтын нүктесінде (2. 32) теңдікті қанағаттандырады. Сипаттамалық функция ретінде f ( I ) f(I) мен S ( I ) S(I) алып, оладың қозғалмайтын нүктелерін анықтасақ [78] :

f ( I ) = I , e I = I , I = I 1 = 0. 567 f(I) = I, \ \ e^{- I} = I, \ \ I = I_{1} = 0. 567\ (2. 33)

S ( I ) = I , ( 1 + I ) e I = I , I = I 2 = 0. 806 S(I) = I, \ \ (1 + I) e^{- I} = I, \ \ I = I_{2} = 0. 806\ . (2. 34)

бұл қозғалмайтын нүктелер бірыңғай тұрақты болып келеді, өйткені олар кез келген I 0 I_{0} бастап мәніне жететін шексіз бейнелердің шегі болып табылады (сурет 2. 3) :

I i + 1 = f ( I i ) , l i m i exp ( e x p ( e x p ( I 0 ) ) ) = I 1 I_{i + 1} = f\left( I_{i} \right), \ \ \ \underset{i \rightarrow \infty}{\ lim}{\exp\left( - exp\left( \ldots - exp\left( I_{0} \right) \ldots \right) \right) = I_{1}}\ (2. 35)

... жалғасы

Сіз бұл жұмысты біздің қосымшамыз арқылы толығымен тегін көре аласыз.
Ұқсас жұмыстар
Өзаффинді және өзұқсастық статистикалық жүйелердің информациялық-энтропиялық критерийлері
Топырақ түйіртпектілігі мен бөлшек көлемінің жел эрозиясына әсері (0-5 см қабат)
0-10 аралығындағы сандарды оқыту: сан мен цифр ұғымы және қосу-азайту әдістемесі
Информациялық энтропия: өзаффиндік және өзұқсастық критерийлері мен ашық жүйелер эволюциясының әмбебап энтропиялық заңдылықтары
Сигналдардың информациялық-энтропиялық талдауы және күрделі жүйелердегі өзұқсастық пен тұрақты нүктелер
0-5 жас аралығындағы балалар арасында жедел ішек инфекцияларының алдын алуда мейіргердің рөлі
2007-2008 жылдардағы GOES-11 деректері негізінде Күннің жұмсақ рентген сәулеленуінің мультифракталдық және информациялық-энтропиялық талдауы
Энтропияның теориялық негіздері: термодинамикалық, статистикалық және информациялық интерпретациялары
Күрделі сигналдарды талдаудың жаңа әдістері: информациялық энтропия және мультифракталдық талдау
Информациялық жүйенің объектіге бағдарланған ұғымы және негізгі тұжырымдамалары
Пәндер



Реферат Курстық жұмыс Диплом Материал Диссертация Практика Презентация Сабақ жоспары Мақал-мәтелдер 1‑10 бет 11‑20 бет 21‑30 бет 31‑60 бет 61+ бет Негізгі Бет саны Қосымша Іздеу Ештеңе табылмады :( Соңғы қаралған жұмыстар Қаралған жұмыстар табылмады Тапсырыс Антиплагиат Қаралған жұмыстар kz