Сигналдарды информациялы-энтропиялық талдау



Пән: Автоматтандыру, Техника
Жұмыс түрі:  Материал
Тегін:  Антиплагиат
Көлемі: 6 бет
Таңдаулыға:   
Сигналдарды информациялы-энтропиялық талдау

Нақтылы объектілер сыртқы ортамен энергиямен, затпен және информациямен алмаса алатын ашық жүйе болып табылады. Объектің тегіне тәуелсіз зерттелетін процес ықтималды құрылымда болса, оның симметриясы бұзылған кезде информация пайда болады. Екінші жағынан, табиғи құрылым - хаостан өз бетінше тәртіп орнау да - нақты бейсызық, ашық жүйелердің мейлінше жалпы даму заңдылығы. Информацияның және информациялық энтропияның физикалық аспектілерін қарастырайық.

Информация ұғымы. Информациялық энтропия
Жалпы қабылданған терминологияға сәйкес информация - ның келесі анықтамаларын қолданамыз.
Информация ұғымы әртүрлі мағынаға ие. Қоғамдық-саяси информация әлеуметтік жүйенің өзекті жаңалықтары туралы мәліметтердің жиыны болып табылады. Кибернетикада информация ұғымы сигналдарды сақтау, өңдеу және жіберумен байланысты. Ықтималдықтар теориясында информация аддитивті мөлшерлік өлшем ретінде кездейсоқ оқиғаларды бір-біріне қатысты ықтималдылығымен салыстыру арқылы енгізіледі. Барлық информация теориясы негізінде информацияны мөлшерлі бағалау жатыр. Қарапайым комбинаторикалық формада бұл тұжырымды Р. Хартли ұсынды, ал толық аяқталған түрін К. Шеннон тұжырымдады.
Шеннон информация теориясы О және L екі таңбаның арасындағы (биттер арасындағы) қарапайым альтернативті таңдаудан шығады, ондағы L 1-ге, "иә", "шындық" т.с.с. теңестірілсе, ал О 0-ге, "жоқ", "жалған" теңестіріледі. Мұндай таңдау екі белгіден тұратын хабарды қабылдауға сәйкес келеді.
Мұндай хабарда болатын информация мөлшері бірлік ретінде қабылданады және ол бит деп аталады. Сондықтан бит - екілік белгі және информация мөлшерінің өлшем бірлігі , ол екі байланысқан тең ықтималдықты таңдамадағы информация мөлшері ретінде анықталады.
Айталық
(11)
- Х және Y әріптерімен сәйкес белгіленген жүйенің күйін сипаттайтын айнымалылар жыйыны болсын. Егер - Х жүйесі күйде болғанда Y уi күйіне өту ықтималдығы (шартты ықтималдық) болса, онда Y жүйесінің алған информациясы мынаған тең:
. (12)
- X жүйесіндегі оқиғасына қатысты информация мөлшері деп аталады.
Ықтималдық арасында жатқандықтан I әрқашан оң шама.
Логарифм негізін таңдауға байланысты информация мөлшері екілік, ондық және натурал логарифм бойынша: сәйкесінше бит, дит, нат -пен өлшенеді.
Статистикалық физикада энтропия Г - жүйенің ішкі макроскопиялық күйінің статистикалық салмағының логарифмі ретінде енгізіледі:
, (13)
мұндағы pq-фазалық көлем , ћ -Планк тұрақтысы, g -жүйенің еркіндік дәрежесінің саны. Классикалық физикада ћ қолданбайтындықтан энтропияны нақты анықтауға болмайды. (5)-ші формуланың түрі күрделі жүйенің энтропиясының аддитивтік талаптарынан шығады:
. (14)
Идеал газдың энтропиясын (4)-ші формула бойынша есептей отырып (5)-ші формулаға келуге болады, мұндағы - идеал газдың қысымы, көлемі, температурасы бойынша анықталады.
Энтропия түсінігі сонымен қатар кездейсоқ шамалардың ықтималдықтарының таралуына да байланысты. Еi энергияның теңықтималдықты таралуы кезінде жүйенің ішкі таралу ықтималдылығы былай анықталады.
.
Энтропияны мына түрде табамыз
. (15)
Орташа ықтималдықтың мағынасы бойынша (15) былай жазылады:
(16)
(8) - бойынша анықталған энтропия информациялық энтропия деп аталады [8,9]. (2) және (8) өрнектерін салыстыру арқылы информациялық энтропия информацияның орташа ықтималдық мәнін анықтайтындығы көрінеді. Жүйенің теңықтималды таралуы кезінде жүйе туралы анықталмағандық максимумге жетеді, яғни жүйе туралы барлық информация жоғалып энтропияға айналады (7). Тепе-тең жүйе информацияны сақтай алмайды. Информацияны білу анықталмағандықты азайтады. Сондықтан информация мөлшерін жоғалған анықталмағандық, яғни энтропия мөлшерімен өлшеуге болады:
I = Spr - Sps,
мұнда pr - индекс априорлы дегенді білдіреді (тәжірибеге дейін) ps апостериорлы (тәжірибеден кейін). Осы себептен әдебиеттерде (16)-ші өрнекпен анықталатын шама кейде информация деп аталады( егер ол қабылданса), кейде энтропия деп аталады (егер ол жоғалса). Осылайша Х шамасы туралы информация Ү берілген кезде мына теңдікпен анықталады.
I(X) = S(X) - S (XY).
(16)-ші өрнектен энтропияның қасиеттері шығады:
1) алдын-ала белгілі хабардың энтропиясы 0 -ге тең.
2) барлық басқа жағдайларда S 0 болады.
Ашық жүйелердің өзқауымдық деңгейлерінің критерийлері
Жалпы қабылданған терминологияға сәйкес Ii информациясы, Pi ықтималдыққа ие құрылым пайда болғанда (жоғалғанда) (2) формуламен есептелінеді және келесі түрде табылады:
60, (17)
ал оның орта мәні - информациялық энтропия (8)-өрнекпен анықталады.
Әртүрлі иерархиялық деңгейлердегі өзұқсастық, өзқауымдық жүйелердің әмбебаптық қасиеттерінің бірі болып табылады. Олардың сипаттамасының масштабты инварианттылығы ... жалғасы

Сіз бұл жұмысты біздің қосымшамыз арқылы толығымен тегін көре аласыз.
Ұқсас жұмыстар
Бейсызық физика әдістерін қолданып радиофизика негіздерін оқыту
Сигналдарды информациялы-энтропиялық талдау туралы
Кейбір астрофизикалық құбылыстарды динамикалық хаос теориясы әдісімен сипаттау
Сигналдарды информациялы-энтропиялық талдау жайлы
Сигналдардың Фурье-талдауы
Ашық жүйелердің өзқауымдық деңгейлерінің критерилері
Сигналдардың информациялық - энтропиялық талдауы
Радиотехникалық динамикалық хаос генераторларының энергетикалық тиімділігін анықтау
ДИНАМИКАЛЫҚ БЕЙБЕРЕКЕТТІК
Күннің рентген сәулеленуін бейсызық талдау
Пәндер