Перейти до вмісту

Теорія інформації

Матеріал з Вікіпедії — вільної енциклопедії.

Тео́рія інформ́ації (англ. Information theory) — це математичне дослідження кількісного вираження, зберігання та передавання інформації. Заснував цю галузь і забезпечив їй надійну основу Клод Шеннон у 1940-х роках,[1] хоча ранній внесок до цьому напряму зробили в 1920-х роках праці Гаррі Найквіста та Ральфа Гартлі. Вона перебуває на перетині електронної інженерії, математики, статистики, інформатики, нейробіології, фізики та електротехніки.[2][3]

Ключовою мірою в теорії інформації є ентропія. Ентропія вимірює рівень невизначеності щодо значення випадкової величини або результату випадкового процесу. Наприклад, визначення результату підкидання симетричної монети(інші мови) (що має два рівноймовірні результати) дає менше інформації (меншу ентропію, меншу невизначеність), аніж визначення результату кидання гральної кісточки (що має шість рівноймовірних результатів). До інших важливих мір у теорії інформації належать взаємна інформація, пропускна спроможність каналу, показники помилок(інші мови) та відносна ентропія. До важливих підрозділів теорії інформації належать кодування джерела, алгоритмічна теорія складності, алгоритмічна теорія інформації та інформаційно-теоретична безпека(інші мови).

До застосувань основних предметів теорії інформації належать кодування джерела/стиснення даних (наприклад, для файлів zip) та канальне кодування/виявляння та виправляння помилок (наприклад, для DSL). Її вплив був вирішальним для успіху місій «Вояджер» до глибокого космосу,[4] винайдення компакт-диска, можливості мобільних телефонів і розвитку Інтернету й штучного інтелекту.[5][3] Ця теорія також знайшла застосування й в інших сферах, як-от індуктивній статистиці,[6] криптографії, нейробіології,[7] сприйнятті,[8] обробці сигналів,[2] мовознавстві, еволюції[9] та функціюванні[10] молекулярних кодів (біоінформатиці), теплофізиці,[11] молекулярній динаміці,[12] чорних дірах, квантових обчисленнях, інформаційному пошуку, збиранні інформації, виявлянні плагіату,[13] розпізнаванні образів, виявлянні аномалій,[14] музичній аналітиці,[15][16] створенні живопису,[17] проєктуванні систем зображування(інші мови),[18] вивченні космічного простору,[19] вимірності простору,[20] і навіть епістемології.[21]

Огляд

[ред. | ред. код]

Теорія інформації вивчає передавання, обробку, виділяння та використання інформації. Абстрактно інформацію можливо розглядати як розв'язання невизначеності. У випадку передавання інформації зашумленим каналом це абстрактне поняття формалізував 1948 року Клод Шеннон у статті під назвою «Математична теорія зв'язку», в якій інформацію розглянуто як набір можливих повідомлень, а метою є передавання цих повідомлень зашумленим каналом, щоби приймач міг відтворити повідомлення з низькою ймовірністю помилки, незважаючи на шум каналу. Головний результат Шеннона, теорема про кодування для зашумленого каналу(інші мови), показав, що за великої кількості використань каналу швидкість передачі інформації, яка асимптотично досяжна, дорівнює пропускній спроможності каналу, величині, яка залежить лише від статистичних характеристик каналу, яким передають повідомлення.[7]

Теорія кодування займається пошуком конкретних методів, званих кодами (англ. codes), для підвищення ефективності та зниження рівня помилок при передаванні даних зашумленими каналами, з наближенням до пропускної спроможності каналу. Ці коди можливо умовно поділити на методи стискання даних (кодування джерела) та виправляння помилок (кодування каналу). У випадку останнього знадобилося багато років, щоби знайти методи, можливість яких довів Шеннон.[джерело?]

Третій клас кодів у теорії інформації — алгоритми шифрування (як коди(інші мови), так і шифри). Поняття, методи й результати з теорії кодування та теорії інформації широко використовують у криптографії та криптоаналізі, наприклад, одиничний бан.[джерело?]

Історичне підґрунтя

[ред. | ред. код]

Знаковою подією, що заклала основу дисципліни теорії інформації та привернула до неї негайну світову увагу, стала публікація класичної статті Клода Е. Шеннона «Математична теорія зв'язку» в Bell System Technical Journal(інші мови) у липні та жовтні 1948 року. Історик Джеймс Ґлік(інші мови) оцінив цю статтю як найважливіше досягнення 1948 року, вище за транзистор, зазначивши, що ця праця була «навіть глибшою й фундаментальнішою» за транзистор.[22] Шеннон став відомим як «батько теорії інформації».[23][24][25] Він викладав деякі зі своїх початкових ідей щодо теорії інформації ще 1939 року в листі до Веннівера Буша.[25]

До цієї статті обмежені інформаційно-теоретичні ідеї розробили в Bell Labs, при цьому всі вони неявно виходили з однакової ймовірності подій. У своїй статті 1924 року «Деякі чинники, які впливають на швидкість телеграфу» (англ. Certain Factors Affecting Telegraph Speed) Гаррі Найквіст помістив теоретичний розділ, де кількісно визначив «відомості» (англ. "intelligence") та «швидкість лінії» (англ. "line speed"), з якою їх можливо передавати комунікаційною системою, встановивши співвідношення W = K log m (що нагадує сталу Больцмана), де W — швидкість передачі відомостей, m — кількість різних рівнів напруги, з яких можна обирати на кожному часовому кроці, а K — стала. Стаття Ральфа Гартлі 1928 року «Передавання інформації» (англ. Transmission of Information) використовує термін інформація (англ. information) як вимірювану величину, що відображає здатність приймача розрізняти одну послідовність символів з будь-якими іншими, тим самим кількісно визначаючи інформацію як H = log Sn = n log S, де S — кількість можливих символів, а n — кількість символів у передаванні. Отже, одиницею інформації була десяткова цифра, яку згодом іноді називали гартлі на його честь як одиницю, шкалу або міру інформації. 1940 року Алан Тюрінг використав подібні ідеї як частину статистичного аналізу для розшифровки німецьких шифрів «Енігми» під час Другої світової війни.[джерело?]

Більшість математичного апарату теорії інформації для різноймовірнісних подій розробили для галузі термодинаміки Людвіг Больцман та Джозая Віллард Ґіббз. Зв'язки між інформаційною ентропією та термодинамічною ентропією, включно з важливими внесками Рольфа Ландауера(інші мови) 1960-х років, розглянуто в статті «Ентропія в термодинаміці та теорії інформації(інші мови)».[джерело?]

У революційній і новаторській статті Шеннона, роботу над якою було значною мірою завершено в Bell Labs до кінця 1944 року, Шеннон уперше представив якісну та кількісну модель зв'язку як статистичний процес, що лежить в основі теорії інформації, розпочавши з твердження:

Основна задача зв'язку полягає в тому, щоби відтворити в одній точці, точно або приблизно, повідомлення, вибране в іншій точці.
Оригінальний текст (англ.)
The fundamental problem of communication is that of reproducing at one point, either exactly or approximately, a message selected at another point.

З нею прийшли ідеї:

Кількості інформації

[ред. | ред. код]

Теорія інформації ґрунтується на теорії ймовірностей та статистиці, де кількісно виражену інформацію зазвичай описують у бітах. Теорія інформації часто займається вимірюванням інформації в розподілах, пов'язаних із випадковими величинами. Однією з найважливіших мір є ентропія, що є основою для багатьох інших мір. Ентропія дозволяє кількісно виразити міру інформації в окремій випадковій величині.[26] Іншим корисним поняттям є взаємна інформація, визначена для двох випадкових величин, яка описує міру інформації, спільної між цими величинами, що можливо використовувати для опису їхньої кореляції. Перша величина є властивістю розподілу ймовірності випадкової величини й визначає границю швидкості, з якою дані, породжені незалежними зразками із заданим розподілом, можливо надійно стиснути. Друга є властивістю спільного розподілу двох випадкових величин і є максимальною швидкістю надійного передавання зашумленим каналом в границі довжин блоків, коли статистика каналу визначається цим спільним розподілом.

Вибір основи логарифму в наступних формулах визначає вживану одиницю інформаційної ентропії. Загальновживаною одиницею інформації є біт або шеннон, що ґрунтується на двійковому логарифмі. До інших одиниць належать нат, що ґрунтується на натуральному логарифмі, та десяткова цифра, що ґрунтується на десятковому логарифмі.

Далі вираз вигляду p log p, коли p = 0, вважають за згодою нульовим. Це виправдано тим, що для будь-якої основи логарифму.

Ентропія інформаційного джерела

[ред. | ред. код]

Виходячи з функції маси ймовірності кожного символу джерела, що передається, ентропію Шеннона H у бітах (на символ) задають як

де pi — ймовірність трапляння i-того можливого значення символу джерела. Це рівняння дає ентропію в одиницях «біт» (на символ), оскільки воно використовує логарифм з основою 2, і таку міру ентропії на основі логарифму за основою 2 іноді називають шенноном на його честь. Ентропію також часто обчислюють, використовуючи натуральний логарифм (з основою e, де e — число Ейлера), що дає вимірювання ентропії в натах на символ й іноді спрощує аналіз, усуваючи потребу в додаткових сталих у формулах. Можливі й інші основи, хоча їх використовують рідше. Наприклад, логарифм з основою 28 = 256 дає вимірювання в байтах на символ, а логарифм з основою 10 — у десяткових цифрах (або гартлі) на символ.

Інтуїтивно, ентропія HX дискретної випадкової величини X є мірою невизначеності (англ. uncertainty), пов'язаної зі значенням X, коли відомий лише її розподіл.

Ентропія джерела, яке видає послідовність з N символів, які незалежні й однаково розподілені (н. о. р.), дорівнює NH біт (на повідомлення з N символів). Якщо символи даних джерела однаково розподілені, але не незалежні, ентропія повідомлення довжиною N буде меншою за NH.

Ентропія проби Бернуллі як функція ймовірності успіху, часто звана функцією бінарної ентропії(інші мови), Hb(p). Ця ентропія досягає максимуму в 1 біт на пробу, коли два можливі результати рівноймовірні, як у випадку підкидання симетричної монети.

Якщо передати 1000 бітів (нулів та одиниць), але значення кожного з цих бітів відоме приймачу (має певне значення з упевненістю) ще до передачі, то очевидно, що жодної інформації не передано. Якщо ж кожен біт незалежно й однаково правдоподібно може бути 0 або 1, то передано 1000 шеннонів інформації (частіше званих бітами). Між цими двома крайнощами інформацію можливо кількісно виразити наступним чином. Якщо  — множина всіх повідомлень {x1, ..., xn}, якими може бути X, а p(x) — імовірність деякого , то ентропію H величини X визначають як[27]

(Тут I(x) — власна інформація, що є внеском ентропії окремого повідомлення, а  — математичне сподівання.) Однією з властивостей ентропії є те, що вона максимізується, коли всі повідомлення у просторі повідомлень рівноймовірні, тобто p(x) = 1/n, тобто найнепередбачуваніші, й у такому випадку H(X) = log n.

Особливий випадок інформаційної ентропії для випадкової величини з двома можливими результатами — функція бінарної ентропії, зазвичай з логарифмом за основою 2, що відтак має одиницею шеннон (Sh):

Спільна ентропія

[ред. | ред. код]

Спільна ентропія (англ. joint entropy) двох дискретних випадкових величин X та Y — це просто ентропія їхньої двійки: (X, Y). Це означає, що якщо X та Y незалежні, то їхня спільна ентропія дорівнює сумі їхніх окремих ентропій.

Наприклад, якщо (X, Y) подає положення шахової фігури — X це рядок, а Y це стовпець, то спільна ентропія рядка та стовпця фігури буде ентропією її положення.

Попри схожість позначень, спільну ентропію не слід плутати з перехресною ентропією (англ. cross-entropy).

Умовна ентропія (неоднозначність)

[ред. | ред. код]

Умовна ентропія (англ. conditional entropy) або умовна невизначеність (англ. conditional uncertainty) величини X за заданої випадкової величини Y (також звана неоднозначністю[28] X щодо Y, англ. equivocation) — це усереднена умовна ентропія за Y:[29]

Оскільки ентропія може бути обумовлена випадковою величиною (загальна умовна ентропія) або конкретним значенням цієї випадкової величини (часткова умовна ентропія),[30][31] слід бути уважними, щоби не плутати ці два визначення умовної ентропії, перше з яких є поширенішим. Основною властивістю цієї форми умовної ентропії є те, що

Взаємна інформація (трансінформація)

[ред. | ред. код]

Взаємна інформація (англ. mutual information) вимірює кількість інформації про одну випадкову величину, яку можливо отримати, спостерігаючи іншу. Вона важлива в комунікаціях, де її можливо використовувати для максимізування кількості спільної інформації між передаваним та отримуваним сигналами. Взаємну інформацію X відносно Y визначають як

де SI (англ. Specific mutual Information, конкретна взаємна інформація) — це поточкова взаємна інформація.

Основна властивість взаємної інформації полягає в тому, що

Тобто, знаючи Y, можливо заощадити в середньому I(X; Y) бітів при кодуванні X порівняно з ситуацією, коли Y невідома.

Взаємна інформація симетрична:

Взаємну інформацію можливо виразити як усереднення розходження Кульбака — Лейблера (приросту інформації) апостеріорного розподілу ймовірності X за заданого значення Y з апріорним розподілом X:

Іншими словами, це міра того, наскільки в середньому зміниться розподіл імовірності X, якщо задано значення Y. Її часто переобчислюють як розходження добутку відособлених розподілів зі справжнім спільним розподілом:

Взаємна інформація тісно пов'язана з критерієм логарифмічного відношення правдоподібностей у контексті таблиць спряженості та поліноміального розподілу, а також із критерієм χ2 Пірсона: взаємну інформацію можливо вважати статистикою для оцінювання незалежності пари змінних, і вона має добре визначений асимптотичний розподіл.

Розходження Кульбака — Лейблера (приріст інформації)

[ред. | ред. код]

Розходження Кульбака — Лейблера (англ. Kullback–Leibler divergence, або розходження інформації, англ. information divergence, приріст інформації, англ. information gain, чи відносна ентропія, англ. relative entropy) — це спосіб порівняння двох розподілів: «істинного» розподілу ймовірності та довільного розподілу . Якщо ми стискаємо дані, вважаючи, що їхній розподіл це , тоді як насправді правильний розподіл це , розходження Кульбака–Лейблера визначає середню кількість додаткових бітів на дані, необхідних для стискання. Його відтак визначають як

Хоча іноді його й використовують як «метрику відстані», КЛ-розходження не є справжньою метрикою, оскільки воно не симетричне й не задовольняє нерівність трикутника (що робить його напів-квазиметрикою).

Іншим тлумаченням КЛ-розходження є «зайва несподіваність» (англ. "unnecessary surprise"), створювана апріорним розподілом у порівнянні з істинним: припустімо, що число X буде випадковим чином обрано з дискретної множини з розподілом ймовірності . Якщо Аліса знає істинний розподіл , а Боб вважає (має апріорне переконання), що цим розподілом є , то для Боба побачене значення X у середньому буде більш несподіваним, аніж для Аліси. КЛ-розходження є (об'єктивним) очікуваним значенням (суб'єктивної) несподіваності для Боба, мінус несподіваність для Аліси, виміряним у бітах, якщо логарифм взято за основою 2. Таким чином, міру того, наскільки «помилковим» є апріорне переконання Боба, можливо кількісно виразити у вигляді очікуваної «зайвої несподіваності» для нього.

Спрямована інформація

[ред. | ред. код]

Спрямована інформація(інші мови) (англ. directed Information)  — це міра в теорії інформації, що кількісно визначає інформаційний потік від випадкового процесу до випадкового процесу . Термін спрямована інформація запровадив Джеймс Мессі, її визначено як

,

де  — умовна взаємна інформація(інші мови) .

На відміну від взаємної інформації, спрямована інформація не симетрична. вимірює кількість інформації, що передається причинно[прояснити: ком.] від до . Спрямована інформація знаходить широке застосування в задачах, де важливу роль відіграє причинність, як-от пропускна спроможність каналу зі зворотним зв'язком,[32][33] пропускна спроможність дискретних мереж без пам'яті(інші мови) зі зворотним зв'язком,[34] ставки з причинною додатковою інформацією,[35] стиснення з причинною додатковою інформацією,[36] постановки комунікації керування в реальному часі,[37][38] та у статистичній фізиці.[39]

Інші кількості

[ред. | ред. код]

До інших важливих інформаційно-теоретичних кількостей належать ентропія Реньї та ентропія Цалліса (узагальнення поняття ентропії), диференціальна ентропія (узагальнення кількостей інформації для неперервних розподілів) та умовна взаємна інформація(інші мови). Також було запропоновано прагматичну інформацію(інші мови) як міру кількості інформації, використаної для ухвалення рішення.

Теорія кодування

[ред. | ред. код]
Докладніше: Теорія кодування
Зображення подряпин на зчитуваній поверхні CD-R. Музичні й інформаційні CD кодують з використанням кодів з виправлянням помилок, тому їх можливо прочитати навіть за наявності незначних подряпин, використовуючи виявляння й виправляння помилок.

Теорія кодування — одне з найважливіших і найбезпосередніших застосувань теорії інформації. Її можливо поділити на теорію кодування джерела та теорію кодування каналу. Використовуючи статистичний опис даних, теорія інформації визначає кількість бітів, необхідних для опису даних, що є інформаційною ентропією джерела.

  • Стиснення даних (кодування джерела): для задачі стиснення існують дві постановки:
  • Коди з виправлянням помилок (кодування каналу): тоді як стиснення даних усуває якомога більше надмірності, код з виправлянням помилок додає саме ту надмірність (тобто виправляння помилок), яка необхідна для ефективного й надійного передавання даних зашумленим каналом.

Цей поділ теорії кодування на стиснення й передавання обґрунтовано теоремами про передавання інформації, або теоремами про розділення джерела й каналу, які підтверджують використання бітів як універсальної валюти для інформації в багатьох контекстах. Проте ці теореми справедливі лише в ситуаціях, коли один передавач прагне спілкуватися з одним приймачем. У випадках, коли є понад одного передавача (канал із множинним доступом), понад одного приймача (канал мовлення) або проміжні «помічники» (ретрансляційний канал(інші мови), англ. relay channel), чи для загальніших мереж, стиснення з подальшим передавання може вже не бути оптимальним.

Теорія джерела

[ред. | ред. код]

Будь-який процес, що породжує послідовні повідомлення, можливо розглядати як джерело (англ. source) інформації. Джерело без пам'яті (англ. memoryless) — це таке джерело, в якому кожне повідомлення — незалежна й однаково розподілена випадкова величина, тоді як властивості ергодичності та стаціонарності накладають менш жорсткі обмеження. Усі такі джерела стохастичні. Ці терміни добре вивчені й поза межами теорії інформації.

Швидкість

[ред. | ред. код]

Інформаційна швидкість (англ. rate) — це усереднена ентропія на символ. Для джерел без пам'яті це просто ентропія кожного символу, тоді як у випадку стаціонарного стохастичного процесу це

тобто умовна ентропія символу за заданих всіх попередньо породжених символів. Для загальнішого випадку не обов'язково стаціонарного процесу середня швидкість (англ. average rate) це

тобто границя спільної ентропії на символ. Для стаціонарних джерел ці два вирази дають однаковий результат.[40]

Інформаційну швидкість(інші мови) (англ. information rate) визначають як

У теорії інформації часто говорять про «швидкість» або «ентропію» мови. Це доречно, наприклад, коли джерело інформації — англомовна проза. Швидкість джерела інформації пов'язана з його надмірністю та можливістю стиснення, що є предметом кодування джерела.

Пропускна спроможність каналу

[ред. | ред. код]

Передавання інформації каналом — основний мотив теорії інформації. Проте канали часто не забезпечують точного відтворення сигналу; його якість часто можуть знижувати шум, періоди тиші та інші форми спотворення сигналу.

Розгляньмо процес передавання дискретним каналом. Просту модель процесу подано нижче:

Тут X подає простір передаваних повідомлень, а Y — простір отримуваних повідомлень за одиницю часу нашим каналом. Нехай p(y|x) — умовна ймовірність Y за заданого X. Розгляньмо p(y|x) як притаманну незмінну властивість нашого каналу (що відображає природу його шуму). Тоді спільний розподіл X та Y повністю визначається нашим каналом і вибором f(x), відособленого розподілу повідомлень, які ми обираємо для передавання каналом. За цих обмежень ми би хотіли максимізувати швидкість інформації, або сигнал, який можливо передавати цим каналом. Відповідною мірою для цього є взаємна інформація, і цю максимальну взаємну інформацію називають пропускною спроможністю каналу (англ. channel capacity), та задають як

Ця пропускна спроможність має наступну властивість, пов'язану з передаванням на інформаційній швидкості R (де R зазвичай вимірюють у бітах на символ). Для будь-якої інформаційної швидкості R < C та похибки кодування ε > 0, за достатньо великого N, існує кодування довжини N, швидкість ≥ R та алгоритм декодування, такі, що максимальна ймовірність помилки в блоці ≤ ε; тобто завжди можливо передавати з довільно малою блоковою похибкою. Крім того, для будь-якої швидкості R > C передавати з довільно малою блоковою похибкою неможливо.

Канальне кодування (англ. channel coding) займається пошуком таких майже оптимальних кодувань, які можливо використовувати для передавання даних зашумленим каналом з невеликою кодувальною похибкою на швидкості, наближеній до пропускної спроможності каналу.

Пропускна спроможність окремих моделей каналів

[ред. | ред. код]
  • Канал аналогового передавання безперервного часу, підданий гауссовому шуму, — див. теорему Шеннона — Гартлі.
  • Двійковий симетричний канал(інші мови) (ДСК) з імовірністю спотворення p — це канал із бінарним входом і бінарним виходом, який змінює вхідний біт на протилежний з імовірністю p. ДСК має пропускну спроможність 1 - Hb(p) бітів на одне використання каналу, де Hb — функція бінарної ентропії для логарифму за основою 2:
  • Двійковий канал зі стиранням(інші мови) (ДКС) з імовірністю стирання p — це канал із бінарним входом та тернарним виходом. Можливі виходи каналу — 0, 1 та третій символ 'e', званий стиранням (англ. erasure). Стирання подає повну втрату інформації про вхідний біт. Пропускна спроможність ДКС становить 1 - p бітів на одне використання каналу.

Канали з пам'яттю та спрямована інформація

[ред. | ред. код]

На практиці багато каналів мають пам'ять. Тобто, у момент часу канал визначається умовною ймовірністю . Часто зручніше використовувати запис , тоді канал стає . У такому випадку пропускна спроможність визначається швидкістю взаємної інформації, коли зворотний зв'язок недоступний, та швидкістю спрямованої інформації(інші мови), якщо зворотний зв'язок наявний чи відсутній[32][41] (якщо зворотний зв'язок відсутній, спрямована інформація дорівнює взаємній інформації).

Замінна інформація

[ред. | ред. код]

Замінна інформація (англ. fungible information) — це інформація, для якої засоби кодування не мають значення.[42] Класичні теоретики інформації та спеціалісти з комп'ютерних наук здебільшого цікавляться інформацією саме цього типу. Іноді її називають вимовною (англ. speakable) інформацією.[43]

Застосування в інших галузях

[ред. | ред. код]

Використання в розвідці та прикладна секретність

[ред. | ред. код]

Поняття теорії інформації застосовні до криптографії та криптоаналізу. Одиницю інформації, введену Тюрінгом — бан, використовували у проекті «Ультра(інші мови)» для зламування коду німецької машини «Енігма», що прискорило завершення Другої світової війни в Європі. Сам Шеннон визначив важливе поняття, відоме тепер як відстань єдиності. Виходячи з надмірності відкритого тексту, це поняття намагається оцінити мінімальну кількість шифротексту, необхідну для забезпечення унікальної розшифровуваності.

Теорія інформації підказує нам, що зберігати секрети набагато складніше, ніж може здатися на перший погляд. Атака повним перебором може зламувати системи на основі асиметричних ключів, або більшості широко використовуваних методів шифрування з симетричними ключами (іноді званих алгоритмами з секретним ключем), як-от блокового шифру. Безпека всіх таких методів ґрунтується на припущенні, що не існує відомих атак, здатних зламати їх за практично прийнятний час.

Інформаційно-теоретична безпека(інші мови) охоплює такі методи як одноразовий блокнот, що не вразливі до подібних атак повним перебором. У таких випадках додатна умовна взаємна інформація між відкритим і шифрованим текстом (обумовлена ключем) може забезпечувати належну передачу, тоді як безумовна взаємна інформація між відкритим і шифрованим текстом залишається нульовою, що забезпечує абсолютно захищений зв'язок. Іншими словами, перехоплювач не зможе покращити свої припущення щодо відкритого тексту, здобувши інформацію про шифротекст без ключа. Проте, як і в будь-якій іншій криптографічній системі, для правильного застосування навіть інформаційно-теоретично захищених методів потрібно бути уважними; проєкт «Венона» виявився здатним зламати одноразові блокноти Радянського Союзу через їхнє неналежне повторне використання ключового матеріалу.

Генерування псевдовипадкових чисел

[ред. | ред. код]

Генератори псевдовипадкових чисел широко доступні в бібліотеках мов програмування та прикладних програмах. Проте майже повсюдно вони непридатні для криптографічного застосування, оскільки не обходять детерміновану природу сучасного комп'ютерного обладнання та програмного забезпечення. Один з класів удосконалених генераторів випадкових чисел називають криптографічно стійкими генераторами псевдовипадкових чисел, але навіть вони потребують для належної роботи випадкових початкових значень ззовні програмного забезпечення. Їх можливо отримувати за допомогою екстракторів(інші мови), якщо робити це належним чином. Мірою достатньої випадковості в екстракторах є мін-ентропія(інші мови), величина, пов'язана з ентропією Шеннона через ентропію Реньї; ентропію Реньї також використовують для оцінювання випадковості в криптографічних системах. Хоч ці міри й пов'язані, відмінності між ними означають, що випадкова величина з високою ентропією Шеннона не обов'язково задовільна для використання в екстракторі та, відповідно, в криптографії.

Сейсмічна розвідка

[ред. | ред. код]

Одним із ранніх комерційних застосувань теорії інформації була галузь сейсмічного розвідування нафти. Робота в цій галузі уможливила відокремлювання небажаного шуму від потрібного сейсмічного сигналу. Теорія інформації та цифрова обробка сигналів пропонують значне підвищення роздільності та чіткості зображень порівняно з попередніми аналоговими методами.[44]

Семіотика

[ред. | ред. код]

Семіотики Дуде Наута(інші мови) та Вінфрід Ньот(інші мови) у своїх працях із семіотики розглядали Чарлза Сандерса Пірса як творця теорії інформації.[45]:171[46]:137 Наута визначав семіотичну теорію інформації як дослідження «внутрішніх процесів кодування, фільтрування та обробки інформації.»[45]:91

Поняття з теорії інформації, як-от керування надмірністю та кодом, використовували такі семіотики як Умберто Еко та Ферруччо Россі-Ланді(інші мови) для пояснення ідеології як форми передавання повідомлення, за якої домінантний соціальний клас передає своє повідомлення, використовуючи знаки з високим рівнем надмірності, так що з множини конкурентних повідомлень декодується лише одне.[47]

Організація інтегрованої обробки нейронної інформації

[ред. | ред. код]

Кількісні методи теорії інформації застосували у когнітивістиці для аналізу організації інтегрованої обробки нейронної інформації в контексті проблеми зв'язування(інші мови) в когнітивній нейронауці.[48] У цьому контексті визначають або інформаційно-теоретичну міру, таку як функційні кластери (англ. functional clusters, модель функційного кластерування та гіпотеза динамічного ядра (ГДЯ, англ. dynamic core hypothesis, DCH) Джеральда Едельмана та Джуліо Тононі[49]) або ефективна інформація (англ. effective information, теорія інтегрованої інформації(інші мови) (ТІІ, англ. integrated information theory, IIT) свідомості Тононі[50][51][52]), що ґрунтується на повторновикористовній організації обробки, тобто синхронізації нейрофізіологічної активності між групами нейронних сукупностей, або міру мінімізації вільної енергії на основі статистичних методів (принцип вільної енергії Карла Фрістана, інформаційно-теоретична міра, яка стверджує, що кожна адаптивна зміна в самоорганізовній системі веде до мінімізації вільної енергії, та гіпотеза баєсового мозку(інші мови)[53][54][55][56][57]).

Інші застосування

[ред. | ред. код]

Теорія інформації також знаходить застосування у пошуку позаземного розуму,[58] дослідженні чорних дір, біоінформатиці[джерело?], та ста́вках(інші мови).

Див. також

[ред. | ред. код]

Застосування

[ред. | ред. код]

Історія

[ред. | ред. код]

Теорія

[ред. | ред. код]

Поняття

[ред. | ред. код]

Примітки

[ред. | ред. код]
  1. Schneider, Thomas D. (2006). Claude Shannon: Biologist. IEEE Engineering in Medicine and Biology Magazine: The Quarterly Magazine of the Engineering in Medicine & Biology Society (англ.). 25 (1): 30—33. doi:10.1109/memb.2006.1578661. ISSN 0739-5175. PMC 1538977. PMID 16485389.
  2. а б Cruces, Sergio; Martín-Clemente, Rubén; Samek, Wojciech (3 липня 2019). Information Theory Applications in Signal Processing. Entropy (англ.). 21 (7): 653. Bibcode:2019Entrp..21..653C. doi:10.3390/e21070653. ISSN 1099-4300. PMC 7515149. PMID 33267367.
  3. а б Baleanu, D.; Balas, Valentina Emilia; Agarwal, Praveen, ред. (2023). Fractional Order Systems and Applications in Engineering. Advanced Studies in Complex Systems (англ.). London, United Kingdom: Academic Press. с. 23. ISBN 978-0-323-90953-2. OCLC 1314337815.
  4. Horgan, John (27 квітня 2016). Claude Shannon: Tinkerer, Prankster, and Father of Information Theory. IEEE (англ.). Процитовано 8 листопада 2024.
  5. Shi, Zhongzhi (2011). Advanced Artificial Intelligence (англ.). World Scientific Publishing. с. 2. doi:10.1142/7547. ISBN 978-981-4291-34-7.
  6. Burnham, K. P.; Anderson, D. R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach (англ.) (вид. Second). New York: Springer Science. ISBN 978-0-387-95364-9.
  7. а б F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code (англ.). The MIT press. ISBN 978-0262681087.
  8. Delgado-Bonal, Alfonso; Martín-Torres, Javier (3 листопада 2016). Human vision is determined based on information theory. Scientific Reports (англ.). 6 (1): 36038. Bibcode:2016NatSR...636038D. doi:10.1038/srep36038. ISSN 2045-2322. PMC 5093619. PMID 27808236.
  9. cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). Bayesian inference of phylogeny and its impact on evolutionary biology. Science (англ.). 294 (5550): 2310—2314. Bibcode:2001Sci...294.2310H. doi:10.1126/science.1065889. PMID 11743192. S2CID 2138288.
  10. Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences. Gene (англ.). 215 (1): 111—122. doi:10.1016/s0378-1119(98)00269-8. PMID 9666097.
  11. Jaynes, E. T. (1957). Information Theory and Statistical Mechanics. Phys. Rev. (англ.). 106 (4): 620. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620. S2CID 17870175.
  12. Talaat, Khaled; Cowen, Benjamin; Anderoglu, Osman (5 жовтня 2020). Method of information entropy for convergence assessment of molecular dynamics simulations. Journal of Applied Physics (англ.). 128 (13): 135102. Bibcode:2020JAP...128m5102T. doi:10.1063/5.0019078. OSTI 1691442. S2CID 225010720.
  13. Bennett, Charles H.; Li, Ming; Ma, Bin (2003). Chain Letters and Evolutionary Histories. Scientific American (англ.). 288 (6): 76—81. Bibcode:2003SciAm.288f..76B. doi:10.1038/scientificamerican0603-76. PMID 12764940. Архів оригіналу за 7 жовтня 2007. Процитовано 11 березня 2008. [Архівовано 2007-10-07 у Wayback Machine.]
  14. David R. Anderson (1 листопада 2003). Some background on why people in the empirical sciences may want to better understand the information-theoretic methods (PDF) (англ.). Архів оригіналу (PDF) за 23 липня 2011. Процитовано 23 червня 2010. [Архівовано 2011-07-23 у Wayback Machine.]
  15. Loy, D. Gareth (2017), Pareyon, Gabriel; Pina-Romero, Silvia; Agustín-Aquino, Octavio A.; Lluis-Puebla, Emilio (ред.), Music, Expectation, and Information Theory, The Musical-Mathematical Mind: Patterns and Transformations, Computational Music Science (англ.), Cham: Springer International Publishing, с. 161—169, doi:10.1007/978-3-319-47337-6_17, ISBN 978-3-319-47337-6, процитовано 19 вересня 2024
  16. Rocamora, Martín; Cancela, Pablo; Biscainho, Luiz (5 квітня 2019). Information Theory Concepts Applied to the Analysis of Rhythm in Recorded Music with Recurrent Rhythmic Patterns. Journal of the Audio Engineering Society (англ.). 67 (4): 160—173. doi:10.17743/jaes.2019.0003.
  17. Marsden, Alan (2020). New Prospects for Information Theory in Arts Research. Leonardo (англ.). 53 (3): 274—280. doi:10.1162/leon_a_01860. ISSN 0024-094X.
  18. Pinkard, Henry; Kabuli, Leyla; Markley, Eric; Chien, Tiffany; Jiao, Jiantao; Waller, Laura (2024). Universal evaluation and design of imaging systems using information estimation (англ.). arXiv:2405.20559 [physics.optics].
  19. Wing, Simon; Johnson, Jay R. (1 лютого 2019). Applications of Information Theory in Solar and Space Physics. Entropy (англ.). 21 (2): 140. Bibcode:2019Entrp..21..140W. doi:10.3390/e21020140. ISSN 1099-4300. PMC 7514618. PMID 33266856.
  20. Kak, Subhash (26 листопада 2020). Information theory and dimensionality of space. Scientific Reports (англ.). 10 (1): 20733. doi:10.1038/s41598-020-77855-9. ISSN 2045-2322.
  21. Harms, William F. (1998). The Use of Information Theory in Epistemology. Philosophy of Science (англ.). 65 (3): 472—501. doi:10.1086/392657. ISSN 0031-8248. JSTOR 188281.
  22. Gleick, 2011, с. 3—4.
  23. Horgan, John (27 квітня 2016). Claude Shannon: Tinkerer, Prankster, and Father of Information Theory. IEEE (англ.). Процитовано 30 вересня 2023.
  24. Roberts, Siobhan (30 квітня 2016). The Forgotten Father of the Information Age. The New Yorker (амер.). ISSN 0028-792X. Процитовано 30 вересня 2023.
  25. а б Tse, David (22 грудня 2020). How Claude Shannon Invented the Future. Quanta Magazine (англ.). Процитовано 30 вересня 2023.
  26. Braverman, Mark (19 вересня 2011). Information Theory in Computer Science (PDF) (англ.).
  27. Reza, 1994.
  28. Килівник, В.С.; Смірнова, В.Л.; Панчишин, Н.Я. (2019). Теорія інформації та її застосування в медичній реабілітації (PDF). Вісник медичних і біологічних досліджень (укр.). ТНМУ (1): 70—75. Архів (PDF) оригіналу за 6 березня 2022.
  29. Ash, 1990.
  30. Жураковський та Полторак, 2001, с. 36—40.
  31. Коваленко, 2020, с. 38—41.
  32. а б Massey, James (1990), Causality, Feedback And Directed Information, Proc. 1990 Intl. Symp. on Info. Th. and its Applications (англ.), CiteSeerX 10.1.1.36.5688
  33. Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory (англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
  34. Kramer, G. (January 2003). Capacity results for the discrete memoryless network. IEEE Transactions on Information Theory (англ.). 49 (1): 4—21. doi:10.1109/TIT.2002.806135.
  35. Permuter, Haim H.; Kim, Young-Han; Weissman, Tsachy (June 2011). Interpretations of Directed Information in Portfolio Theory, Data Compression, and Hypothesis Testing. IEEE Transactions on Information Theory (англ.). 57 (6): 3248—3259. arXiv:0912.4872. doi:10.1109/TIT.2011.2136270. S2CID 11722596.
  36. Simeone, Osvaldo; Permuter, Haim Henri (June 2013). Source Coding When the Side Information May Be Delayed. IEEE Transactions on Information Theory (англ.). 59 (6): 3607—3618. arXiv:1109.1293. doi:10.1109/TIT.2013.2248192. S2CID 3211485.
  37. Charalambous, Charalambos D.; Stavrou, Photios A. (August 2016). Directed Information on Abstract Spaces: Properties and Variational Equalities. IEEE Transactions on Information Theory (англ.). 62 (11): 6019—6052. arXiv:1302.3971. doi:10.1109/TIT.2016.2604846. S2CID 8107565.
  38. Tanaka, Takashi; Esfahani, Peyman Mohajerin; Mitter, Sanjoy K. (January 2018). LQG Control With Minimum Directed Information: Semidefinite Programming Approach. IEEE Transactions on Automatic Control (англ.). 63 (1): 37—52. arXiv:1510.04214. doi:10.1109/TAC.2017.2709618. S2CID 1401958. Архів оригіналу за 12 квітня 2024 — через TU Delft Repositories.
  39. Vinkler, Dror A; Permuter, Haim H; Merhav, Neri (20 квітня 2016). Analogy between gambling and measurement-based work extraction. Journal of Statistical Mechanics: Theory and Experiment (англ.). 2016 (4): 043403. arXiv:1404.6788. Bibcode:2016JSMTE..04.3403V. doi:10.1088/1742-5468/2016/04/043403. S2CID 124719237.
  40. Jerry D. Gibson (1998). Digital Compression for Multimedia: Principles and Standards (англ.). Morgan Kaufmann. ISBN 1-55860-369-7.
  41. Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory (англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
  42. Bartlett, Stephen D.; Rudolph, Terry; Spekkens, Robert W. (April–June 2007). Reference frames, superselection rules, and quantum information. Reviews of Modern Physics (англ.). 79 (2): 555—606. arXiv:quant-ph/0610030. Bibcode:2007RvMP...79..555B. doi:10.1103/RevModPhys.79.555.
  43. Peres, A.; P. F. Scudo (2002b). A. Khrennikov (ред.). Quantum Theory: Reconsideration of Foundations (англ.). Växjö University Press, Växjö, Sweden. с. 283.
  44. Haggerty, Patrick E. (1981). The corporation and innovation. Strategic Management Journal (англ.). 2 (2): 97—118. doi:10.1002/smj.4250020202.
  45. а б Nauta, Doede (1972). The Meaning of Information (англ.). The Hague: Mouton. ISBN 9789027919960.
  46. Nöth, Winfried (January 2012). Charles S. Peirce's theory of information: a theory of the growth of symbols and of knowledge. Cybernetics and Human Knowing (англ.). 19 (1–2): 137—161.
  47. Nöth, Winfried (1981). "Semiotics of ideology". Semiotica (англ.), Issue 148.
  48. Maurer, H. (2021). Chapter 10: Systematic Class of Information Based Architecture Types. Cognitive Science: Integrative Synchronization Mechanisms in Cognitive Neuroarchitectures of the Modern Connectionism (англ.). Boca Raton/FL: CRC Press. doi:10.1201/9781351043526. ISBN 978-1-351-04352-6.
  49. Edelman, G.M.; Tononi, G. (2000). A Universe of Consciousness: How Matter Becomes Imagination (англ.). New York: Basic Books. ISBN 978-0465013777.
  50. Tononi, G.; Sporns, O. (2003). Measuring information integration. BMC Neuroscience (англ.). 4: 1—20. doi:10.1186/1471-2202-4-31. PMC 331407. PMID 14641936.
  51. Tononi, G. (2004a). An information integration theory of consciousness. BMC Neuroscience (англ.). 5: 1—22. doi:10.1186/1471-2202-5-42. PMC 543470. PMID 15522121.
  52. Tononi, G. (2004b). Consciousness and the brain: theoretical aspects. У Adelman, G.; Smith, B. (ред.). Encyclopedia of Neuroscience (англ.) (вид. 3rd). Amsterdam, Oxford: Elsevier. ISBN 0-444-51432-5. Архів (PDF) оригіналу за 2 грудня 2023.
  53. Friston, K.; Stephan, K.E. (2007). Free-energy and the brain. Synthese (англ.). 159 (3): 417—458. doi:10.1007/s11229-007-9237-y. PMC 2660582. PMID 19325932.
  54. Friston, K. (2010). The free-energy principle: a unified brain theory. Nature Reviews Neuroscience (англ.). 11 (2): 127—138. doi:10.1038/nrn2787. PMID 20068583.
  55. Friston, K.; Breakstear, M.; Deco, G. (2012). Perception and self-organized instability. Frontiers in Computational Neuroscience (англ.). 6: 1—19. doi:10.3389/fncom.2012.00044. PMC 3390798. PMID 22783185.
  56. Friston, K. (2013). Life as we know it. Journal of the Royal Society Interface (англ.). 10 (86): 20130475. doi:10.1098/rsif.2013.0475. PMC 3730701. PMID 23825119.
  57. Kirchhoff, M.; Parr, T.; Palacios, E.; Friston, K.; Kiverstein, J. (2018). The Markov blankets of life: autonomy, active inference and the free energy principle. Journal of the Royal Society Interface (англ.). 15 (138): 20170792. doi:10.1098/rsif.2017.0792. PMC 5805980. PMID 29343629.
  58. Doyle, Laurance R.; McCowan, Brenda; Johnston, Simon; Hanser, Sean F. (February 2011). Information theory, animal communication, and the search for extraterrestrial intelligence. Acta Astronautica (англ.). 68 (3–4): 406—417. Bibcode:2011AcAau..68..406D. doi:10.1016/j.actaastro.2009.11.018.

Література

[ред. | ред. код]

Класичні праці

[ред. | ред. код]

Інші журнальні статті

[ред. | ред. код]
  • J. L. Kelly Jr., Princeton, "A New Interpretation of Information Rate" Bell System Technical Journal (англ.), Vol. 35, July 1956, pp. 917–26.
  • R. Landauer, IEEE.org, "Information is Physical" Proc. Workshop on Physics and Computation PhysComp'92 (англ.) (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1–4.
  • Landauer, R. (1961). Irreversibility and Heat Generation in the Computing Process (PDF). IBM J. Res. Dev. (англ.). 5 (3): 183—191. doi:10.1147/rd.53.0183.
  • Timme, Nicholas; Alford, Wesley; Flecker, Benjamin; Beggs, John M. (2012). Multivariate information measures: an experimentalist's perspective (англ.). arXiv:1111.6857 [cs.IT].

Підручники з теорії інформації

[ред. | ред. код]

Українською

[ред. | ред. код]

Інші книги

[ред. | ред. код]

Посилання

[ред. | ред. код]