скачать файл
ч. 1





Лекція 4. Інформація, дані, повідомлення, сигнали.

Канали передачі даних і їх класифікація.

Кількісна оцінка інформації.

Будь-яке відображення навколишнього середовища, яке може бути зафіксоване людиною або пристроєм, несе в собі інформацію. А відображення результатів діяльності людей або розуміння навколишнього світу може бути представлено у формалізованому вигляді, наприклад, у вигляді букв і цифр. Такі формалізовані набори називаються даними. Певна сукупність даних, отриманих від джерела інформації, називається повідомленням.

Дані стають інформацією в момент їх використання, тому не усі дані стають інформацією. Інформацією стають ті повідомлення, які знімають невизначеність, що існувала до їх поступлення.

Повідомлення передаються за допомогою сигналів, які мають певні фізичні властивості. У загальному випадку сигналом може бути будь-яка зміна початкового стану об’єкту, яка здатна викликати реакцію людини або пристрою. Розрізняють сигнали: зорові (телевізійне зображення), звукові, електричні (переважно в комп’ютерних засобах), радіосигнали. Одні сигнали можуть викликати інші. Так, електричний сигнал може викликати звуковий (в електричному дзвінку, в акустичній системі), світловий сигнал – електричний (у фотоелементі). Сигнали можуть бути взаємозв’язані у просторі і в часі (звукове кіно).



Основними параметрами, які характеризують сигнал, є тривалість сигналу, ширина частотного спектру і середня потужність (сила). Для надійної передачі сигналів, як правило, необхідно розглядати ці характеристики у взаємному зв’язку, оскільки вони можуть доповнювати один одного.

З точки зору положення у просторі і в часі сигнали діляться на статичні і динамічні. Статичними називаються сигнали, які відображають стійкі зміни стану об’єкта (тригери, комірки пам’яті). Динамічними називаються сигнали, які відображають неперервні зміни стану об’єкта або відображають процеси при переході від одного стійкого стану в інший. Динамічними сигналами є усі види електромагнітних коливань (світлові, радіосигнали) і пружні коливання середовища (розповсюдження звуку у воді, твердому тілі).

За структурою повідомлення сигнали поділяються на неперервні та дискретні. Якщо сигнал на досліджуваному інтервалі часу на скінченому інтервалі амплітуд приймає довільну кількість значень, то він називається неперервним. Якщо сигнал в певні моменти часу на скінченому інтервалі амплітуд приймає обмежену кількість значень, то він називається дискретним. Дискретні сигнали менш піддаються діям завад в каналах зв’язку, спотворення дискретного сигналу легше знайти, чим спотворення неперервного, і дискретні сигнали легко обробляються на комп’ютерах.

Можливість передачі неперервних повідомлень за допомогою дискретних сигналів була доведена Котельніковим ще в 1933 році. Теорема Котельнікова відповідає на питання яким повинен бути крок дискретизації – часовий інтервал відліків, щоб неперервну функцію передати за допомогою дискретних сигналів. Згідно з теоремою, неперервна функція з обмеженим спектром може визначатися своїми дискретними значеннями, обрахованими через інтервали часу, менші 1/(2F), де F – ширина спектру. Чим менші інтервали часу, тим краща точність представлення неперервної функції дискретними вибірками. Однак, зменшення кроку дискретизації веде до збільшення кількості вибірок на досліджуваному інтервалі часу, до збільшення інформативності повідомлення, що вимагає збільшення пропускної здатності каналів зв’язку та продуктивності комп’ютерних засобів. Тому крок дискретизації вибирають компромісним: в межах: .



Канали передачі даних

Інформація від джерела до одержувача надходить через середовище передачі, яке в техніці називають лініями зв’язку. На даний час найбільше поширення одержали електричні провідні лінії зв’язку. При цьому використовуються як спеціальні виділені лінії зв’язку, які використовуються при передачі інформації на невеликі відстані (до 10 км), так і лінії зв’язку мереж загального користування.

Однак одних лише ліній зв’язку недостатньо для надійної передачі інформації, необхідно використовувати комутуючі, підсилювальні та інші технічні засоби, що разом з передавальним середовищем становлять собою канал зв’язку. Отже, канал зв’язку – це сукупність технічних засобів, призначених для передачі інформації, а лінії зв’язку – це середовище, в якому розповсюджуються сигнали, які несуть інформацію.

Канали зв’язку класифікуються за різними ознаками. В залежності від швидкості передачі розрізняють канали низькошвидкісні (50-200 біт/с), середньошвидкісні (до 19 200 біт/с), високошвидкісні (понад 19 200 біт/с).

З врахуванням можливостей зміни напрямку передачі даних розрізняють канали: симплексні, що забезпечують передачу даних лише в одному напрямку, напівдуплексні, що дають змогу передавати по черзі дані у двох напрямках, дуплексні, що передають дані одночасно в обох напрямках.

В залежності від способу передачі даних розрізняють канали зв’язку з послідовною і паралельною передачею даних. При послідовній передачі даних за один такт передається лише один біт даних через одну лінію зв’язку, орієнтовану на обмін даними. Послідовні канали обміну даними застосовуються як на малі, так і на великі відстані. Послідовні канали характеризуються відносно невеликими затратами на реалізацію фізичних ліній зв’язку. При паралельній передачі усі розряди кожного символу чи слова передаються одночасно по окремих лініях зв’язку. В паралельних каналах за один такт переважно передається кількість біт даних, кратна восьми (8,16,24,32,...). Канали паралельної передачі інформації використовуються при малому або середньому віддаленні абонентських пунктів від передавача (в межах десятків метрів).

Часто фізичне з’єднання між передавачем і приймачем відбувається шляхом послідовного з’єднання декількох каналів в єдиний складний канал зв’язку. Така ситуація виникає при передачі інформації на значні відстані.

В залежності від режиму використання складного каналу зв’язку розрізняють некомутуючі (орендовані) і комутуючі канали. Некомутуючим називається складний канал, що створюється й існує протягом певного інтервалу часу незалежно від передачі інформації. На відміну від орендованого каналу, комутуючий канал створюється тільки на час передачі кожного повідомлення, а в інший час окремі канали, з яких він складається, можуть бути використані для інших цілей.

При передачі дискретних сигналів між двома пристроями виникає необхідність забезпечити синхронність їх роботи. Це пов’язано з тим, що при передачі досить довгої послідовності однакових символів (нулів або одиниць) їхня кількість на передавальному і приймальному пристроях може не збігатись між собою через те, що синхронізуючі генератори цих пристроїв можуть мати розкид частотних параметрів. Щоб позбутись подібних помилок, використовуються різні способи синхронізації.

В залежності від способу синхронізації розрізняють канали з асинхронною і синхронною передачею. Зауважимо, що термін ”асинхронна передача” не виключає синхронізації, а лише визначає один з її різновидів. При асинхронній передачі даних переважно синхронізується окремо кожне слово чи кожен символ. До символів відносяться цифри, літери алфавіту і спеціальні символи. Синхронізація забезпечується за допомогою окремих сигналів типу "запит" – "відповідь" або передача супроводжується сигналами ”старт” і ”стоп”. Синхронна передача переважно використовується для великих повідомлень. Вона передбачає використання окремого сигналу синхронізації на кожний такт обміну даними. Сигнали синхронізації передаються окремими лініями зв’язку.

При передачі даних по каналах зв’язку існує ймовірність появи помилок, оскільки канал передачі інформації піддається впливу різних спотворень, що можуть виникати як від дії зовнішнього середовища, так і спотворюватись устаткуванням, яке використовується. Тому для захисту від помилок особливого значення набувають спеціальні методи подання (кодування) даних з метою підвищення їх достовірності.

Кількісна оцінка інформації

Кількість інформації, яка міститься в джерелі інформації, не залежить від способу її передачі. Кількість інформації задовольняє умові адитивності: при передачі повідомлень одним і тим самим методом, однією і тою ж апаратурою, по одному і тому ж каналу зв’язку кількість інформації тим більша, чим більше слів чи символів передається.

Однак, спосіб обміну інформацією впливає на кількість прийнятої інформації. Одне і те ж повідомлення можна передавати через канали зв’язку з надлишковим кодуванням і без нього і т.п.. Проте спосіб обміну інформацією не може служити характеристикою останньої, оскільки, як вже було сказано, кількість інформації, яка міститься в її джерелі, не залежить від способу її кодування і передачі.

Кількість інформації I обчислюють як добуток усуненої невизначеності H, яка знімається одним повідомленням, на кількість повідомлень k. k розглядають як кількість символів первинного алфавіту.

Мірою невизначеності H в теорії інформації є ентропія. Якщо вихідний (первинний) ансамбль повідомлень представляється скінченною множиною символів абстрактного алфавіту (a1,a2,ai) з розподілом імовірностей (p1,p2, ,pi), то ентропія являє собою питому невизначеність на символ первинного алфавіту і характеризує алфавіт в цілому.

У 1928 році американцем Р. Хартлі була запропонована логарифмічна міра інформації, яка супроводжувалась наступними судженнями.

Кількість повідомлень N, яку можна отримати, комбінуючи m символів по n елементів у повідомленні, . Наприклад, комбінуючи два символи, можна передати вісім повідомлень при n=3, шістнадцять – при n=4 і т.д. Таким чином, кількість повідомлень , а разом з нею і кількість інформації, що передається, знаходиться в експонентній залежності від кількості елементів у повідомленні. Тому не можна безпосередньо використовувати як міру кількості інформації.

Хартлі запропонував у якості міри кількості інформації прийняти логарифм числа можливих послідовностей символів:

Невизначеність, яка припадає на символ первинного алфавіту, що складений з рівноімовірних і взаємонезалежних символів, . Основа логарифму впливає лише на зручність обчислень. У випадку оцінки ентропії у двійковій системі:



. (1)

Таким чином, для рівноймовірних і взаємонезалежних символів первинного алфавіту кількість інформації в k повідомленнях алфавіту з m символами рівна



. (2)

Для нерівноймовіної появи символів в первинному алфавіті ентропія на символ



, (3)

а кількість інформації у повідомленні, складеної з k нерівноімовірних символів,



(4)

Співвідношення (3) було отримано Шенноном для визначення середньої кількості інформації у повідомленнях з довільними імовірностями появи символів. При рівноймовірних символах, тобто при , формула Шеннона переходить у формулу Хартлі (1).

Необхідно розрізняти поняття ”кількість інформації” та ”об’єм інформації”. Кількість інформації визначається виключно характеристиками первинного алфавіту, об’єм – характеристиками вторинного алфавіту. Кількість інформації залежить від імовірнісних характеристик первинного алфавіту, а об’єм – не залежить. Під ”об’ємом інформації” розуміють кількість елементарних символів у прийнятому (вторинному) алфавіті. Тобто об’єм інформації залежить від довжини повідомлення у вторинному алфавіті: , де - середня довжина кодових слів вторинного алфавіту.

Для рівномірних кодів (усі комбінації коду містять однакову кількість розрядів) , де n – довжина коду (кількість елементарних посилок у коді).



Згідно з (2), об’єм рівний кількості інформації, якщо , тобто у випадку максимального інформаційного навантаження на символ повідомлення. У всіх інших випадках .
ч. 1
скачать файл

Смотрите также:

Види документів
180,74kb. 1 стр.