авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 || 3 | 4 |

«МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ, ...»

-- [ Страница 2 ] --

зависимость I 'T = f ( I in ) нелинейная) помимо излучения интенсивностью I 0 на вход подается часть I 'T отраженного от прозрачной пластинки выходного излучения I 'T, то есть система охвачена положительной обратной связью ( 0 ). Таким образом, интенсивность излучения внутри системы I in = I 0 + I 'T. Пропускание системы до частично отражающей свет пластинки на выходе:

I 'T 1 T ' ( I in ) = = + (1) I in I I где зависимость I 'T и соответственно T ' от I in нелинейная. Правая часть уравнения (1) представляет собой прямую с наклоном 1 ( I 0 ).

Проанализировать поведение нелинейной системы с обратной связью можно применяя графический метод. Решением (1) будут точки пересечения нелинейной функции T ' ( I in ) с прямой. Зададим нелинейную зависимость T ' от I in в виде кривой, представленной на рис. 35, б. Это типичная зависимость для нелинейной насыщающейся системы: линейный рост пропускания сменяется его резким увеличением с ростом интенсивности света на входе I 0 и затем насыщением при относительно больших значениях I 0. При увеличении I 0 уменьшается наклон прямой и пропускание плавно увеличивается до значения, обозначенного цифрой на рис. 35, б.

Рис. 35. а- схема нелинейной оптической системы с обратной связью;

б, в – зависимости пропускания системы от интенсивности внутри элемента и на вставках зависимость интенсивности на выходе от интенсивности на входе для систем S (б) и N (в) типа.

Когда I 0 достигает значения I 0, происходит резкое увеличение пропускания (скачок из точки 1 в 2) и затем снова его плавное изменение.

При обратном движении резкое уменьшение пропускания (переход из точки 3 в 4) происходит при меньшем значении входной интенсивности света I 0.

Итак, в области значений интенсивности света на входе в нелинейную систему с положительной обратной связью I 0 I 0 I возникает многозначность пропускания (бистабильный режим работы):

пропускание (выходная интенсивность излучения) принимает два устойчивых значения при одном и том же значении I 0. Бистабильная система с таким видом гистерезиса называется системой S-типа. Точное решение напоминает латинскую букву S (см. вставку на рис. 35, б ), однако часть решения в области, обозначенной штриховой линией, неустойчива.

Аналогично можно проанализировать работу нелинейной системы с положительной обратной связью N-типа (рис. 35, в), у которой нелинейно растет поглощение при увеличении входной интенсивности света и 0.

Бистабильные системы можно классифицировать по способу осуществления обратной связи и механизму нелинейного пропускания. В оптическом бистабильном элементе SEED обратная связь осуществляется за счет приложения электрического поля к квантоворазмерной структуре, причем само поле возникает при прохождении через структуру светового излучения. Нелинейное пропускание элемента SEED связано с уменьшением экситонного поглощения. При больших концентрациях экситонов и свободных носителей происходит просветление в области экситонного резонанса. Это связано, во-первых, с тем, что в присутствии большого числа электронов и дырок кулоновское взаимодействие между электроном и дыркой ослабляется (этот эффект называется экранированием). Во-вторых, при большой концентрации экситонов они начинают интенсивно взаимодействовать, разрушая друг друга. Поэтому экситонное поглощение исчезает при концентрации экситонов N ex (aex ) 3, a ex – боровский радиус экситона.

Рис. 36. Спектр поглощения полупроводниковой структуры с квантовыми ямами при отсутствии возбуждения (1) и при возбуждении экситонов и носителей заряда большой плотности. h – энергия экситонного перехода.

SEED был разработан в 1986 г. и представляет собой PIN2 фотодиод из GaAlAs p-области и n-области, слаболегированная i-область состоит из 100 чередующихся слоев GaAs и GaAlAs толщиной по 95 нм, образуя структуру множественных квантовых ям (MQW – multiple quantum well).

В элементе SEED обратная связь осуществляется за счет приложения электрического поля к квантоворазмерной структуре, причем само поле возникает при прохождении через структуру светового излучения.

Нелинейное пропускание элемента SEED связано с уменьшением PIN – диод со структурой p-n перехода, в центре которого находиться слаболегированная область.

экситонного поглощения вследствие смещения пика экситонного поглощения из-за квантового эффекта Штарка. SEED обладает двумя стабильными состояниями при заданном уровне мощности падающего излучения, включение которых определяется предысторией ранее проводившейся засветки и является оптическим бистабильным устройством. В симметричном SEED'е (S-SEED рис. 37), состоящем из двух PIN фотодиодов, которые включены последовательно в питающую цепь, при освещении одного из диодов в цепи возникал ток, который вызывал падение напряжения на структуре сверхрешетки и приводил к увеличению пропускания света через вторую структуру.

Рис.37. Оптический логический элемент S-SEED.

Таким образом, возникала положительная обратная связь, и совокупность таких элементов образовывала логические ячейки «или – не», «или – и» и т.д. Первый оптический компьютер состоял из 4 каскадов и располагался на оптической плите размером I х I м2. Пространственное распределение излучения на выходе каждого из каскадов компьютера определялось состоянием входящей в его состав жидко- кристаллической маски, управляемой обычным компьютером и распределением света на его входе.

Освещение элементов производилось полупроводниковым лазером через голографическую решетку Даммена. Важным достоинством первого оптического компьютера явилась возможность последовательного объединения его отдельных каскадов благодаря искусственному аналогу эффекта внутреннего усиления. Параметры системы были следующие:

разрядность – 32 бита (массив 4х8);

логика – бинарная;

тактовая частота – 1,1 МГц (определялась быстродействием ЖК маски);

число переключений в секунду – 40 Мб/c. Одним из достижений данного процессора была величина энергии на одно переключение, которое составляла 20 фДж и была на 6 порядков меньше величины энергии переключения в электронных компьютерах того времени.

Второе поколение оптических цифровых компьютеров представлено компьютером DOC-II (digital optical computer), разработанного в научно исследовательской фирме США Opticomp Corporation. В DOC-II использован принцип векторно-матричного умножения, однако вектор и матрица являются булевскими логическими.

Рис. 38. Оптический компьютер DOC-II В данном устройстве входной поток данных образовывался излучением линейки 64 независимо модулируемых полупроводниковых лазеров. Свет от каждого лазера линейки отображался на одну строчку матричного пространственного модулятора света с размером 64128 элементов.

Отдельный элемент матрицы представлял собой акусто-оптическую брэгговскую ячейку на основе полупроводника GaP. Свет, выходящий из рядов пространственного модулятора, попадал линейку из 128 лавинных фотодиодов. DOC-II имел 64128 = 8192 межсоединений и работал на частоте передачи данных 100 Мб·с-1, что соответствует 0. переключений в секунду. Энергия на одно переключение составляет 7. фДж (~ 30000 фотонов). Для иллюстрации быстродействия представим, что нужно найти какое-то слово в тексте. Типичный современный персональный компьютер на поиск слова в документе Win Word состоящем из 1000 страниц текста тратит чуть больше трех секунд. В то время, как оптический компьютер DOC-II просматривает за 1 секунду 000 страниц обычного ASCII-текста.

Принципиальным недостатком макетов первых оптических компьютеров являлась неинтегрируемость их отдельных компонентов.

Исходя из этого, основной задачей следующего этапа работ по оптическому компьютеру было создание его интегрального варианта.

В конце 90-х годов прошлого века велись работы по созданию интегрального модуля оптического компьютера с логической матрично тензорной основой, названного HPOC (High Performance Optoelectronic Communication). В устройстве планировалось использовать входную матрицу VCSEL лазеров, соединенную планарными волноводами и обычной оптикой с матрицами переключения, на основе дифракционных оптических элементов, и выходную систему, состоящую из матрицы лавинных фотодиодов, совмещенной с матрицей вертикально-излучающих диодов. Опытные образцы показали производительность 4.096 Тб·с-1, а оценки показывают, что данная система способна развить скорость операций в секунду с энергией менее 1 фДж на одно переключение.

Однако, в связи с мировым кризисом фотоники и рынка ВОЛС работы были прекращены. В настоящее время фирма Opticomp Corporation разработала новый интегральный оптический элемент, состоящий из матрицы VCSEL лазеров и фотодетекторов, соединенных волноводом и планирует использовать данные устройства, как для обработки информации, так и для создания сверхбыстрых переключателей в сверхплотных волоконных линиях связи.

Глава 2. Теория информации для оптических систем §1. Основы теории информации Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение. Информация — это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В третьем издании Большой Советской Энциклопедии читаем:

«ИНФОРМАЦИЯ - любые сведения и данные, отражающие свойства объектов в природных (биологических, физических и др.), социальных и технических системах и передаваемые звуковым, графическим (в том числе письменным) или иным способом без применения или с применением технических средств». В словаре Вебстера следующее определение термина: «Сообщение, или получение знаний или сведений.

Факты, приготовленные для сообщения, в отличие от тех, которые воплощены в мысли или знании. Данные, новости, сведения, знания, полученные путем изучения или наблюдения...». С точки зрения философии, информация — нематериальная сущность, при помощи которой с любой точностью можно описывать реальные (материальные), виртуальные (возможные) и понятийные сущности. Информация противоположность неопределенности. Информация как физическая величина – количественная мера упорядоченности исследуемой системы.

Все устройства передачи, отображения и хранения информации (в том числе и оптические) характеризуются данной количественной мерой.

Теория информации рассматривается как существенная часть кибернетики. Кибернетика — это наука об общих законах получения, хранения, передачи и переработки информации. Ее основной предмет исследования — это так называемые кибернетические системы, рассматриваемые абстрактно, вне зависимости от их материальной природы. Примеры кибернетических систем: автоматические регуляторы в технике, ЭВМ, мозг человека или животных, биологическая популяция, социум. Часто кибернетику связывают с методами искусственного интеллекта, т.к. она разрабатывает общие принципы создания систем управления и систем для автоматизации умственного труда. Основными разделами (они фактически абсолютно самостоятельны и независимы) современной кибернетики считаются: теория информации, теория алгоритмов, теория автоматов, исследование операций, теория оптимального управления и теория распознавания образов.

Родоначальниками кибернетики (датой ее рождения считается год, год соответствующей публикации) считаются американские ученые Норберт Винер (Wiener, он — прежде всего) и Клод Шеннон (Shannon, он же основоположник теории информации).

А Б Рис.39. Клод Шеннон (1916-2001 г.г.) (А), Норберт Винер (1894 - г.г.)(Б) В наш век возрастающей дифференциации человеческих знаний Клод Шеннон является исключительным примером соединения глубины отвлеченной математической мысли с широким и в то же время совершенно конкретным пониманием больших проблем техники. Его в равной мере можно считать одним из первых математиков и одним из первых инженеров последних десятилетий. Своеобразная роль ему принадлежит в создании кибернетики. В отличие от Норберта Винера Шеннон не занимался пропагандой и систематизацией этой новой науки.

Но он создал основы теории информации и в значительной мере предопределил своими работами развитие общей теории дискретных автоматов, которые составляют две большие главы кибернетики, занимающие в ней едва ли не центральное положение.

Теория информации тесно связана с такими разделами математики как теория вероятностей и математическая статистика, а также прикладная алгебра, которые предоставляют для нее математический фундамент. С другой стороны теория информации исторически и практически представляет собой математический фундамент теории связи. Часто теорию информации вообще рассматривают как одну из ветвей теории вероятностей или как часть теории связи. Теория информации представляет собой математическую теорию, посвященную измерению информации, ее потока, “размеров” канала связи и т. п., особенно применительно к радио, телеграфии, телевидению и к другим средствам связи.

§ 1.1. Количество информации в системе равновероятных событий.

Подход Хартли.

Получение любой информации неразрывно связано с проведением опыта в той или иной форме. Под опытом понимается процесс, в результате которого наблюдатель (человек или автоматическое устройство) получает новые сведения (информацию) о некотором интересующем объекте. В частности, опытами являются чтение или прослушивание незнакомого текста, регистрация на ПЗС-матрицу изображений, измерения длины, яркости, интенсивности и т.п. Иначе говоря, под опытом понимается любой процесс получения и обработки одного или нескольких сигналов.

При этом априори (до опыта) однозначно не известно, какие сигналы и в какой последовательности будут воздействовать на приемник информации (глаза человека, ПЗС-матрица и т.д.), т.е. результат опыта до его проведения является в той или иной степени неопределенным.

Апостериори (после опыта) эта неопределенность частично или полностью устраняется. Интуитивно ясно, что за меру количества информации, полу чаемой в результате опыта, можно принять величину, характеризующую меру уменьшения неопределенности сведений о наблюдаемом объекте.

Для введения последней необходимо привлечение понятий теории вероятностей, поскольку наши звания о наблюдаемом объекте до проведения опыта носят характер предсказаний и являются вероятностными оценками.

Первую попытку количественного определения информации предпринял в 1928 году американский инженер Р. Хартли. С целью сравнения и оптимизации параметров линий связи он рассмотрел возможность введения количественной меры информации, содержащейся в некотором сообщении.

Следуя Хартли, предположим, что для записи и передачи сообщений используется язык, характеризующийся алфавитом символов: L1, L2, … LS S – число символов (букв) (например 0, 1). Пусть передатчик генерирует слова, состоящие из n букв (например, 01001011, 8 букв) в количестве N.

При отсутствии ограничений на возможные повторения и порядок следования букв в слове, количество N различных слов, длиной n букв, согласно теории вероятности, равно: N = Sn (28). Поскольку при приеме сообщения известна длина слова n, то неопределенность опыта по точной регистрации очередного слова характеризуется величиной N – количеством равновероятных исходов опыта, т.о. чем больше N – тем больше информации мы получаем в результате проведения опыта. Вывод: мера измерения количества информации должна быть неубывающей функцией от N.

Для выбора наиболее удобного с практической точки зрения вида этой функции учтем два обстоятельства:

а) мера информации должна быть пропорциональна длине слова n, т.е. I = n·K, где I - количество информации, K - коэффициент пропорциональности;

б) мера должна позволять сравнивать информационные возможности разных систем (с различными n и S ), т.е. необходимо выразить величину К через S.

Рассмотрим две системы, характеризующиеся параметрами n1, S1, N1, I и n2, S2, N2, I2, обладающие одинаковыми информационными возможностями I1 = I2. Тогда можно записать n1 K1 = n2 K2 (1) и K1 / K2 = n2 / n1. (2) Поскольку из условия равенства количеств информации, получаемых при приеме одного слова в обеих системах, должно следовать равенство N1 = N2, (3) имеем S1n1 = S2n2 или n1 lg S1 = n2 lg S2 (4) Подставив (4) в (2), получим K1 / K2 = lg S1/lg S2 (5) Таким образом, коэффициент K пропорционален логарифму числа символов алфавита. Следовательно, выражение для меры количества информации по Хартли можно записать в виде:

I = n lg S = lg Sn = lg N. (6) Например, если у нас имеется устройство, формирующее сообщения из состоящие из двух символов S = 2 и длиной из 8 букв n = 8, то такое устройство может передать количество информации I = lg28= lg256.

Можно заметить, что, lg N = - lg p, где р = 1/N - вероятности регистрации какого-либо слова, которые по условиям опыта одинаковы.

Итак, по Хартли количество информации, получаемое в результате опыта, равно логарифму числа возможных равновероятных исходов.

Логарифмическая мера Хартли обладает свойством аддитивности, т.е. позволяет суммировать количества информации независимых систем при определении общего количества информации, получаемого в обеих системах совместно. Действительно, пусть проводятся два опыта по регистрации слов независимыми системами связи;

при этом число независимых исходов в 1-ой системе равно N1, а во второй – N2. Общее количество возможных исходов Nсум в опыте по регистрации одного слова первой системой и одного слова второй равно Nсум= N1 ·N2 (7) Следовательно, общее количество информации Iсум = lgNсум = lgN1 + lgN2 = I1 + I2, (8) где I1 и I2 - количества информации, получаемые в первой и второй системах соответственно.

В зависимости от основания логарифмов, используемого в выражениях (6),(8) находят применение следующие единицы измерения количества информации:

а) бит - двоичная единица (англ. bit — binary digit — двоичная цифра), при использовании которой I = log2N;

б) д и т - десятичная единица, при использовании которой I = lgN;

в) н и т - натуральная единица, при использовании которой I = lnN.

Выбор той или иной единицы измерения обуславливается удобством вычислений. Нит применяется в различных математических выкладках, которые упрощаются при использовании натуральных логарифмов. Дит используется при анализе измерительных устройств, работающих в десятичной или двоично-десятичной системах счисления. Бит наиболее употребительная единица, информация размером в один бит содержится в ответе на вопрос, требующий ответа “да” или “нет”. Бит применяется при анализе различных компьютерных устройств, а в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Поскольку бит является наиболее распространенной единицей измерения, ниже все рассуждения будут проводиться с использованием этой единицы.

Рассмотрим примеры, поясняющие меру Хартли и единицу измерения информации - бит.

Допустим, что наш текст передается с помощью азбуки Морзе, когда каждой букве сопоставляется некоторый набор точек и тире. Более того, рассмотрим упрощенный случай, когда текст идет подряд без всяких промежутков между буквами и словами. Тогда мы увидим одну сплошную ленту только из точек и тире. В каждой позиции может быть только один из двух символов: либо точка, либо тире. Когда имеется только один из двух вариантов символов, то каждая из ячеек имеет один бит информации.

Вся лента Морзе, имеющая N символов, содержит N бит информации.

Можно сказать, что такая лента "запомнила" определенный текст, и в каждой из ее N "ячеек памяти" заложен один бит информации.

Пример 1. На одном из полей шахматной доски установлена фигура (рис.40). Найдите количество информации, содержащееся в каждом из сообщений:

а) конь находится не вертикали B;

б) конь находится на горизонтали 3;

в) конь находится на поле В3.

Рис. 40. Пояснение к примеру 1.

Заметим, что рассматриваемый пример идентичен случаю нахождения изображения точечного объекта наблюдения на одном из пикселей ПЗС матрицы размером 8x8.

Решение.

а) Шахматная доска имеет 8 вертикалей (для рассматриваемого случая это эквивалентно 8 словам или ситуациям), поэтому NB = 8 и IB = log28 = 3 бит;

б) Шахматная доска имеет 8 горизонталей, поэтому NГ = 8;

IГ = log28 = бит;

в) Шахматная доска имеет 64 поля, поэтому NП = 64;

IП = log264 = 6 бит.

С другой стороны NП = NB ·NГ и IП = log2 (NB ·NГ)= log2 NB + log2 NГ = бит.

Отсюда видно, что мера Хартли действительно обладает свойством аддитивности, позволяющим находить количество информации, содержащееся в полном сообщения, путем суммирования количеств информации, содержащихся в его независимых составных частях.

Поясним логический смысл количества информации на рассмотренном примере. Пусть для выяснения местоположения коня задаются вопросы и отвечающий может воспользоваться только двумя ответами «Да» или «Нет». Тогда количество информации в битах, численно равно количеству правильно заданных вопросов, необходимых для выяснения ситуации, содержащейся в сообщении. Это означает, например, что 6 бит информации, содержащихся в сообщении «конь находится на поле B3», соответствуют 6 заданным вопросам, необходимым для выяснения местоположения фигуры.

§1.2. Количество информации в системе событий с различными вероятностями. Подход Шеннона Рассмотренный §1.1. подход с равновероятностными результатами соответствует идеализированному случаю, когда до опыта (априори) нет никакой информации об изучаемом объекте. На практике, как правило, экспериментатор располагает некоторыми априорными сведениями о свойствах исследуемого объекта, что позволяет делать предсказания.

Следовательно, в этом случае различные исходы опыта уже не равновероятны, и их неопределенность уменьшается по сравнению с опытом, имеющим равновероятные исходы.

Рассмотрим следующий эксперимент. Человек открывает страницу некоторой книги и не глядя, наугад выбирает одну букву. Какой результат он получит? Если у него не имеется никаких сведений о статистических свойствах литературного русского языка, то предсказание исхода невозможно и получение любой из 33 букв в результате опыта для него равновероятно. Однако процесс естественного развития языков привел к тому, что различные буквы встречаются в текстах с неодинаковыми частотами. Вероятности появления, или относительная частота появления в тексте букв в русском языке приведены в таблице 1, относительная частота появления пробела или знака препинания в русском языке составляет 0,174.

Таблица 1. Относительная частота появления в тексте букв в русском языке.

Буква Частота Буква Частота Буква Частота Буква Частота о 0.09 0.038 з 0.016 ж 0. е, ё 0.072 л 0.035 ы 0.016 ш 0. а 0.062 к 0.028 б 0.014 ю 0. и 0.062 м 0.026 ь,ъ 0.014 ц 0. н 0.053 д 0.025 г 0.013 щ 0. т 0.053 п 0.023 ч 0.012 э 0. с 0.045 у 0.021 й 0.01 ф 0. р 0.04 я 0.018 х 0. Из табл.1 видно, что из 1000 наудачу выбранных в тексте букв около 90 раз встретится буква "о", 62 раза - "а", 26 раз-"м" и только 2 раза - "ф".

Таким образом, имея приведенную в таблице информацию можно априори предсказать, что в результате опыта экспериментатор с вероятностью ро = 0,090 выберет букву "о", а о вероятностью ре = 0,072 букву "е" и т.д., то есть результаты такого опыта имеют меньшую неопределенность, чем результаты опыта в случае отсутствия данных таблицы 1.

Вопросы оценки количества информации, получаемой в опыте с не равновероятными результатами, впервые в 1948 году были рассмотрены американским ученым Клодом Шенноном, который заложил основы современной теории информации. Клод Шеннон в своих работах по теории связи выписывает формулы для вычисления количества информация и энтропии. Термин энтропия используется Шенноном по совету патриарха компьютерной эры фон Неймана, отметившего, что полученные Шенноном для теории связи формулы для ее расчета совпали с соответствующими формулами статистической физики, а также то, что “точно никто не знает” что же такое энтропия.

Предположим, что в эксперименте измеряются значения некоторой дискретной случайной величины X. Совокупность всех возможных значений величины X образует полную систему взаимонезависимых случайных событий, называемую ансамблем:

x1, x 2,...., x N X = (9) p1, p 2,...., p N P где xi (i = 1,2,…., N)- значения случайной величины X, которые она может принять в результате проведения опыта;

pi (i = 1,2,…., N) вероятности получения соответствующих значений xi. Поскольку cиcтема событий полная, выполняется условие нормировки N p = 1. (10) i i = Предположим далее, что в результате проведения одного опыта с полной определенностью стало известно, что случайная величина приняла некоторое значение xk (1 k N ). Количество информации, полученное в этом опыте, по определению считается равным Ik = - log2 pk, (11) где pk - априорная вероятность события "Случайная величина приняла значение xk". Величина Ik называется частной информацией, поскольку она характеризует неожиданность (неопределенность) появления отдельного конкретного события (Х = xk) или, иными словами, количество информации связанное с появлением этого события.

Определение (11) является естественным обобщением меры количества информации по Хартли (6) на оду-чай опыта с неравновероятными исходами. Из соотношения (11) видно, что наибольшая информация достигается, если в результате опыта произошло наименее вероятное (наиболее неожиданное) событие. Заметим, что количество информации в виде (11) всегда положительно, постольку в соответствии с условием (10) вероятность каждого из событий всегда меньше единицы.

Усредненной оценкой количества информации при многократных повторениях опыта по измерению величины X является математическое ожидание частной информации – мера Шеннона:

N N E {I k } = pk I k = pk log 2 pk. (12) k =1 k = Мера Шеннона характеризует количество информации, приходящееся в среднем на одно событие. Свойства меры Шеннона:

1) обращается в нуль, когда одно из состояний достоверно, а другие невозможны;

2) непрерывна относительно pk и достигает максимального значения, когда состояния системы равновероятны, например: p1 = p2 = 0.5, E = -(0.5log(1/2) + 0.5log(1/2)) = 1, если p1 = 0.25 p2 = 0.75 то E = -(-0.75* 0.415 - 0.25*2) = 0.811;

3) является монотонно возрастающей функцией N ;

4) обладает свойством аддитивности, то есть в случае объединения независимых систем их информации складываются.

На выходе реальных информационных систем количество информации, содержащееся в сообщении, определяется следующим образом:

I = Ни - Н0, (13) где I - количество информации, содержащееся в сообщении;

Ни - исходная неопределенность ансамбля событий, известная априори;

Н0 неопределенность ансамбля событий, оставшаяся после опыта. До получения информации ситуация характеризуется неопределенностью того, от какого источника она будет направлена, т.е. априорной энтропией:

N H ( X ) = pk log 2 pk. (14) k = Энтропия дискретной случайной величины — это минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной случайной величины. В термодинамике энтропия означает вероятность теплового состояния вещества, в математике – степень неопределенности ситуации или задачи, в информатике она характеризует способность источника отдавать информацию. Энтропия источника бинарных (двоичных) сообщений изменяется от нуля до единицы в зависимости от вероятности сообщений и имеет максимум при p1 = p2 = 0,5. В этом случае мера Шеннона совпадает с мерой Хартли.

Источник с энтропией в 1 бит полностью согласован с каналом, например, реле, имеющим информационную емкость в1 бит. При неравновероятности сообщений канал будет недогружен. Зависимость энтропии от вероятности для бинарного источника иногда называют функцией Шеннона (рис. 41.) Рис. 41. Энтропия бинарного источника.

Таким образом, маловероятное событие несет большее количество, информации, чем событие высоковероятное. Это свойство количества информации соответствует психологической реакции человека.

Действительно, как показано в экспериментальных исследованиях, чем неожиданнее (маловероятнее) происходящее перед глазами человека событие, тем больше соответствующее ему время задержки реакции человека на это событие;

при этом соблюдается пропорциональная зависимость между временем задержки и количеством информации, найденным по формуле (11). Для примера на рис. 42 заимствованном из работы американского психолога Р. Xаймана кружками отмечены данные восьми опытов, состоящих в определении среднего времени, требующегося испытуемому, чтобы указать, какая из k лампочек (где k менялось от 1 до 8) зажглась.

Рис.42. Опыт с лампочками.

Это среднее время определялось из большого числа серий зажиганий, в каждой из которых частоты зажиганий всех лампочек были одинаковыми, причем предварительно испытуемый специально тренировался в подобных опытах. По оси ординат на рис. 42 отложено среднее время реакции, а по оси абсцисс — величина log2 k;

при этом, как мы видим, все 8 кружков довольно точно укладываются на одну прямую.

§1.3. Обобщенная схема информационной системы Использование информации связано с ее передачей от источника в потребителю. В общем случае система передачи информации, преложенная К. Шенноном (C. E. Shannon. A Mathematical Theory of Communication. //The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948.) состоит (рис.43) из источника сообщений (information source), передатчика (transmitter), линии связи (signal, received signal), приемника (receiver) и адресата (destination). Она оперирует сообщениями (message), сигналами, шумами (noise source).

Рис.43. Обобщенная схема информационной системы.

Под сообщением понимают реализацию случайного процесса, представленного в форме последовательности дискретных символов (букв, цифр, знаков), последовательности значений физических величин (результатов измерения потока излучения или напряжения на фотодиоде) через определенный интервал времени, непрерывных временных или пространственных функций (развертка телевизионного кадра, фотоснимок, чертеж, изображение).

Источник сообщений осуществляет выбор конкретного сообщения из ансамбля возможных сообщений. Источниками информации могут быть человек, фотоприемное устройство, различные датчики физических величин, измерительные устройства и т.п.

Передатчик перерабатывает сообщения в сигналы, соответствующие свойствам данного канала. Под сигналом понимается некоторая физическая величина, изменениями которой отображается сообщение.

Обычно передатчик состоит из кодирующего устройства и модулятора. В телефонной системе связи передатчиком служит микрофон, осуществляющий преобразование звука в модулированный электрический ток, который затем передается по двухпроводной линии связи. В телеграфном передатчике символы исходного сообщения (буквы, цифры, знаки) сначала кодируются (преобразуются в последовательности вторичных символов в виде точек и тире), а затем с помощью модулятора преобразуются в конкретный сигнал (электрический ток) передаваемый по линии связи. В лазерной системе связи сообщение (последовательность звуков) преобразуется в изменения амплитуды, фазы или частоты электромагнитного поля излучения. Сочетание источника сообщений с пе редатчиком будем называть источником сигнала.

Линия связи - это тракт движения сигнала, физическая среда (коаксиальный кабель, оптоволокно, витая пара и т.д.) осуществляющая перенос информации от передатчика к приемнику. Устройство, включающее в себя передатчик, линию связи и приемник, называют каналом связи.

В процессе передачи по линии связи сигнал может быть искажен помехами (шумами). С целью учета влияния шумов, создаваемых внешними и внутренними источниками или наложением других сигналов, в блок-схему введен эквивалентный источник помех. При этом на выходе линии связи вместо исходного неискаженного сигнала имеем сигнал с наложенным на него шумом. Искажение сообщений помехами исключают посредством помехоустойчивого кодирования и декодирования информации в передатчике и приемнике, соответственно.

Приемник восстанавливает сообщение из сигнала, выполняя преобразования, обратные преобразованиям передатчика.

Адресат - это лицо или аппарат, для которого предназначено сообщение. Как правило, адресат обладает свойствами запоминания и обработки информации, а иногда и свойством управления.

Источники информации делятся на дискретные и непрерывные.

Непрерывный источник выдает информацию в виде непрерывных функций времени, координат или того и другого вместе. Дискретный источник выдает информацию символ за символом в соответствии с вероятностями появления символов и их сочетаний. К дискретным источникам информации относятся, например, тексты на русском, английском и других языках, набор фотографий, предъявляемых фототелеграфному устройству и т.п. Кроме того, в дискретным источникам относятся источники непрерывных сообщений, используемые в сочетании с устройствами дискретизации и квантования, с помощью которых непрерывная функция преобразуется в функцию дискретного аргумента и дискретное множество цифровых значений (кодовых комбинаций), каждое из которых может рассматриваться в качестве эквивалента отдельного символа.

§1.4. Основные характеристики информационной системы Символы, генерируемые источником сообщений, имеют некоторую продолжительность во времени и появляются через определенные интервалы времени. Для дискретного источника сообщений поток генерируемой информации можно определить следующим образом:

H ( X ) = v0 H ( X ), (15) где v0 = 1/0 - средняя скорость генерации символов сообщения;

0 среднее время генерации одного символа;

Н(X) - энтропия источника сообщений, характеризующая среднее количество информации на символ сообщения.

Поток информации характеризует среднее количество информации, генерируемое источником сообщений в единицу времени. В случае сообщений, состоящих, например, из дискретных символов, для увеличения потока информации необходимо увеличивать энтропию сообщений, приходящуюся в среднем на один символ, а также сокращать промежутки времени между символами.

Статические свойства источника сообщений в общем случае не совпадают со статистическими свойствами канала связи, зависящими от выбранного кода и статистических свойств помех. Наличие помех снижает пропускную способность канала связи С которая определяется как наибольшая возможная скорость передачи информации по данному каналу, т.е.

I max (T ) = v max max{I (Y, X )}, C = lim (16) T где Imax(T) - максимальное количество информации, которое может быть безошибочно передано по каналу за время Т ;

vmax - максимальная скорость передачи символов по каналу;

max{I(Y,X)}- предельно возможное значение среднего количества информации, содержащегося в одном символе принятого сообщения.

Если возможно надежно различить в канале М функций сигнала длительностью Т, то можно сказать, что канал может передавать log2 М битов за время T. Соответственно, скорость передачи будет (1/Т) log2M, или пропускная способность канала может быть определена как предел log 2 M выражения C = lim. Если по каналу без помех передается двоичная T = T информация, т.е. log2M = 2 то формула упрощается: С =.

Шеннон показал, что можно сообщения источника закодировать так, что среднее количество информации, приходящееся на символ источника, будет близко к максимальному. Это положение сформулировано в теореме Шеннона о кодировании для каналов без помех. Если производительность источника R меньше пропускной способности канала C, его сообщения можно закодировать так, что скорость передачи может быть как угодно близка к пропускной способности канала.

H (X ) В соответствии с определением, R =, где H(X) – энтропия T источника (см. (14)), T - средняя продолжительность кодовой комбинации:

N T = 0 pk nk, 0 - длительность одного символа, nk - длина k-ой кодовой k = комбинации. Отсюда можно вывести:

N pk log 2 pk R= = k =. (17) N 0 pk nk k = Для выполнения равенства необходимо, чтобы nk = -log2pk, т.е.

кодирование нужно осуществить так, чтобы длину кодовых комбинаций сообщений ставить в зависимость от количества информации, которое переносится данным сообщением или от вероятности данного сообщения.

Часто встречающиеся, т.е. малоинформативные сообщения, следует кодировать короткими комбинациями, редко встречающиеся - длинными.

В этом случае в среднем все сообщения источника будут закодированы меньшим числом символов, чем при любом другом способе кодирования.

По этой причине данный код называется оптимальным или эффективным, а т.к. при его создании учитываются вероятности сообщений, он называется статистическим и без разделительных знаков, т.к. возможно однозначное декодирование, если при передаче нет ошибок за счет помех.

Одним из примеров такого оптимального кодирования являются мобильные радиотелефонные сотовые сети GSM. Реализованное в системах GSM полноскоростное кодирование речи предоставляет хорошее "сотовое качество" передаваемой речи. Однако благодаря быстрому развитию в течение последних нескольких лет алгоритмов кодирования речи с низкой скоростью битового потока сейчас стало возможным полностью избавиться от имиджа "сотового качества" и достигнуть в сотовых сетях такого же качества речи, как в обычной телефонной сети. В обычной цифровой телефонной сети, при частоте дискретизации 8кГц и 8 ми битовой разрядности кода получаем скорость передачи сформированного сигнала 64 кбит/с, которая и является скоростью основного цифрового канала (рис. 44). Соответственно линия связи должна обеспечивать скорость передачи данных не менее 64 кбит/с. В сетях GSM в качестве речепреобразующего устройства выбран речевой кодек с регулярным импульсным возбуждением/долговременным предсказанием и линейным предикативным кодированием с предсказанием (RPE/LTR-LTP-кодек). Общая скорость преобразования речевого сигнала в итоге сокращается до 13 кбит/с, что позволяет передать большое число каналов в радиодиапазоне.

Рис. 44. Сравнение блок-схем цифрового и мобильного телефона GSM.

§1.5. Дискретизация и теорема отчетов (Котельникова) Для понимания теоремы Шеннона об информационном канале с шумом напомним определения понятий дискретизации и интерполяции.

Определение. Представление непрерывного (аналогового) сигнала x(t) дискретной последовательностью отсчетов x(tk)=x(k, t), по которым с заданной точностью можно восстановить исходный непрерывный сигнал, называется дискретизацией на равномерной сетке.

Определение. Процесс восстановления дискретизированного сигнала называется интерполяцией. Допустим, у нас есть непрерывное изображение i(x,y). После дискретизации мы получаем дискретное изображение I(xk,ym). Затем интерполируем его и переходим к изображению i’(x,y). Естественно возникает вопрос: как нужно проводить дискретизацию, чтобы не происходила потеря информации, т.е. при каких условиях исходное изображение i(x,y) совпадает с восстановленным i’(x,y)?

Ответ на этот вопрос может быть получен из теоремы Котельникова.

Теорема. Пусть сигнал s(t) задан на бесконечной оси времени, - t, с ограниченной полосой спектра s(), тогда справедливо равенство:

k (t k ) sin 2F (t sin ) k sin (2 Ft k ) k s (t ) = s (k ) = s( ) s( 2F ) (2Ft k ) = 2F = k 2F (t k ) 2F (t k = k = k = ) 2F (18) k sin (t ) k sin[t k ] k s( ) = s( ), k t k (t ) k = k = где - интервал времени между соседними равноотстоящими отчетами сигнала s(t):

= =. (19) 2F Т.о., сигнал, описываемый непрерывной функцией времени s(t) с ограниченным спектром, полностью определяется своими значениями, отсчитанными через интервалы времени =1/(2F), где F- ширина спектра сигнала. Частота 2F называется частотой Найквиста или частотой дискретизации. Это минимальная частота, с которой нужно посылать импульсы, чтобы не было потери информации. В формуле (19) константу обычно называют периодом дискретизации, последовательность s(k) – последовательностью дискретизированных значений.

Рис. 45. Представление сигнала s(t) рядом (18).

На рис. 44 проиллюстрировано представление сигнала рядом (18), сплошная линия s(t) представляет сумму сплошного и пунктирных горбов функции в правой части (18), умноженных на величину амплитуд s(k) в точках k.

На практике восстановленная функция, как правило, не совпадает точно c передаваемой функцией s(t). Ошибка обусловлена, например, тем, что спектр передаваемой функции обычно ограничен не резко. Это вытекает хотя бы из того факта, что все реальные сигналы ограничены во времени и, следовательно, имеют неограниченные строго спектры. Выбор интервалов отсчетов 0 означает, что все спектральные составляющие спектра с частотами max= не передаются и не могут быть восстановлены. Если 2F 1, то исходная функция не может быть восстановлена.

Теорема была сформулирована В. А. Котельниковым в 1933 году в его работе «О пропускной способности эфира и проволоки в электросвязи»

и является одной из основополагающих теорем в теории и технике цифровой связи.

§1.6. Пропускная способность канала при наличии белого теплового шума Предположим, что помеха в системе есть белый тепловой шум, ограниченный полосой частот f. Эта помеха, добавляясь к переданному сигналу, дает принятый сигнал. Белый тепловой шум характеризуется тем, что изменения каждого отсчета независимы от других и что распределение мгновенных значений подчинено гауссовскому закону со стандартным отклонением = PШ где PШ — средняя мощность помехи. Сколько различных сигналов можно распознать на приемном конце, несмотря на наличие обусловленных помехой изменений? Если бы шума не существовало, то число дискретных уровней сигнала было бы бесконечным. В случае наличия шума последний определяет степени различимости отдельных уровней амплитуды сигнала. Если сигнал имеет мощность РС, то сигнал, измененный наложенной помехой, будет иметь мощность РC + PШ. Так как мощность является усредненной характеристикой амплитуды, число различимых уровней сигнала по мощности равно (PС + PШ) / PШ, а по амплитуде соответственно:

PС + PШ M=. (20) PШ Согласно теореме Котельникова за время Т имеется 2Tf независимых значений, тогда полное число различимых сигналов будет равно:

2Tf P + PШ M = С.

PШ Число битов, которое можно передать за время Т, равно log2M и скорость передачи и предельная информационная емкость канала согласно (16), определяется как:

PС + PШ P + PШ C= 2Tf log 2 = f log 2 С. (21) T PШ PШ Формулу (21) вывел К. Шеннон в своей работе «Связь при наличии шума», опубликованной в 1949 г. Из (21) следует, что при фиксированной полосе частот пропускная способность определяется только отношением мощностей сигнала и помех. Ограничение пропускной способности канала связано с тем, что любые используемые для связи сигналы имеют конечную мощность. C = 0 только при PС + PШ = 0. Канал связи обеспечивает передачу информации даже в том случае, если уровень шумов превышают уровень сигнала – это используется для скрытой (неперехватываемой) передачи. Повысить пропускную способность непрерывного канала можно в основном за счет расширения полосы пропускания.

Наибольшую пропускную способность в соответствии с (21) имеют волоконно-оптические линии связи, использующие полосу частот f ~ Гц.

Рис.46. Зависимость скорости передачи в полосе 1 Гц от соотношения сигнал/шум в канале связи. 1 – граница Шеннона;

2 – использование фазовой модуляции;

3 - использование амплитудной модуляции;

4 - использование частотной модуляции.

На рис. 46. приведены данные по эффективность цифровых систем связи при различных типах дискретизации данных. Как видно из графика, на настоящее время еще не достигнут предел, определяемый теоремой Шеннона.

Фундаментальный энергетический предел передачи информации основан на теореме К. Шеннона для максимальной емкости канала связи (21). Для гауссового источника с тепловым шумом можно записать, что PШ = kT· F, где k = 1,38·10-23 Дж/K константа Больцмана, T – температура в К°. Тогда (21) можно переписать:

PC (22) C = F log 2 1 + kT F Вычислим значение средней энергию на один бит информации путем деления средней мощности сигнала на скорость передачи информации из (22):

F CF PC 2 Ebav == kT C C (23) dEb вычисляя производную C и приравнивая её нулю по правилу d F Лопиталя можно получить:

C 0 = Ebmin = (ln 2 ) kT Eb (24) F Таким образом, для передачи по каналу связи с гауссовым шумом одного бита информации необходимо затратить, по крайней мере, энергию, равную kTln2.

§1. 7. Избыточность информации Энтропия источника сообщений, как было показано К. Шенноном принимает максимальное значение Нmax, если его состояния равновероятны. Однако в реальных системах это условие не выполняется и Н Нmax. Применительно к передаче сообщений условие H Hmax означает, что сообщения реального источника могли бы нести большее количество информации. Например, можно вычислить, что максимальная энтропия русского алфавита (33 буквы) Hmax = log233 5 бит/символ, а исходя из статистических данных по текстам - H = 4,35 бит/символ. В английском языке, с 26 буквами и одним пробелом, Hmax = log227 = 4. бит/символ. Конечно же, реальная энтропия английского языка много меньше абсолютной интенсивности – английский чрезвычайно избыточен.

В реальном английском языке буквы не равновероятны (например, буква E встречается с большей вероятностью, чем Q). Используя относительные частоты различных букв для вычисления энтропии, мы получили бы оценку около 4,03 бита на символ.

Можно определить абсолютную недогрузку источника как Dabs = H max H, бит/символ. В случае Dabs 0 энтропия H передаваемого реального cобщения меньше максимально возможного ее значения.

Следовательно, до проведения опыта у экспериментатора есть сведения об этом сообщении, то есть имеется некоторое количество априорной информации. Поэтому величину Dabs называют абсолютной избыточностью информации, которая применительно к языку показывает недогруженность источника информации в среднем на один символ алфавита.

Для оценки свойств источников сообщений нередко пользуются понятием относительной информационной избыточности, которая является безразмерной величиной и определяется по формуле:

H max H H D= = 1. (25) H max H max При описании источника информации совместно с каналом связи CH относительная избыточность определяется соотношением D =, где С C - пропускная способность канала;

Н - поток информации. Из этого следует, что при D 0 принципиально возможна безошибочная передача информации по каналу, поскольку выполняется условие H C.

На избыточность информации можно посмотреть по-иному, а именно: исследование сообщений текстов телеграмм, кодов и т. д.

показало, что все они обладают избыточной информацией, которую можно и не передавать по каналам связи. Но то, что избыточно для каналов связи, вовсе не лишнее для самого языка. Именно избыточная информация, накапливаемая в совокупности всех грамматических и фонетических правил и сделала язык языком. Наличие избыточности в сообщении повышает его помехоустойчивость, а также позволяет восстанавливать исходное сообщение при значительных искажениях в канале связи. В случае необходимости повысить помехоустойчивость сообщений, избыточность полезна и ее специально вводят в сообщение. Если помехи малы, то из-за перегрузки канала связи избыточность вредна, и ее стремятся исключить или уменьшить.

§2. Теория информации в оптике Применение понятий теории информации для описания оптических и оптико-электронных систем (ОЭС) позволяет с единых позиций анализировать прохождение сигналов в оптических системах различных типов, начиная с пространства изображений и кончая электронными каналами ОЭС. Единообразный подход обеспечивает объективное количественное сопоставление оптических систем различных типов, анализ и оптимизацию их параметров, определяющих качество изображений (сигналов) оптическими и оптико-электронными системами.

Кроме того, перенос понятий теории информации в такие, казалось бы, чисто оптические области, как например, разрешение оптических систем, позволяет установить инварианты, описывающие процесс формирования изображения, и определить условия, обеспечивающие получения пространственного разрешения, превосходящего классический предел, определяемый дифракцией световых волн на апертурной диафрагме.

Однако, следует отметить, что описывая процесс прохождения и обработки сигналов, теория информации не дает ответа на вопрос: как технически реализовать рассматриваемый алгоритм обработки сигналов. В связи с этим, при изучении информационных понятий в конкретных оптических системах необходимо иметь ясное проставление о принципах их работы и создания, то есть изучение данного раздела предполагает предварительное знакомство с дисциплинами по оптике и оптическим системам. При переносе понятий теории информации в оптику появляется ряд новых закономерностей, что обусловлено четырехмерным характером оптических полей, изменяющихся в пространстве и во времени.

Действительно, многомерность сигналов позволяет реализовать системы обработки информации одновременно по многим независимым каналам, а также создать системы хранения информации с плотностью до 1 Тбит/см3.

Кроме того, оптические сигналы распространяются с предельной достижимей скоростью c = 3·1010см/с, что обеспечивает максимально возможное быстродействие процесса получения и обработки информации.

Целью настоящей главы является формирование основных понятий и соотношений, описывающих оптические поля и системы с ин формационных позиций, а также рассмотрение в качестве примеров некоторых оптических систем записи и обработки информации.

§2.1. Число пространственных степеней свободы когерентных оптических сигналов Рассмотрим дифракционно ограниченную оптическую систему, заданную своими зрачками (рис. 47.), которые для упрощения рассмо трения будем предполагать прямоугольными с размерами Сх, Су по соответствующим осям.


Рис. 47. Дифракционно ограниченная оптическая система: а) расположение и габариты предмета Р, изображения Р' входного С и выходного С' зрачков;

б) ход лучей в плоскости уz;

Предположим, что оптической системе предъявляется объект Р, имеющий размеры Аx и Ay по соответствующим осям и освещаемый слева пространственно когерентным монохроматическим плоско поляризованным излучением с длиной волны. Оптическая система формирует изображения предмета в плоскости Р'. Какое количество взаимно независимых отсчетов комплексной амплитуды сигнала может быть, в принципе, снято в плоскости изображения Р' ? Отметим, что полное число независимых отсчетов в плоскости Р' равно полному набору независимых пространственных параметров, описывающих распространение оптического сигнала через рассматриваемую систему.

Известно, что невозможно различить в изображении детали предмета меньшие по размерам, чем разрешаемый элемент. В связи с этим, в пределах одного разрешаемого элемента с поляризованным монохроматическим оптическим сигналом связаны только два параметра (амплитуда и фаза), имеющие для данного предмета вполне конкретные значения. В то же время, в пределах двух соседних разрешаемых элементов комплексные амплитуды поля могут иметь различные значения в зависимости от параметров предмета.

Таким образом, при неизменной поляризации, число простран ственных степеней свободы оптического сигнала, распространяющегося в данной системе, равно числу элементов N, разрешаемых в изображении предмета, т.е.

'' Ax Ay N= = Nx N y, (26) x ' y ' где A'x, A'y - линейные размеры изображения;

x', y' - линейные размеры разрешаемого элемента в изображении по соответствующим осям;

Nx = A'x/x' Ny = A'y/y' - количества независимых отчетов вдоль осей. Из ( ) видно, что общее число независимых параметров равно произведению числа разрешаемых элементов по осям x и у.

Известно, что любая оптическая система обладает ограниченной разрешающей способностью, которая обусловлена волновой природой света. По классической теории Аббе и Рэлея это ограничение связано с дифракцией и определяется длиной волны используемого излучения и числовой апертурой оптической системы. Повысить разрешающую способность возможно при увеличении апертуры оптической системы и уменьшении длины волны используемого излучения. Для дифракционно ограниченной оптической системы (системы без аберраций) размеры разрешаемого элемента определяются соотношениями:

x / = ;

y / =, (27) / / U Uy x / C x/ Cy где U = /, U y = / - задние апертурные углы в координатных плоскостях / / x S S X0Z и Y0Z.

Из (4.1.2.) следует, что общее число пространственных степеней свободы Ay C y Ax/ Ay / A/ C / / / / = N = x /x, (28) S S / где / - телесный угол, под которым виден выходной зрачок оптической системы из осевой точки изображения. Поскольку плоскости зрачков, предмета и изображения сопряжены, соотношение (28) может быть записано в виде Ax Ay С x С y Ax Ay N= =, (29) 2 S где АxАу - площадь предмета;

СxСу - площадь входного зрачка;

= CxCy/S - телесный угол, под которым виден входной зрачок из осевой точки предмета.

Заметим, что числа степеней свободы, связанные c координатными осями 0Х и 0Y, могут быть определены следующим образом:

AyU y Ax U x Nx =, Ny =, N = NxNy, (30) где Ах, Ay линейные размеры предмета;

Ux,Uу - передние апертурные углы в соответствующих координатных плоскостях.

§2.2. Теоремы Д. Габора.

Более строгое вычисление числа пространственных степеней свободы когерентных оптических сигналов было дано Д. Габором на основе теоремы Котельникова об отчетах и теоремы Шеннона о пропускной способности информационного канала с шумом.

Рассматривая оптическую систему как линию связи, осуществляющую передачу информации об объекте в пространство изображения, можно провести аналогию между образованием оптического изображения и передачей электрических сигналов. Если в технике электрической связи сигнал является функцией времени, то при передаче оптического изображения сигнал — функция пространственной координаты;

временным частотам электрических сигналов соответствуют оптические пространственные частоты. Наиболее полно эта аналогия раскрывается при передаче изображения телевизионным способом. В этом случае при поэлементном сканировании изображения пространственные координаты преобразуются во временные, а пространственные частоты объекта определяют частотный спектр электрического сигнала. Эта аналогия позволяет рассмотреть вопросы формирования изображения с помощью оптической системы на основе общих представлений теории информации.

Рис.48. К теореме Д. Габора. ПО — плоскость объекта, H — главная плоскость линзы, A — апертурная плоскость, F — фокусное расстояние, х, у — координаты плоскости объекта, x y - апертурные углы, x, Кy — координаты плоскости Фурье.

Д. Габор сформулировал аналог теоремы Котельникова для передачи изображения с помощью оптической системы:

Предположим, что плоскость объекта, превышающая по площади квадрат длины волны, ограничена черным экраном (рис. 4.2.1.). Предположим также, что существует подобное ограничение в апертурной плоскости оптической системы. Тогда в области, ограниченной этими двумя черными экранами, существует n независимых решений волнового уравнения Гельмгольца 2 u + (2 / ) 2 u = 0, причем n определяется выражением:

U xU y Ax Ay n = 2 dxdyd (sin x )d (sin y ) =, (31) что совпадает с оценкой (28 - 30).

Таким образом, любая световая волна, проходящая через плоскость объекта и через апертурную плоскость, может быть разложена в n собственных решений с n комплексными коэффициентами, причем n определяется размером апертуры системы.

Проведем количественную оценку информационной емкости оптической системы с точки зрения волновой теории света. Пусть единичная плоская монохроматическая волна, с волновым вектором k = распространяющаяся в направлении оси z 2/ и частотой u0 = exp[i (kz + 2t )], и падает на двумерный объект, расположенный в плоскости z = 0, обладающий некоторым амплитудно-фазовым (комплексным) пропусканием t(x,у). Непосредственно за объектом комплексная амплитуда проходящей волны будет иметь вид:

u ( x, y,0, t ) = t ( x, y ) exp(i 2t ). (32) Разложим пространственную часть комплексной амплитуды проходящей волны в компоненты двумерного Фурье-преобразования по формуле:

1 + + t ( x, y ) = T (k x, k y ) exp[i ( xk x + yk y )]dk x dk y, (33) 2 где + + T (k x, k y ) = t ( x, y ) exp[i ( xk x + yk y )]dxdy. (34) Каждая компонента в разложении Фурье есть плоская пространственная волна с составляющими волнового вектора kx ky и k z = k 2 k x2 k y2, т.е. с kx ky направляющими косинусами cos = kx/k, cos = ky/k, cos = 1.

k k Таким образом, двойной интеграл Фурье (33) является представлением поля в виде спектра плоских волн, распространяющихся в различных направлениях. Функция (kx, ky) определяет амплитуду каждой из волн и является угловым спектром комплексного поля u(x,y). Можно также определить пространственные частоты, которые связаны множителем 2 с составляющими волнового вектора: Fx = kx/2, Fy = ky/2,и k Fx Fy. На основании принципа суперпозиции амплитуда в Fz = 2 любой точке за объектом может быть вычислена путем суммирования отдельных волн, соответствующих пропусканию каждой компоненты Фурье. Благодаря явлению дифракции на синусоидальных решетках, ориентация, частота и амплитуда которых определяются разложением Фурье, плоские волны, соответствующие каждой компоненте Фурье, распространяются в направлениях, определяемых направляющими косинусами которые связаны с пространственными частотами формулами:

cos = fx, cos = fy, cos = 2 ( f x2 + f y2 ). Очевидно, что при (f ) + f y2 2 получаются затухающие волны, амплитуда которых x экспоненциально уменьшается в направлении z, и они практически исчезают на расстоянии нескольких длин волн. Отсюда следует известный вывод о том, что свет с длиной волны, независимо от обстоятельств, не будет нести информацию о деталях объекта, размеры которых меньше /2.

Рассмотрим теперь, как распространяется информация об объекте, зафиксированная в прошедшей через него световой волне, при увеличении расстояния z. Если картина распределения освещенности за объектом меняется очень быстро, так что объект становится неразличим, модули фурье-трансформации (kx, ky) не меняются вообще. Это понятно, так как каждая точка фурье-образа плоского объекта с координатами kх, ky соответствует определенному направлению распространения световой волны, которое в свободном пространстве не меняется. При z — все сходство с объектом теряется и распределение освещенности становится идентичным фурье-образу объекта.

Если поместить на некотором расстоянии z от объекта линзу с определенными конечными размерами, то будет потеряна часть информации об объекте, заключенная в компонентах Фурье, световые волны от которых проходят за пределами зрачка этой линзы. Поэтому линза пропустит только те пространственные частоты, для которых 1 ( ) arccos 2 f x2 + f y2, где — апертурный угол линзы. Число степеней свободы волнового поля при передаче изображения с помощью оптической системы можно определить как число независимых реально существующих параметров, необходимых для полного описания волнового поля, формирующего изображение объекта. Для простоты рассчитаем число N степеней свободы волнового поля в пространстве изображений для оптической системы с прямоугольной апертурой, считая, что поверхность изображения — прямоугольник с размерами Lx и Ly. Для расчета удобно сделать следующее предположение: пусть распределение амплитуд в плоскости объекта повторяется с периодичностью Lx и Ly в направлениях x и у. Это предположение не должно влиять на результат, так как, очевидно, никакой информации не добавляется. При этом спектр пространственных частот объекта становится дискретным и соответствует разложению поля u/(x,y) в плоскости объекта в ряд Фурье:


i 2n y i 2nx Nx Ny u / ( x, y ) = Cnx Сny exp L exp L, (35) x Nx N y y где Nx = Lxk/x/, Ny = Lyk/y/ полное число степеней свободы, связанные c координатными осями 0Х и 0Y, k'х и k'у — предельные пространственные частоты, пропускаемые оптической системой в направлениях x и y соответственно. Таким образом, сохраняются следующие пространственные частоты с весовыми коэффициентами Cnx и Cny:

2n y 2nx kx =, ky =, nx, n y = 0,±1,... ± N x, y. (36) Lx Ly Полное число степеней свободы поля монохроматической световой волны с учетом апертуры системы будет равно:

Lx k x/ Ly k y / 1 +.

N = 2(1 + N x )(1 + N y ) = 21 + (37) В полученном выражении (37) слагаемые, равные 1 в круглых скобках, учитывают плоские волны с нулевыми пространственными частотами kx = ky = 0, распространяющимися вдоль оптической оси системы. Кроме того, необходимо учитывать, что для каждой степени пространственной свободы волнового поля имеются два независимых состояния поляризации, которые могут быть использованы для передачи изображения, что приводит к появлению множителя 2 в выражении (37).

Если объект является нестационарным, т. е. изменяющимся во времени или перемещающимся, то необходимо рассмотреть также временные параметры оптической системы, связанные со свойствами света. Идеально монохроматические сигналы в природе не реализуются, поскольку энергия, связанная c монохроматической волной равна нулю.

Конечная величина электромагнитной энергии переносится только квазимонохроматическими волнами с / 1, где - ширина спектра, - центральная частота. Для таких сигналов во всех выше полученных соотношениях длину волны, необходимо заменить на среднюю длину волны ср = c/.

В случае квазимонохроматической волны каждая пространственная степень свободы волнового поля может быть рассмотрена как отдельная независимая временная линия связи. Согласно теореме Котельникова такой сигнал имеет Nt = 2(1 + ) степеней свободы в интервале частот за время наблюдения. Когерентные оптические сигналы являются комплексными и информация может быть связана с модуляцией как амплитуды, так и фазы волны, что увеличивает число информационных степеней свободы вдвое.

Таким образом, общее число степеней свободы волнового поля при формировании изображения с помощью оптической системы можно записать в виде:

L k / L k L k / L k / / N 0 = 2 N t 1 + x x 1 + y y = 4(1 + )1 + x x 1 + y y. (38) Д. Габор доказал следующую теорему: при заданных размерах предмета, времени наблюдения, спектральной полосе пропускания и апертуре оптической системы, фундаментальным инвариантом является общее число временных и пространственных степеней свободы сигнала N0.

Никакими методами невозможно получить большее число независимых параметров сигнала, чем определяется выражением (38).

Для Lxk'x 1 и Lyk'y 1, что имеет место в большинстве случаев, можно записать:

/ Lx k x/ Ly k y N0 4 Nt = 4 N t SW, (39) где W = k'хk'у/2 — ширина полосы пространственных частот, пропускаемая системой, S = LxLy — площадь объекта. Величина SW, представляющая собой произведение площади объекта на максимальную пространственную частоту, определяет, очевидно, число пространственных степеней свободы волнового поля объекта, используемых для формирования изображения.

Поскольку волновое поле при формировании изображения является носителем информации, справедливо следующее утверждение:

инвариантным для данной системы является только число N0 степеней свободы волнового поля (N0 = const), а не ширина полосы пропускания пространственных частот. Д. Габором было также показано, что в пределах полного числа степеней свободы (38) можно взаимно менять соотношения между пространственными, временными и поляризационными степенями свободы, сохраняя при этом полное число N0 постоянным. Таким образом, оказывается возможным превзойти предельную пропускаемую пространственную частоту для данной системы путем эффективного использования степеней свободы волнового поля объекта при соответствующем уменьшении одного из других сомножителей в формуле (38). Этот тезис лежит в основе методов формирования изображения с повышением разрешения.

В соответствии с концепцией степеней свободы волнового поля как основного инварианта оптической системы возможно:

1) увеличить ширину полосы передаваемых пространственных частот путем уменьшения ширины полосы передаваемых временных частот (при нулевой ширине полосы передаваемых пространственных частот, например в случае одномодового волокна, можно использовать для передачи пространственной информации временные частоты);

2) увеличить ширину полосы пространственных частот в направлении x с соответствующим сокращением полосы в направлении у, причем так, что исходная двумерная полоса пространственных частот W останется неизменной;

3) увеличить ширину полосы передаваемых пространственных частот путем уменьшения полезного поля объекта.

Для осуществления этих возможностей предложен и осуществлен ряд оригинальных оптических систем, формирование изображения с помощью которых, позволяет превзойти классический предел разрешающей способности. Общим для всех этих систем является то, что в сопряженных плоскостях пространства предмета и пространства изображения помещают специальные устройства, расщепляющие световые пучки (рис.49). Устройство M1 в пространстве предмета расщепляет падающий световой пучок на несколько когерентных пучков, освещающих объект под различными углами падения. При прохождении этих пучков через объект происходит дифракция световых волн на каждой пространственной частоте объекта.

Рис.49. Обобщенная схема, поясняющая принцип увеличения разрешающей способности оптических систем при использовании устройств, расщепляющих световые пучки. M1 и М2 — расщепляющие устройства, установленные в пространстве предмета и в пространстве изображения, ПО — плоскость объекта, ПИ — плоскость изображения, О — оптическая система.

Таким образом, в пространстве изображения системы появляется несколько волн, соответствующих одному и тому же компоненту пространственной частоты объекта. Но в оптической системе, у которой выполняется свойство инвариантности в пространстве, должна быть только одна волна, соответствующая одной пространственной частоте объекта. Поэтому устройство М2, установленное в пространстве изображений, воздействует на все волны, соответствующие одному компоненту пространственной частоты, таким образом, чтобы соединить их в одном направлении. При этом, однако, возникают волны с другими нежелательными направлениями. Исключение или нейтрализация этих волн являются основной проблемой при осуществлении таких систем.

Если эта задача решена, то удается получить пространственно инвариантное изображение объекта.

§2.3. Число степеней свободы частично когерентных оптических сигналов Явления интерференции и дифракции электромагнитных волн обычно описывают, используя понятия об идеально когерентных и идеально некогерентных световых пучках. В первом случае суммируются амплитуды оптических полей и суперпозиция пучков наблюдается обычно по интерференционной картине на экране. Во втором случае складываются интенсивности и интерференционная картина не наблюдается. В действительности оба эти случая не что иное, как математическая идеализация, поскольку реальные световые пучки частично влияют друг на друга, т. е. коррелируют между собой. Таким образом, в действительности ситуация является промежуточной и соответствует случаю частично когерентных световых пучков. Выражение (4.2.7.) получено в предположении полной пространственной и временной когерентности светового пучка (измеряется не только интенсивность, но и фазовые соотношения в каждом разрешаемом элементе). В случае частично когерентных световых полей появляется ряд новых закономерностей в теории информации для оптических систем по сравнению со случаем полной когерентности излучения.

Любое оптическое поле, существующее в природе, обладает определенными статистическими свойствами, ибо создается множеством некоррелированных элементарных источников (атомов) и, следовательно, представляет собой статистическую динамическую систему. Поэтому, вообще говоря, в теории когерентности основным является статистическое описание электромагнитного поля, статистические свойства которого проявляются в виде его когерентности. Корреляционная функция второго порядка для стационарных и эргодических полей3 называется взаимной функцией когерентности. Ее можно записать как:

T ( x1, x2, ) = lim V * ( x1, t )V ( x2, t + )dt, T 2T (40) T где V*(x1, t), V(x2, t+) – комплексные аналитические сигналы, определяющие электрическое поле волны в точках x1 и x2, и в моменты времени t и t+ соответственно. Функция пространственной когерентности, определяющая корреляцию комплексных амплитуд светового поля в двух точках с координатами x1 и x2, расположенных в поперечном сечении светового пучка, при = 0, определяется соотношением, выведенным из выражения (4.3.1.):

Для стационарных полей корреляционные функции не зависят от выбора начала отсчета времени. Для эргодических полей усреднение по ансамблю можно заменить усреднением по времени.

( x1, x2 ) = V * ( x1, t )V ( x2, t + ), (41) где - символ операции усреднения по времени.

Комплексный аналитический сигнал для описания оптических полей ввел Д. Габор, и в случае непрерывных функций его можно записать в виде:

V ( x, t ) = A( x, t ) exp[i (t + ( x, t )] a( x, t ) exp[it ], (42) где A(x,t)- медленно меняющаяся огибающая сигнала (амплитуда), – центральная частота сигнала, (x,t) - медленно меняющаяся фаза сигнала, a ( x, t ) = A( x, t ) exp(i ( x, t ) - комплексная медленно меняющаяся амплитуда. В отличие от комплексной амплитуды a(x,t), которую практически невозможно измерить для оптического сигнала, функция пространственной когерентности (ФПК) (x1, x2) является наблюдаемой величиной, которая может быть измерена с помощью интерференционных методов, например с использованием опыта Юнга или с использованием голографической методики.

Комплексную амплитуду a(x,t) можно разложить в дискретный ряд Карунена-Лоэва. С формально-математической точки зрения преобразование Карунена-Лоэва представляет собой разложение сигнала по базису ортогональных функций, каждая из которых является собственной функцией интегрального "характеристического" уравнения с симметричным непрерывным ядром:

T K ( t,s ) j ( s )ds = j j ( t ) X (t ) = n a n n (t ) n =1 (43) и, 0tT, E{am an}= m,n Таким образом, используя (43) частично-когерентное излучение в одномерном случае можно разложить по базису N ортогональных нормированных функций или мод i(x), имеющих интенсивность µI = Ii.

Тогда ФПК будет определяться следующим выражением:

( x1, x2 ) = µ i i* ( x1 ) i ( x2 ). (44) N Действительно, в случае полностью когерентного поля огибающая сигнала не зависит от времени, и ФПК такого поля равна:

( x1, x2 ) = µ 0 0 ( x1 ) 0 ( x2 ).

* (45) В случае смеси двух взаимно некогерентных пучков (двух мод), каждый из которых полностью когерентен, ФПК равна:

( x1, x2 ) = µ 0 0 ( x1 ) 0 ( x2 ) + µ1 1* ( x1 ) 1 ( x2 ).

* (46) В выражении (46) отсутствуют перекрестные члены вида 0 ( x1 ) 1 ( x2 ), * поскольку они определяют корреляцию двух взаимно некогерентных пучков, которая равна нулю. Рассматривая случай наложения трех, четырех, ….N взаимно некогерентных пучков, каждый из которых полностью когерентен, придем к соотношению (44).

В соотношении (44), в принципе, некоторые µi могут иметь нулевые значения, то есть число элементарных когерентных пучков (число мод) меньше размерности N. Ясно, что этому случаю соответствует частичная когерентность суммарного пучка. В случае же, если все µi отличны от нуля то число элементарных пучков максимально и суммарное излучение было бы полностью некогерентно. Однако для полной некогерентности необходимо также, чтобы все µi были равны между собой, поскольку в противном случае может быть одна когерентная мода, существенно превышающая по интенсивности все остальные моды пучка.

На основании проведенных рассуждений легко получить число степеней свободы частично когерентного излучения. Действительно, в случае полностью когерентного пучка сумма (44) состоит из одного слагаемого, освещающего предмет, при этом число степеней свободы излучения, распространяющегося в оптической системе согласно (37), равно:

L k/ n x = 41 + x x, (47) где Lx - размер предмета, kx/ - пространственные частоты, множитель учитывает два состояния поляризации и возможность определения как амплитудных, так и фазовых соотношений.

Для случая частично когерентного пучка, состоящего из когерентных мод, сумма (44) содержит N отличных от нуля слагаемых, то есть число степеней свободы равно:

Lx k x/ n x = 4 N 1 +. (48) Следовательно, для полностью некогерентного освещения предмета число независимых параметров оптического сигнала в системе, формирующей изображение в двумерном случае равно:

L y k y L k/ / 1 +.

n = 4 N 1 + x x (49) Таким образом, число степеней свободы некогерентного излучения больше, чем для когерентного, то есть информационная емкость некогерентного поля существенно больше, чем для когерентного поля, поскольку N 1. Это обусловлено тем, что некогерентный пучок может быть, в принципе, разложен на сумму мод (когерентных составляющих).

Однако, на практике для переноса и извлечения информации из таких когерентных составляющих необходимо иметь устройство, осуществляющее физически разложение вида (44). При этом необходимо, чтобы на выходе устройства когерентное составляющие не перекрывались, и можно было осуществлять модуляцию каждой из них отдельно от другой. До настоящего времени, однако, не разрабатывалось подобных устройств, и принцип их действия не ясен.

§ 2.4. Информационная емкость голограмм Уже отмечалось, что одним из главных достоинств метода голографии является возможность реализации высокой плотности записи информации. Следовательно, голограмма может рассматриваться как элемент памяти, обладающий высокой информационной емкостью.

Максимальное значение этого параметра ограничивается дифракцией и шумами, связанными со структурой фоточувствительной среды.

Установим сначала роль дифракционных явлений и оценим предельную плотность записи в голограмме.

Рассмотрим плоскую фоточувствительную среду площадью S, расположенную в плоскости ху, как показано на рис. 50.

Рис. 50. Схема записи однобитной голограммы.

Информация, записываемая в виде голограммы, представляет собой светлую или темную точку и содержит один бит. Эту информацию несет сигнальная плоская волна, падающая на голограмму под углом. Опорная волна также является плоской и падает на голограмму под углом.

Будем считать, что каждая сигнальная волна, т. е. каждый бит информации, последовательно записывается в виде голограммы со своей опорной волной. Если при записи таких простейших сигналов использовать опорные волны, ортогональные между собой, то при считывании можно легко выделить любой из записанных сигналов путем соответствующего выбора считывающего луча. Действительно, условие ортогональности опорных волн можно записать в виде:

m n O O dS =, (50) m=n n m S где 0п и 0т — комплексные амплитуды полей n-й и m-й опорных волн соответственно. Поле опорной волны 0n, интерферируя с полем сигнальной волны Сn, образует п-ю голограмму. Если эту голограмму считывать опорной волной с индексом m, то поле в изображении будет равно:

Eизnm = Om C n On, (51) где - постоянная.

Используя эти две формулы, легко убедиться, что:

m n С E dS =. (52) m=n изmт n S Условие ортогональности плоских волн (50) позволяет оценить максимальное число последовательных записей, т. е. число наложенных друг на друга голограмм. Эта величина будет определять полный объем записанной информации, поскольку каждая из голограмм содержит единицу информации.

Запишем поля плоских опорных волн с индексами m и n, которые отличаются между собой направлением распространения, т. е. фазовым распределением, [ ] On = exp i (k nx x + k ny y + k nz z ) = exp[ i (k ], (53) x + k my y + k mz z ) Om mx где k +k +k =k +k +k = 2 2 2 2 2. (54) nx ny nz mx my mz Волны Оп и От ортогональны между собой в плоскости голограммы, если (k ny k my ) (k nx k mx ) D = q D = l, (55) 2 где D — размер голограммы, имеющей форму квадрата, q, l - целые числа. Из (54) следует, что возможные проекции волнового вектора расположены внутри окружности радиуса k = 2/, а разность абсолютных значений проекций, как следует из (55), кратна 2/D. Поэтому общее число таких проекций равно отношению площади круга k2 к величине (2/D)2 и определяет максимальное число ортогональных волн k L=. (56) (2 / D) Это и есть полный объем записанной информации, т. е. информационная емкость голограммы:

S бит.

C=L= (57) Соответственно плотность записи информации в голограмме бит/см2.

= (58) Например, на волне гелий-неонового лазера ~109 бит/см2.

Такой же результат, естественно, получается в случае, если в качестве сигналов рассматривать не простейшую плоскую волну, а транспаранты, содержащие М бит информации (светлых и темных точек).

В этом случае условие ортогональности опорных волн оказывается недостаточным, так как сигнальная волна, несущая М бит информации, определяется суммой плоских волн [ ] M EC = exp i (k jx x + k jy y + k jz z ), (59) j = где j — номер точки в массиве.

Для разделения изображений записанных транспарантов необходимо, чтобы расстояние между проекциями волновых векторов опорных волн kт и kn было больше, чем размер массива, содержащего М бит информации.

Поэтому число ортогональных опорных волн, а следовательно число последовательных записей массивов, уменьшится в М раз, т. е.

k 2 S L= =. (60) M (2 / D) M При этом полный объем записанной информации С остается без изменения, так как C = LM. Это справедливо и в случае L = 1, когда вся информация записывается сразу в виде одной голограммы.

Таким образом, максимальная плотность записи информации в плоской голограмме определяется формулой (58) и ограничивается дифракционными явлениями. Эта формула, однако, не учитывает свойства среды, используемой для записи голограмм. Вместе с тем, шумы голографических материалов оказывают существенное влияние на информационную емкость голограмм. Эти шумы могут быть вызваны разными причинами, например такими, как зернистость материала, всякого рода неоднородности, неровности поверхности и др. Принципиально неустранимым источником шумов голограммы является дискретная структура фоточувствительных сред. В случае фотоэмульсии это зернистость, в случае магнитных пленок — домены, в фотохромных материалах — молекулы и т. д. Оценить влияние этих шумов на информационную емкость голограммы можно следующим образом.

Будем считать, что среда содержит N фоточувствительных элементов, каждый из которых может находиться в одном из двух состояний. При многократном наложении голограмм на каждую из них можно израсходовать лишь часть фоточувствительных элементов. Пусть, например, в каждую голограмму записывается транспарант, содержащий М бит информации, и при этом расходуется п фоточувствительных элементов (эти элементы расположены в максимумах интерференционной картины).

При считывании информации поля, создаваемые этими элементами и образующие изображение, складываются синфазно;

поэтому интенсивность пропорциональна п причем на каждую единицу информации приходится мощность, пропорциональная п2/М.



Pages:     | 1 || 3 | 4 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.