авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:   || 2 | 3 | 4 |
-- [ Страница 1 ] --

Министерство образования Республики Беларусь

Учреждение образования

«Международный государственный экологический

университет имени А. Д.

Сахарова»

Факультет мониторинга окружающей среды

Кафедра экологических информационных систем

С. П. Кундас, Б. А. Тонконогов, И. А. Гишкелюк

Курс лекций по дисциплине

«Информатика и программирование

(информационные технологии)»

для студентов специальности «Информационные системы и технологии (в экологии)»

Минск 2007 УДК 002(075.8) ББК 32.81я73 K91 Рекомендовано к изданию научно-методическим советом МГЭУ им. А. Д. Сахарова (протокол № 1 от 20 сентября 2006 г.).

Авторы:

доктор технических наук, профессор МГЭУ С. П. Кундас;

кандидат технических наук Б. А. Тонконогов;

аспирант И. А. Гишкелюк.

Рецензенты:

доктор технических наук, профессор БГТУ М. А. Гатих;

главный научный сотрудник БелНИЦ «Экология», доктор технических наук, профессор П. П. Урбанович.

Кундас, С. П.

К91 Курс лекций по дисциплине «Информатика и программирование (информаци онные технологии)» для студентов специальности «Информационные системы и технологии (в экологии)» / С. П. Кундас, Б. А. Тонконогов, И. А. Гишкелюк. – Минск : МГЭУ им. А. Д. Сахарова, 2007. – 80 с.

ISBN 978-985-6823-34-6.

Курс лекций по дисциплине «Информатика и программирование (информационные технологии)»

предназначен для студентов 1-го курса специальности 1-40 01 02-06 «Информационные системы и технологии (в экологии)» факультета мониторинга окружающей среды Международного государст венного экологического университета имени А. Д. Сахарова.

Рассмотрены основы информатики, представлена информация о технических и программных средствах информационных технологий, а также о компьютерных сетях и защите информации.

Данное издание может быть также использовано студентами других специальностей Междуна родного государственного экологического университета имени А. Д. Сахарова при изучении дисцип лин «Информатика и программирование» и «Информационные технологии».

УДК 002(075.8) ББК 32.81я Учреждение образования ISBN 978-985-6823-34- «Международный государственный экологический университет имени А. Д. Сахарова», ВВЕДЕНИЕ Информатика возникла сравнительно недавно и по сравнению с другими науками еще совсем молода. Но, несмотря на это, в настоящее время она выдвинулась в ряд важнейших областей знания. Причина такого стреми тельного развития состоит в том, что предмет ее исследования – научная информация, свойства и закономерности ее распространения – приобретает в современном мире исключительно важное значение.

Эффективное использование научной информации – задача не только специальных информационных орга нов, но и всех тех, кто непосредственно занят в научной или производственной сфере. Поэтому в какой бы области знаний ни работал сейчас ученый или специалист, для него очень важно уметь грамотно обрабатывать информа цию: искать, отбирать, анализировать и использовать ее. Именно поэтому ему не обойтись без знания информатики так же, как, например, не обойтись без знания математики.

В современных условиях, когда объем необходимых для человека знаний резко возрастает, уже невозмож но делать главную ставку на усвоение определенной суммы фактов. Важно прививать умение самостоятельно по полнять свои знания, ориентироваться в различных видах информации. Решению этой задачи может способство вать ознакомление будущих специалистов с достижениями информатики.

Целесообразно также подчеркнуть, что информатика – динамичная область знаний. Содержание многих ее понятий, даже основных, в будущем, вероятно, изменится. Тем не менее, ни в ближайшем, ни в отдаленном буду щем не уменьшится значение информатики для человеческого общества.

Владение основами информационных технологий представляет собой важный и первостепенный момент в учебном процессе и системе образования инженера-программиста-эколога.

Цель дисциплины – изучение основ информатики, программирования и информационных технологий, фор мирование представлений о технических и программных средствах информатики, навыков работы на персональном компьютере, знакомство с основными пользовательскими элементами операционных систем, правилами работы с файлами и программными продуктами, изучение основных программных продуктов, знакомство с сетевыми техно логиями и т.д.

В пособии последовательно излагаются основные положения предмета информатики, производится обзор технических и программных средств информатики, а также приводятся сведения о компьютерных сетях и методах защиты информации. Представлен необходимый материал для освоения основ информационных технологий при подготовке студентов по специальности 1-40 01 02 «Информационные системы и технологии (по направлениям)» с направлением специальности 1-40 01 02-06 «Информационные системы и технологии (в экологии)» с квалификаци ей «инженер-программист-эколог».

Более глубокие знания в области информационных технологий будут даны студентам на старших курсах в рамках специальных дисциплин и дисциплин специализации.

Пособие может быть также использовано студентами других специальностей Международного государст венного экологического университета имени А. Д. Сахарова при изучении дисциплин «Информатика и программи рование» и «Информационные технологии» [1, 2].

1. ОСНОВЫ ИНФОРМАТИКИ 1.1. Информация в материальном мире Определение, предмет и направления информатики. Термин информатика (франц. informatique) происхо дит от французских слов information (информация) и automatique (автоматика) и дословно означает «информацион ная автоматика».

Широко распространен также англоязычный вариант этого термина – Computer science, что означает буквально «компьютерная наука».

Информатика – это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы ее создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

Другими словами – это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

В 1978 году Международный научный конгресс официально закрепил за понятием «информатика» области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработ ки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации – массового внедрения компьютерной техники во все области жизни людей.

Таким образом, информатика базируется на компьютерной технике и немыслима без нее.

Предмет информатики как науки составляют:

1) аппаратное обеспечение средств вычислительной техники;

2) программное обеспечение средств вычислительной техники;

3) средства взаимодействия аппаратного и программного обеспечения;

4) средства взаимодействия человека с аппаратными и программными средствами.

Информатика – комплексная научная дисциплина с широчайшим диапазоном применения. Ее приоритетные направления:

· разработка вычислительных систем и программного обеспечения;

· теория информации, изучающая процессы, связанные с передачей, приемом, преобразованием и хранением информации;

· математическое моделирование, методы вычислительной и прикладной математики и их применение к фун даментальным и прикладным исследованиям в различных областях знаний;

· методы искусственного интеллекта, моделирующие методы логического и аналитического мышления в ин теллектуальной деятельности человека (логический вывод, обучение, понимание речи, визуальное воспри ятие, игры и др.);

· системный анализ, изучающий методологические средства, используемые для подготовки и обоснования решений по сложным проблемам различного характера;

· биоинформатика, изучающая информационные процессы в биологических системах;

· социальная информатика, изучающая процессы информатизации общества;

· методы машинной графики, анимации, средства мультимедиа;

· телекоммуникационные системы и сети, в том числе глобальные компьютерные сети, объединяющие все человечество в единое информационное сообщество;

· разнообразные приложения, охватывающие производство, науку, образование, медицину, торговлю, сель ское хозяйство и все другие виды хозяйственной и общественной деятельности.

Российский академик А. А. Дородницин выделяет в информатике три неразрывно и существенно связанные части: технические, программные и алгоритмические средства.

Технические средства, или аппаратура компьютеров, в английском языке обозначаются словом Hardware, ко торое буквально переводится как «твердые изделия».

Для обозначения программных средств, под которыми понимаются совокупность всех программ, используе мых компьютерами, и область деятельности по их созданию и применению, употребляется слово Software (бук вально – «мягкие изделия»), которое подчеркивает равнозначность самой машины и программного обеспечения, а также способность программного обеспечения модифицироваться, приспосабливаться и развиваться.

Программированию задачи всегда предшествует разработка способа ее решения в виде последовательности действий, ведущих от исходных данных к искомому результату, иными словами, разработка алгоритма решения задачи. Для обозначения части информатики, связанной с разработкой алгоритмов и изучением методов и приемов их построения, применяют термин Brainware (от английского слова brain – интеллект).

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области нако пления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только область материального производства, но и интел лектуальную и духовную сферы жизни.

Таким образом, прогрессивное увеличение возможностей компьютерной техники, развитие информационных сетей и создание новых информационных технологий приводят к значительным изменениям во всех сферах обще ства: в производстве, науке, образовании, медицине и т.д. [1–5].

Определение информации. Понятие информации является ключевым понятием информатики. Любая дея тельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.

Информация содержится в человеческой речи, текстах книг, журналов, газет, сообщениях радио и телевиде ния, показаниях приборов и т.д. Человек воспринимает информацию с помощью органов чувств, хранит и перера батывает ее с помощью мозга и центральной нервной системы. Передаваемая информация обычно касается каких то предметов или нас самих и связана с событиями, происходящими в окружающем мире.

Понятие информации используется во всех сферах человеческой жизни. Конкретное толкование элементов, связанных с понятием информации, зависит от метода конкретной науки, цели исследования или просто от наших представлений.

С понятием информации связаны такие понятия, как сигнал, сообщение и данные. Например, сигнал представ ляет собой любой процесс, несущий информацию, а сообщение – это информация, представленная в определенной форме и предназначенная для передачи.

Несмотря на то, что с понятием информации мы сталкиваемся ежедневно, строгого общепринятого ее опреде ления до сих пор не существует. Поэтому вместо определения обычно используют понятия об информации.

Термин информация происходит от латинского слова informatio, что означает «сведения, разъяснения, изложе ние». Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискус сионных в науке. В настоящее время наука пытается найти общие свойства и закономерности, присущие много гранному понятию «информация», но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

· в обиходе информацией называют совокупность любых данных или сведений, которая кого-либо интересует и воспринимается из окружающей среды (входная информация), выдается в окружающую среду (исходная информация) или сохраняется внутри определенной системы (например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.). «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше»;

· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов и представ ляющие продукт взаимодействия данных и адекватных им методов;

· в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, ак тивного действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).

Клод Шеннон, американский ученый, заложивший основы теории информации – науки, изучающей процессы, связанные с передачей, приемом, преобразованием и хранением информации, рассматривает информацию как сня тую неопределенность наших знаний о чем-то.

Существует еще несколько определений. Информация – это:

· сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний (Н. В. Макарова);

· отрицание энтропии (Л. Бриллюэн);

· мера сложности структур (А. Моль);

· отраженное разнообразие (А. Д. Урсул);

· содержание процесса отражения (В. А. Тузов);

· вероятность выбора (А. М. Яглом и И. М. Яглом).

Современное научное представление об информации очень точно сформулировал Норберт Винер, «отец» ки бернетики: «Информация – это обозначение содержания, полученного из внешнего мира в процессе нашего при способления к нему и приспособления к нему наших чувств».

Люди обмениваются информацией в форме сообщений. Сообщение – это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж, радиопередача и др.) может содержать разное количество информации для разных людей – в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

Так, сообщение, составленное на японском языке, не несет никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информа ции не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сооб щение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последователь ность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последова тельности символов увеличивает информационный объем сообщения [3–5].

Формы представления информации. Различают две формы представления информации: непрерывную и дискретную. Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения тела, процесс распространения света и т.д. Информация представляется (отражается) значением одного или нескольких параметров физического процесса (сигнала) либо комбинацией нескольких па раметров.

Сигнал называется непрерывным, если его параметр в заданных пределах может принимать любые промежу точные значения. Сигнал называется дискретным, если его параметр в заданных пределах может принимать от дельные фиксированные значения.

Следует различать непрерывность и дискретность сигнала во времени и по уровню соответственно (рис. 1.1).

Все многообразие окружающей нас информации можно сгруппировать по различным признакам. Например, в зависимости от области возникновения информацию, отражающую процессы и явления неодушевленной природы, называют элементарной, процессы животного и растительного мира – биологической, человеческого общества – социальной [1, 3–5].

Виды, передача и операции над информацией. По способу передачи и восприятия различают следующие виды информации:

· визуальная (световые сигналы, видимые образы, символы, тексты, рисунки, чертежи, фотографии, жесты и мимика);

· аудиальная (звуковые сигналы);

· тактильная (электрические и нервные импульсы, ощущения);

· органолептическая (запахи и вкусовые ощущения);

· машинно-выдаваемая и воспринимаемая средствами радио- и вычислительной техники (радиоволны, маг нитные записи);

· наследственная (генетическая) (хромосомы, посредством которых передаются по наследству признаки и свойства организмов) и т.д.

а) б) в) г) Рис. 1.1. Примеры сигналов: а) непрерывный по уровню и во времени;

б) дискретный по уровню и непрерывный по времени;

в) непрерывный по уровню и дискретный по времени сигнал;

г) дискретный по уровню и во времени Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

Информация передается в форме сообщений от некоторого источника информации к ее приемнику посредст вом канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приемнике появляется принимаемый сигнал, кото рый декодируется и становится принимаемым сообщением (рис. 1.2).

КАНАЛ СВЯЗИ ИСТОЧНИК ПРИЕМНИК Рис. 1.2. Способ передачи информации Примеры:

1. Сообщение, содержащее информацию о прогнозе погоды, передается приемнику (телезрителю) от ис точника – специалиста-метеоролога посредством канала связи – телевизионной передающей аппарату ры и телевизора.

2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.) воспринимает информацию из внешнего мира, перерабатывает ее в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, вос производит в виде звуковых сигналов, движений и т.п. и использует в процессе своей жизнедеятельно сти.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

Над информацией можно производить следующие операции: создавать;

передавать;

воспринимать;

использо вать;

запоминать;

принимать;

копировать;

формализовать;

распространять;

преобразовывать;

комбинировать;

обра батывать;

делить на части;

упрощать;

собирать;

хранить;

искать;

измерять;

разрушать и т.д.

Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами [1, 3-5].

Свойства и обработка информации. Информация обладает определенными свойствами, важнейшими из ко торых являются объективность и субъективность, полнота, доступность, достоверность, адекватность и актуаль ность (рис. 1.3).

Рис. 1.3. Свойства информации Также к потребительским свойствам информации можно добавить точность, ценность, своевременность, по нятность, краткость и т.д.

Объективной принято считать ту информацию, в которой методы ее получения не вносят субъективный эле мент. Например, объективная информация – фотоснимок природного объекта или явления, субъективная информа ция – рисунок природного объекта, выполненный человеком, показания лиц о наблюдаемом природном явлении.

Полнота информации характеризует качество информации и определяет достаточность данных для понимания и принятия решений или для создания новых данных на основе имеющихся. Как неполная, так и избыточная ин формация сдерживает принятие решений или может повлечь ошибки.

Доступность информации представляет собой меру возможности получить ту или иную информацию. Инфор мация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может при вести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, т.к. она обладает свойством устаревать, т.е. перестает отражать истинное положение дел. Достоверность информации может быть определена в момент регистрации сигналов, когда возникают данные.

При этом не все сигналы являются «полезными» – всегда присутствует какой-то уровень посторонних сигналов.

Если полезный сигнал зарегистрирован более четко, чем посторонний сигнал, достоверность информации может быть более высокой.

Адекватность информации – это степень соответствия реальному объективному состоянию дел.

Актуальностью информации является степень соответствия информации текущему моменту времени. По скольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информа ция может приводить к такой задержке в получении информации, что она становится неактуальной и ненужной.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной. Ин формация становится понятной, если она выражена «языком», на котором «говорят» те, кому предназначена эта информация.

Также в этой связи имеет большое значение неэквивалентность количества и качества информации: ценность полученной человеком информации определяется не количеством снимаемой ею неопределенности, а потребно стью человека в данной информации, подготовленностью человека к восприятию информации и ее использованию.

Существует также понятие независимости ценности информации от количества затрат на ее получение.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебни ках, всевозможных инструкциях и т.д.

Собственные свойства информации: неаддитивность (прибавление информации к уже имеющейся не увеличи вает ее суммарное количество на величину прибавленной), некоммутативность (суммарное количество информации зависит от последовательности поступления разных информационных сообщений), неассоциативность (количество полученной информации зависит от конкретных сочетаний поступивших информационных сообщений), независи мость содержания информации от формы и способов ее представления.

Информация также обладает таким свойством, как неисчезаемость при ее использовании (потреблении).

Обработка информации – получение одних информационных объектов из других путем выполнения некото рых алгоритмов.

Обработка является одной из основных операций, выполняемых над информацией, и главным средством уве личения объема и разнообразия информации.

Средства обработки информации – это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер – универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем [1, 3–9].

Определение информационных ресурсов, информационной системы, информационных технологий и информатизации общества. Информационные ресурсы – это идеи человечества и указания по их реализации, на копленные в форме, позволяющей их воспроизводство. Это книги, статьи, патенты, диссертации, научно исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производ ственном опыте и др.

Информационные ресурсы (в отличие от всех других видов ресурсов – трудовых, энергетических, минераль ных и т.д.) тем быстрее растут, чем больше их расходуют.

Информационная система – это взаимосвязанная совокупность средств, методов и персонала, используемая для сохранения, обработки и выдачи информации с целью решения конкретной задачи.

В работе информационной системы можно выделить следующие этапы:

· зарождение данных;

· накопление и систематизация данных;

· обработка данных;

· отображение данных.

В широком смысле слово технология – это способ освоения человеком материального мира с помощью соци ально организованной деятельности, которая включает три компоненты:

· информационную (научные принципы и обоснование);

· материальную (орудие работы);

· социальную (специалисты, имеющие профессиональные навыки).

Информационная технология – это совокупность методов и устройств, используемых людьми для обработки информации.

Наиболее удачное определение понятия информационной технологии дано академиком В. М. Глушковым, который трактовал ее как человеко-машинную технологию сбора, обработки и передачи информации, которая ос новывается на использовании вычислительной техники.

Человечество занималось обработкой информации тысячи лет. Первые информационные технологии основы вались на использовании счетов и письменности. Около 50 лет назад началось исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.

В настоящее время термин «информационная технология» употребляется в связи с использованием компьюте ров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и – отчасти – бытовую электронику, телевидение и радиовещание.

Они находят применение в промышленности, торговле, управлении, банковской системе, образовании, здраво охранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

Народы развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную задачу.

В настоящее время создание крупномасштабных информационно-технологических систем является экономи чески возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.

Информатизация общества – организованный социально-экономический и научно-технический процесс соз дания оптимальных условий для удовлетворения информационных потребностей и реализации прав граждан, орга нов государственной власти, органов местного самоуправления, организаций, общественных объединений на осно ве формирования и использования информационных ресурсов.

Цель информатизации – улучшение качества жизни людей за счет увеличения производительности и облегче ния условий их труда.

Информатизация – это сложный социальный процесс, связанный со значительными изменениями в образе жизни населения. Он требует серьезных усилий на многих направлениях, включая ликвидацию компьютерной не грамотности, формирование культуры использования новых информационных технологий и др. [1, 3–9].

1.2. Данные Определение и специфика данных. Данные (от латинского слова data) – это составная часть информации (факты и идеи), представленная в формализованном виде, пригодном для передачи и обработки в некотором информационном процессе (автоматизированной обработки).

Данные представляют собой зарегистрированные сигналы. Физический метод регистрации может быть лю бым: механическое перемещение физических тел, изменение их формы или параметров качества поверхности, из менение электрических, магнитных, оптических характеристик, химического состава и многое другое. В соответст вии с методом регистрации данные могут храниться и транспортироваться на носителях различного типа (бумага, электронные носители информации).

В компьютерной терминологии с точки зрения программиста данные – это часть программы, совокупность значений определенных ячеек памяти, преобразование которых осуществляет код. С точки зрения компилятора, процессора и операционной системы – это совокупность ячеек памяти, обладающих определенными свойствами (возможность чтения и (или) записи и невозможность исполнения). При этом контроль доступа в современных компьютерах осуществляется аппаратно. В соответствии с принципом фон Неймана одна и та же область памяти может выступать как в качестве данных, так и в качестве исполнимого кода. Например, когда машина решает одну задачу, то меняются только данные.

Так как данные – это воспринимаемые человеком факты, события, сообщения, измеряемые характеристики, регистрируемые сигналы и т. д., то их специфика в том, что они, с одной стороны, существуют независимо от на блюдателя, а с другой – становятся собственно «данными» лишь тогда, когда существует целенаправленно соби рающий их субъект. Из всего множества происходящих событий и богатства свойств реальных объектов исследова тель выделяет только вполне конкретные данные – ту малую часть огромного, потенциально существующего мате риала, которая, на его взгляд, необходима для решения поставленной перед ним задачи.

Таким образом, данные оказываются тем основанием, на котором затем возводится все здание заключений, выводов и решений. Они вторичны по отношению к методам их обработки и анализа, извлекающим из них только ту информацию, которая потенциально доступна в рамках отобранного материала. Если сбор данных произведен неверно, если они не отражают существенных взаимосвязей предметной области, то и анализ оказывается беспо лезным. И наоборот, если данные пытаются обрабатывать неадекватными математическими моделями, то ценность результатов сомнительна, а их прогностическая ценность невелика.

Вообще-то известно, что существует два подхода к поиску научной истины. Первый – найден «ключ», напри мер статистика Гауссова распределения (белого шума) и множество закрытых «дверей», содержащих данные, кото рые последовательно пытаются открыть «ключом». Содержание данных за открытыми «дверями» и выдается дер жателем «ключа» за «истину» открывшейся через эти данные «картины Мира». Другой способ связан с поиском «ключа», чтобы «открыть» дверь, перед которой оказались в надежде и вере, что «истина» внутри.

Эти два подхода символизируют лишь путь получения информации об исследуемом объекте. Специфика поня тия информации для принятия решения – в прагматической ценности. Понятие же знания есть синоним формализа ции концептуальной модели исследуемого объекта, процесса, явления. Проблема состоит в поиске адекватной кон цептуальной модели измерения, преобразования и интерпретации данных [1, 3–9].

Операции с данными. В ходе информационного процесса данные преобразуются из одного вида в другой с помощью различных методов. Обработка данных включает в себя множество операций. По мере развития научно технического прогресса и общего усложнения связей в человеческом обществе трудозатраты на обработку данных неуклонно возрастают. Прежде всего, это связано с постоянным усложнением условий управления производством и обществом. Второй фактор, также вызывающий общее увеличение объемов обрабатываемых данных, тоже связан с научно-техническим прогрессом, а именно с быстрыми темпами появления и внедрения новых носителей данных, средств их хранения и доставки.

В структуре возможных операций с данными можно выделить следующие основные действия:

· сбор – накопление информации с целью обеспечения достаточной полноты для принятия решений;

· формализация (форматирование) – приведение данных, поступающих из разных источников, к одинаковой форме, чтобы сделать их сопоставимыми между собой, т.е. повысить их уровень доступности;

· фильтрация – отсеивание «лишних» данных, в которых нет необходимости для принятия решений;

при этом должен уменьшаться уровень «шума», а достоверность и адекватность данных должны возрастать;

· сортировка – упорядочение данных по заданному признаку с целью удобства использования;

· архивация – организация хранения данных в удобной и легкодоступной форме;

служит для снижения эко номических затрат по хранению данных и повышает общую надежность информационного процесса в це лом;

· транспортировка – прием и передача (доставка и поставка) данных между удаленными участниками инфор мационного процесса;

при этом источник данных в информатике принято называть сервером, а потребите ля – клиентом;

· преобразование – перевод данных из одной формы (или структуры) в другую. Преобразование данных часто связано с изменением типа носителя – например, книги можно хранить в обычной бумажной форме, но можно использовать для этого и электронную форму, и микрофотопленку. Необходимость в многократном преобразовании данных возникает также при их транспортировке, особенно если она осуществляется сред ствами, не предназначенными для транспортировки определенного вида данных. В качестве примера можно упомянуть, что для транспортировки цифровых потоков данных по каналам телефонных сетей (которые из начально были ориентированы только на передачу аналоговых сигналов в узком диапазоне частот) необхо димо преобразование цифровых данных в некое подобие звуковых сигналов, для чего и предназначены спе циальные устройства – телефонные модемы;

· защита – комплекс мер, направленных на предотвращение утраты, воспроизведения и модификации данных.

Приведенный список типовых операций с данными далеко не полон. Миллионы людей во всем мире занима ются созданием, обработкой, преобразованием и транспортировкой данных, и на каждом рабочем месте выполня ются свои специфические операции, необходимые для управления социальными, экономическими, промышленны ми, научными и культурными процессами. Таким образом, работа с информацией может иметь огромную трудоем кость, и ее стремятся автоматизировать [1, 3–5, 8, 9].

Кодирование данных. Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления – для этого обычно используется прием кодирования, т.е. выражение дан ных одного типа через данные другого типа.

В вычислительной технике существует система двоичного кодирования, основанная на представлении данных последовательностью 0 и 1.

Целые числа кодируются двоичным кодом достаточно просто – достаточно взять целое число и делить его пополам до тех пор, пока частное не будет равно единице. Совокупность остатков от каждого деления, записанная справа налево вместе с последним частным, и образует двоичный аналог десятичного числа.

Например, для кодирования действительных чисел можно использовать 80-разрядное кодирование. При этом число предварительно преобразуется в нормализованную форму. Первая часть числа называется мантиссой, а вто рая – характеристикой. Бльшую часть из 80 бит отводят для хранения мантиссы (вместе со знаком) и некоторое фиксированное количество разрядов – для характеристики (тоже со знаком).

Если каждому символу алфавита сопоставить определенное целое число, например порядковый номер, то с помощью двоичного кода можно кодировать и текстовую информацию. Восьми двоичных разрядов достаточно для кодирования 256 различных символов. Этого хватит, чтобы выразить различными комбинациями восьми битов все символы английского и русского языков, как строчные, так и прописные, а также знаки препинания, символы арифметических действий и некоторые общепринятые специальные символы. Существует также система, основан ная на 16-разрядном кодировании символов, позволяющая обеспечить уникальные коды для 65 536 различных сим волов.

Для кодирования цветных графических изображений применяется принцип декомпозиции произвольного цвета на основные составляющие (красный, зеленый и синий) – система RGB (Red, Green, Blue).

Если для кодирования яркости каждой из основных составляющих использовать по 256 значений (восемь дво ичных разрядов), как это принято для полутоновых черно-белых изображений, то на кодирование цвета одной точ ки надо затратить 24 разряда. При этом система кодирования обеспечивает однозначное определение 16,5 млн. раз личных цветов, что на самом деле близко к чувствительности человеческого глаза.

Существует также 32-разрядная система кодирования на основе использования других цветов (голубого, пур пурного, желтого и черного) – CMYK (Cyan, Magenta, Yellow, Black). Указанные цвета (краски) используются при обычной печати и их иногда называют триадными. Следует отметить, что К – это сокращение, соответствующее названию black (черный), поскольку было время, когда вместо названия cyan (голубой) использовали blue (синий), а вместо magenta (пурпурный) – red (красный), поэтому литера В теряет однозначность. Кое-где в типографиях на звания blue и red все еще используются как синонимы для cyan и magenta соответственно.

Режим представления цветной графики с использованием 24 или 32 двоичных разрядов называется полноцвет ным (True Color).

Для кодирования звуковой информации применяются метод FM (Frequency Modulation), основанный на том, что теоретически любой сложный звук можно разложить на последовательность простейших гармонических сигна лов разных частот, каждый из которых представляет собой правильную синусоиду, а следовательно, может быть описан числовыми параметрами, т.е. кодом, и таблично-волновой (Wave-Table синтез), использующий заранее под готовленные таблицы, в которых хранятся образцы (сэмплы) звуков для множества различных объектов [1, 3–5, 8, 9].

Основные структуры данных. Существует три основных типа структур данных: линейная, иерархическая и табличная. Работа с большими наборами данных автоматизируется проще, когда данные упорядочены, т.е. образу ют заданную структуру.

Линейная структура является простейшей и представляет собой правильную последовательность данных. Не достаток ее в том, что для поиска нужных данных необходим их просмотр сначала. Линейные структуры – это спи ски – простейшие упорядоченные структуры данных, отличающиеся тем, что каждый элемент (адрес элемента) данных однозначно определяется своим уникальным номером в массиве.

Нерегулярные данные, которые трудно представить в виде списка или таблицы, часто представляют в виде иерархических структур. Также эта структура пригодна для более быстрого поиска данных. Элементы структуры более низкого уровня входят в элементы более высокого. Для больших массивов поиск данных в иерархической структуре намного проще, чем в линейной, однако здесь необходима навигация, связанная с необходимостью про смотра. В этой структуре адрес каждого элемента определяется путем доступа (маршрутом), ведущим от вершины структуры к данному элементу. Как правило, основным недостатком иерархических структур данных является уве личенный размер пути доступа. Для регуляризации иерархических структур с тем, чтобы сделать путь доступа бо лее компактным, применяют метод дихотомии, основанный на логическом рациональном пути (двоичном (бинар ном) дереве).

На практике задачу поиска упрощают тем, что вводят вспомогательную перекрестную таблицу, связывающую элементы иерархической структуры с элементами линейной. Табличные структуры данных (матрицы) – это упоря доченные структуры, в которых, в отличие от списочных, адрес элемента данных определяется адресом ячейки, который состоит не из одного параметра, как в списках, а из нескольких (например, номера строки и столбца, на пересечении которых находится ячейка, содержащая искомый элемент).

Списочные и табличные структуры являются простыми. Ими легко пользоваться, поскольку адрес каждого элемента задается числом (для списка), двумя числами (для двумерной таблицы) или несколькими числами для многомерной таблицы. Они также легко упорядочиваются. Основным методом упорядочения является сортировка по любому избранному критерию.

Несмотря на многочисленные удобства, у простых структур данных есть и недостаток – их трудно обновлять, т.е. при добавлении произвольного элемента в упорядоченную структуру списка может происходить изменение адресных данных у других элементов.

Иерархические структуры данных по форме сложнее, чем линейные и табличные, но они не создают проблем с обновлением данных. Их легко развивать путем создания новых уровней.

Недостатком иерархических структур является относительная трудоемкость записи адреса элемента данных и сложность упорядочения. Часто методы упорядочения в таких структурах основывают на предварительной индек сации, которая заключается в том, что каждому элементу данных присваивается свой уникальный индекс, который можно использовать при поиске, сортировке и т.п. Например, принцип дихотомии является одним из методов ин дексации данных в иерархических структурах. После такой индексации данные легко найти по двоичному коду связанного с ними индекса.

Если данные хранятся в организованной структуре (причем любой), то каждый элемент данных приобретает новое свойство (параметр), который можно назвать адресом. Работать с упорядоченными данными значительно удобнее, но это требует их размножения, поскольку адреса элементов данных – это тоже данные, и их тоже надо хранить и обрабатывать [1, 3–5, 8, 9].

Связь между данными и информацией. Следует отметить, что при рассмотрении предмета информации сле дует придерживаться некоторых ограничений, накладываемых на него, т.е. рассматривать информацию с семантиче ской точки зрения, как несущую определенное смысловое содержание своих сообщений. Это позволяет, с одной стороны, подняться над статистической теорией информации, где определяющая роль принадлежит знаковому пред ставлению, а не смыслу сообщения, а с другой – не вступить на тернистый, но при этом непродуктивный путь фило софского анализа информации.

Рис. 1.4. Связь между данными и информацией Семантический подход к информации прагматичен, он позволяет провести разделение между данными и ин формацией и при этом остаться в рамках здравых представлений. В этой связи данные – это представление фактов и понятий в форме, пригодной для их передачи и интерпретации, а информация – это смысл, который человек при писывает данным на основании известных ему правил их представления. Объектами исследования информатики служат методы и средства, используемые для сбора, переработки, хранения, поиска и распространения семантиче ской информации.

Таким образом, связь между данными и информацией характеризуется наличием метода, при котором данные становятся информацией (рис. 1.4) [1, 3-5, 8, 9].

1.3. Системы счисления. Двоичная система счисления Определение системы счисления и ее виды. Система счисления – это способ представления чисел с помо щью набора цифр и соответствующие ему правила действий над ними. Системы счисления подразделяются на по зиционные и непозиционные (рис. 1.5).

Рис. 1.5. Виды систем счисления Пример:

1. В позиционной системе счисления позиция цифры «1» может значить сотню, десяток и единицу: 123, 213 и 231.

2. В непозиционной системе счисления позиция знака «I» всегда значит единицу: CXXIII, CCXIII и CCXXXI.

Развернутая форма записи числа в позиционной системе счисления выглядит следующим образом:

A q = a n -1q n -1 + K + a 1q1 + a 0q 0 + a -1q -1 + K + a - m q - m, (1.1) A q – число в системе счисления с осно где q – основание системы счисления (количество используемых цифр);

A q ;

n, m – количество соответственно целых и дробных разрядов ванием q ;

a – цифры многоразрядного числа A q (рис. 1.6).

числа Рис. 1.6. Пример интерпретации числа посредством его развернутой записи Примерами систем счисления могут быть двоичные, троичные, восьмеричные, десятичные и шестнадцатерич ные (рис. 1.7) [1, 3–5, 10].

Двоичная система счисления. Особая значимость двоичной системы счисления в информатике определяется тем, что внутреннее представление любой информации в компьютере является двоичным, т.е. описываемым набо рами только из двух знаков (0 и 1). При необходимости двоичные значения можно преобразовать в десятичные и наоборот (рис. 1.8 и 1.9).

Рис. 1.7. Некоторые системы счисления Рис. 1.8. Способы перевода из десятичной системы в двоичную и наоборот Рис. 1.9. Пример перевода из десятичной системы счисления в двоичную Рис. 1.10. Двоичная арифметика 1.4. Энтропия Хартли и Шеннона.

Количество информации. Единицы измерения информации Какое количество информации содержится, к примеру, в тексте романа «Война и мир», во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не дает и, по всей вероятности, даст не скоро. А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является следующий вывод: в определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить ее количество числом, а также сравнить количество информации, содержащейся в различ ных группах данных.

В настоящее время получили распространение подходы к определению понятия количество информации, ос нованные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле ее новизны или, иначе, уменьшения неопределенности наших знаний об объекте. Эти подходы используют математические понятия вероятности и логарифма [1, 3– 5].

Подходы к определению количества информации. Формулы энтропии Хартли и Шеннона. Определить понятие «количество информации» довольно сложно. В решении этой проблемы существует два основных подхо да. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибер нетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информа ции, а работы по созданию вычислительной техники привели к «объемному» подходу.

Рассмотрим вероятностный подход, т.е. измерение информации в сообщениях о равновероятностных событи ях. Американский инженер Ральф Хартли в 1928 году процесс получения информации рассматривал как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений (событий), а коли чество информации H, содержащееся в выбранном сообщении о том, что произошло одно из N равновероятных событий, определял как двоичный логарифм N (или, когда каждое из N событий имеет равновероятный исход):

p H = log 2 N = log p. (1.2) Указанная величина получила название энтропия. Энтропия является мерой неопределенности опыта, в кото ром проявляются случайные события, и равна средней неопределенности всех возможных его исходов. Можно счи тать, что энтропия равна информации относительно опыта, которая содержится в нем самом, точнее, энтропия опы та равна той информации, которая получается в результате его осуществления.

Из формулы видно, что N = 2 H. Ниже приведены примеры равновероятных сообщений.

Примеры:

1. Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: H = log 2 100 » 6,644. Таким образом, со общение о верно угаданном числе содержит количество информации, приблизительно равное 6, единицы информации.

2. При бросании монеты: «выпала решка», «выпал орел».

3. На странице книги: «количество букв четное», «количество букв нечетное».

Определим теперь, являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одина кова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский ученый Клод Шеннон предложил в 1948 году другую формулу определе ния количества информации, учитывающую возможную неодинаковую вероятность происхождения сообщений (событий) в наборе, т.е. информация опыта равна среднему значению количества информации, содержащейся в каком-либо одном его исходе:

n n H = - p i log 2 pi = p i log 2, (1.3) pi i =1 i = где p i – вероятность того, что именно i-е сообщение выделено в наборе из n неравновероятных сообщений.

Легко заметить, что если вероятности p1, …, p n равны, то каждая из них равна 1, и формула Шеннона пре n вращается в формулу Хартли. При равновероятных событиях получаемое количество информации максимально.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определенному кругу случаев, очерченному первоначальными допущениями [1, 3–5].

Объемный подход к измерению информации. Единицы измерения информации. Из формулы (1.2) видно, что H будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятностных событий. В качестве такой единицы количества информации Клод Шеннон предложил принять один бит (от английского слова bit (со кращение от binary digit) – двоичная цифра).


Примеры:

1. Какое количество информации требуется, чтобы узнать исход броска монеты?

Решение:

В данном случае n=2 и события равновероятны, т. е. p1 = p2 = 0,5. Согласно (1.3):

H = -0,5 log 2 0,5 - 0,5 log 2 0,5 = 1 бит.

2. В корзине лежат 16 шаров разного цвета. Сколько информации несет сообщение о том, что из корзины достали красный шар?

Решение:

Вытаскивание любого из 16 шаров – событие равновероятное. Поэтому для решения задачи применима формула Хартли: здесь N = 16 – число шаров, тогда H = log 2 16 = 4 бита.

3. Шарик находится в одной из трех урн: А, В или С. Определить, сколько бит информации содержит со общение о том, что он находится в урне В.

Решение:

Такое сообщение содержит H = log 2 3 » 1,585 бита информации.

4. Определить количество информации, получаемое при реализации одного из событий, если бросают:

а) симметричную и однородную четырехгранную пирамидку;

б) несимметричную четырехгранную пирамидку.

Решение:

а) теперь рассчитаем количество информации, которое получится при бросании симметричной и од нородной четырехгранной пирамидки: H = log 2 4 = 2 бита;

б) будем бросать несимметричную четырехгранную пирамидку. Вероятность отдельных событий бу 1 1 дет такова: p1 =, p 2 =, p3 = и p 4 =, тогда количество информации, получаемой после 8 2 реализации одного из этих событий, рассчитывается по формуле 1 11 11 = - log 2 + log 2 + log 2 + log = 1,75 бит.

H 2 24 48 5. За прошедший год ученик получил 100 оценок: 60 пятерок, 25 четверок, 10 троек и 5 двоек. Опреде лить количество информации в сообщениях:

а) о получении каждой из оценок;

б) о получении любой из оценок.

Решение:

а) после расчета вероятности оценок:

1 H = log 2 = H 5 = log 2 » 0, бита;

4 бита;

0, 0, 1 H 3 = log 2 » 3, бита;

H 2 log 2 0,05 » 4,322 бита.

= 0,1 1 1 1 H = 0,6 log 2 + 0,25 log 2 + 0,25 log 2 + 0, 25 log 2 »

0,25 » 1,49 бита.

б) 0,6 0,25 0, Из этого примера видна также ошибочность утверждения, что 1 бит является минимальным количест вом информации – никаких оснований для такого утверждения в теории информации нет.

6. Задумано целое число в интервале от 0 до 3. Необходимо угадать это число. На вопросы можно отве чать лишь «да» или «нет». Какое количество информации необходимо получить, чтобы узнать заду манное число, т.е. полностью снять начальную неопределенность? Как правильно построить процесс угадывания?

Решение:

Исходами в данном случае являются: A1 – «задуман 0», A2 – «задумана 1», A3 – «задумана 2», A4 – «за думана 3». Конечно, предполагается, что вероятности быть задуманными у всех чисел одинаковы. По скольку n = 4, следовательно, p(Ai ) =, log 2 p(A i ) = -2 и H = 2 бита. Таким образом, для полного сня тия неопределенности опыта (угадывания задуманного числа) необходимо 2 бита информации.

Теперь выясним, какие вопросы необходимо задать, чтобы процесс угадывания был оптимальным, т.е.

содержал минимальное их число. Здесь удобно воспользоваться так называемым выборочным каска дом:

Таким образом, для решения задачи оказалось достаточно двух вопросов независимо от того, какое число было задумано. Совпадение между количеством информации и числом вопросов с бинарными ответами не случайно. Количество информации численно равно числу вопросов с равновероятными бинарными вариантами ответов, которые необходимо задать, чтобы полностью снять неопределен ность задачи.

Физиологи и психологи научились определять количество информации, которое человек может воспринимать при помощи органов чувств, удерживать в памяти и подвергать обработке. Информацию можно представлять в различных формах: звуковой, знаковой и других. Рассмотренный выше способ определения количества информа ции, получаемой в сообщениях, которые уменьшают неопределенность наших знаний, рассматривает информацию с позиции ее содержания, новизны и понятности для человека. С этой точки зрения в опыте по бросанию кубика одинаковое количество информации содержится в сообщениях «два», «вверх выпала грань, на которой две точки» и в зрительном образе упавшего кубика.

При передаче и хранении информации с помощью различных технических устройств информацию следует рассматривать как последовательность знаков (цифр, букв, кодов цветов точек изображения), не рассматривая ее содержание.

Считая, что алфавит (набор символов знаковой системы) – это событие, то появление одного из символов в сообщении можно рассматривать как одно из состояний события. Если появление символов равновероятно, то можно рассчитать, сколько бит информации несет каждый символ. Информационная емкость знаков определяется их количеством в алфавите. Чем из большего количества символов состоит алфавит, тем большее количество ин формации несет один знак. Полное число символов алфавита принято называть мощностью алфавита.

Молекулы ДНК (дезоксирибонуклеиновой кислоты) состоят из четырех различных составляющих (нуклеоти дов), которые образуют генетический алфавит. Информационная емкость знака этого алфавита составляет 2 бита.

Каждая буква русского алфавита (если считать, что «е» = «ё») несет информацию в 5 бит.

При таком подходе в результате сообщения о результате бросания кубика получится различное количество информации. Чтобы его подсчитать, нужно умножить количество символов K на количество информации, которое несет один символ h :

H = Kh. (1.4) Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на число знаков в сообщении.

Бит в теории информации – количество информации, необходимое для различения двух равновероятных со общений (типа «орел-решка», «чет-нечет» и т.п.).

В вычислительной технике битом называют наименьшую «порцию» (единицу информации) памяти компьюте ра, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представле ния данных и команд.

Объем информации, записанной двоичными знаками в памяти компьютера, подсчитывается просто по количе ству требуемых для такой записи двоичных символов. При этом невозможно нецелое число битов (в отличие от вероятностного подхода).

Бит – слишком мелкая единица измерения. На практике чаще применяется более крупная единица (двоич ное слово) – байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256 = 28).

Для удобства введены и широко используются также еще более крупные, чем бит, производные единицы ин формации, определяющиеся десятичными приставками:

· 1 килобайт (Кбайт) = 1 024 байта = 210 байт;

· 1 мегабайт (Мбайт) = 1 024 Кбайта = 220 байт;

· 1 гигабайт (Гбайт) = 1 024 Мбайта = 230 байт.

В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:

· 1 терабайт (Тбайт) = 1 024 Гбайта = 240 байт;

· 1 петабайт (Пбайт) = 1 024 Тбайта = 250 байт.

Более правильно использовать не десятичные, а двоичные приставки, но на практике они пока не применяют ся, возможно, из-за неблагозвучности, путаницы и противоречия многим техническим стандартам в последнее вре мя: кибибайт (Кибайт), мебибайт (Мибайт), гибибайт (Гибайт) и т.п.

Иногда десятичные приставки используются и в прямом смысле, например при указании емкости носителей информации, а также пропускной способности каналов передачи данных (сетей). Гбайт может обозначать 210 106 = 1 024 000 000 байт (миллион Кибайт), а то и просто 109 = 1 000 000 000 байт (миллиард байт), а не 230 = 1 073 741 824 байта, как, например, при выражении объема модулей памяти, основанного на степени числа «2», и следовании коммерческим интересам.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, на пример, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации [1, 3-5].

1.5. Алгоритмы. Логические операторы. Триггер Понятие, свойства и представление алгоритмов. Алгоритм – это понятное и точное предписание (инструк ция) исполнителю выполнить конечную последовательность действий (команд), приводящих оптимальным путем от исходных данных к результату (рис. 1.11).

Рис. 1.11. Свойства алгоритма Алгоритм, составленный для некоторого исполнителя, можно представить различными способами: с помощью графического или словесного описания, в виде таблицы, записью на алгоритмическом языке (языке программиро вания). Наиболее широкое распространение получил графический способ представления алгоритмов (рис. 1.12) [1, 3–5, 10].

Рис. 1.12. Графический способ представления алгоритмов Логические операторы. Для выполнения операций, связанных с обработкой и преобразованием информации, используются логические операторы: И (конъюнкция), ИЛИ (дизъюнкция) и НЕ (инверсия) (рис. 1.13).

Можно представить функционирование вышеуказанных операторов на примере работы схем из включенных электрических ключей (рис. 1.14) [1, 3–5, 10, 11].

Рис. 1.13. Логические операторы Определение триггера и его функционирование. Триггер – элементарная ячейка памяти. Как запоминающие ячейки триггеры имеют два устойчивых состояния («открыт / закрыт» или «включен / выключен») и скачкообразно переключаются из одного состояния в другое под воздействием электрических управляющих сигналов. При этом так же скачкообразно изменяется уровень напряжения на выходе триггера, т.е. этим устойчивым состояниям соот ветствуют логические уровни «0» и «1». Другими словами, триггер – это электронная схема, обладающая двумя устойчивыми состояниями (рис. 1.15).


а) б) в) Рис. 1.14. Схемы из включенных электрических ключей, реализующие элементарные операции конъюнкции (а), дизъюнкции (б) и инверсии (в) и их условные графические обозначения а) б) Рис. 1.15. Условное графическое изображение триггера:

а) схема запоминающей ячейки на элементах «И-НЕ»;

б) сокращенная интерпретация схемы Триггеры также служат основой для построения регистров, счетчиков и других элементов, обладающих функ цией хранения информации.

Входной сигнал S (Set) служит для установки запоминающей ячейки в состояние «1» ( Q = 1, Q = 0 ). Сигнал R (Reset) устанавливает запоминающую ячейку в состояние «0» ( Q = 0, Q = 1 ). Активными значениями для них яв ляются сигналы низкого уровня.

Пусть на входы запоминающей ячейки поданы сигналы S = 0 и R = 1. Тогда при любом исходном состоянии запоминающей ячейки на выходе элемента 1 установится высокий уровень напряжения. Так как на входы элемента 2 поступают значения Q и R, то на его выходе будет сигнал низкого уровня. Таким образом, запоминающая ячей ка перейдет в состояние «1».

Аналогично при S= 1, R= 0 запоминающая ячейка перейдет в состояние Q = 0, Q = 1, т.е. в «0».

Если = 1, = 1, то состояние запоминающей ячейки будет определяться ее предыдущим состоянием. Если R S запоминающая ячейка находилась в состоянии «1», то сигнал Q = 0, поступая на вход элемента 1, подтвердит со стояние его выхода Q = 1. На входы элемента 2 поступят сигналы только высокого уровня. Поэтому его выход бу дет находиться в состоянии Q = 0, т.е. не изменится. Если запоминающая ячейка находилась в состоянии «0», то сигнал Q = 0, поступая на вход элемента 2, подтвердит состояние его выхода Q = 1. В свою очередь, выход эле мента 1 также останется без изменения. Таким образом, эта комбинация входных сигналов соответствует режиму хранения.

Если на входы S и R поданы сигналы низкого уровня ( S = R = 0 ), то сигнал на выходах элементов 1 и 2 будет высоким ( Q = Q = 1 ). При переводе запоминающей ячейки в режим хранения ( S = R = 1 ) выходы элементов 1 и могут установиться в произвольное состояние. Поэтому комбинация сигналов S = R = 0 на управляющих входах не используется.

Работа триггерной схемы определяется не таблицей истинности, как для комбинационной логической схемы, а таблицей переходов. Таблица переходов показывает изменение состояния триггера при изменении состояния вход ных сигналов в зависимости от его текущего состояния. Таблица переходов запоминающей ячейки, показанной на рис. 1.15, представлена в табл. 1.1.

Таблица 1. Таблица переходов запоминающей ячейки Q(t + 1) Функция S R 0 0 Х Запрещенная комбинация 0 1 1 Установка в «1»

1 0 0 Установка в «0»

Q(t ) 1 1 Хранение Аналогичная запоминающая ячейка может быть построена на элементах «ИЛИ-НЕ».

Такие запоминающие ячейки можно рассматривать как простейшие асинхронные триггеры, на базе которых строятся синхронные триггерные схемы.

Триггеры можно классифицировать по различным признакам (рис. 1.16) [1, 3–5, 10, 11].

Рис. 1.16. Классификация триггерных схем 1.6. Представление чисел в компьютерных системах. Представление текста.

Представление изображения. Файлы и файловая структура Способы представления чисел, текста и изображения в компьютерных системах. Числа в памяти ЭВМ представляются в форме с фиксированной (целые числа) и плавающей (вещественные числа) точкой (рис. 1.17).

Рис. 1.17. Представление чисел в компьютерных системах Примеры:

1. Представление числа 1607 во внутренней памяти ЭВМ.

Решение:

а) перевод числа в двоичную систему счисления: 160710 ® 110010001112 ;

б) дополнение полученного результата слева незначащими нулями до размеров машинного слова (на пример, 16-разрядной ячейки памяти): 0000 0110 0100 0111.

2. Представление числа -1607 во внутренней памяти ЭВМ.

Решение:

а) перевод числа в двоичную систему счисления без учета знака: 160710 ® 1100100011 12 ;

б) дополнение полученного результата слева незначащими нулями до размеров машинного слова (на пример, 16-разрядной ячейки памяти): 0000 0110 0100 0111;

в) формирование обратного кода (замена нулей на единицы и наоборот): 1111 1001 1011 1000;

г) добавление к полученному результату единицы: 1111 1001 1011 1001.

Для проверки правильности вычислений достаточно прибавить к полученному числу его неотрица тельный эквивалент, в результате чего должны появиться нули во всех разрядах и единица в старшем разряде, обозначающая переполнение разрядной сетки.

Если каждому символу алфавита сопоставить определенное целое число, то с помощью двоичного кода можно кодировать текстовую информацию.

Таблица кодирования – это таблица, в которой все символы компьютерного алфавита пронумерованы. Номер символа является его числовым кодом (рис. 1.18).

Рис. 1.18. Таблица кодирования ASCII (от английских слов American Standard Code for Information Interchange – американский стандартный код для обмена информацией) – 7-битная компьютерная кодировка для представления латинского алфавита, десятич ных цифр, некоторых знаков препинания, арифметических операций и управляющих символов (команд) (рис. 1.19).

Рис. 1.19. Кодировка ASCII в шестнадцатеричном коде В честь кода ASCII даже был назван небольшой астероид – «3568 ASCII» (открыт в 1936 году, название полу чил позже).

Коды первых двух строк таблицы ASCII представляют собой некоторые команды (не символы), поэтому на таблице отсутствуют.

Первый вариант ASCII предназначался в основном для передачи сообщений по телетайпу. Он был разработан в 1963 году в фирме Bell Laboratories на смену созданному в 1874 году 5-битному коду Бодо (предшественницей кода Бодо была азбука Морзе.) В этом варианте еще не было строчных букв. Они были добавлены в 1967 году, на ряду с заменой стрелки влево на символ «_», а стрелки вверх – на «^». Так возник вариант ASCII, используемый и сейчас.

По сравнению с кодом Бодо кодировка ASCII представляла широкий набор обычных и управляющих симво лов, кроме того, буквы шли подряд и по алфавиту, что позволяло легко сортировать тексты.

7-битный код оказался удобным для использования и в компьютерах, поскольку компьютеры оперировали 8 битными байтами, а 8-й бит можно было использовать для контроля четности (системы, не использовавшие кон троль четности, делали старший бит нулевым или изредка единичным). Семибитность позволяла также добавить лишние 128 символов (например, для поддержки национальных алфавитов).

Конкурентом ASCII была кодировка EBCDIC (от английских слов Extended Binary Coded Decimal Interchange Code – расширенный двоично-десятичный код обмена информацией), разработанная в 1964 году фирмой IBM для своей операционной системы System / 360 в составе мэйнфреймов (от английского слова mainframe: 1) большая универсальная ЭВМ – высокопроизводительный компьютер со значительным объемом оперативной и внешней памяти, предназначенный для организации централизованных хранилищ данных большой емкости и выполнения интенсивных вычислительных работ;

2) компьютер c архитектурой IBM System / 360, 370, 390 и zSeries собственно го производства и совместимых с ними. EBCDIC кодирует буквы латинского алфавита, арабские цифры, некоторые знаки пунктуации и управляющие символы. Существовало по меньшей мере шесть версий EBCDIC, несовмести мых между собой. Кодировка EBCDIC, однако, была сделана под существующие в то время перфораторы и облада ла рядом недостатков: была 8-битной (следовательно, не позволяла ни осуществлять контроль четности, ни добав лять новые символы);

буквы шли хотя и по алфавиту, но не подряд (например, после «I» следует не «J», а символ переноса «soft hyphen»). В результате почти везде использовалась ASCII, а EBCDIC – только в системе System / и совместимых с ней (например, ОС ЕС). Сейчас даже компьютеры IBM Mainframe используют EBCDIC только для обратной совместимости.

Для кодирования национальных символов использовалось переключение режима с помощью символов «SO»

(Shift Out) и «SI» (Shift In) – например, в кодировке КОИ-7 (код обмена информацией семизначный). Впоследствии оказалось удобнее использовать 8-битные кодировки, где нижнюю половину кодовой таблицы (0–127) занимают символы ASCII, а верхнюю (128–255) – разные другие необходимые символы.

В кодировке Unicode первые 128 символов тоже совпадают с соответствующими символами ASCII, однако содержат 16 бит.

ASCII в компьютерах представляется определенным образом. На подавляющем большинстве современных компьютеров минимально адресуемая единица памяти – 8-битный байт, поэтому там используются 8-битные, а не 7-битные символы. Обычно символ ASCII расширяют до 8 бит, просто добавляя 1 нулевой бит в качестве старшего.

Однако на компьютерах системы IBM System / 360, в случае использования ASCII, применялся другой метод: 6-й бит (если считать самый младший бит первым) перемещается в 7-й, а бывший 7-й «раздваивается» и копируется и в 8-й бит, и в 6-й.

На тех компьютерах, где минимально адресуемой единицей памяти было 36-битное слово, поначалу использо вали 6-битные символы (1 слово = 6 символов). После перехода на ASCII на таких компьютерах в одном слове ста ли размещать либо пять семибитных символов (1 бит оставался лишним), либо четыре девятибитных символа.

Рис. 1.20. Кодирование изображения Существует также расширенный код ASCII, позволяющий адресовать большее количество символов.

Линейные координаты и индивидуальные свойства (яркость, цвет) каждой точки (пикселя) графического изо бражения кодируются с использованием двоичного кода (рис. 1.20) [1, 3–5].

Файл, каталог, файловая структура и система и типы файлов. Файл – логический блок информации, хра нимой на носителях информации (последовательность произвольного числа байтов, обладающая уникальным соб ственным именем). Каталог – поименованное множество файлов и подкаталогов (рис. 1.21).

Файл обязательно имеет имя и может содержать произвольный объем информации (максимальная длина и того, и другого определяется возможностями файловой системы). Файл также имеет набор атрибутов, в которых содержится различная информация о самом файле. Некоторые атрибуты используются практически во всех файло вых системах (в частности, «время создания»), а некоторые специфичны для определенной системы («скрытый», «исполнимый»).

В операционной системе UNIX процессы (обычно находятся в каталоге /PROC) и устройства (/DEV) представ ляются в виде файлов особого рода, что позволяет использовать некоторые файловые операции для манипуляции этими объектами. Также стоит отметить, что в UNIX файл может иметь более одного имени: можно создать жест кую ссылку на файл, после чего она станет полным аналогом изначального имени файла. После удаления всех ссы лок на файл, включая изначальное имя, данные, на которые они ссылались, будут уничтожены. Жесткие ссылки возможно создавать только в пределах файловой системы, на которой хранится изначальный файл.

Рис. 1.21. Файловая структура В некоторых файловых системах (например, в OS VAX VMS), файлы имеют версию, что позволяет открывать более старые варианты данного файла, а в Mac OS у файлов есть два «потока»: data fork и resource fork. В Windows NT у файла может быть сколько угодно именованных потоков помимо основного.

Например, при создании файла для него необходимо сформировать и сохранить эскиз (уменьшенное изобра жение содержимого файла, предназначенное для предварительного просмотра), который, как правило, записывает ся в конец файла. Для вывода эскиза надо открыть файл, считать информацию заголовка, найти начало нужной информации и только после этого считать данные. Можно хранить эскиз в отдельном файле, но в этом случае вели ка вероятность того, что сам файл будет перенесен в другое место без соответствующего ему эскиза.

Подобную проблему можно решить с использованием нескольких потоков. При создании файла основные дан ные следует записать в неименованный поток. Затем необходимо создать внутри того же файла именованный по ток, предназначенный для данных образа. Теперь один файл будет содержать два потока.

Файловая система – регламент, определяющий способ организации, хранения и именования данных на носителях информации. Она определяет формат физического хранения информации, которую принято группиро вать в виде файлов. Конкретная файловая система определяет размер имени файла, максимальный возможный раз мер файла и набор его атрибутов. Некоторые файловые системы предоставляют сервисные возможности, например разграничение доступа или шифрование файлов.

Файловая система связывает носитель информации, с одной стороны, и API (от английских слов Application Programming Interface – интерфейс программирования приложений – общее наименование для целого набора базо вых интерфейсов программирования приложений операционных систем семейства Microsoft Windows) для доступа к файлам – с другой. Когда прикладная программа обращается к файлу, она не имеет никакого представления о том, каким образом расположена информация в конкретном файле и на каком физическом типе носителя (компакт диске, жестком диске, гибком диске, магнитной ленте или блоке флэш-памяти) он записан. Все, что знает програм ма – это имя файла, его размер и атрибуты. Эти данные она получает от драйвера файловой системы. Именно фай ловая система устанавливает, где и как будет записан файл на физическом носителе.

С точки зрения операционной системы весь диск представляет собой набор кластеров размером от 512 байт и выше. Драйверы файловой системы организуют кластеры в файлы и каталоги (реально являющиеся файлами, со держащими список файлов в этом каталоге). Эти же драйверы отслеживают, какие из кластеров в настоящее время используются, свободны и помечены как неисправные.

Однако файловая система не обязательно напрямую связана с физическим носителем информации. Существу ют виртуальные и сетевые файловые системы, которые являются лишь способом доступа к файлам, находящимся на удаленном компьютере.

Практически всегда файлы на дисках объединяются в каталоги, имеющие определенную иерархию.

В простейшем случае все файлы на определенном диске хранятся в одном каталоге. Такая одноуровневая схема использовалась в CP / M и первых версиях MS-DOS. Сегодня ее можно встретить, в частности, в цифровых фото аппаратах: все сделанные фотографии складываются в один каталог. Иерархическая файловая система со вложен ными друг в друга каталогами появилась в UNIX.

В UNIX существует только один корневой каталог, а все остальные файлы и каталоги вложены в него. Чтобы получить доступ к файлам и каталогам на каком-нибудь диске, необходимо осуществить операцию монтирования этого диска командой mount. Например, чтобы открыть файлы на компакт-диске, нужно сообщить операционной системе о необходимости использования файловой системы на этом компакт-диске и показа ее в каталоге /MNT/CDROM. Все файлы и каталоги, находящиеся на компакт-диске, появятся в этом каталоге, который называ ется точкой монтирования. В большинстве UNIX-подобных систем съемные диски (дискеты и компакт-диски) мон тируют в каталог /MNT или /MOUNT. UNIX также позволяет автоматически монтировать диски при загрузке опе рационной системы.

Еще более сложная структура применяется в NTFS и HFS. В этих файловых системах каждый файл представ ляет собой набор атрибутов. Атрибутами считаются не только традиционные «только чтение», «системный» и др., но и имя файла, его размер и даже содержимое. Таким образом, для NTFS и HFS то, что хранится в файле, – это всего лишь один из его атрибутов.

Если следовать этой логике, один файл может содержать несколько вариантов содержимого. Таким образом, в одном файле можно хранить несколько версий одного документа, а также дополнительные данные (значок файла и связанную с файлом программу). Такая организация типична для HFS на Macintosh.

По предназначению файловые системы можно классифицировать на следующие категории:

· для носителей с произвольным доступом (жесткий диск): FAT32 (от английских слов File Allocation Table – таблица размещения файлов), HPFS (от английских слов High Perfomance File System – высокопроизводи тельная файловая система), ext2 (от английского слова extended – расширенный;

вторая расширенная файло вая система для ядра Linux) и др. В последнее время широкое распространение получили журналируемые файловые системы, такие как ext3, ReiserFS, JFS, NTFS, XFS и др.;

· для носителей с последовательным доступом (магнитные ленты): QIC и др.;

· для оптических носителей (CD и DVD): ISO9660, ISO9690, HFS, UDF и др.;

· виртуальные файловые системы: AEFS и др.;

· сетевые файловые системы: NFS, SMBFS, SSHFS, GmailFS и др.

Некоторые широко распространенные форматы файлов следующие:

· анимация и видео: Macromedia Flash (векторная графика), ASF (Advanced Streaming Format), AVI (Audio Video Interleave), MPEG, QuickTime и др.;

· обработка текстов: ANSI / ASCII / Unicode, Rich Text Format (принятый Microsoft формат для обмена тексто выми файлами), TeX, Microsoft Word (защищенный часто изменяемый формат Microsoft, квази-стандарт) и др.;

· языки описания страниц: DVI, PCL, PDF, PostScript и DjVu;

· языки разметки: HTML / xHTML, XML и SGML;

· исходный код для языков программирования: C, C++, Pascal, Basic, Java, C# и др.;

· таблицы: dif (для обмена таблицами между табличными процессорами), Microsoft Excel (распространенный формат Microsoft, квази-стандарт), 123 (Lotus 1-2-3), AWS (Ability Spreadsheet), WKS (Microsoft Works), gnu meric (GNU gnumeric) и др.;

· архивные форматы: ACE, ARJ, IMG, ISO (виртуальный диск), LHA, LZH, RAR, ZIP, ZOO и др. [1, 3–5].

2. ТЕХНИЧЕСКИЕ СРЕДСТВА ИНФОРМАТИКИ 2.1. Устройство персональных компьютеров.

Архитектура и структура компьютера.

Материнская плата. Центральный процессор и его функции. Регистры Совокупность устройств, предназначенных для автоматической или автоматизированной обработки данных, называют вычислительной техникой.

Конкретный набор взаимодействующих между собой устройств и программ, предназначенный для обслужива ния одного рабочего участка, называют вычислительной системой.

Центральным устройством большинства вычислительных систем является компьютер – это электронное уст ройство (прибор), предназначенное для автоматизации создания, хранения, обработки и транспортировки данных.

Категория компьютеров, предназначенных для обслуживания одного рабочего места, называется персональ ными компьютерами.

Состав вычислительной системы называют конфигурацией.

Различают аппаратную и программную конфигурацию вычислительных систем. Решение одних и тех же задач может обеспечиваться как аппаратными, так и программными средствами.

Критериями выбора аппаратного или программного решения являются производительность и эффектив ность.

Обычно аппаратные решения оказываются дороже, но более производительны (рис. 2.1 и 2.2) [1, 3–5, 12–14].

Рис. 2.1. Состав устройств компьютера: 1 – монитор;

2 – материнская плата;

3 – центральный процессор;

4 – оперативная память;

5 – карты расширений;

6 – блок питания;

7 – оптический привод;

8 – жесткий диск;

9 – мышка;



Pages:   || 2 | 3 | 4 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.