Лекционные материалы по дисциплине ОИС


Лекционные материалы по дисциплине ОИС
Лекция 1. Основные задачи теории систем.
Краткая историческая справка.
В природе, в обществе и в технике – повсюду наблюдаются системы, состоящие из так или иначе связанных между собой элементов или составных частей, обусловливающих существование и действие каждой системы. Таковы солнечная система, живой организм, промышленное предприятие, любое транспортное средство и т.д. Каждая такая система существует, пока сохраняет свое единство. Состояние всякой системы определяется или описывается с помощью характеризующих его величин, рассматриваемых в функции времени. Например, катер идущий по волнам представляет собой систему, все части которой; корпус, двигатель, винт, руль и т.д. обеспечивают ее сохранение в плавании и выполнение ее назначения – движения по требуемому курсу, состояние катера при этом все время изменяется. Здесь, с одной стороны, имеются возмущающие воздействия в виде ветра и волн, а с другой управляющие воздействия производит человек, пользуясь рулевым устройством и регулируя работу двигателя. Изменение состояние всякой системы изучают, рассматривая характеризующие ее величины и их производные в функции времени и воздействующих на нее факторов. Каковы бы ни была природа таких величин и факторов, установление их связи во времени представляет собой задачу, которые решаются в динамике. По этому рассматриваемые в таком аспекте системы называют динамическими.
Управление обеспечивает целенаправленное приспособление системы к возмущающим воздействиям. Это осуществляет каждый живой организм, являющийся системой, которая обладает регулирующими органами, позволяющими сохранять жизнеспособных в различных условиях внешней среды. Чем сложнее задача приспособления и окружающим условиям и воздействиям, тем сложнее должно быть устройство динамической системы.
Но каковы бы ни были эти системы, процессы управления или подчиняются некоторым общим закономерностям и характеризуется сходными явлениями. Эти закономерности и явления изучает кибернетика – наука от управлении динамическими системами.
Кибернетика изучает процессы управления и системы, в которых эти процессы осуществляется. Еще в древности словом кибернетика стали называть искусства управления вообще. А.М. Ампер предложил назвать кибернетику науку об управление обществом. Современная кибернетика находит и исследует закономерности общие для всех процессов управления, в какой бы области они не протекали. Она получила развитие с того времени, когда было обращено внимание на общность проблем, относящихся к управлению машинами и живыми организмами. Впервые их стало изучать с 1942г. небольшая группа ученных, образовавшаяся вокруг американского математика Норберта Винера и мексиканского физиолога Артуро Розенблюта. В последствие с той же точки зрения начали рассматривать социально-экономические проблемы управления и было обнаружено, как заметил английский кибернетик Уильям Росс Эшби, много “интересных и много обещающих параллелей между машиной, мозгом и обществом”. “Кибернетика стала наукой об общих принципах управления и о применении их в технике, в человеческом обществе и в живых организмах”, - определил ее содержание академик А.И. Берг, возглавивший кибернетическое направление научных исследовании в России.
Первое систематическое изложение идей этой науки дал Винер в изданной в 1948г. в книге, название которой указывает, что кибернетика изучает управление и связь в живых организмах и в машинах. В этой книге Винер впервые определил содержание и задачи новой науки и предложил ее назвать кибернетикой. Поэтому общепризнано, что это наука начала свое существование в 1948г., а Винер является ее основателем. Действительно; быстрое развитие кибернетики началось после появление книги Винера. Его заслуга состоит в том, что он подметил возникновение новой науки, дал ей имя, сформулировал ее задачи и сделал значительный вклад в разработку некоторых ее разделов.
Всякий процесс управления должен быть целенаправленным. У.Р. Эшби сказал, что кибернетика – “наука о том, как надо управлять очень сложной системой, чтобы в итоге она вела себя желательным для нас образом”. В процессах управления, осуществляемых человеком, требуемое поведение управляемых систем определяется сознательно намеченными целями.
Лекция 2. Терминология теории систем.
Понятие информационной системы.
Слова “система” происходит от греческого system a, что означает целое, составленное из частей или множества элементов, связанных друг с другом и образующих определенную целостность, единство.
Системой называется любой объект, который, с одной стороны, рассматривается как единое целое, а с другой как множество связанных между собой или взаимодействующих составных частей.
Понятие системы охватывает комплекс взаимосвязанных элементов, действующих как единое целое. В систему входят следующие компоненты:
Структура - множество элементов системы и взаимосвязей между ними. Математической моделью структуры является граф.
Входы и выходы – материальные потоки или потоки сообщений, поступающие в систему или выводимые ею. Каждый входной поток характеризуются набором параметров {x(i)}; значение этих параметров по всем входным потокам образуют вектор-функцию Х. В простейшем случае Х зависит только от времени t, а в практически важных случаях значение Х в момент времени t+1 зависит от Х(t) и t. Функция выхода системы Y определяется аналогично.
Закон поведения системы – функция, связывающая изменения в ходе и выходе системы Y=F(x).
Цель и ограничения. Качество функционирования системы описывается рядом переменных U1, U2,…Un. Часть этих переменных должна поддерживаться в экстремальном значении, например, max U1 функция U1=f(X, Y, t,…) называется целевой функцией, или целью. Зачастую f не имеет аналитического и вообще явного выражения. На остальные переменные могут быть наложены ограничения
a k <=d k (u k) < b k ,где 2=k<=N.
Среди известных свойств систем целесообразно рассмотреть следующие – относительность, делимость и целостность.
Свойство относительности устанавливает, что состав элементов,
взаимосвязей, входов, выходов, цели и ограничении зависит от целей исследователя. Реальный мир богаче системы. Поэтому от исследователя и его целей зависит, какие стороны реального мира и с какой полнотой будет охватывать системы. При выделении системы некоторые элементы, взаимосвязи, входы и выходы не включаются в нее из-за слабого влияния на остающиеся элементы, из-за наличия самостоятельных целей, плохо согласующиеся с целью всей системы и т.д. Они образуют внешнюю среду для рассматриваемой системы.
Делимость означает, что систему можно представить состоящей из относительно самостоятельных частей – подсистем, каждая из которых может рассматриваться как система.
Возможность выделения подсистем (декомпозиция системы) упрощает ее анализ, так как число взаимосвязей между подсистемами и внутри подсистем, обычно меньше, чем число связей непосредственно между всеми элементами системы.
Свойство целостности указывает на согласованность цели функционирования всей системы с целями функционирования ее подсистем и элементов. Система имеет больше свойств, чем составляющие ее элементы.
Понятие информационной системы.
Добавление к понятию система слова информационная отражает цель ее создание и функционирования. Информационные системы обеспечивают сбор, хранение, обработку, поиск, выдачу информации, необходимой в процессе принятие решений задач из любой области.
Информационная система – взаимосвязанная совокупность средств, методов и персонала, используемых для хранение, обработки и выдачи информации в интересах достижения поставленной цели.
Современное понимание информационной системы предполагает использование в качестве основного технического средства переработки информации ПК. Необходимо понять разницу между компьютерами и информационными системами. Компьютеры, оспа щенные специализированными программными средствами, являются технической базой и инструментом информационных систем. информационная система немыслима без персонала, взаимодействующею с компьютерами и телекоммуникациями.
Этапы развития информационных систем. история развития информационных систем и цели их использования на разных периодах представлены в следующей таблице 1.
Таблица 1.
Период времени. Концепция использования информации. Вид информационных систем. Цель использования.
1950-1960гг. Бумажный поток расчетных документов. ИС обработки расчетных документов на электромеханических бухгалтерских машинах. Повышение скорости обработки документов.
1960-1970гг. Основная помощь в подготовке отчетов. Управленческие ИС для производственной информации. Ускорение процесса подготовки отчетности.
1970-1980гг. Управленческий контроль реализации (продаж). Системы поддержки принятия решении системы для высшего звена управления. Выработка наиболее рационального решения.
1980-2000гг. Информация -стратегический ресурс, обеспечивающий конкурентное преимущество. Стратегические ИС Автоматизированные офисы. Выживание и процветание фирмы.
Процессы в информационной системе.
Процессы, обеспечивающий работу ИС любого назначения, можно представить в виде схемы, состоящей из блоков:

Ввод информации из внешних или внутренних источников;
Обработка входной информации и представление ее в удобном виде;
Вывод информации для представления потребителя;
Обратная связь – это информация, переработанная людьми данной организации для коррекции входной информации.
Информационная система определяется следующими свойствами:
Любая ИС может быть подвернута анализу, построена и управляема на основе общих принципов построения систем;
ИС является динамичной и развивающейся;
При построении ИС необходимо использовать системный подход;
Входной продукции ИС является информация, на основе которой принимаются решения;
ИС следует воспринимать как человека – компьютерную систему обработки информации.
В настоящее время сложилось мнение об ИС как о системе,
реализованной с помощью компьютерной техники. Чтобы разобраться в работе ИС, необходимо понять суть проблем, которые она решает, а также организационные процессы, в которые она включена. При определении возможности компьютерной ИС для поддержки принятия решений следует учитывать:
Структурированность решаемых управленческих задач;
Уровень иерархии управления фирмой, на котором решения должно быть принято;
Принадлежность решаемой задачи к той или иной функциональной сфере бизнеса;
Вид используемой информационной технологии.
Технология работы в компьютерной ИС доступна для понимания
специалистам некомпьютерной области и может быть успешно использована для контроля процессов профессиональной деятельности и управления ими.
Лекция 3. Системный анализ. Качественные
и количественные методы описания ИС.
В последнее время широко используются три системных понятия: “системный анализ”, “теория систем” и “системный подход”. Между ними часто ставят знак тождества, что приводит к некоторой путанице. Слова “система” и связанные с ним термины получили в последнее время очень широкое распространение. Это связана с тем, что на передний план все более и более выступает необходимость изучения сложных комплексов (систем). токая необходимость определяется резким усложнением создаваемых технических конструкции, устройств, технологий и всех совокупностей хозяйственных связей.
Подробность изучения биологических объектов и проблем экологии, которые с каждым годом становятся все более и более актуальными, также приводит исследователя к сложнейшим системам.
Системный анализ изучает развитие сложных систем. сложность изучаемых и проектируемых систем приводит к необходимости создания специальной, качественно новой технике исследования, именуемой системами имитации – специально организованными системами математических моделей, воспроизводящих в ЭВМ функционирование проектируемого или изучаемого комплекса. На исследование динамики процесса, позволяющие увидеть перспективы и наметить цели, - это лишь один из аспектов системного анализа.
Один из трудных вопросов, который изучается в рамках системного анализа, относится к проблемам проектирования иерархической организации. Любые более или менее сложные системы всегда организованы по иерархическому принципу, связи с тем, что централизованная обработка информации и принятие решений часто бывают невозможными из-за большого объема информации, которую следует собирать и перерабатывать, из-за возникающих при этом задержан и искажений и т.д. Если речь идет о проектировании технических систем, то задача исследования систем состоит прежде всего в разработке самой функциональной схемы, которая может быть реализована заведомо не единственным способом, и в определении частных целей. Значительно сложнее обстоит дело, когда речь идет о народно - хозяйственных комплексах, функционирование элементов которых зависит от того, как управляют ими люди. В отличие от машины человек всегда имеет собственные цели и интересы, и проектировщику системы уже недостаточно только формулировать цели для нижних звеньев.
Теория иерархических систем, которая занимается некоторыми из аспектов этой проблемы является одной из важнейших частей системного анализа.
Таким образом, системный анализ – это техническая дисциплина, развивающая методы проектирования сложных технических народно-хозяйственных систем, организационных структур и т.д. Системный анализ как дальнейшее развитие теории исследования операции включает в себя последнюю со всем арсеналом средств, развитых в ее рамках. Поскольку любой анализ сложных систем невозможен без использования ЭВМ, то когда говорят о методах системного анализа, имеют обычно в виду процедуры, основанные на использовании ЭВМ.
Наряду с термином “системный анализ” большое распространение получил термин “теория систем”.
Возникновение “теории систем”связывает с именем известного биолога Людвига фон Бертеланфи, который в 50-х годах в Канаде организовал центр системных исследований и опубликовал большое количество книг. Теория систем в отличие от системного анализа относится скорее к методологии науки.
Методы системного анализа опираются не описание тех или иных фактов, явлений, процессов. В настоящее время очень широкое распространение получило слово “модель”. Если при описании моделей используется язык математики, то имеются в виду математические модели. Построение математических моделей является основой всего системного анализа. Это центральный этап исследования или проектирования любой системы. От качества модели зависит судьба всего последующего анализа. Проблеме математического моделирования состоит в описание этих принципов отбора в терминах и тех переменных, которые согласно взглядом исследователя наиболее полно характеризуют изучаемый предмет. Принципы отбора сужают множество допустимых движений, отбрасывая те, которые не могут быть реализованы. Чем более совершена модель, тем точнее оказывается наш прогноз. В различных областях знания принципы отбора движений разные.
Современная наука рассматривает три уровня организации материи: неживая материя, и самая высокая организация материи мыслящая, познающая себя материя – общество.
На самом нижнем уровне – уровне неживой материи – основными принципами отбора является законы сохранения: вещества, импульса, энергии и т.д. Любое моделирование должно начинаться с выбора основных переменных, с помощью которых он записывает законы сохранения. Необходимо учитывать второй закон термодинамики, принципы минимума диссипации энергии, устойчивости. Очень важны всякого рода условия (ограничения): граничные, начальные и т.д. поэтому процесс моделирования начинается с записи законов сохранения.
На общественном уровне организации материи появляется совершенно новые явление – трудовая деятельность. Поэтому для описания моделей в этом области мы должны пользоваться терминами трудовой деятельности людей, экономическими терминами. В качестве примера рассмотрим известные балансовые соотношения. Обозначим через х -вектор производимой продукции. Например х1 – количество выплавленной стали, х2 - цветных металлов, х3 – металлорежущих станков и т.д. Через [[a ij ]] – матрицу прямых затрат, т.е. величина a ij определяет количество продукции вида i, необходимого для производства единицы продукции вида j.
Тогда очевидно следующее балансовое соотношение:
Хi = E a ij Xi+Yi, или иначе Ч=ФЧ+Н,
где вектор Y={Y1, … , Yn} носит название вектора конечного продукта. Он может быть использован на инвестиции, потребление, отправлен на склад и т.д.
Структура ИС составляет совокупность отдельных ее частей, называемых подсистемами. Подсистема – это часть системы, выделенная по какому-либо признаку.
Общую структуру ИС можно рассматривать как совокупность подсистем независимо от сферы применения.
В этом случае говорят о структурном признаке классификации, а подсистемы называют обеспечивающими. Таким образом структура любой ИС может быть представлены совокупностью обеспечивающих подсистем.
Среди обеспечивающих подсистем обычно выделяют информационное, техническое, математическое, программное, организационное и правовое обеспечение.
Информационное обеспечение. Назначение подсистемы информационного обеспечения состоит в своевременном формировании и выдаче достоверной информации для принятия управленческих решений.
Информационное обеспечение – совокупность единой системы классификации и кодирования информации, унифицированных систем документации, унифицированных систем документации, схем информационныых потоков, циркулирующих в организации, а также методология без данных.
Важным понятием при работе с информацией является классификация объектов. Классификация – система распределения объектов (предметов, явлений, процессов, понятий) по классам соответствии с определенным признаком. Система классификации позволяет сгруппировать объекты и выделить определенные классы, которые будут характеризоваться рядом общих свойств. Классификация объектов – это процедура группировки на качественном уровне, направленная на выделение однородных свойств. Применительно к информации как к объекту классификации выделенные классы называют информационными объектами.
Свойства информационного объекта определяется информационными параметрами, называемыми реквизитами. Реквизиты представляется либо числовыми данными, например вес, стоимость, год, либо признаками, например цвет, марка, машины, фамилия.
Реквизит – логический неделимый информационный элемент, описывающий определенное свойства объекта, процесса, явления и т.д.
Пример 1. Информация о каждом студенте в отделе кадров университета систематизирована и представлена посредством одинаковых реквизитов.
Фамилия, имя, отчество;
Пол;
Год рождения;
Место рождения;
Адрес проживания;
Факультет и т.д.
Все перечисленные реквизиты характеризует свойства
информационного объекта “Студент”.
Кроме выявления общих свойств информационного объекта классификация нужна для разработки алгоритмов и процедур обработки информации, представленной совокупностью реквизитов.
Пример 2. Алгоритм обработки информационных объектов фирмы позволяют получить информации об объемах продаж, о прибыли, заказчиках, видах производимой продукции и т.д.
При любой классификации желательно, чтобы соблюдались следующие требования:
Полнота охвата объектов рассматриваемой области;
Однозначность реквизитов;
Возможность включения новых объектов.
В любой стране разработаны и применяется государственные,
отраслевые, региональные классификаторы.
Классификатор – систематизированный свод наименований и код классификационных группировок.
При классификации широко используются понятие классификационный признак и значение классификационного признака, которые позволяют установить сходство или различие объектов.
Разработаны три метода классификации объектов: иерархический, фасетный, дескрипторный.
Иерархическая система классификации строится следующим образом:
Исходное множество элементов составляет 0-й уровень и делится в
зависимости от выбранного классификационного признака на классы (группировки), которые образуют 1-й уровень;
Каждый класс 1-го уровня соответствии со своим, характерным для него классификационным признаком делится на подклассы, которые образует 2-й уровень;
Каждый класс 2-го уровня аналогично делится на группы, которые образуют 3-й уровень и т.д.
0-й уровень __________
1-й уровень________
2-й уровень____

3-й уровень___

В иерархической системе классификации каждый объект на любом уровне должен быть отнесен к одному классу, который характеризуются конкретным значением выбранного классификационного признака.
Количества уровней классификации, соответствующие числу признаков, характеризует глубину классификации.
Достоинство иерархической системы классификации:
Простота построения;
Использование независимых классификационных признаков в различных ветвях иерархической структуры.
Недостатки иерархической системы классификации:
Жесткая структура, которая приводит к сложности внесения изменений, так как приходится перераспределять все классификационные группировки;
Невозможность группировать объекты по заранее не предусмотренным сочетаниям признаков.
Фасетная система классификации в отличии от иерархической
позволяет выбирать признаки классификации независимо как друг от друга, так и семантического содержания классификациируемого объекта. Признаки классификации называются фасетами (facet – рамка). Каждый фасет (Фi) содержит совокупность однородных значений данного классификационного признака.
Пример 3. Фасет цвет содержит значения: красный, белый, зеленый, черный, желтый.
Фасет специальность содержит название специальность.
Фасет образование содержит значения: среднее, среднее специальное, высшее.
Схема построения фасетной системы классификации в виде таблицы отображенный на рисунке.
Фасеты.
Ф1 Ф2 Ф3 Фi Фn
1
1
Значения 2
фасетов i
k
Названия столбцов соответствуют выделенным классификационным признакам (фасетам), обозначенным Ф1,Ф2,Ф3,…Фi,…Фn. Например цвет, размер одежды, вес и т.д.
Произведена нумерация строк таблицы. В каждой клетке таблицы хранится конкретное значение фасета.
Процедура классификации состоит присвоении каждому объекту соответствующих значений из фасетов. При этом могут быть использованы не все фасеты. Для каждого объекта задается конкретная группировка фасетов структурной формулой, в которой отражается их порядок следования:
Ks=(Ф1,Ф2,…Фi,…Фk),
где Фi – i-й фасет;
n - количество фасетов.
При построении фасетной системы классификации необходимо, чтобы значения, используемые в различных фасетах, не повторялись.
Достоинство фасетной системы классификации:
Возможность создания большой емкости классификации, т.е. использования большого числа признаков классификации и их значений для создания группировок;
Возможность простой модификации всей системы классификации без изменения структуры существующих группировок.
Недостатком фасетной системы классификации является сложность ее
построения, так как необходимо учитывать все многообразие классификационных группировок.
Дескрипторная система классификации.
Для организации поиска информации, для ведения тезаурусов (словарей) эффективно используется дескрипторная (описательная) система классификации. Суть дескрипторного метода классификации заключается в следующем:
Отбирается совокупность ключевых слов и словосочетаний, описывающих определенную предметную область или совокупность однородных объектов. Причем среди ключевых слов могут находится синонимы;
Выбранные ключевые слова и словосочетания подвергаются нормализации, т.е. из совокупности синонимы выбирается один или несколько наиболее употребляемых.
Создается словарь дескрипторов, т.е. словарь ключевых слов и словосочетаний, отобранных в результате процедуры нормализации.
Между дескрипторами устанавливаются связи, которые позволяют
расширить область поиска информации. Связи могут быть трех видов:
Синонимические, указывающие некоторую совокупность ключевых слов как синонимы;
Рода - видовые, отражающий включение некоторого класса объектов в более представительный класс;
Ассоциативные, соединяющие дескрипторы, обладающими общими свойствами
Система кодирования.
Система кодирования применяется для замены названия объекта на
условное обозначение (код) в целях обеспечения удобной и более эффективной обработки информации.
Система кодирования – совокупность правил кодового обозначения объектов.
Код строится на базе алфавита, состоящего из букв, цифр и других символов. Код характеризуется:
Длиной – число позиций в коде;
Структурой – порядок расположения в коде символов, используемых для обозначения классификационного признака.
Процедура присвоения объекту кодового обозначения называется
кодированием.
Можно выделить две группы методов, используемых в системе кодирования, которые образуют:
Классификационную систему кодирования, ориентированную на проведение предварительной классификации объектов либо на основе фасетной системы;
Регистрационную систему кодирования, не требующую предварительной классификации объектов.
Классификационное кодирование применяется после проведения классификации объектов. Различают последовательное и параллельное кодирование.
Последовательное кодирование используется для иерархической классификационной структуры. Суть метода заключается в следующем: сначала записывается код старшей группировки 1-го уровня, затем код 2-го уровня, затем код группировки 3-го уровня и т.д. В результате получается кодовая комбинация, каждый разряд которой содержит информацию о специфике выделенной группы на каждом уровне иерархической структуры.
Параллельное кодирование используется для фасетной системы классификации. Суть метода заключается в следующем: все фасеты кодируются независимо друг от друга; для значений каждого фасета выделяется определенное количество разрядов кода.
Регистрационное кодирование.
Регистрационное кодирование используется для однозначной идентификации объектов и не требует предварительной классификации объектов. Различают порядковую и серийно – порядковую систему.
Порядковая система кодирования предполагает последовательную нумерацию объектов числами натурального ряда.
Серийно – порядковая система кодирования предусматривает предварительное выделение групп объектов, которые составляют серию, а затем в каждой серии производится порядковая нумерация объектов.

Лекция 4. Кибернетический подход.
Динамическое описание ИС.
Каноническое представление ИС.
Кибернетика изучает процессы управления и системы, в которых эти процессы осуществляются. Функции управляющих систем в технике первоначально выполняли люди, управляющие, например, поездами, самолетами, электростанциями, технологическими процессами.
Управляющие системы, существующие в органической природе, весьма современны. Действие их наблюдается в управлении движением, когда, например птица налету ловит насекомое, собака гонится за добычей, человек играет в мяч. Кибернетика заимствует у органической природы то, что относится процессам управления. Академик А.И. Берг отметил “достижения живой природы немного выше наших результатов”. В природе подчеркнуто основные положения кибернетики о значении и возможности борьбы с возрастанием физической энергии посредством управления. В процессах управления живыми организмами, существующими в природе, обеспечивается поведение управляемых систем, определяемое условиями сохранение и развитие организма или вида. Есть, однако, нечто общее во всех случаях управления, где бы и как бы оно не происходило. Это общее состоит в том, что всякий процесс управления вносит управляемый объект порядок или организованность, упорядоченности и придает смысл его действиям. В связи с этим возникает задача количественного выражения упорядоченности или неупорядоченности управляемых объектов. Чтобы решать такую задачу, необходимо выделить совокупность признаков, по котором определяется состояние упорядоченности рассматриваемого объекта. Это состояние может быть различным признакам. Например, упорядоченность библиотеки по топографическому признаку будет современной, когда все книги находятся на своих местах, но в тоже время эта библиотека может быть очень неупорядоченной по признаку полноценности, если книги попорчены и в них не хватает страниц.
Предположим, что интересующий нас признак, определяющее состояние некоторого объекта, выбран. Пусть n – число равновероятных состояний, в которых по этому признаку может находиться объект. Составим меру неупорядоченности, т.е. количественное выражение неупорядоченности объекта, как некоторую функцию F(n) возможного числа его равновероятных состояний по выбранному признаку. Потребуем, чтобы функция F(n) удовлетворяла следующим условиям:
1). F(1)=0 – неупорядоченность вполне упорядоченного объекта, находящегося в единственно возможном состоянии, равна нулю;
2). F(n)>F(n1), если n2>n1 – неупорядоченность монотонно возрастает с увеличением числа возможных состояний объекта;
3). F(n1,n2)=F(n1)+F(n2) – неупорядоченность объекта равна сумме неупорядоченностей его частей, так как при n, возможных состояниях одной из двух частей объекта, и n2 – другой числа его возможных состояний равно n1,n2.
Этим условиям, удовлетворяет логарифм числа n, и можно доказать, что им не удовлетворяет никакая другая от n. Применяя натуральный логарифм напишем выражение меры неупорядоченности в виде:
S=k ln n(1).
k – постоянный коэффициент, определяемый выбором единиц измерения неупорядоченности.
Величину S, численно выражающую неупорядоченность рассматриваемого объекта по некоторому признаку, назовем ее энтропией по этому признаку. Энтропия характеризует общее стояние объекта, с которым может совпадать n конкретных его состояний. Общее состояние определяется именно тем, что она допускает n конкретных его состояний. Если даже будет известно n, можем знать энтропию как функцию этого числа, но нет возможности узнать, какое из n состояний имеет место, т.е. отличить эти состояния друг от друга. Поэтому энтропия является мерой нашего незнания. Ее называют также мерой неупорядоченности, употребляя слово мера в смысле количественного выражения.
Энтропия растет с увеличением числа n возможных равновероятных состояний объекта, когда упорядоченность возрастать с увеличением 1\n. Из предыдущего выражения имеем:
-S=k ln 1/n (2)
Отсюда следует, что возрастанием упорядоченности объекта увеличиваются отрицательная энтропия, или не энтропия (негативная энтропия): N – S (3).
которая является мерой упорядоченности.
Поскольку все рассматриваемые состояние системы, число которых ровно n, равновероятны, вероятность каждого из них P=1/n (4)
Это позволяет выразить энтропию и не энтропию через вероятность P
-S=k ln p (5)
N=k ln p (6)
В более общем случая возможные состояния системы не является равновероятными, а характеризуются вероятностями
В большом числе m реализаций этих состояний каждое из них будет иметь место mPi раз
Рассматривая совокупность vPi равновероятных реализаций i-го состояния, находим согласно (1), что энтропия этой совокупности равна – k m Pi ln Pi; энтропия же всех m реализации должна быть равна сумме энтропий, получаемых из последнего выражения при i=1, 2, …, n.
Деля такую сумму на m, найдем энтропия рассматриваемой системы
S=-k nEi=1 Pi ln Pi (8),
а не энтропия N=k nEi=1 Pi ln Pi (9).
Формулы (5) и (6) получаются, если Pi=P и поэтому nEi=1 Pi ln Pi = nP ln P, где согласно (4), nP=1.
Формула (1) выражает максимальное значение энтропии (8); когда все возможные состояния системы равновероятны, она наиболее неупорядочена, а следовательно, ее энтропия должна иметь наибольшее значение.
Пологая k = log2 l=1,443 (10)
Имеем из (1) log2n (11)
А из (8) S = - nEi=1 Pi log2P2 (12)
Энтропия, вычисляемая по (11), равна единице при n=2, т.е. в том случае, когда объект может находиться в одном из двух равновероятных состояний. Такая единица называется двоичной единицей или бит энтропия, выраженная в двоичных единицах, безразмерна. Из выражений энтропий (1), (8), (12) следует, что эта величина всегда положительна, а не энтропия отрицательна S >=0, N<=0.
Это осуществляется с помощью устройств, сущность действия которых состоит в передаче и переработки информации. Изучением и созданием таких устройств занимается техническая кибернетика. Иначе говоря, техническая кибернетика изучает теорию и методы исследования и построения информационных машин в виде автоматических управляющих систем.
Автоматической системой называют всякое устройство действующее без участия человека. По принципу действия все автоматические системы разделяют на две основные группы: разомкнутые системы, не корректирующие процесс управления по результатам своей работы, и замкнутые системы, осуществляющие такую корректировку с помощью контроля результатов управления.
Реальные автоматические системы будут лучше выполнять свои функции в том случае, если они имеют возможность контролировать результаты своей работы и корректировать их. Например, если скорость вращения двигателя отклоняется в ту или иную сторону от заданного значения, то входные воздействие должно быть сформулировано таким образом, чтобы компенсировать влияние возмущающих факторов. Для этого управляющее воздействие должно вырабатываться с учетом информации о результатах управления. С этой целью в автоматических системах применяется обратная связь.
Лекция 5. Агрегатное описание ИС.
Операторы входов и выходов.
При исследовании связей объекта и управляющих систем возникает трудности, если объем информационных массивов очень велик. В таких случаях целесообразно использовать математические методы и вычислительную технику.
Результаты моделирования помогают раскрыть закономерности управляющих информационных потоков и дают возможность определить алгоритм управления. Понятие агрегат, агрегатная схема используется для описания сложных систем.
Х
Любой элемент системы, также всякая группа ее элементов имеет вход, т.е. место получения сигнала, посылаемого дальше. Обратная связь, охватывающая элемент, группу элементов или всю автоматическую систему в целом, означает, что выходной сигнал Х2 подается на вход, где складывается с выходным сигналом Х1 или вычитается из него, что обозначается на схеме знаком (Рис. 5.1.).
Х1 Х1 +- Х2 Х2
Х

Рис. 5. 1. Обратная связь
При сложении этих сигналов обратная связь называется положительной, а при вычетании – отрицательной. Система, имеющая контур обратной связи, называется замкнутой. Функции обратной связи в первые установил Максвелл, рассматривая в 1968г. Машину для управления кораблем. Понятие об обратной связи является одним из основных в кибернетике и обозначает управления на основе действительного, а не ожидаемого выполнения приказов. Неисправность канала обратной связи приводит к тому, что автоматическая система оказывается дезорганизованной. Обратная связь противодействует тенденции к дезорганизации в работе автоматической системы, т.е. как заметил Винер, приводит к временной и местной перемене обычного направления изменения энтропии.
Пользуясь обратной связью, можно выяснить свойства и состояния объекта, оказывая на него пробные воздействия. Управляющие воздействия, служащие для этого, называют изучающими, в отличие от направляющих, предназначаемых для управления объектом.
При наличии тех или других управляющих воздействий имеет место дуальное управление.
О
АУС
Фактическое состояние системы, выявляемое с помощью обратной связи, зависит от ранее приложенного управляющего воздействия. Всякая автоматическая система имеет две основные части: объект управления О и автоматическую управляющую систему АУС. Эти части соединяются каналами связи 1 и 2.(Рис.5.2.)
2 3
1
4
Рис. 5. 2. Схема автоматической системы.
По каналу 1 идет информация от АУС, воздействующая на объект, по каналу 2 поступает информация о состоянии объекта, с учетом которого вырабатываются управляющие сигналы, несущие информацию по каналу 1. АУС еще может получать информацию извне: по каналу 3 – задания, которые она должна наполнять, управляя объектом; по каналу 4 – сведения о внешних условиях, в которых находится объект, получающий воздействия этих условий по каналу 5.
Математическое описание сигналов.
Рассмотрим элемент системы, получающий информацию по каналу 1 и выдающий ее по каналу 2. 1 2

Воздействующий на этот элемент сигнал поступает на его вход в некоторый момент времени, за которого на входе сигнала не было. Примем за начало отсчета времени момент появления входного сигнала, т.е. предположим, что сигнал появляется на входе, когда время t=0. Предположим также, что физическая величина, характеризующая входной сигнал, является непрерывной функцией времени f1(t), называемой описывающей функцию f1(t) подчиним лишь тому условию, что при t=0 непрерывны и все ее производные, которые могут быть нужны для нахождения сигнала на выходе. Тогда сигнал Х1 появляющийся на входе при t=0, можно представить следующим выражением: Х1(t)=f1(t)1(f) (5.1), где 1(t) – единичная функция, определяемая как 1(t){0, t<0 / 1, t>0 (5.2)
1(t)
1

Рис. 5.2 Единичная функция безразмерна.
Из выражения (5.1) следует, что функция Х1(t) непрерывна при t=0 лишь в том случае, когда f1(0)=0. Если же f1(0)=f10 = 0, то функция Х1(t) при t=0 имеет скачок, равный f10, Рис. (5.4) так как согласно определению (5.2) Х1(t)=0, при t<0 (5.3) независимо от вида описывающей функции.
f1(t)
f1
.
f10
0 t
Рис.5.3. Скачок при включении
входного сигнала
Передача сигнала от входа до выхода рассматриваемого элемента должна занимать некоторое время, обусловленное скоростью распространения сигнала внутри этого элемента. Поэтому выходной сигнал, вызываемый сигналом Х1(t), появится при t=I, аналогично (5.1) должен иметь выражение: Х2(t – I) = f2(t) (t – I) (5.3).
Здесь f2(t) – описывающая функция, представляющая собой зависимость физической величины, характеризующей выходной сигнал, от времени. Запаздывающая единичная функция f(t – I) имеет вид, показанный на Рис. (5.4).
f(t – I) Рис. (5.4) Запаздывающая единичная
функция.


0 I t
функция Х2(t) имеет скачок f2I при t=I, если f2(I)=f2I = 0 Рис. (5.5). Величину I называют временем чистого или транспортного запаздывания.

f2 X2 Рис. (5.5) Скачок
Х2
при появлении
выходного сигнала.

f2 0 I t

Выражения сигнала через описывающую и единичную функцию позволяет, связать сигнал с действием того элемента автоматической системы, который его принимает или выдает.
Описание элементарного процесса.
Процесс представляет собой некоторую последовательность действий, образующих задачу. Процесс характеризуется входом, т.е. наборами данных, которые являются исходными для процесса, и выходом наборами данных, образующимися в результате завершения процесса.
Действие: < название действии >
Вход: < список элементов входа >
Выход: < список элементов выхода >
Механизм: < используемые информационные и вычислительные ресурсы >
Например.
Действие: поиск следующей записи.
Вход: предыдущая запись, условие поиска.
Выход: найденная запись.
Механизм: файл.
Принципиальным является вопрос о взаимосвязи процессов теоретической основой для решения этого вопроса является теория конечных систем, а точнее, теория машин со входом.
Математическое описание системы П с конечным числом состояний включает:
множество допустимых входов U,
множество допустимых выходов У,
множеств состояний Q,
функцию перехода L:Q x U → Q,
функцию выхода V:Q x U → У,
На практике входы и состояния процесса соответствуют логическим величинам ( файл данных создан / не создан, ресурс для выполнения процесса свободен / занят, процесс готов / не готов к выполнению).
Поэтому широкое распространение получили графические модели, элементами которых является обозначения процессов и данных, а взаимосвязи между ними характеризуют причинно-следственные отношения. Достаточно широкое распространение получили системы автоматизации проектирования и сопровождения ИС, основанные на двух теоретика - грифовых моделях:
SADT (Structured Analysis and Design Technique) – структурный системный анализ и технология разработки системы;
IDEF (Integrated Definition) – интегрированное определение системы;
Применительно к процессам, реализуемым ИС, модель должна иметь:
Описание последовательности процессов;
Указание входных и выходных данных относительно каждого процесса;
Фиксацию условий, при которых выполняется процесс;
Разделение процесса на составляющие его части.
Основным элементом моделирования процесса является диаграмма. Диаграммы объединяются в иерархические структуры, причем чем выше уровень диаграммы, тем менее она детализирована. В состав диаграммы входят блоки, изображающие допустимые действия в системе, и душ, изображающие взаимосвязь действий.
Таким образом, мы приходим к следующими множеству понятий, необходимых для определения процессов:
Процесс;
Данные;
Использует;
Формирует;
Содержит;
Управляет;
Получены;
Предназначены для.
Пример.
Применим этот аппарат описание процессов и данных к следующему примеру. Он представляет собой фрагмент последовательности процессов в ЭИС и представлен на рисунке 5.6. Х1
ХХ1
Х2
У3
У4
У2У5
а – процесс
Х2
Х12
Х11

У11
Х1У3
У1 У4
У5
У12
У2
б-процесс
Рис. (5.6) Графическая иллюстрация процесса х:
а – процесс; б – детализация процесса х.
Описание процесса х выглядит следующим образом:
Процесс Х: Процесс Х2
Использует У1, У2; Использует У2, У12;
Формирует У3, У4, У5; Управляется У4;
Содержит Х1, Х2; Формируется У5;
Процесс Х1: Процесс Х11:
Использует У1; Использует У1;
Формирует У3, У4, У12; Формирует У2, У4, У11;
Содержит Х11, Х12.
Процесс Х12:
Использует У11;
Формирует У12.
Аналогичные описания могут быть получены для связей данных относительно процессов с использованием термина получены для процесса, который сформирован эти данные, и термина предназначены для того, чтобы назвать процесс, который будет использовать эти данные.
Лекция 6. Анализ и синтез информационных систем.
Формализация результатов изучения систем. Выделение функций систем.
Понятие информации. Информация – новые сведения, позволяющие улучшить процессы, связанные с преобразованием вещества, энергии и самой информации.
Информация не отделима от процесса информирования, поэтому необходимо рассматривать источник информации и потребителей информации. Роль потребителей информации подчеркивается в таком определении. Информация – новые сведения, принятые, понятые и оцененные конечным потребителем как полезные и расширяющие запас знаний конечного потребителя.
Выделяются три фазы существования информации.
Ассимилированная информация – представления сообщений в сознании человека, наложенное на систему его понятий и оценок.
2. Документирования информации – сведения, зафиксированные в
знаковой форме на каком-то физическом носителе.
Передаваемая информация – сведения, рассматриваемые в момент передачи информации от источника к приемнику.
Подавляющая масса информации собирается, передается и обрабатывается с помощью знаков. Знаки – это сигналы, которые могут передавать информацию при наличии соглашении об их смысловом содержании между источниками и приемниками информации. Набор знаков, для которых существует указанное соглашение называется знаковой системой.
Информация на пути от источника к потребителю проходит через ряд преобразователей – кодирующих и декодирующих устройств, вычислительную машину, обрабатывающую информацию по определенному алгоритму.
Успешное управление осуществимо лишь при наличии достаточных знаний о свойствах управляемого объекта. Источники этих знаний – прежде всего наблюдения и опыт. Пусть происходит исследование какого-либо объекта. Ограниченность знаний заставляет допускать что этот объект может находиться в некотором числе n0 равновероятных состояний. Наблюдения и опыт дают сведения, на основании которых определяем новое число возможных равновероятных состояний объекта, равное n. В действительности в каждый момент времени объект находится в каком-то одном состоянии. Если бы наблюдатель определил, какое это состояние, то в результате опыта он положил бы n=1. Но исход опыта обычно характеризуется некоторой неопределенностью, из-за которой n>1, т.е. наблюдатель может установить лишь то, что объект находится в одном из n состояний. Это связана с воздействием средств испытания на объект, и там, где этим воздействием нельзя пренебречь, необходимо учитывать обусловленную им неопределенность результатов испытаний. В частности, в физических экспериментах это определяется принципом неопределенности Гейзенберга.
Неопределенность результата испытаний означает неупорядоченность нашего представления о их объекте. Если сведения, полученные об объекте исследования содержат какие-либо новые данные, то представления о нем уточняется и n<n0 (7.1).
Если же в этих сведениях нет ничего нового, то n=n0 (7.2).
Если полученные сведения противоречивы и делает наше представления об объекте менее ясным, то n>n0 (7.3).
Когда имеет место соотношение (7.1), значение об объекте исследования увеличиваются.
Рассматривая энергию как меру назначения, следует оценить прирост знаний, получаемый при условии (7.1), разностью энтропий, вычисленных по числам состояний n0 и n, или разностью не энтропий, вычисленных по числам n и n0 энтропия при этом имеет значения:
S0 = k ln n0; → (7.4)
S = k ln n. → (7.4)
Следовательно, прирост знаний определяется положительной величиной: J = S0 – S, S0 > S (7.5)
откуда J = k ln n0 / n, n <= n0 (7.6)
При условии (7.3) прирост знаний определяется отрицательной величиной: D = S0 – S, S0 < S (7.7)
показывающей, что знания уменьшились, отсюда:
D = k ln n0 / n, n <= n0 (7.8)
Величины J и D называют, соответственно, информацией и дезинформацией. Они подчиняются условиям: J >= 0, D <= 0.
По (7.6) при каждом значений n0 наблюдатель получает небольшую информацию, если n = 1 (7.9).
Смысл этого ясен: представление наблюдателя об объекте становится в таком случае вполне определенным.
При изучение информации учитываются закономерности ее создания, преобразования и использование в различных сферах человеческой деятельности.
Управление – важнейшая функция, без которой немыслима целенаправленная деятельность любой социально-экономической, организационно-производственной системы (предприятия, организация, территория).
Систему, реализующую функции управления, называют системой управления. Важнейшими функциями, реализуемыми этой системой является прогнозирование, планирование, учет, анализ, контроль и регулирование. Управление связано с объемом информацией между компонентами системы, а также системы с окружающей средой. В процессе управления получают сведения о состоянии системы в каждый момент времени, о достижении заданной цели с тем, чтобы воздействовать на систему и обеспечить выполнение управленческих решений.
Таким образом любой системе управление экономическим объектом соответствует своя ИС ,называемая экономической ИС.
Лекция 7. Понятие и структура информационного процесса. Математические модели сигнала. Частотная форма представления детерминированных сигналов. Классификация методов дискретизации.
Рассмотрим теперь ситуацию, когда в процессе передачи сигнал искажается шумом , т.е. некоторым случайным процессом. Предположим, что в соответствии с обозначениями (рисунок 2.1), что Z - ансамбль сигналов на входе дискретного канала, а Z* - ансамбль сигналов на его выходе. Наличие в канале шума приводит к тому, что по сигналу Z* нельзя однозначно определить сигнал Z. С точки зрения теории информации этот эффект характеризуется наличием потерь информации или ненадежностью канала H(Z/Z*)>0 и описывается соотношением I(Z,Z*)=H(Z)-H(Z/Z*), где I(Z,Z*) - информация переданная по каналу, H(Z)-энтропия или собственная информация ансамбля сигналов на входе канала. Переходя к информационным характеристикам, отнесенным к единице времени последнее выражение можно переписать в виде Iў(Z,Z*)=H ў(Z)-H(Z/Z* ) (2.13), где Iў (Z,Z*)-скорость передачи информации по каналу, Hў (Z)-производительность ансамбля на входе канала, H ў(Z/Z* )-потери информации в единицу времени. При этом пропускная способность канала С хоть и уменьшается по сравнению со случаем канала без шума см.(1.25б), но в общем случае принимает конечное значение (за исключением не принимаемого здесь во внимание экстремального случая обрыва канала). Положим далее, что имеется некоторый дискретный источник с производительностью Hў(U) < C сообщения которого необходимо передать по каналу. Для решения этой задачи по-прежнему воспользуемся системой передачи изображенной на рисунке 2.1. Функции выполняемые кодером и декодером в этом случае будут ясны из дальнейших рассуждений.Поскольку Hў(U) < C возможна передача информации I(Z,Z*) по каналу со скоростью Iў (Z,Z*)=Hў (U) (2.14), т.к. по определению С- максимально возможная скорость передачи информации по каналу. Приравнивая правые части неравенств (2.13-14), приходим к соотношению Hў (Z)-Hў(Z/Z*)=H ў(U). Из которого следует, что Hў(Z)=H ў(U)+Hў (Z/Z*)> Hў(U). Последнее неравенство означает, что производительность ансамбля сигналов Z (назовем его кодом) на входе канала должна быть выше производительности источника сообщений U, и следовательно Z , кроме информации об U должен содержать дополнительную собственную информацию. При этом если бы удалось ввести дополнительную информацию таким образом, чтобы при прохождении сигнала Z по каналу с шумом вследствие ненадежности канала терялась бы именно она, а не полезная информация о сообщении U, то оказалось бы возможным обеспечить безошибочную передачу сообщений U по каналу с шумом с конечной скоростью H ў(U)< C. Таким образом задачей кодера в данной ситуации является согласование источника с каналом, заключается во внесении в сообщение источника избыточности , обладающей описанной выше свойством. Однако не тривиальным является вопрос, а возможно ли в принципе построение такого кодера ? Идея борьбы с мешающим влиянием шума за счет введения избыточности, при кодировании дискретных сообщений, существовала и до появления Теории Информации и трактовалась следующим образом: предполагалось сообщение двоичного источника U1 =0 и U2 =1 передавать по симметричному двоичному каналу (см. п1.6) с вероятностями ошибок Р< 0,5 двумя кодовыми комбинациями, содержащими соответственно n единиц или n нулей. ; . Если в месте приема регистрировать 1 или 0 по большинству принятых знаков в комбинации т.е. принимать так называемое мажоритарное декодирование , то ясно, что ошибка произойдет при условии, если в кодовой комбинации не верно будет принято n/2 или более символов. Согласно закону больших чисел вероятность уклонения числа ошибок m в кодовой комбинации длины n от их математического ожидания nЧp (см. задачу 1.11) стремится к 0 при n® ?, т.е.
e ® 0.
Поскольку nЧp < 0,5n при n®? вход обеспечит безошибочный прием. Однако передачу одного символа необходимо будет осуществлять бесконечно долго, т.е. скорость передачи информации по каналу будет стремится к 0. Таким образом на основании приведенных ранее рассуждений полагалось, что без ошибочная передача информации в канале с шумом возможна лишь в пределе при нулевой скорости передачи. Поэтому положительные решения сформулированного выше вопроса позволяют существенно изменить представление о потенциальных возможностях систем передачи дискретной информации и имеет принципиальное значение в развитии теории и практики связи. Ответ на данный вопрос содержится в теореме Шеннона для дискретного канала с шумом.
Лекция 8. Модели процесса передачи. Измерение информации. Модель непрерывного и дискретного каналов связи. Пропускная способность дискретного и непрерывного каналов связи. Оценки потерь информации. Понятие избыточности информации.
Задача согласования дискретного источника с дискретным каналом без шума. Эффективное или статистическое кодирование
Предположим, что мы имеем дискретный канал вероятность возникновения ошибки, в котором близка к нулю (в идеале = 0). Такой канал называют идеальным каналом или каналом без шума. Пропускная способность канала определяется . При наличии идеального канала естественно поставить вопрос о возможности передаче по нему без потерь информации от произвольного дискретного источника U характеризуемого производительностью H'(U) со скоростью равной пропускной способности канала. Схема построения такой системы передачи информации должна выглядеть, так как на рисунке 2.1. Необходимость включения устройства кодер, а так же декодера, выполняющего обратные ему операции. Состав этой системы обусловлен следующими обстоятельствами. Как говорилось в пункте 1.6. для того чтобы скорость передачи информации в канале была равна его пропускной способности, на входе канала должен действовать дискретный источник с определенными статистическими свойствами, максимизирующими величину I(Z,Z*). В частности, в интересующем нас здесь случае идеального канала без помех такой источник должен просто обладать максимальной энтропией или нулевой избыточностью, т.е. выдавать независимые равновероятные сообщения. В то же время своей постановки задачи мы пожелали иметь возможность передавать сообщения от произвольного источника с любыми статистическими свойствами, т.е. имеющего ненулевую избыточность. Таким образом функции кодера являются согласованием в статическом смысле сообщений источника со входом канала. Задача этого согласования в конечном итоге сводится к устранению избыточности сообщений. Кодер осуществляет кодирование сообщений, т.е. каждому дискретному сообщению по определенному правилу ставят в соответствие последовательность символов из алфавита объемом М. При этом по отношению к входу каналом выдаваемые кодером символы сами являются дискретными элементами сообщений, статические свойства которых должны отличаться от статических свойств сообщений исходного источника. Возможность построения кодера полностью устраняющего избыточность произвольного исходного источника сообщений и определяет возможность решения поставленной задачи без ошибочной передачи информации со скоростью, равной пропускной способности канала. При полном ее решении оказывается справедливым равенствоHў(U) = uC ЧH(U) = uK Чlog M = C (2.1),откуда имеем h = uK / uC = H(U) / log M (2.1а),где H(U) - энтропия источника передаваемых сообщений, uK и u C - средние количества символов соответственно сообщения и кода передаваемых в единицу времени. h = uK/ uC - среднее количество символов кода приходящиеся на одно сообщение.Степень приближения к точному выполнению равенств (2.1) и (2.1а) зависит от степени уменьшения избыточности источника сообщений. Кодирование позволяющее устранять избыточность источников сообщений называется эффективным или статистическим. Коды, получаемые в результате такого кодирования, называются эффективными или статистическими. Рассмотрим основные идеи, которые могут быть положены в основу эффективного кодирования. Как отмечалось в пункте 1.4. избыточность дискретных источников обуславливается двумя причинами:
1) памятью источника;2) неравномерностью сообщений.
Универсальным способом уменьшения избыточности обусловленной памятью источника является укрупнение элементарных сообщений. При этом кодирование осуществляется длинными блоками. Вероятностные связи между блоками меньше чем между отдельными элементами сообщений и чем длиннее блоки, тем меньше зависит между ними. Смысл укрупнения поясним на примере буквенного текста: если вероятностные связи между буквами в любом языке относительно сильны, то между словами они значительно меньше, еще меньше между фразами, еще меньше между абзацами. Поэтому, применяя кодирование слов, фраз, абзацев мы можем достаточно полно устранить избыточность обусловленную вероятностными связями. Однако при этом возрастает задержка передачи сообщений, так как сначала нужно дождаться формирования всего длинного блока сообщений и лишь затем его закодировать и передавать. Уменьшение избыточности обусловленной неравномерностью сообщений может быть достигнута применением неравномерных кодов. Основная идея построения таких кодов состоит в том, что наиболее вероятным сообщениям ставятся в соответствие наиболее короткие блоки кодовых символов (кодовые комбинации), а наименее вероятным более длинные. В силу неравномерности таких кодов и случайного характера сообщения U передача без потерь информации с постоянной скоростью следования кодовых символов uK может быть обеспечено лишь при наличии буферного накопителя с большой памятью, и, следовательно, при допустимости больших задержек.
Лекция 9. Назначение и содержание прцедур модуляции и демодуляции. Сравнительные характеристики по помехоустойчивости различных видов модуляции Цифровые методы модуляции.
Модуляция -  изменение информативных параметров некоторых первичных физических процессов (сигналов), рассматриваемых как носители информации, в соответствии с передаваемой (включаемой и сигнал) информацией.
Виды модуляции связаны с типом сигнала-носителя. В современной информатике выделяют три его типа: фиксированный уровень, колебания, импульсы.
Демодуляция – восстановление величин, вызвавших изменение параметров носителей при модуляции. Выполняется на принимающей стороне при известных условиях модуляции на передающей стороне.
Цифровые методы модуляции
В сфере радиоэлектроники всё большее применение находит цифровая модуляция радиосигналов. Цифровая модуляция применяется во многих областях, в том числе цифровом радио- и телевещании, компьютерных технологиях, связи (модем, радио, оптоволокно). Однако наибольшее применение цифровая модуляция получила в системах беспроводной связи. Современные системы связи используют цифровые методы кодирования и модуляции как наиболее эффективные и надёжные способы передачи информации. Цифровая модуляция применяется повсеместно: в спутниковой связи, в теле-радиовещании, в сотовой телефонии, в системах навигации и пр.
Цифровая модуляция в своей основе несёт передачу дискретного сигнала путём переноса кодированной информации на основную несущую частоту (непрерывное колебание). При этом основная несущая моделируется по тому или иному закону, согласно используемому стандарту передачи данных HYPERLINK "http://www.prist.ru/info.php/articles/tabor_modular.htm" \o "Цифровая модуляция с ПО \«Modular\» компании Tabor Electronics Ltd. на сайте www.prist.ru" .
 
Рисунок 1 – Блок-схема цифровой модуляции формата I/Q

Лекция 10 Информационные характеристики сигнала и канала. Согласование физических характеристик сигнала и канала. Согласавание статистических свойств источника сообщений и канала связи.
Предположим, что мы имеем дискретный канал вероятность возникновения ошибки, в котором близка к нулю (в идеале = 0). Такой канал называют идеальным каналом или каналом без шума. Пропускная способность канала определяется . При наличии идеального канала естественно поставить вопрос о возможности передаче по нему без потерь информации от произвольного дискретного источника U характеризуемого производительностью H'(U) со скоростью равной пропускной способности канала. Схема построения такой системы передачи информации должна выглядеть, так как на рисунке 2.1. Необходимость включения устройства кодер, а так же декодера, выполняющего обратные ему операции. Состав этой системы обусловлен следующими обстоятельствами. Как говорилось в пункте 1.6. для того чтобы скорость передачи информации в канале была равна его пропускной способности, на входе канала должен действовать дискретный источник с определенными статистическими свойствами, максимизирующими величину I(Z,Z*). В частности, в интересующем нас здесь случае идеального канала без помех такой источник должен просто обладать максимальной энтропией или нулевой избыточностью, т.е. выдавать независимые равновероятные сообщения. В то же время своей постановки задачи мы пожелали иметь возможность передавать сообщения от произвольного источника с любыми статистическими свойствами, т.е. имеющего ненулевую избыточность. Таким образом функции кодера являются согласованием в статическом смысле сообщений источника со входом канала. Задача этого согласования в конечном итоге сводится к устранению избыточности сообщений. Кодер осуществляет кодирование сообщений, т.е. каждому дискретному сообщению по определенному правилу ставят в соответствие последовательность символов из алфавита объемом М. При этом по отношению к входу каналом выдаваемые кодером символы сами являются дискретными элементами сообщений, статические свойства которых должны отличаться от статических свойств сообщений исходного источника. Возможность построения кодера полностью устраняющего избыточность произвольного исходного источника сообщений и определяет возможность решения поставленной задачи без ошибочной передачи информации со скоростью, равной пропускной способности канала. При полном ее решении оказывается справедливым равенствоHў(U) = uC ЧH(U) = uK Чlog M = C (2.1),откуда имеем h = uK / uC = H(U) / log M (2.1а),где H(U) - энтропия источника передаваемых сообщений, uK и u C - средние количества символов соответственно сообщения и кода передаваемых в единицу времени. h = uK/ uC - среднее количество символов кода приходящиеся на одно сообщение.Степень приближения к точному выполнению равенств (2.1) и (2.1а) зависит от степени уменьшения избыточности источника сообщений. Кодирование позволяющее устранять избыточность источников сообщений называется эффективным или статистическим. Коды, получаемые в результате такого кодирования, называются эффективными или статистическими. Рассмотрим основные идеи, которые могут быть положены в основу эффективного кодирования. Как отмечалось в пункте 1.4. избыточность дискретных источников обуславливается двумя причинами:
1) памятью источника;2) неравномерностью сообщений.
Универсальным способом уменьшения избыточности обусловленной памятью источника является укрупнение элементарных сообщений. При этом кодирование осуществляется длинными блоками. Вероятностные связи между блоками меньше чем между отдельными элементами сообщений и чем длиннее блоки, тем меньше зависит между ними. Смысл укрупнения поясним на примере буквенного текста: если вероятностные связи между буквами в любом языке относительно сильны, то между словами они значительно меньше, еще меньше между фразами, еще меньше между абзацами. Поэтому, применяя кодирование слов, фраз, абзацев мы можем достаточно полно устранить избыточность обусловленную вероятностными связями. Однако при этом возрастает задержка передачи сообщений, так как сначала нужно дождаться формирования всего длинного блока сообщений и лишь затем его закодировать и передавать. Уменьшение избыточности обусловленной неравномерностью сообщений может быть достигнута применением неравномерных кодов. Основная идея построения таких кодов состоит в том, что наиболее вероятным сообщениям ставятся в соответствие наиболее короткие блоки кодовых символов (кодовые комбинации), а наименее вероятным более длинные. В силу неравномерности таких кодов и случайного характера сообщения U передача без потерь информации с постоянной скоростью следования кодовых символов uK может быть обеспечено лишь при наличии буферного накопителя с большой памятью, и, следовательно, при допустимости больших задержек.
Лекция 11. Сети передачи данных. Пропускная способность сети связи. Методы решения задачи статической маршрутизации.
В начале 70-х годов произошел технологический прорыв в области производства компьютерных компонентов — появились большие интегральные схемы. Их сравнительно невысокая стоимость и высокие функциональные возможности привели к созданию мини-компьютеров, которые стали реальными конкурентами мэйнфреймов. Закон Гроша перестал соответствовать действительности, так как десяток мини-компьютеров выполнял некоторые задачи (как правило, хорошо распараллеливаемые) быстрее одного мэйнфрейма, а стоимость такой мини-ком-пьютерной системы была меньше.
В середине 80-х годов положение дел в локальных сетях стало кардинально меняться. Утвердились стандартные технологии объединения компьютеров в сеть — Ethernet, Arcnet, Token Ring. Мощным стимулом для их развития послужили персональные компьютеры. Эти массовые продукты явились идеальными элементами для построения сетей — с одной стороны, они были достаточно мощными для работы сетевого программного обеспечения, а с другой — явно нуждались в объединении своей вычислительной мощности для решения сложных задач, а также разделения дорогих периферийных устройств и дисковых массивов. Поэтому персональные компьютеры стали преобладать в локальных сетях, причем не только в качестве клиентских компьютеров, но и в качестве центров хранения и обработки данных, то есть сетевых серверов, потеснив с этих привычных ролей мини-компьютеры и мэйнфреймы.
Стандартные сетевые технологии превратили процесс построения локальной сети из искусства в рутинную работу. Для создания сети достаточно было приобре сти сетевые адаптеры соответствующего стандарта, например Ethernet, стандартный кабель, присоединить адаптеры к кабелю стандартными разъемами и установить на компьютер одну из популярных сетевых операционных систем, например, NetWare. После этого сеть начинала работать и присоединение каждого нового компьютера не вызывало никаких проблем — естественно, если на нем был установлен сетевой адаптер той же технологии.
Локальные сети в сравнении с глобальными сетями внесли много нового в способы организации работы пользователей. Доступ к разделяемым ресурсам стал гораздо удобнее — пользователь мог просто просматривать списки имеющихся ресурсов, а не запоминать их идентификаторы или имена. После соединения с удаленным ресурсом можно было работать с ним с помощью уже знакомых пользователю по работе с локальными ресурсами команд. Последствием и одновременно движущей силой такого прогресса стало появление огромного числа непрофессиональных пользователей, которьм совершенно не нужно было изучать специальные (и достаточно сложные) команды для сетевой работы. А возможность реализовать все эти удобства разработчики локальных сетей получили в результате появления качественных кабельных линий связи, на которых даже сетевые адаптеры первого поколения обеспечивали скорость передачи данных до 10 Мбит/с.
Конечно, о таких скоростях разработчики глобальных сетей не могли даже мечтать — им приходилось пользоваться теми каналами связи, которые были в наличии, так как прокладка новых кабельных систем для вычислительных сетей протяженностью в тысячи километров потребовала бы колоссальных капитальных вложений. А «под рукой» были только телефонные каналы связи, плохо приспособленные для высокоскоростной передачи дискретных данных — скорость в 1200 бит/с была для них хорошим достижением. Поэтому экономное расходование пропускной способности каналов связи часто являлось основным критерием эффективности методов передачи данных в глобальных сетях. В этих условиях различные процедуры прозрачного доступа к удаленным ресурсам, стандартные для локальных сетей, для глобальных сетей долго оставались непозволительной роскошью.
Сегодня вычислительные сети продолжают развиваться, причем достаточно быстро. Разрыв между локальными и глобальными сетями постоянно сокращается во многом из-за появления высокоскоростных территориальных каналов связи, не уступающих по качеству кабельным системам локальных сетей. В глобальных сетях появляются службы доступа к ресурсам, такие же удобные и прозрачные, как и службы локальных сетей. Подобные примеры в большом количестве демонстрирует самая популярная глобальная сеть — Internet.
Изменяются и локальные сети. Вместо соединяющего компьютеры пассивного кабеля в них в большом количестве появилось разнообразное коммуникационное оборудование — коммутаторы, маршрутизаторы, шлюзы. Благодаря такому оборудованию появилась возможность построения больших корпоративных сетей, насчитывающих тысячи компьютеров и имеющих сложную структуру. Возродился интерес к крупным компьютерам — в основном из-за того, что после спада эйфории по поводу легкости работы с персональными компьютерами выяснилось, что системы, состоящие из сотен серверов, обслуживать сложнее, чем несколько больших компьютеров. Поэтому на новом витке эволюционной спирали мэйнфреймы стали возвращаться в корпоративные вычислительные системы, но уже как полноправные сетевые узлы, поддерживающие Ethernet или Token Ring, а также стек протоколов TCP/IP, ставший благодаря Internet сетевым стандартом де-факто.
Проявилась еще одна очень важная тенденция, затрагивающая в равной степени как локальные, так и глобальные сети. В них стала обрабатываться несвойственная ранее вычислительным сетям информация — голос, видеоизображения, рисунки. Это потребовало внесения изменений в работу протоколов, сетевых операционных систем и коммуникационного оборудования. Сложность передачи такой мульти-медийной информации по сети связана с ее чувствительностью к задержкам при передаче пакетов данных — задержки обычно приводят к искажению такой информации в конечных узлах сети. Так как традиционные службы вычислительных сетей — такие как передача файлов или электронная почта — создают малочувствительный к задержкам трафик и все элементы сетей разрабатывались в расчете на него, то появление графика реального времени привело к большим проблемам.Сегодня эти проблемы решаются различными способами, в том числе и с помощью специально рассчитанной на передачу различных типов графика технологии АТМ. Однако, несмотря на значительные усилия, предпринимаемые в этом направлении, до приемлемого решения проблемы пока далеко, и в этой области предстоит еще много сделать, чтобы достичь заветной цели — слияния технологий не только локальных и глобальных сетей, но и технологий любых информационных сетей — вычислительных, телефонных, телевизионных и т. п. Хотя сегодня эта идея многим кажется утопией, серьезные специалисты считают, что предпосылки для такого синтеза уже существуют, и их мнения расходятся только в оценке примерных сроков такого объединения — называются сроки от 10 до 25 лет.
Компьютерные сети относятся к распределенным (или децентрализованным) вычислительным системам. Поскольку основным признаком распределенной вычислительной системы является наличие нескольких центров обработки данных, то наряду с компьютерными сетями к распределенным системам относят также мультипроцессорные компьютеры и многомашинные вычислительные комплексы..
В вычислительных сетях программные и аппаратные связи являются еще более слабыми, а автономность обрабатывающих блоков проявляется в наибольшей степени — основными элементами сети являются стандартные компьютеры, не имеющие ни общих блоков памяти, ни общих периферийных устройств. Связь между компьютерами осуществляется с помощью специальных периферийных устройств — сетевых адаптеров, соединенных относительно протяженными каналами связи. Каждый компьютер работает под управлением собственной операционной системы, а какая-либо «общая» операционная система, распределяющая работу между компьютерами сети, отсутствует. Взаимодействие между компьютерами сети происходит за счет передачи сообщений через сетевые адаптеры и каналы связи. С помощью этих сообщений один компьютер обычно запрашивает доступ к локальным ресурсам другого компьютера. Такими ресурсами могут быть как данные, хранящиеся на диске, так и разнообразные периферийные устройства — принтеры, модемы, факс-аппараты и т. д. Разделение локальных ресурсов каждого компьютера между всеми пользователями сети — основная цель создания вычислительной сети.
Лекция 12. Общие понятие теории кодирования. Фундаментальные теоремы Шеннона о кодировании. Аналого-кодовые преобразователи. Эффективное кодирование.
2.5. Теорема Шеннона для дискретного канала с шумом
Данная теорема является фундаментальным положением Теории Информации и называется так же основной теоремой кодирования Шеннона. Она может быть сформулирована следующим образом: если производительность источника сообщений Hў (U) меньше пропускной способности канала С т.е. Hў(U)< C то существует такая система кодирования которая обеспечивает возможность передачи сообщений источника со сколь угодно малой вероятностью ошибки (или со сколь угодно малой ненадежностью). Если Hў(U) > C, то можно закодировать сообщение таким образом, что ненадежность в единицу времени будет меньше чем Hў(U)-C+ e, где e ®0 (прямая теорема).Не существует способа кодирования обеспечивающего ненадежность в единицу времени меньшую, чем Hў(U)-C (обратная теорема).В такой формулировке эта теорема была дана самим Шенноном. В литературе часто вторая часть прямой теоремы и обратная теорема объединяются в виде обратной теоремы сформулированной так: если Hў(U) > C, то такого способа кодирования не существует. Для доказательства первой части прямой теоремы воспользуемся результатами рассмотрения (см. п.2.2) множества длинных последовательностей элементарных дискретных сообщений источника, распадающегося как показано в п.2.2 на подмножества высоко вероятных или типичных и мало вероятных или нетипичных последовательностей. Пусть при некотором ансамбле входных сигналов дискретного канала Z обеспечивается пропускная способность канала C=Iў(Z,Z*)=H(Z)-H ў(Z/Z*) (2.16).В соответствии с равенством (2.4) число типичных последовательностей входных сигналов канала достаточно большой длительности Т (содержащих большое число символов К) равно K1(Z)=2KЧ H(Z) (2.17)Поскольку Hў(Z)=u kЧ H(Z), где uk - количество символов кода Z переданных в единицу времени Т=К/uk, то , поэтому равенство (2.17) можно записать в виде (2.18).Передаче подлежат сообщения выдаваемые дискретным источником U с производительностью меньше Hў(U)< C= Hў(Z)- Hў (Z/Z*), откуда следует Hў(U)+Hў (Z/Z*)< Hў(Z) (2.19). Поскольку Hў(Z/Z*) >0 из (2.19) вытекает, что Hў(U)< Hў(Z) (2.20). При этом число типичных последовательностей источника достаточно большой длительности Т, аналогично (2.18) можно определить так (2.21). В следствии условия (2.20) число типичных последовательностей канала значительно превосходит типичное число последовательностей источника
(2.22).
Осуществим кодирование типичных последовательностей источника. В процессе кодирования каждой типичной последовательности источника поставим в соответствие одну из типичных последовательностей канальных сигналов. Нетипичные последовательности сообщений длительности Т (если источник все же 04445выдаст одну из них) передавать не будет, соглашаясь с тем, что каждая такая последовательность будет принята ошибочно. Выполним указанное кодирование всеми возможными способами и усредним вероятность ошибок по всему этому большому (в следствии (2.22)) классу возможных систем кодирования. Это равносильно вычислению вероятности ошибок при случайном связывании типичных последовательностей источника сообщений и канальных сигналов. Очевидно, что число возможных кодов М равно числу размещений из K1(Z) числу элементов по K1(U) . Для того, чтобы оценить среднюю вероятность ошибки отметим следующее. Пройдя через канал каждая из типичных последовательностей канала может в следствии воздействия помех преобразоваться в такое количество типичных последовательностей выхода (образованием маловероятных нетипичных последовательностей выхода будем пренебрегать). В свою очередь в следствии ненадежности канала H(Z/Z*) каждая типичная выходная последовательность может быть обусловлена одной из (2.23) типичных входных канальных последовательностей. Данная ситуация иллюстрируется на рисунке 2.2. Предположим, что наблюдается некоторая входная последовательность Z* которая могла быть образована K1(Z/Z*) типичными входными последовательностями канала. Если среди этой совокупности входных последовательностей канала содержится только одна из числа использованных при кодированных источника сообщений, то очевидно она и передавалась, и следовательно соответствующая ей последовательность сообщений может быть принята верно. Ошибочный прием типичной последовательности передаваемых сообщений неизбежен лишь тогда, когда среди количества K1(Z/Z*) последовательностей сигналов имеются две или более использованные при кодировании. Средняя вероятность правильного приема типичной последовательности равна вероятности того, что среди количества K1(Z/Z*) входных последовательностей канала K1(Z/Z*)-1 не использовано при кодировании, а одна использована. Вероятность того, что какая-то одна типичная последовательность канальных сигналов использована при кодировании, в силу равно вероятности выбора равна (2.24), а вероятность того, что она не использована, определяется как , поскольку вероятность того, что один из канальных сигналов выбран, при кодировании равна единице. Следовательно средняя вероятность того, что при кодировании не использована K1(Z/Z*)-1 входных последовательностей . Полагая K1(Z/Z*) > > 1 (что справедливо при большом Т) можно записать (2.25). Разлагая (2.25) в бином Ньютона и с учетом условия (2.24), ограничиваясь двумя первыми членами разложения, можно записать (2.26). Средняя вероятность ошибочного приема типичной последовательности при достаточно больших Т или с учетом (2.21, 2.17, 2.23, 2.16). (2.27). Результирующая средней вероятности ошибки с учетом возможности появления и нетипичных последовательностей с суммарной вероятностью d она равна (2.28). Поскольку по условию теоремы (2.15) C-Hў(U) > 0, то как следует из (2.27 и 2.28) с ростом Т , так как при этом стремятся к нулю как (см.2.27) так и d (см. п.2.2). Следовательно, при любом заданном e > 0 можно выбрать столь большое Т, что будем иметь , но если среднее некоторого множества чисел не больше чем e, то в этом множестве должно существовать по крайней мере одно число меньше e. Поэтому среди всех возможных М кодов обеспечивающих среднее значение обязательно существует хотя бы один у которого вероятность ошибки не превышает . Таким образом первая часть теоремы Шеннона доказана.Вторую часть прямой теоремы легко доказать исходя из того, что можно просто передавать С бит в секунду от источника сообщений совсем пренебрегая остатком создаваемой информации. В приемнике это не учитываемая часть создаст ненадежность в секунду времени Hў(U)-C, а передаваемая часть в соответствии с доказанным выше добавит e.Доказательство обратной теоремы произведем методом от противного. Рассмотрим сначала ее формулировки предложенные Шенноном. Предположим, что производительность источника сообщений равна Hў(U)=C+а, где а> 0 . По условию теоремы минимально достижимое в этом случае значение ненадежности . Мы же будем считать, что существует способ кодирования, обеспечивающий значение , где e > 0. Однако при этом оказывается реализованной скорость передачи информации , это противоречит определению пропускной способности как максимальной скорости передачи информации по каналу, что и доказывает теорему.Рассмотрим вторую формулировку обратной теоремы. Положим, что источник сообщений имеет производительность Hў (U)=C+e > C, где e > 0. И с помощью некоторого способа кодирования достигается ненадежность равная Hў (U/U*)=e /2. Опять же это эквивалентно реализации скорости передачи информации превышающей пропускную способность, что невозможно. Это противоречие доказывает теорему.Физический смысл эффекта повышения вероятности при увеличении длительности кодируемых сообщений вытекающего из доказательства прямой теоремы заключается в том, что с ростом Т увеличивается степень усреднения шума действующего в канале и, следовательно, уменьшается степень его мешающего воздействия. Кодирование сообщений длительности Т способом предполагаемым при доказательстве теоремы Шеннона может начаться лишь тогда, когда сообщение целиком поступило на кодирующее устройство. Декодирование же может начаться, когда вся принятая последовательность поступила на декодирующее устройство. Поэтому задержка сообщений во времени между пунктами связи tзад=2T+t0, где t0 - время затрачиваемое на кодирование. Декодирование и прохождение по каналу. При большом Т можно принять, что tзад=2Т. Из (2.27) следует важный результат: верность связи тем выше (меньше вероятность ошибки), чем длиннее блок кодированной последовательности (т.е. тем больше разность С-Hў(U) определяющей запас пропускной способности канала). Итак, следует принципиальная возможность обмена между вероятностью, задержкой и скоростью передачи информации. На практике сложность кодирования и декодирования существенно возрастают с ростом Т поэтому в современных условиях чаще предпочитают иметь умеренное значение Т и добиваться увеличения вероятности за счет менее полного использования пропускной способности канала.
Лекция 13.Методы сжатия информации с потерями, методы сжатия без потерь.Криптографическое кодирование. Помехоустойчивое кодирование. Линейные групповые коды. Тривиальные систематические коды.
Кодирование с помощью которого можно устранять ошибки обусловленные наличием шума в канале называется помехоустойчивым. Коды способные исправлять и обнаруживать ошибки называется помехоустойчивым кодом. К сожалению основная теорема кодирования Шеннона не конструктивна, она не указывает способ построения конкретного оптимального помехоустойчивого кода, обеспечивающего предельное согласование сигнала с каналом, существование которого доказывает. Вместе с тем обосновав принципиальную возможность построения помехоустойчивых кодов, обеспечивающих идеальную передачу. Теория Шеннона мобилизовала усилия ученых на разработку конкретных кодов. В результате в настоящее время теория помехоустойчивого кодирования превратилась в самостоятельную науку в развитии которой достигнуты большие успехи.Рассмотрим основополагающие принципы заложенные в основу построения помехоустойчивых кодов. Как следует из доказательства основной теоремы Шеннона неприменимым свойством помехоустойчивых кодов является наличие избыточности. При этом необходима не просто любая избыточность, а специфическая, определяемая свойствами канала и правилом построения кода. И позволяющая с минимальными затратами повысить вероятность передачи. В ситуации когда источник сообщений обладает собственной существенной избыточностью, которая в принципе тоже в определенной степени повышает достоверность передачи информации, но не так эффектно как это возможно. Поступают следующим образом: сначала с помощью эффективного кодирования до минимума уменьшают избыточность источника сообщений, а затем в процессе помехоустойчивого кодирования вносят в передаваемый сигнал избыточность, позволяющую простыми средствами поднять верность. Таким образом эффективное кодирование может сочетаться с помехоустойчивым.Помехоустойчивые коды можно подразделить на два больших класса блочные и непрерывные. В случае блочных кодов, при кодировании, каждому дискретному сообщению ставится в соответствие отдельный блок кодовых символов называемого кодовой комбинацией. Непрерывные коды образуют последовательность символов неразделяемых на кодовые комбинации.Рассмотрим принцип построения помехоустойчивых блочных кодов. Избыточность обуславливающая корректирующие свойства равномерного блочного кода обычно вводится за счет выполнения неравенства mn >M (2.29), где m-основание кода т.е. объем алфавита используемых кодовых символов, n-длина или количество разрядов кодовой комбинации, М-количество сообщений подлежащих кодированию. Выполнение этого неравенства означает, что для передачи знаков сообщения используют лишь часть М возможных кодовых комбинаций. Используемые кодовые комбинации называют разрешенными. Неиспользуемые mn -M комбинации являются запрещенными. На вход канала подаются только разрешенные комбинации. Если вследствие помех один или несколько символов приняты ошибочно, то на выходе канала появляется запрещенная комбинация, что и говорит о наличии ошибки. Для того, чтобы обеспечить выполнение (2.29) необходимо выбирать n > K , где К-минимальное целое, удовлетворяющее неравенству mKM (2.30). Число К обычно называют количеством информационных разрядов кодовой комбинации, поскольку именно столько разрядов должна содержать комбинация кода с основанием m, чтобы число разных кодовых комбинаций было не меньше числа сообщений М подлежащих передаче. R=n-K разрядов кодовой комбинации необходимых для передачи полезной информации называются проверочными. Количество их и определяет избыточность помехоустойчивого кода. При использовании помехоустойчивого кода возможно декодирование с обнаружением и исправлением ошибок. В первом случае на основе анализа принятой комбинации выясняется, является ли она разрешенной или запрещенной. После этого запрещенная комбинация либо отбрасывается, либо уточняется путем посылки запроса на повторение переданной информации. Во втором случае при приеме запрещенной комбинации определенным способом выявляются и исправляются содержащиеся в ней ошибки. Максимальные числа ошибок в кодовой комбинации q и S которые могут быть обнаружены (q) или исправлены (S) с помощью данного кода называются соответственно обнаруживающей или исправляющей способностью кода. В значении q и S определяются величиной dmin минимальным кодовым расстоянием между ближайшими разрешенными комбинациями. Под кодовым расстоянием понимают количество неодинаковых разрядов в кодовых комбинациях. Величина dmin в помехоустойчивом коде зависит от соотношения n и К т.е. от числа r проверочных разрядов кода.Рассмотрим информационный (т.е. базирующий на идеях Теории Информации) подход позволяющий оценить необходимую минимальную избыточность, выраженную в количестве проверочных разрядов rmin блочного помехоустойчивого кода длиной n с заданной исправляющей способностью S. Пусть имеется код с основанием m и с исправляющей способностью S. И используется декодирование с исправлением ошибок. На приеме при использовании такого кода возможно две ситуации: правильный прием сообщения и неправильный. Осуществление с вероятностью PH. Неправильный прием может произойти в том случае, когда из-за превышения числом ошибок пришедшей из канала кодовой комбинации значение S она может превратиться в одну из других разрешенных кодовых комбинаций. В свою очередь правильный прием осуществляется либо в том случае, когда в принимаемой комбинации отсутствуют ошибки (обозначим вероятность такого сообщения Р0), либо Nправ в случаях когда в принятой комбинации присутствуют ошибки которые могут быть исправлены рассмотренным кодом. Вероятности таких случаев обозначим через Pj j=1 ё Nправ. Для решения поставленной задачи определим минимальное количество информации, которой может быть описана совокупность событий, включающая появление одной из конкретных ошибок и отсутствие ошибок или появление некорректных ошибок. Зная эту величину и максимальное количество информации которое может содержать один проверочный символ кода можно определить минимальное число проверочных символов. Количество информации необходимо для описания указанных событий (2.31) (в случае отсутствия ошибки учтем включением нуля в предел суммирования). Максимальное количество информации которое может содержать символ кода с основанием m в соответствии с (1.6) равно log2m. Следовательно число проверочных разрядов в комбинации кода не может быть меньше, чем (2.32). Определенную таким образом величину rmin называют информационным пределом избыточности. Найдем значение rmin для двоичного канала с независимыми ошибками. В таком канале появление предыдущей ошибки не влечет за собой появление последующей. В этой ситуации число R(i) ошибок кратности i в кодовой комбинации длиной n равно числу сочетаний .
(2.33).
Поскольку ошибки независимы вероятность P(i) возникновения в кодовой комбинации ошибки кратности i равна P(i)=PiЧ(1-P)n-i (2.34), где Р-вероятность ошибки в канале. Учитывая, что в данном случае Nпр=S выражение (2.31) можно записать в виде . Вторым слагаемым можно пренебречь поскольку, описываемая им функция не используется в процессе исправления ошибок. Поэтому с учетом (2.23 и 2.24) имеем (2.35). Рассмотрим частный случай когда возникновение конкретной ошибки любой кратности и отсутствие ошибок имеют равную вероятность, т.е. PiЧ(1-P)n-i=P1 при любом i. Величину Р1 определим из условия нормировки (2.36), отражающего тот факт, что вероятность появления ошибки какой-либо кратности, включения и нулевую равна единице. Из (2.36) имеем следовательно (2.37). Поскольку под двоичной, то есть m=2 c учетом (2.37 и 2.38) имеем . Найденное таким образом значение rmin совпадает с оценками полученными другим методами в частности с нижним пределом Хэмминга. Аналогичным образом могут быть найдены информационные пределы избыточности для других конфигураций ошибок в канале, например для пакетных ошибок, когда одиночные ошибки группируются в пакеты различной кратности. Полученные при этом результаты так же хорошо согласовывается с выводами полученными другими методами. Найденное таким образом значение rmin совпадает с оценками, полученными другими методами, в частности, с нижним пределом Хэмминга. Аналогичным образом могут быть найдены информационные пределы избыточности для других конфигураций ошибок в канале, например для пакетных ошибок, когда одиночные ошибки группируются в пакеты различной кратности. Получаемые при этом результаты также хорошо согласуются с выводами, полученными другими методами.

Лекция 14.Технические средства кодирования и декодирования для групповых кодов. Циклические коды. Техническая реализация циклических кодов.
Важное место среди систематических кодов занимает циклические коды. Свойство цикличности состоит в том, что циклическая перестановка всех символов кодовой комбинации Аі дает другую кодовую комбинацию Ај, также принадлежащую этому коду. При такой перестановке символы кодовой комбинации перемещаются слева направо на одну позицию, причем крайний правый символ переносится на место крайнего левого символа. Например, Аі =101100 және Аj=010110 немесе Аі =011101 және Аj=101110. Комбинация циклического кода, выражаемые двоичными числами, для удобства преобразований обычно определяют в виде полиномов, коэффициенты котроых равны 0 или 1. Примером этого может служить следующая запись: А(z)=10011=1·z
Помимо цикличности кодовые комбинации обладают другим важным свойством. Если их представить в виде полиномов, то все они делятся без остатка на так называемый порождающий полином G(z) степени r=n-k, где k-значность первичного кода без избыточности, n-значность циклического кода. Построение комбинаций циклических кодов возможно путем умножения комбинации первичного кода А*(z) на порождающий полином G(z): A(z)=A*(z)·G(z).
Умножение производится по модулю z и в данном случае сводится к умножению по обычным правилам с приведением подпбных членов по модулю два. В полученной таким способом комбинации A(z) в явном виде не содержатся информационные символы, однако они всегда могут быть выделены в результате обратной операции: A(z) на G(z).
Другой способ кодирования, позволяющий представить кодовую комбинацию в виде информационных и контрольных символов, заключается в следующем. К комбинации первичного кода дописывается справа r нулей, что эквивалентно поаышению полинома А*(z) на m разрядов, т.е. умножению на z. Затем z· А*(z) делится на порождающий полином. В общем случае результат деления состоит из целого числа Q(z) и остатка R(z). Отсюда:
z· А*(z)=Q(z)G(z)○R(z)

Практическое занятие 1. Терминология теории систем. Понятие информационной системы.
Цель: Ознакомление терминологией теории систем и методами описания информационных процессов и систем.
Слова “система” происходит от греческого system a, что означает целое, составленное из частей или множества элементов, связанных друг с другом и образующих определенную целостность, единство.
Системой называется любой объект, который, с одной стороны, рассматривается как единое целое, а с другой как множество связанных между собой или взаимодействующих составных частей.
Понятие системы охватывает комплекс взаимосвязанных элементов, действующих как единое целое. В систему входят следующие компоненты:
Структура - множество элементов системы и взаимосвязей между ними. Математической моделью структуры является граф.
Входы и выходы – материальные потоки или потоки сообщений, поступающие в систему или выводимые ею. Каждый входной поток характеризуются набором параметров {x(i)}; значение этих параметров по всем входным потокам образуют вектор-функцию Х. В простейшем случае Х зависит только от времени t, а в практически важных случаях значение Х в момент времени t+1 зависит от Х(t) и t. Функция выхода системы Y определяется аналогично.
Закон поведения системы – функция, связывающая изменения в ходе и выходе системы Y=F(x).
Цель и ограничения. Качество функционирования системы описывается рядом переменных U1, U2,…Un. Часть этих переменных должна поддерживаться в экстремальном значении, например, max U1 функция U1=f(X, Y, t,…) называется целевой функцией, или целью. Зачастую f не имеет аналитического и вообще явного выражения. На остальные переменные могут быть наложены ограничения
a k <=d k (u k) < b k ,где 2=k<=N.
Среди известных свойств систем целесообразно рассмотреть следующие – относительность, делимость и целостность.
Свойство относительности устанавливает, что состав элементов,
взаимосвязей, входов, выходов, цели и ограничении зависит от целей исследователя. Реальный мир богаче системы. Поэтому от исследователя и его целей зависит, какие стороны реального мира и с какой полнотой будет охватывать системы. При выделении системы некоторые элементы, взаимосвязи, входы и выходы не включаются в нее из-за слабого влияния на остающиеся элементы, из-за наличия самостоятельных целей, плохо согласующиеся с целью всей системы и т.д. Они образуют внешнюю среду для рассматриваемой системы.
Делимость означает, что систему можно представить состоящей из относительно самостоятельных частей – подсистем, каждая из которых может рассматриваться как система.
Возможность выделения подсистем (декомпозиция системы) упрощает ее анализ, так как число взаимосвязей между подсистемами и внутри подсистем, обычно меньше, чем число связей непосредственно между всеми элементами системы.
Свойство целостности указывает на согласованность цели функционирования всей системы с целями функционирования ее подсистем и элементов. Система имеет больше свойств, чем составляющие ее элементы.
Практическое занятие 2. Системный анализ и синтез информационных систем.
Цель занятия: ознакомление с методами анализа и синтеза информационных процессов и систем.
В последнее время широко используются три системных понятия: “системный анализ”, “теория систем” и “системный подход”. Между ними часто ставят знак тождества, что приводит к некоторой путанице. Слова “система” и связанные с ним термины получили в последнее время очень широкое распространение. Это связана с тем, что на передний план все более и более выступает необходимость изучения сложных комплексов (систем). токая необходимость определяется резким усложнением создаваемых технических конструкции, устройств, технологий и всех совокупностей хозяйственных связей.
Подробность изучения биологических объектов и проблем экологии, которые с каждым годом становятся все более и более актуальными, также приводит исследователя к сложнейшим системам.
Системный анализ изучает развитие сложных систем. сложность изучаемых и проектируемых систем приводит к необходимости создания специальной, качественно новой технике исследования, именуемой системами имитации – специально организованными системами математических моделей, воспроизводящих в ЭВМ функционирование проектируемого или изучаемого комплекса. На исследование динамики процесса, позволяющие увидеть перспективы и наметить цели, - это лишь один из аспектов системного анализа.
Один из трудных вопросов, который изучается в рамках системного анализа, относится к проблемам проектирования иерархической организации. Любые более или менее сложные системы всегда организованы по иерархическому принципу, связи с тем, что централизованная обработка информации и принятие решений часто бывают невозможными из-за большого объема информации, которую следует собирать и перерабатывать, из-за возникающих при этом задержан и искажений и т.д. Если речь идет о проектировании технических систем, то задача исследования систем состоит прежде всего в разработке самой функциональной схемы, которая может быть реализована заведомо не единственным способом, и в определении частных целей. Значительно сложнее обстоит дело, когда речь идет о народно - хозяйственных комплексах, функционирование элементов которых зависит от того, как управляют ими люди. В отличие от машины человек всегда имеет собственные цели и интересы, и проектировщику системы уже недостаточно только формулировать цели для нижних звеньев.
Теория иерархических систем, которая занимается некоторыми из аспектов этой проблемы является одной из важнейших частей системного анализа.
Таким образом, системный анализ – это техническая дисциплина, развивающая методы проектирования сложных технических народно-хозяйственных систем, организационных структур и т.д. Системный анализ как дальнейшее развитие теории исследования операции включает в себя последнюю со всем арсеналом средств, развитых в ее рамках. Поскольку любой анализ сложных систем невозможен без использования ЭВМ, то когда говорят о методах системного анализа, имеют обычно в виду процедуры, основанные на использовании ЭВМ.
Наряду с термином “системный анализ” большое распространение получил термин “теория систем”.
Возникновение “теории систем”связывает с именем известного биолога Людвига фон Бертеланфи, который в 50-х годах в Канаде организовал центр системных исследований и опубликовал большое количество книг. Теория систем в отличие от системного анализа относится скорее к методологии науки.
Методы системного анализа опираются не описание тех или иных фактов, явлений, процессов. В настоящее время очень широкое распространение получило слово “модель”. Если при описании моделей используется язык математики, то имеются в виду математические модели. Построение математических моделей является основой всего системного анализа. Это центральный этап исследования или проектирования любой системы. От качества модели зависит судьба всего последующего анализа. Проблеме математического моделирования состоит в описание этих принципов отбора в терминах и тех переменных, которые согласно взглядом исследователя наиболее полно характеризуют изучаемый предмет. Принципы отбора сужают множество допустимых движений, отбрасывая те, которые не могут быть реализованы. Чем более совершена модель, тем точнее оказывается наш прогноз. В различных областях знания принципы отбора движений разные.
Современная наука рассматривает три уровня организации материи: неживая материя, и самая высокая организация материи мыслящая, познающая себя материя – общество.
На самом нижнем уровне – уровне неживой материи – основными принципами отбора является законы сохранения: вещества, импульса, энергии и т.д. Любое моделирование должно начинаться с выбора основных переменных, с помощью которых он записывает законы сохранения. Необходимо учитывать второй закон термодинамики, принципы минимума диссипации энергии, устойчивости. Очень важны всякого рода условия (ограничения): граничные, начальные и т.д. поэтому процесс моделирования начинается с записи законов сохранения.
На общественном уровне организации материи появляется совершенно новые явление – трудовая деятельность. Поэтому для описания моделей в этом области мы должны пользоваться терминами трудовой деятельности людей, экономическими терминами. В качестве примера рассмотрим известные балансовые соотношения. Обозначим через х -вектор производимой продукции. Например х1 – количество выплавленной стали, х2 - цветных металлов, х3 – металлорежущих станков и т.д. Через [[a ij ]] – матрицу прямых затрат, т.е. величина a ij определяет количество продукции вида i, необходимого для производства единицы продукции вида j.
Тогда очевидно следующее балансовое соотношение:
Хi = E a ij Xi+Yi, или иначе Ч=ФЧ+Н,
где вектор Y={Y1, … , Yn} носит название вектора конечного продукта. Он может быть использован на инвестиции, потребление, отправлен на склад и т.д.

Практическое занятие 3. Понятие и структура информационного процесса. Математические модели сигнала.
Цель занятия: Ознакомление со структурой информационного процесса и математическими моделями сигнала.
Рассмотрим теперь ситуацию, когда в процессе передачи сигнал искажается шумом , т.е. некоторым случайным процессом. Предположим, что в соответствии с обозначениями, что Z - ансамбль сигналов на входе дискретного канала, а Z* - ансамбль сигналов на его выходе. Наличие в канале шума приводит к тому, что по сигналу Z* нельзя однозначно определить сигнал Z. С точки зрения теории информации этот эффект характеризуется наличием потерь информации или ненадежностью канала H(Z/Z*)>0 и описывается соотношением I(Z,Z*)=H(Z)-H(Z/Z*), где I(Z,Z*) - информация переданная по каналу, H(Z)-энтропия или собственная информация ансамбля сигналов на входе канала. Переходя к информационным характеристикам, отнесенным к единице времени последнее выражение можно переписать в виде Iў(Z,Z*)=H ў(Z)-H(Z/Z* ) (2.13), где Iў (Z,Z*)-скорость передачи информации по каналу, Hў (Z)-производительность ансамбля на входе канала, H ў(Z/Z* )-потери информации в единицу времени. При этом пропускная способность канала С хоть и уменьшается по сравнению со случаем канала без шума см.(1.25б), но в общем случае принимает конечное значение (за исключением не принимаемого здесь во внимание экстремального случая обрыва канала). Положим далее, что имеется некоторый дискретный источник с производительностью Hў(U) < C сообщения которого необходимо передать по каналу. Для решения этой задачи по-прежнему воспользуемся системой передачи изображенной на рисунке 2.1. Функции выполняемые кодером и декодером в этом случае будут ясны из дальнейших рассуждений.Поскольку Hў(U) < C возможна передача информации I(Z,Z*) по каналу со скоростью Iў (Z,Z*)=Hў (U) (2.14), т.к. по определению С- максимально возможная скорость передачи информации по каналу. Приравнивая правые части неравенств (2.13-14), приходим к соотношению Hў (Z)-Hў(Z/Z*)=H ў(U). Из которого следует, что Hў(Z)=H ў(U)+Hў (Z/Z*)> Hў(U). Последнее неравенство означает, что производительность ансамбля сигналов Z (назовем его кодом) на входе канала должна быть выше производительности источника сообщений U, и следовательно Z , кроме информации об U должен содержать дополнительную собственную информацию. При этом если бы удалось ввести дополнительную информацию таким образом, чтобы при прохождении сигнала Z по каналу с шумом вследствие ненадежности канала терялась бы именно она, а не полезная информация о сообщении U, то оказалось бы возможным обеспечить безошибочную передачу сообщений U по каналу с шумом с конечной скоростью H ў(U)< C. Таким образом задачей кодера в данной ситуации является согласование источника с каналом, заключается во внесении в сообщение источника избыточности , обладающей описанной выше свойством. Однако не тривиальным является вопрос, а возможно ли в принципе построение такого кодера ? Идея борьбы с мешающим влиянием шума за счет введения избыточности, при кодировании дискретных сообщений, существовала и до появления Теории Информации и трактовалась следующим образом: предполагалось сообщение двоичного источника U1 =0 и U2 =1 передавать по симметричному двоичному каналу (см. п1.6) с вероятностями ошибок Р< 0,5 двумя кодовыми комбинациями, содержащими соответственно n единиц или n нулей. ; . Если в месте приема регистрировать 1 или 0 по большинству принятых знаков в комбинации т.е. принимать так называемое мажоритарное декодирование , то ясно, что ошибка произойдет при условии, если в кодовой комбинации не верно будет принято n/2 или более символов. Согласно закону больших чисел вероятность уклонения числа ошибок m в кодовой комбинации длины n от их математического ожидания nЧp (см. задачу 1.11) стремится к 0 при n® ?, т.е.
e ® 0.
Поскольку nЧp < 0,5n при n®? вход обеспечит безошибочный прием. Однако передачу одного символа необходимо будет осуществлять бесконечно долго, т.е. скорость передачи информации по каналу будет стремится к 0. Таким образом на основании приведенных ранее рассуждений полагалось, что без ошибочная передача информации в канале с шумом возможна лишь в пределе при нулевой скорости передачи. Поэтому положительные решения сформулированного выше вопроса позволяют существенно изменить представление о потенциальных возможностях систем передачи дискретной информации и имеет принципиальное значение в развитии теории и практики связи. Ответ на данный вопрос содержится в теореме Шеннона для дискретного канала с шумом.
Практическое занятие 4. Модели процесса передачи. Измерение информации. Модель непрерывного и дискретного каналов связи.
Цель занятие: Ознакомление моделями процесса передачи информации.

Задача согласования дискретного источника с дискретным каналом без шума. Эффективное или статистическое кодирование
Предположим, что мы имеем дискретный канал вероятность возникновения ошибки, в котором близка к нулю (в идеале = 0). Такой канал называют идеальным каналом или каналом без шума. Пропускная способность канала определяется . При наличии идеального канала естественно поставить вопрос о возможности передаче по нему без потерь информации от произвольного дискретного источника U характеризуемого производительностью H'(U) со скоростью равной пропускной способности канала. Схема построения такой системы передачи информации должна выглядеть, так как на рисунке 2.1. Необходимость включения устройства кодер, а так же декодера, выполняющего обратные ему операции. Состав этой системы обусловлен следующими обстоятельствами. Как говорилось в пункте 1.6. для того чтобы скорость передачи информации в канале была равна его пропускной способности, на входе канала должен действовать дискретный источник с определенными статистическими свойствами, максимизирующими величину I(Z,Z*). В частности, в интересующем нас здесь случае идеального канала без помех такой источник должен просто обладать максимальной энтропией или нулевой избыточностью, т.е. выдавать независимые равновероятные сообщения. В то же время своей постановки задачи мы пожелали иметь возможность передавать сообщения от произвольного источника с любыми статистическими свойствами, т.е. имеющего ненулевую избыточность. Таким образом функции кодера являются согласованием в статическом смысле сообщений источника со входом канала. Задача этого согласования в конечном итоге сводится к устранению избыточности сообщений. Кодер осуществляет кодирование сообщений, т.е. каждому дискретному сообщению по определенному правилу ставят в соответствие последовательность символов из алфавита объемом М. При этом по отношению к входу каналом выдаваемые кодером символы сами являются дискретными элементами сообщений, статические свойства которых должны отличаться от статических свойств сообщений исходного источника. Возможность построения кодера полностью устраняющего избыточность произвольного исходного источника сообщений и определяет возможность решения поставленной задачи без ошибочной передачи информации со скоростью, равной пропускной способности канала. При полном ее решении оказывается справедливым равенствоHў(U) = uC ЧH(U) = uK Чlog M = C (2.1),откуда имеем h = uK / uC = H(U) / log M (2.1а),где H(U) - энтропия источника передаваемых сообщений, uK и u C - средние количества символов соответственно сообщения и кода передаваемых в единицу времени. h = uK/ uC - среднее количество символов кода приходящиеся на одно сообщение.Степень приближения к точному выполнению равенств (2.1) и (2.1а) зависит от степени уменьшения избыточности источника сообщений. Кодирование позволяющее устранять избыточность источников сообщений называется эффективным или статистическим. Коды, получаемые в результате такого кодирования, называются эффективными или статистическими. Рассмотрим основные идеи, которые могут быть положены в основу эффективного кодирования. Как отмечалось в пункте 1.4. избыточность дискретных источников обуславливается двумя причинами:
1) памятью источника;2) неравномерностью сообщений.
Универсальным способом уменьшения избыточности обусловленной памятью источника является укрупнение элементарных сообщений. При этом кодирование осуществляется длинными блоками. Вероятностные связи между блоками меньше чем между отдельными элементами сообщений и чем длиннее блоки, тем меньше зависит между ними. Смысл укрупнения поясним на примере буквенного текста: если вероятностные связи между буквами в любом языке относительно сильны, то между словами они значительно меньше, еще меньше между фразами, еще меньше между абзацами. Поэтому, применяя кодирование слов, фраз, абзацев мы можем достаточно полно устранить избыточность обусловленную вероятностными связями. Однако при этом возрастает задержка передачи сообщений, так как сначала нужно дождаться формирования всего длинного блока сообщений и лишь затем его закодировать и передавать. Уменьшение избыточности обусловленной неравномерностью сообщений может быть достигнута применением неравномерных кодов. Основная идея построения таких кодов состоит в том, что наиболее вероятным сообщениям ставятся в соответствие наиболее короткие блоки кодовых символов (кодовые комбинации), а наименее вероятным более длинные. В силу неравномерности таких кодов и случайного характера сообщения U передача без потерь информации с постоянной скоростью следования кодовых символов uK может быть обеспечено лишь при наличии буферного накопителя с большой памятью, и, следовательно, при допустимости больших задержек.
Тесты по дисциплине «Основы ИС»
1. Теория экономических информационных систем (ЭИС) изучает:
А) Проблемы организации информации на ЭВМ
В) Обработки информации на ЭВМ
С) Структуры и модели данных
D) БД - базы данных
E) Свойства и описание ЭИС
2. Моделирование представлений информации в ЭИС на концептуальном уровне использует
А) Синтаксические и семантические модели
В) Теорию множеств и математическую логику
С) Теорию графов, теорию информации и кодирования
D) Булева алгебра высказываний
E) Теорию вероятностей, предикатов и кванторов
3. Понятие «система» охватывает
А) Комплекс взаимосвязанных элементов, действующих как единое целое
В) Объективно существующий комплекс процессоров и явлений
С) Инструмент рассмотрения процессов и явлений
D) Совокупность различных частей процесса
E) Совокупность основных частей процесса
4. Экономическая информационная система представляет собой
А) Сбор, хранение, обработка информации
В) Программные продукты
С) Математическую модель
D) Процесс обработки данных
E) Инфологическую модель
5. Экономические информационные системы предназначены для решения задач
А) Обработки и автоматизации данных
В) Обработки производственных процессов
С) Изучение процессов производства и потребления
D) Изучение связей процессов производства и потребления
E) Изучение процессов распределения материальных благ
6. Для ЭИС соблюдаются следующие принципы их построения и функционирования
А) Соответствие, экономичность, адаптивность
В) Интегральность
С) Регламентность
D) Самоконтроль
E) Адаптивность
7. Цель работы информационной системы характеризуется
А) Критериями эффективности
В) Ограничениями
С) Целевой функцией
D) Управляющей компонентой
E) Внешней средой
8. Задачи обработки данных обеспечивает рутинную обработку экономической информации с целью выдачи
А) Сводной информации
В) Информации
С) Ведомости
D) Данных
E) Элементов
9. База данных, концептуальная схема и информационный процессор образует
А) Компоненты информационной системы
В) Соглашение о видах данных
С) Способы представления данных
D) Способы представления информации
E) Алгоритм решения задачи
10. Некоторый показатель, который характеризует объект и принимает текстовое или числовое значение называется
А) Данные
В) Показатель
С) Число
D) Объект
E) Атрибут
11. Новые сведения, принятые, понятые и оцененные конечным потребителем как полезные называется
А) Информацией
В) Данные
С) Теорией
D) Управлением
E) Сведениями
12. Информационная система - это совокупность структурированных данных и комплекса аппаратно-программного обеспечения. . .
А) Для хранения информации и манипулирования ею
В) Для приема и хранения информации
С) Для преобразования информации
D) Для сбора и переработки информации
E) Для хранения и выдачи информации
13. Виды информационно-поисковых систем
А) Фактографические, документальные
В) Информационно-справочные
С) Информационно-документальные
D) Информационно-управляющие
E) Документальные, универсальные
14. Информационная система предназначена для. . .
А) Сбора, хранения, поиска, обработки и выдачи информации
В) Сбора, преобразования и выдачи информации
С) Хранения, поиска и обработки информации
D) преобразования и хранения информации
E) Сбора, хранения, поиска и обработки информации
15. Информационное отображение отдельного свойства некоторого объекта называется
А) Атрибутом
В) Субъектом
С) Управлением
D) Решением
E) Объектом
16. Набор символов, которому придается определенный смысл, называется
А) Единицей информации
В) Прямой информацией
С) Выходной информацией
D) Управленческой информацией
E) Информацией
17. Система технологической подготовки производства является компонентой. . .
А) Объекта управления
В) Субъекта управления
С) Управляющего объекта
D) Входных данных
E) Выходных данных
18. Результативная информация является…
А) Выходом объекта управления
В) Выходом субъекта управления
С) Входом объекта управления
D) Входом субъекта управления
E) Выходом данных
19. Комплекс программ, обеспечивающий хранение, накопление, модификацию и выдачу данных,входящих в БД, называется
А) Системой управления базой данных
В) Управление базой данных
С) Информационной системой
D) Операционной системой
E) Утилитами
20. При использовании схемы интегрированной системы информационного обеспечения организуется…
А) Единый банк информации
В) Совокупность банков информации каждого отдела
С) Комплекс банков информации планового и производственного отделов
D) Банк информации планового отдела
E) Банк информации производственного отдела
21. Информационным системам присущи…
А) Все свойства кибернетических систем
В) Свойства гомеостатичности и изоморфизма
С) Свойства изолированности, автономности, целостности
D) Свойства множественности, адаптивности и эмерджентности
E) Свойства совместимости, делимости
22. ЭИС, дополненная прикладными программами различного назначения, образует
А) Систему обработки данных
В) Поисковую систему
С) Информационную систему
D) Базу данных
E) Базой знаний
23. При вводе в информационно-поисковую систему каждый документ подвергается
А) Индексированию
В) Обозначению
С) Копированию
D) Форматированию
E) Вводу
24. Выбрать определение энтропии
А) Количественная мера неопределенности системы
В) Качественная мера неопределенности системы
С) Количественная мера определенности системы
D) Качественная мера определенности системы
E) Количество информации
25. Количество цифровая информации измеряется по формуле
А) Хартли-Шеннон
В) Шеннон
С) Кодда
D) Логарифмов
E) Индексов
26. За единицу измерения энтропии принимается количественная мера неопределенности системы, которая может находиться…
А) С одинаковой вероятностью в двух разных состояниях
В) С одинаковой вероятностью в трех состояниях
С) С разной вероятностью в двух разных состояниях
D) С разной вероятностью в трех состояниях
E) С одинаковой вероятностью в n состояниях
27. За единицу измерения энтропии принимается…
А) Бит
В) Байт
С) Килобайт
D) Мегабайт
E) Гигабайт
28. Определить формулу энтропии
А) H = log 2 N
В) H = log 2 mС) H = log 10 N
D) H = log 10 mE) H = log 2 N m
29. Энтропия достигает своего максимального значения…
А) При равных вероятностях
В) При разных вероятностях
С) При N = 3 (число состояний)
D) При m = 2 (число переменных)
E) При m = 3
30. Неопределенность системы возрастает…
А) С увеличением числа состояний системы
В) С уменьшением числа состояний системы
С) С увеличением числа переменных системы
D) С уменьшением числа переменных системы
E) С изменением числа состояний системы
31. При объединении двух независимых систем их энтропии…
А) Суммируются
В) Перемножаются
С) Вычитаются (из большей меньшая)
D) Постоянны
E) Уравниваются
32. Количество информации, содержащейся в сообщении, измеряется…
А) Разностью энтропий до и после сообщения
В) Суммой энтропий до и после сообщения
С) Произведением энтропий до и после сообщения
D) Частным от деления энтропий
E) Энтропией после сообщения
33. Количество информации, содержащееся в сообщении, определяется как…
А) Логарифм вероятности события с обратным знаком
В) Логарифм вероятности события по основанию 2
С) Десятичный логарифм вероятности с обратным знаком
D) Десятичный логарифм вероятности события
E) Натуральный логарифм вероятности события
34. Укажите три аспекта измерения информации
А) Синтаксический, семантический, прагматический
В) Знаковый, синтаксический, семантический
С) Синтаксический, знаковый, прагматический
D) Синтаксический, семиотический, семантический
E) Семиотический, знаковый, прагматический
35. Семиотика занимается изучением…
А) Знаковых чисел
В) Кибернетических систем
С) Экономических управляемых систем
D) Информационных систем
E) Инженерных систем
36. Синтаксический аспект измерения информации заключается в изучении…
А) Формальных правил образования словосочетаний
В) Смыслового содержания словосочетаний
С) Правил преобразований в экономических системах
D) Правил преобразований в кибернетике
E) Правил программирования
37. Изучением формальных правил преобразований в знаковых системах занимается…
А) Синтаксический аспект измерения информации
В) Семантический аспект
С) Прагматический аспект
D) Семиотика
E) Кибернетика
38. Семантический аспект анализа информации заключается в интерпретации форм представления информации как…
А) Средство выражения содержания информации
В) Средство выражения количества информации
С) Средство выражения энтропии
D) Средство построения программ
E) Средство полезности информации
39. Форма представления информации, информационного языка как средства выражения содержания является…
А) Семантический аспект анализа информации
В) Прагматический аспект
С) Синтаксический аспект
D) Знаковая система
E) Экономическая система
40. Что представляет собой тезаурус?
А) Некоторый словарь с указанием смысла слов
В) Сборник задач
С) Учебник по кибернетике
D) Сборник программ
E) Комплекс экономических терминов
41. Полезность информации для решения конкретных практических задач, оценивает
А) Прагматический аспект информации
В) Синтаксический аспект
С) Семантический аспект
D) Кибернетический аспект
E) Экономический аспект
42. Прагматический аспект информации заключается в оценке ее полезности…
А) Для решения конкретных практических задач
В) Для решения теоретических задач
С) Для разработки методических принципов
D) Для развития научного направления
E) Для прогресса программирования
43. Назовите самую большую группу в классификации производственной информации
А) Экономическая
В) Управленческая
С) Научно-техническая
D) Социальная
E) Нормативная
44. Пусть 1 – сообщения, 2 – реквизиты, 3 – показатели, 4 – информационный поток, 5 – файл (массив) , 6 – информационная система. Расставьте информационные совокупности по ранжиру ( от низшего к высшему уровню)
А) 2, 3, 1, 5, 4, 6
В) 1, 2, 3, 4, 5, 6
С) 2, 3, 1, 5, 6, 4
D) 6, 2, 3, 5, 1, 4
E) 4, 6, 1, 3, 2, 5
45. Реквизит – основание характеризует…
А) Количественные свойства сущности
В) Качественные свойства сущности
С) Информационные свойства сущности
D) Экономические свойства сущности
E) Экологические свойства сущности
46. Реквизит – признак характеризует…
А) Качественное свойство сущности
В) Количественное свойство сущности
С) Информационное свойство сущности
D) Экономическое свойство сущности
E) Кибернетическое свойство сущности
47. Укажите состав реквизита
А) Реквизит-основание. Реквизит-признак
В) Реквизит-количество, реквизит-качество
С) Реквизит-информация, реквизит-признак
D) Реквизит-основание, реквизит-свойство
E) Реквизит-информация, реквизит-основание
48. Реквизиты характеризуют основные свойства сущности и являются…
А) Логически неделимым элементом информационной совокупности
В) Наибольшей информационной единицей
С) Совокупным элементом простых единиц
D) Единицей измерения информации
E) Единицей измерения энтропии
49. Показатель состоит…
А) Из одного реквизита-основания и нескольких реквизитов-признаков
В) Из одного реквизита-основания и одного реквизита-признака
С) Из одного реквизита-основания
D) Из нескольких реквизитов-признаков
E) Из нескольких реквизитов-оснований
50. Укажите состав информационной совокупности – сообщения
А) Только из реквизитов-признаков
В) Только из реквизита-основания
С) Из одного реквизита-основания, нескольких реквизитов-признаков
D) Из реквизита-основания и реквизита-признака
E) Из пары реквизитов- оснований
51. Укажите состав информационной совокупности файла (массива)
А) Множество показателей, реквизитов или сообщений
В) Множество информационных потоков
С) Показатели и информационная система
D) Информационная система и реквизиты
E) Информационный поток и показатели
52. Информационный поток это…
А) Совокупность файлов с прямой и обратной связью
В) Совокупность файлов с прямой связью
С) Последовательная совокупность файлов
D) Параллельная совокупность файлов
E) Совокупность файлов с обратной связь
53. Информационная система представляет…
А) Наивысший уровень единицы информации
В) Элементарный уровень единицы информации
С) Неделимый элемент информации
D) Средний уровень единицы информации
E) Качественный уровень информации
54. Какие два предиката образуют логические значения?
А) Истина (А) и ложь (0)
В) Бит и байт
С) Истина и бит
D) Байт и ложь
E) Единица и ложь
55. Сколько цифр имеется в двоичной системе счисления…
А) 2
В) 8
С) 10
D) 16
E) 3
56. Элементарное высказывание это…
А) Некоторый символ с логическим значением
В) Некоторая информационная совокупность
С) Определенное логическое значение
D) Логическое слово
E) Логическое предложение
57. Как называется логическое сложение
А) дизъюнкция
В) конъюнкция
С) отрицание
D) эквивалентно
E) импликация
58. Укажите результаты операции отрицания0, 1 (не 0, не А)
А) 1, 0
В) 0, 1
С) 0, 0
D) 1, 1
E) – 1, 0
59. Укажите результаты операции конъюнкции 00, 01, 10, 11
А) 0, 0, 0, 1
В) 0, 1, 1, 1
С) 0, -1, 1, -1
D) 0, 0, 0, -1
E) 1, 0, 0, 1
60. Выберите результаты операции дизъюнкции 00, 01, 10, 11
0, 1, 1, 1
А) 0, 0, 0, 1
В) 0, 1, -1, 1
С) 0, -1, 1, -1
D) 1, 1, 0, 0
61. Выберите результаты операции импликации 00, 01, 10, 11
А) 1, 1, 0, 1
В) 0, 0, 1, 0
С) 1, 1, 0, 0
D) 1, 0, 0, 1
E) 0, 1, 0, 1
62. Укажите результаты операции эквивалентности 00, 01, 10, 11
А) 1, 0, 0, 1
В) 0, 1, 1, 0
С) 0, 1, 0, 1
D) 0, 0, 1, 1
E) 0, 1, 1, 1
63. Выберите результаты операции неэквивалентности 00, 01, 10, 11
А) 0, 1, 1, 0
В) 0, 0, 1, 1
С) 0, 1, 0, 1
D) 0, 1, 1, 1
E) 0, 0, 0, 1
64. Даны А (А) , В (0) , С (А) , в скобках указаны логические значения. Определить логические значения высказываний ( А) , АВ, (А)(В)
А) 1, 0, 1
В) 0, 1, 0
С) –1, 0, 1
D) 1, 0, -1
E) –1, 0, 0
65. Составным или сложным высказыванием называется…
А) Совокупность элементарных высказываний
В) Пара элементарных высказываний
С) Совокупность элементарных предложений
D) Совокупность единиц информации
E) Совокупность экономических показателей
66. С помощью каких операций можно записать любое сложное высказывание?
А) ,
В) ,
С) ,
D) ,
E) ,
67. С помощью каких операций можно записать любое сложное высказывание?
А) ,
В) ,
С) ,
D) ,
E) ,
68. Какие операции образуют полную систему логического сложения и умножения?
А) Конъюнкция и дизъюнкция
В) Отрицание и импликация
С) Эквивалентность и конъюнкция
D) Эквивалентность и дизъюнкция
E) Импликация и неэквивалентность
69. Какими свойствами обладают два равнозначных высказывания?
А) Рефлексивность, симметричность, транзитивность
В) Рефлексивность, эквивалентность, симметричность
С) Эквивалентность, симметричность, транзитивность
D) Рефлексивность, эквивалентность, транзитивность
E) Симметричность, равномерность, рефлексивность
70. Найдите результаты высказываний АА, А1, А0
А) А, А, 0
В) 1, 1, 0
С) А, 1, 0
D) А, А, А
E) 1, А, 0
71. Найдите результаты высказываний АА, А1, А0
А) А, 1, А
В) А, 1, 0
С) А, А, А
D) 1, 0, 1
E) 1, 1, 0
72. Как называется двоичное число в шестнадцатеричной системе счисления
А) тэтрада
В) триада
С) бит
D) байт
E) ноль
73. Групповые имена, входящие в предикат называются…
А) Предметными переменными
В) Собственные имена предметов
С) Предметы некоторой группы
D) Собирательные групповые имена
E) Логические значения
74. Значениями предметных переменных называются…
А) Логические значения групповых имен
В) Логические значения собственных имен
С) Значения групповых имен
D) Значения собственных имен
E) Число групповых имен
75. Рангом предиката называется…
А) Количество предметных переменных
В) Количество групповых имен
С) Количество собственных имен
D) Количество предметов группы
E) Количество слов в группе
76. Выберите соответствия предметным переменным и предикатам, если 1-логические переменные, 2-логические значения, 3-логические функции
А) 1, 3
В) 1, 2
С) 2, 3
D) 2, 1
E) 3, 1
77. Укажите перестановочный закон пересечения множеств А,В
A) АВ=ВА
B) АВ=ВА
C) А (ВС) =(АC) С
D) А(ВС) =(АC) С
E) АВ=С
78. Укажите сочетательный закон пересечения множеств А, В, С
A) А (ВС) =(АC) С
B) АВС=Д
C) А(ВС) =(АC) С
D) А (ВС) =(АC) (АС)
E) А (ВС) =(АC) (АС)
79. Выберите перестановочный закон объединения множеств А, В
A) АВ=ВА
B) АВ=ВА
C) АВ=С
D) ВА=Д
E) А(ВС) =Д
80. Выберите сочетательный закон объединения множеств А, В, С
A) А(ВС) =(АC) С
B) А(ВС) =Д
C) (АВ) С=Д
D) АВ=ВА
E) АВ=ВА
81. Укажите распределительный закон объединения относительно пересечения
A) А (ВС) =(АC) (АС)
B) А (ВС) =Д
C) (АВ) (АС) =Д
D) А (ВС) =(АC) (АС)
E) А (ВС) =Д
82. Укажите распределительный закон пересечения относительно объединения
A) А (ВС) =(АC) (АС)
B) А (ВС) =Д
C) (АВ) (АС) =Д
D) А (ВС) =Д
E) (АВ) (АС) =Д
83. Пересечением или теоретико-множественным произведением множеств А и В называется…
А) Множество С тех элементов, которые принадлежат и А и В.
В) Множество С элементов, не принадлежащих и А, и В
С) Множество А без элементов множества А
D) Множество В без элементов множества А
E) Сумма произведений отдельных значений А и В
84. Объединением или теоретико-множественной суммой называется множество всех элементов, каждый из которых принадлежит…
А) Хотя бы одному из множеств А и В
В) И множеству А, и множеству В
С) Множеству А без элементов множества В
D) Множеству В без элементов множества А
E) Сумме отдельных значений множеств А и В
85. Теоретико-множественной разностью А и В называется множество…
А) Тех элементов, принадлежащих А, которые не принадлежат В
В) Элемент В, не принадлежащих А
С) Элементов, принадлежащих и А и В
D) Элементов, принадлежащих или А, или В
E) Элементов, не принадлежащих и А, и В
86. Сколько цифр имеется в восьмеричной системе счисления
А) 8
В) 10
С) 2
D) 16
E) 20
87. Когда х пробегает множество А, каждое значение функции f(x) принадлежит множеству В, элементы которого удовлетворяют условию f(x) B, если xA. Какое определение подходит множеству В?
А) f – образ множества А
В) Отображение множества А
С) Подмножество множества А
D) Предикат
E) Декартово произведение
88. Пусть Х – данное множество, I – универсальное множество, SYMBOL 96 \f "Symbol" \s 12`X – дополнение универсального множества. Какое равенство справедливо для этих множеств?
A)
B)
C)
D)
E)
89. Пусть У – подмножество множества Х. Какие соотношения справедливы для У SYMBOL 163 \f "Symbol" \s 12Ј Х ?
A) Х У = У, ХУ=Х
B) Х У = У, ХУ=У
C) Х У = Х, ХУ=Х
D) Х У = Х, ХУ=У
E) Х У = , ХУ=
90. Пусть Х – конечное множество натуральных чисел, Х1 – множество нечетных чисел множества Х, Х2 – множество четных чисел множества Х. Укажите верные соотношения для этих множеств
A) Х1 Х2 = Х, Х \ Х1 = Х2
B) Х1 Х2 = Х, Х1 \ Х2 = Х
C) Х1 Х2 = Х, Х2 \ Х1 = Х
D) Х1 Х2 = Ø, Х \ Х1 = Х2
E) Х1 Х2 = Ø, Х \ Х2 = Х1
91. Пусть Х1 и Х2 – непересекающиеся подмножества множества Х. Укажите верные соотношения
A) Х1 Х = Х, Х2 Х = Х2
B) Х1 Х = Х1, Х2 Х = Х2
C) Х1 Х = Х1, Х2 Х = Х2
D) Х1 Х = Х, Х2 Х = Х2
E) Х1 Х2 = Ø , Х1 Х2 = Х1
92. Пусть хХ У. Выберите справедливые утверждения.
A) хХ, хУ
B) хХ, хУ
C) хХ, хУ
D) х, х
E) хХ, х
93. Пусть хХ У. Выберите справедливые утверждения.
A) хХ, хУ или хХ, хУ
B) хХ, хУ
C) хХ, хУ или хХ, хУ
D) хХ, хУ или хХ, или хХ, или хУ
E) хХ, хУ
94. Если каждому элементу множества можно поставить в соответствие натуральное число, то множество называется…
А) Счетным
В) Несчетным
С) Конечным
D) Бесконечным
E) Ограниченным
95. Отношения характеризуют…
А) Связи между предметами реального мира
В) Описания предметов реального мира
С) Элементы множества
D) Графики связи
E) Символы зависимостей
96. Пусть а1А1, а2А2…, а nА n. Рассмотрим декартово произведение Д = А1 х А2 х…х А n. Какому условию должен удовлетворять кортеж (а1, а2, …, а n ) ?
А) (а1, а2, …, а n)Д
В) (а1, а2, …, а n)Д
С) (а1, а2, …, а n)А1
D) (а1, а2, …, а n)А n
E) (а1, а2, …, а n)А 2
97. Кортеж это…
А) Совокупность элементов упорядоченных множеств
В) Совокупность конечного числа элементов
С) Совокупность упорядоченных множеств
D) Совокупность счетных множеств
E) Совокупность элементов
98. Пусть F является подмножеством множества Д, кортеж удовлетворяет условию (а1, а2…аn )F. Укажите справедливое утверждение относительно элементов кортежа
А) Элементы находятся в отношении F
В) Элементы находятся в отношении Д
С) Элементы декартова множества
D) лементы подмножества
E) Элементы упорядоченного множества
99. Пусть кортеж удовлетворяет условию (а1, а2…аn )F. Какое утверждение справедливо относительно множества F?
А) График отношения или множество – отношение
В) График подмножества
С) Точка пространства
D) Проекция точек пространства
E) Множество упорядоченных элементов
100. Математическая логика представляет собой…
А) Методику и теорию математических доказательств
В) Методику математических доказательств
С) Теорию математических доказательств
D) Практику основных доказательств
E) Совокупность высказываний

Приложенные файлы

  • docx 15620052
    Размер файла: 350 kB Загрузок: 1

Добавить комментарий