ГЛАВА 3. МАТЕМАТИЧЕСКАЯ МОДЕЛЬ АСК-АНАЛИЗА

 

3.1. ТЕОРЕТИЧЕСКИЕ ОСНОВЫ СИСТЕМНОЙ ТЕОРИИ ИНФОРМАЦИИ

 

3.1.1. Требования к математической модели и численной мере

 

Требования к математической модели:

Содержательная интерпретируемость; эффективная вычислимость на основе эмпирических данных (наличие эффективного численного метода); универсальность; адекватность; сходимость; семантическая устойчивость; сопоставимость результатов моделирования в пространстве и времени; непараметричность; формализация базовых когнитивных операций системного анализа (прежде всего таких, как обобщение, абстрагирование, сравнение классификация и др.); корректность работы на фрагментарных, неточных и зашумленных данных; возможность обработки данных очень больших размерностей (тысячи факторов и будущих состояний объекта управления); математическая и алгоритмическая ясность и простота, эффективная программная реализуемость.

Требования к численной мере:

Ключевым при построении математических моделей является выбор количественной меры, обеспечивающей учет степени причинно-следственной взаимосвязи исследуемых параметров.

Эта мера должна удовлетворять следующим требованиям:

1) обеспечивать эффективную вычислимость на основе эмпирических данных, полученных непосредственно из опыта;

2) обладать универсальностью, т.е. независимостью от предметной области;

3) подчиняться единому для различных предметных областей принципу содержательной интерпретации

4) количественно измеряться в единых единицах измерения а количественной шкале (шкала с естественным нулем, максимумом или минимумом);

5) учитывать понятия:

– "цели объекта управления", "цели управления";

– "мощность множества будущих состояний объекта управления";

– уровень системности объекта управления;

– степень детерминированности объекта управления;

6) обладать сопоставимостью в пространстве и во времени;

7) обеспечивать возможность введения метрики или не метрической функции принадлежности на базе выбранной количественной меры.

Для того, чтобы выбрать тип модели, удовлетворяющей сформулированным требованиям, необходимо решить на какой форме информации эта модель будет основана: абсолютной, относительной или аналитической.

 

3.1.2. Выбор базовой численной меры

 

Абсолютная, относительная и аналитическая информация.

Широко известны абсолютная и относительная формы информации. Абсолютная форма – это просто количество, частота. Относительная форма – это доли, проценты, относительные частоты и вероятности.

Менее знакомы специалисты с аналитической формой информации, примером которой является условные вероятности, стандартизированные статистические значения и количество информации.

Абсолютная информация – это информация содержащаяся в абсолютных числах, таких как количество чего-либо, взятого "само по себе", т.е. безотносительно к объему совокупности, к которой оно относится.

Относительная информация – это информация, содержащаяся в отношениях абсолютного количества к объему совокупности. Относительная информация измеряется в частях, процентах, промиле, вероятностях и некоторых других подобных единицах. Очевидно, что и из относительной информации, взятой изолированно, вырванной из контекста, делать какие-либо обоснованные выводы не представляется возможным. Те, кто иногда делает это сознательно, просто вводит в заблуждение некомпетентных слушателей.

Для того, чтобы о чем-то судить по процентам, нужен их сопоставительный анализ, т.е. анализ всего процентного распределения.  Вариантов такого анализа может быть много, но суть не в этом, а в том, что такой анализ необходим. Рассмотрим один из возможных вариантов сопоставительного анализа процентных распределений на нашем примере. Этот вариант предполагает использование в качестве "базы оценки" среднего по всей совокупности (нормативный подход: норма – среднее).

Аналитическая (сопоставительная) информация – это информация, содержащаяся в отношении вероятности (или процента) к некоторой базовой величине, например к средней вероятности по всей выборке. Аналитическими являются также стандартизированные величины в статистике и количество информации в теории информации.

Очевидно, именно аналитическая информация является наиболее кондиционной для употребления с той точки зрения, что позволяет непосредственно делать содержательные выводы об исследуемой предметной области (точнее будет сказать, что она сама и является выводом), тогда как для того, чтобы сделать аналогичные выводы на основе относительной, и особенно абсолютной информации требуется ее значительная предварительная обработка. Эта "предварительная обработка" и составляет значительную долю трудоемкости труда аналитиков и экспертов, которые полагаются во многом на чисто качественную (невербализуемую, интуитивную) оценку имеющейся у них сырой относительной информации, однако проводить необходимые для этого расчеты для реальных объемов данных вручную не представляется возможным.

Для экономических исследований является естественным манипулировать понятиями "прибыль" – "убыток" или сходными понятиями теории игр: "выигрыш" – "проигрыш", измеряя их при этом, как правило, в денежных единицах.

Однако, на этом пути возникает ряд проблем:

1. Проблема выбора денежных единиц или сопоставимого во времени и пространстве способа их измерения.

2. Принципиальная проблема, состоящая в том, что не все явления, даже в экономике, уместно и целесообразно количественно оценивать (измерять) в денежных единицах.

В данной работе автор предлагает не решать эти проблемы, а обойти их, выбрав в качестве количественной меры не "стоимость", а то, что лежит в основе стоимости. Для этого предлагается раскрыть один из аспектов сущности понятия "стоимость" на основе применения аналитического понятия "информация", которое удовлетворяет всем сформулированным выше требованиям к количественной мере.

Труд, как информационный процесс. Средства труда, как информационные системы

Информационно-функциональная теория развития техники разработана автором в 1980 году (ДСП) [152]. С позиций этой теории труд представляет собой прежде всего информационный процесс, средства труда являются информационными системами, передающими и усиливающими информационные потоки между человеком и внешней средой.

Взаимодействие человека со средствами труда приводит не только к созданию определенного материального продукта труда, но и к изменению самого человека. Уровень сознания человека во многом детерминируется функциональным уровнем средств труда, с помощью которых он трудится.

Труд (процесс опредмечивания) с позиций теории информации предлагается рассматривать как процесс перезаписи информации из образа продукта труда в структуру физической среды (предмета труда). По мере осуществления этого процесса физическая форма продукта труда за счет записи в ней информации структурируется и выделяется из окружающей среды. Тело человека и средства труда выступают при этом как канал передачи информации.

Таким образом сам процесс передачи информации по каналу связи и запись ее в носитель информации – это и есть тот процесс (труд), который преобразует носитель информации в заранее заданную форму, т.е. в продукт труда.

Очевидно образ продукта труда и сам продукт труда относятся к качественно различным уровням Реальности на которых тождественная по содержанию (семантике) информация просто физически не может находится в одной и той же языковой, синтаксической форме. Поэтому тело человека и его средства труда как информационный канал, соединяющий качественно различные уровни Реальности, не просто передает информацию с сохранением ее содержания с одного уровня на другой, но при этом с необходимостью преобразует и языковую форму представления информации, т.е. осуществляет ее компиляцию, которая фактически и представляет собой технологический процесс.

Информация образа продукта труда, проявляющаяся первоначально в форме целесообразной и целенаправленной трудовой деятельности, т.е. как свободная информация, преобразуется затем в форму связанной информации, выступающей как покоящиеся полезные свойства продукта труда, определяемые его физической формой и структурой [49].

Свободная информация, существующая в форме целесообразности процесса труда не имеет стоимости, но образует ее в той мере, в какой преобразуется в информацию, связанную в структуре физической формы продукта труда. При этом смысл (содержание, семантика, качество) информации связанной в продукте труда определяет его потребительскую стоимость, тогда как ее количество связано с абстрактной себестоимостью продукта.

Время, за которое перезаписывается определенное количество информации из образа продукта труда в его физическую структуру определяется информационной пропускной способностью тела человека и его средств труда как информационного канала. Чем это время меньше, т.е. чем выше информационная пропускная способность тела человека и его средств труда, тем выше развитие человека и технологии. Так как процесс труда это сознательный процесс, то и количественные и содержательные возможности человека как информационного канала определяются типом и состоянием его сознания. Процесс увеличения информационной пропускной способности сознания человека поддерживается (обеспечивается, сопровождается) соответствующими психофизиологическими изменениями в теле человека.

Роль человека и его средств труда в процессе перезаписи информации из образа продукта труда в структуру его физической формы и в создании потребительной стоимости и стоимости продукта труда различна. Это различие определяется тем, что в процессе труда человек выполняет лишь ту часть работы по созданию определенного продукта труда, которая заключается в выполнении функций еще не переданных его средствам труда. Та же часть работы, которая состоит в выполнении уже полностью переданных средствам труда функций выполняется ими автоматически, т.е. без участия человека (рисунок 3.1):

 

Рисунок 3. 1. Упрощенная схема информационного канала
для процессов труда с использованием средств труда

 

Информационно-функциональная теория развития техники:

включает, в частности, следующие положения. Каждая трудовая функция реализует определенный этап преобразования формы информации и ее передачи из образа продукта труда в предмет труда. Процесс развития средств труда состоит в последовательной (т.е. в единственном и строго определенном порядке) передаче им трудовых функций, ранее выполнявшихся человеком (закон последовательной передачи функций), при этом технологический базис общества, экономические и социальные отношения изменяются количественно. Переданные средствам труда функции реализуются вне биологических ограничений человека (остаются только ограничения технологии), а оставшиеся у человека функции – вне ограничений, связанных с необходимостью выполнения переданных функций. После передачи средствам труда всех трудовых функций физического организма человека им начинают передаваться психические функции (закон повышения качества базиса), при этом технологический базис общества, экономические и социальные отношения изменяются качественно. В рамках этой теории получены обобщенные информационно-функциональные схемы 15 типов уже существующих и перспективных средств труда.

Процесс передачи и записи информации, как управляющее воздействие, преобразующее предмет труда в продукт труда

Наиболее развитой формой труда на текущем этапе технологического развития, по-видимому, является АСУ. Поэтому для развития представлений об информационной природе процесса труда рассмотрим глубокую аналогию между каналом передачи информации и процессом управления в АСУ.

Варианты структур каналов передачи информации

Канал передачи информации состоит из линии связи, модулятора и демодулятора, кодирующего и декодирующего, а также решающих устройств, позволяющих с высокой степенью достоверности принять и передать сообщение [351].

Для увеличения надежности передачи применяются также каналы обратной связи и решающие устройства. Последние служат для классификации сомнительных сигналов и отождествления их с достаточно высокой степенью достоверности с состояниями источника информации или с определенным кодом (рисунок 3.2).

 

Рисунок 3. 2. Варианты структур каналов передачи информации

Информационная модель канала передачи информации и аналогия со структурой АСУ

Следуя [9] кратко рассмотрим классическую функциональную схему АСУ (рисунок 3.3),  на которой показаны основные элементы управляющего устройства (УУ).

 

Рисунок 3. 3. Классическая функциональная схема АСУ

 

АСУ состоит из двух основных частей: объекта управления и управляющего устройства. Объектом управления может быть любое управляемое техническое устройство или какой–либо технологический процесс.

Состояние объекта управления зависит от приложенных к нему воздействий g(t) и от собственных параметров, поэтому характеризуется выходной величиной y(t).

Воздействие g(t), поступающее на вход управляющего устройства и содержащее информацию о требуемом значении y(t), называется задающим воздействием.

Воздействие z(t), поступающее от управляющего устройства на вход объекта для обеспечения в нем желаемого процесса, называется управляющим воздействием.

Воздействие f(t), приложенное к объекту и вызывающее отклонение управляемого параметра от заданного значения, называется возмущающим воздействием (помехой).

Задающее воздействие g(t), которое является входным сигналом АСУ и определяет требуемый закон изменения выходного сигнала y(t), поступает на чувствительный элемент (ЧЭ). Кроме того на этот элемент подаются сигналы обратной связи y(t) и возмущающего воздействия f(t).

С выхода ЧЭ сигнал x(t), который является функцией воздействия {x, y, f} и характеризует ошибку (рассогласование) АСУ, усиливается усилителем (У) и поступает на исполнительный механизм (ИМ).

ИМ вырабатывает и подает на объект управления (ОУ) управляющее воздействие z(t).

Иногда при формировании управляющего воздействия кроме сигнала ошибки учитываются его производная и интеграл.

Часто для обеспечения требуемых статических и динамических характеристик системы используются корректирующие устройства: последовательные (КУ1) и параллельные (КУ2).

В состав АСУ могут входить еще и специальные элементы для согласования отдельных частей системы, а также вычислительные устройства для реализации алгоритма работы управляющего устройства.

Обобщив варианты структур каналов передачи информации, представленные на рисунке 3.1, получим следующую обобщенную информационную модель канала передачи информации (рисунок 3.4):

 

Рисунок 3. 4. Обобщенная информационная модель
канала передачи информации

 

Источник информации ИИ создает сигналы z, которые после кодирования и модуляции в преобразователе П1 превращаются в сигналы x и поступают в линию связи ЛС. Для удобства сигналы источника будем называть сообщениями, а сигналы x в линии связи просто сигналами. В результате действия помех f сигнал y на приемной стороне может отличаться от сигнала x. Помехи имеют случайный характер и подчиняются статистическим законам. Фактически источником помех является окружающая среда, имеющая сложную структуру, но на практике удобно считать, что помехи создаются некоторым источником помех ИП с определенными статистическими свойствами и поступают в линию связи в виде сигнала f. Приемная часть канала содержит преобразователь П2, демодулирующий и декодирующий принятые сигналы y, и приемник информации ПИ, перерабатывающий принятые сообщения u.

Сравним две информационные системы: канал передачи информации и автоматизированную систему управления, проанализируем, чем они сходны и чем отличаются друг от друга.

Сравнивая функциональную схему АСУ на рисунке 3.3 и обобщенную информационную модель канала передачи информации на рисунке 3.4 и мы видим, что с формальной точки зрения у них есть очень много общего как по структуре, так и по функциям (таблица 3.1).

 

Таблица 3. 1 – СРАВНЕНИЕ ФУНКЦИОНАЛЬНОЙ СХЕМЫ АСУ И ОБОБЩЕННОЙ ИНФОРМАЦИОННОЙ МОДЕЛИ КАНАЛА ПЕРЕДАЧИ ИНФОРМАЦИИ

 

Кроме того, обе эти системы прежде всего представляют собой информационные системы, т.е. предназначены для вполне определенных целей, которые достигаются путем передачи и записи информации. Таким образом, именно информация переводит эти системы из нефункционального состояния в функциональное, повышает их уровень системности.

Различие между каналом передачи информации и АСУ состоит в различии их целей, т.е. в том, ради чего в них передается информация:

– в канале информация передается для сообщения приемнику;

– в АСУ информация передается для изменения структуры и функций объекта управления.

Необходимо дополнительно отметить, что любой приемник информации при получении информации изменяет свою структуру, а иногда и функции, но в теории связи этот факт не играет особой роли и ему не уделяется особого внимания. Однако в теории и практике автоматизированного управления именно это обстоятельство выступает на первый план, так как именно ради изменения состояния объекта управления на него и оказывается информационное управляющее воздействие.

Интересно, что врач-психотерапевт что-то говорит пациенту (гипнотику) вовсе не ради того, чтобы сообщить ему некоторую информацию, а чтобы вылечить его, т.е. перевести из болезненного состояния в здоровое. Учитель также воздействует на ученика не столько ради сообщения ему некоторой информации, хотя этот момент и присутствует, сколько ради того, чтобы научить его учиться, т.е. изменить его. Программист также далек от того, чтобы сообщать компьютеру некоторую информацию, просто он разрабатывает программную систему, т.е. сначала создает, а затем изменяет некоторый информационный объект, который с его точки зрения безусловно представляет собой объект управления ничуть не в меньшей степени, чем кувшин, формирующийся из глины, под руками гончара с точки зрения последнего. Да и кувшин формируется из глины, собственно говоря, по мере того, как информация образа кувшина перезаписывается через руки гончара в глину, представляющую собой не что иное, как приемник и носитель информации.

Эти глубокие аналогии могут быть развиты и продолжены, если исследовать роль обратных связей, с одной стороны, для повышения помехоустойчивости канала передачи информации, а с другой, – для управления в автоматизированных системах управления.

Помехоустойчивость передачи и приема информации

Повышение помехоустойчивости является одной из наиболее важных задач передачи информации. Оно обеспечивается за счет введения определенной избыточности, т.е. увеличения объема сигнала. Это возможно, если скорость передачи информации по каналу это позволяет.

Применяются следующие методы повышения помехоустойчивости:

1. Увеличение мощности сигнала для увеличения отношения сигнал/шум.

2. Применение помехоустойчивого кодирования, т.е. введение дополнительных символов в код передаваемого сообщения. Эти символы позволяют на приемной стороне обнаружить и исправить ошибки. Введение дополнительных символов увеличивает время передачи сообщения и/или частоту передачи символов.

3. Применение помехоустойчивых видов модуляции.

4. Применение помехоустойчивых методов приема (фильтрации).

5. Применение каналов с обратной связью.

Остановимся на последнем методе подробнее.

Если имеется дополнительный канал связи между источником и приемником информации, то его можно использовать как канал обратной связи, по которому от приемника к источнику может передаваться для контроля достоверности приема:

– весь объем полученной информации;

– только информация об элементах сообщения, достоверность которых сомнительна и которые требуется повторить.

Системы передачи первого типа называются системами с информационной обратной связью, а второго типа – с решающей обратной связью.

В системах с решающей обратной связью на приемной стороне должно быть интеллектуальное решающее устройство, обеспечивающее оценку степени достоверности принимаемой информации: если уверенность в достоверности высока, то обратный сигнал не посылается, если же уверенность недостаточна, то делается запрос на повторную передачу.

Работа такой системы напоминает телефонный разговор, в котором слушающий переспрашивает слова или фразы, которые он из-за плохой слышимости не смог распознать. Это означает, что система декодирования в общем случае является системой распознавания и решающее устройство в канале передаче информации с решающей обратной связью по сути дела должно быть системой распознавания образов.

Интерпретация задачи выработки управляющего воздействия в АСУ как обратной задачи декодирования теории информации и обратной задачи распознавания образов

Теория систем связи является областью науки, в которой первоначально возникла, а затем в основном и развивалась теория информации. В другие области науки теория информация проникла исторически позже и не получила в них столь мощного развития. Тем не менее и это дало очень плодотворные и интересные результаты [1, 11, 26, 66, 90, 221, 330, 331 и др.].

По мнению автора, существующие глубокие аналогии между каналом передачи информации и автоматизированной системой управления, с одной стороны, а также между процессом декодирования передаваемого сигнала в канале передаче информации и процессом распознавания образов, с другой, позволяют обоснованно надеяться на то, что эти аналогии могут быть с успехом продолжены и что на этом пути могут быть получены новые интересные для теории и практики АСУ результаты.

С позиций теории информации объект управления естественным образом может рассматриваться как канал связи (включая приемник информации), на вход которого подается определенная информация в форме входных параметров. Входная информация преобразует состояние объекта управления, т.е переводит его из начального состояния в конечное, характеризующееся определенными выходными параметрами. Таким образом, на выходе объекта управления входная информация приобретает форму выходных параметров.

Канал связи считается идеальным, если на его выходе фиксируются те же параметры, что и на входе. Поэтому в теории связи ставится задача создания каналов связи, обеспечивающих формирование выходных параметров, тождественных входным. Если рассматривать объект управления как канал связи, то очевидно, что он далек от идеального с точки зрения теории информации, так как преобразует входные параметры в выходные по сложным, более того, до конца не известным законам.

Формирование на выходе объекта управления определенных заранее заданных параметров можно считать преобразованием этого объекта из исходного состояния, характеризующегося набором входных параметров, в целевое состояние, которое осуществлено путем подачи на его вход определенной информации (управляющего воздействия).

Поэтому в теории автоматизированного управления ставится иная задача: зная с определенной точностью закономерности преобразования входных параметров в выходные разработать и подать на вход объекта управления (канала связи) такие входные параметры, которые обеспечивают получение на его выходе заранее заданных выходных параметров.

Идеальный канал связи не искажает входной информации, т.е. выходные параметры не отличаются от входных. В шумящем канале связи связь выходных параметров с входными носит сложный и неоднозначный характер, определяемый статистическими характеристиками шума. Важнейшим разделом теории информации является теория построения кодов, позволяющих обнаруживать и исправлять ошибки, возникающие из–за шума в канале связи. Эти коды имеют определенные возможности, т.е. могут, например, гарантировать абсолютную достоверность восстановления переданного с искажением слова при однократной ошибке. Однако, когда количество ошибок превышает помехоустойчивость кода, он выдает произвольные (случайные) результаты декодирования, что является совершенно неприемлемым.

Поиск методов построения систем интеллектуального декодирования, обеспечивающих устойчивую работу при очень большом количестве ошибок в канале связи путем учета как статистики различных видов ошибок, так и их динамики, приводит к идее применения для этих целей алгоритмов распознавания образов.

Следовательно, в наиболее общей постановке задача декодирования с исправлением ошибок может трактоваться как задача распознавания образов, так как процесс декодирования по сути дела сводится к идентификации, т.е. определению класса, к которому относится принятое слово.

Системы распознавания тесно связаны с системами принятия решений, так как распознавание есть не что иное, как принятие решения о принадлежности распознаваемого объекта к определенному классу [251].

С позиций теории АСУ объект управления преобразует входные параметры в выходные не случайным образом, а в соответствии со своей функциональной структурой. Аналитически это преобразование задается моделью, которая является аналитическим выражением (формулой), детерминистским образом связывающей выходные параметры с входными. Для простых объектов управления достаточно знать их модель, чтобы по целевым выходным параметрам определить задающее их управление. Это означает, что простые детерминистские объекты управления можно рассматривать как каналы связи без помех.

Для сложных объектов управления связь выходных параметров с входными имеет более сложный статистический характер, чем у детерминистских объектов. Кроме того на эту связь влияют параметры, значения которых являются неопределенными. Тем не менее, эта связь, безусловно, существует. Это означает, что сложный объект  управления можно рассматривать как зашумленный информационный канал, на вход которого действуют управляемые параметры, влияние среды и неизвестных параметров рассматривается как шум, а на выходе формируются выходные параметры.

В постановке теории информации данная, т.е. первая, задача управления по параметрам формулируется следующим образом: "Определить, какую информацию необходимо подать на вход объекта управления (т.е. какими должны быть его входные параметры), чтобы получить на его выходе заранее заданную выходную информацию (выходные параметры)".

Однако в случае сложного объекта управления его состояние не сводится к значениям выходных параметров. Поэтому необходимо предварительно решить вторую задачу, т.е. исходя из того, что целевые состояния объекта управления известны, определить приоритетные выходные параметры, играющие основную роль в детерминации этих состояний.

Кроме того, сама связь выходных и входных параметров у сложных объектов управления имеет сложный и динамичный характер, который не может быть адекватно описан статической детерминистской аналитической моделью. Вместе с тем применение обучающейся системы распознавания образов обеспечивает решение и этой третьей задачи, т.е. построение и адаптацию динамичной информационной модели объекта управления и в том случае, когда он является сложной системой.

С позиций теории информации все эти три задачи относятся к обратным задачам декодирования. Для систем распознавания образов, формирующих обобщенные образы классов распознавания, это стандартная операция, не представляющая проблемы.

Предложено рассматривать сложный объект управления как зашумленный информационный канал, на вход которого действуют управляемые параметры, влияние среды рассматривается как шум, а на выходе формируются выходные параметры.

Обоснован важный в теоретическом отношении вывод о том, что принятие решения об управляющем воздействии представляет собой решение обратной задачи декодирования теории информации, или в общем случае – обратной задачи распознавания образов. Иначе говоря: процесс труда по сути дела представляет собой процесс управления, – это информационный процесс, обратный процессу познания.

Информационная теория стоимости. Связь количества (синтаксиса) и качества (содержания, семантики) информации с меновой и потребительной стоимостью

Информация записанная в структуре продукта труда непосредственно человеком создает и потребительную, и меновую стоимость. Информация же записанная в структуре продукта средствами труда, т.е. без участия человека, автоматически, не увеличивает стоимость этого продукта, хотя и создает его потребительную стоимость.

При этом совершенно неважно, каким образом записана эта информация в самих средствах труда: непосредственно человеком или также с помощью средств труда. Неважно также записана эта информация непосредственно в механической или другой консервативной структуре средств труда жестко один раз и навсегда, или в некотором мобильном устройстве памяти с возможностью его перепрограммирования (как в компьютерах, на гибких автоматизированных линиях и роботизированных комплексах).

Напротив информация стертая в средстве труда в процессе создания данного продукта (износ средства труда) переноситься на него и увеличивает его стоимость, хотя и не создает никакой потребительной стоимости. Но в процессе труда информация в средстве труда может не только стираться, но и накапливаться: это происходит, например, в интеллектуальных автоматизированных системах, как обучающихся с учителем, так и самообучающихся (поэтому их называют генераторами информации). В этом случае стоимость средств труда в процессе их использования не уменьшается, а возрастает, и стоимость продукта, созданного с их помощью соответственно уменьшается, а не увеличивается.

Итак, потребительная стоимость продукта труда определяется КАЧЕСТВОМ (смыслом, содержанием) связанной информации, записанной в физической форме и структуре того продукта непосредственно человеком или его средствами труда.

Абстрактная себестоимость продукта труда определяется алгебраической суммой КОЛИЧЕСТВА связанной информации, записанной в структуре физической формы продукта труда человеком и КОЛИЧЕСТВА связанной информации стертой или записанной в структуре физической формы средств труда в процессе производства данного продукта, причем последняя берется со знаком "+", если она стерта (износ средств труда), и со знаком "-", если она записана (генерация информации).

Производительность человеческого труда тем выше, чем большее количество функций тела человека передано его средствам труда, а также чем выше степень использования функциональных возможностей этих средств труда человеком. Чем выше производительность труда, тем большая доля информации записывается в продукте труда средствами труда автоматически, т.е. без участия человека. Таким образом, в конечном счете производительность труда определяется прежде всего уровнем развития сознания человека.

 

Рисунок 3. 5. Схема образования потребительной стоимости и стоимости в процессе труда с позиций информационной теории стоимости

 

В отличие от производительности труда изменение его интенсивности не влияет на функциональный уровень технологии, а значит и на соотношение между количеством информации, записанной в продукт труда человеком и средствами труда. Поэтому только уменьшение рабочего времени, необходимого на производство данного продукта, достигнутое за счет увеличения производительности человеческого труда уменьшает абстрактную себестоимость этого продукта и может служить адекватной мерой изменения этой себестоимости. Так гениальные произведения искусства, содержащие колоссальную информацию, записанную в них непосредственно человеком-творцом практически без использования средств труда, всегда будут иметь наивысшую стоимость, значительно превосходящую стоимость самых качественных репродукций.

До сих пор мы использовали термин и понятие "время" без его специального анализа и определения в каком-то обыденно-экономическом значении. Теперь же основываясь на общности основных законов информационных взаимодействий проведем аналогию (а может быть и больше чем аналогию) между "временем физическим", "психофизиологическим" и "экономическим", естественно, насколько это возможно в рамках данной работы.

Из физики известно, что редукция виртуального объекта происходит при сообщении ему энергии, необходимой для образования его массы покоя. Очевидно, редуцируемый объект представляет собой канал взаимодействия классического и виртуального уровней Реальности и этот канал обеспечивает передачу энергии с первого уровня на второй. Однако для возникновения структуры редуцированной формы объекта одной энергии явно недостаточно: для этого необходима также и информация об этой структуре. Эта информация существовала еще до редукции на виртуальном уровне строения редуцируемого объекта и была передана по тому же каналу, но в направлении обратном энергетическому потоку.

Таким образом в физике виртуальная сущность объекта выступает как источник информации, сам объект как информационно-энергетический канал взаимодействия виртуального и редуцированного уровней Реальности, а редуцированная форма объекта - как носитель информации, изменяющий свою структуру по мере записи соответствующей информации в структуре среды.

Чем выше уровень развития (сложность) объекта, тем более отдаленные друг от друга качественно различные уровни Реальности он соединяет как информационно-энергетический канал, тем выше пропускная способность (мощность) этого канала, тем большее разнообразие форм энергии и языковых форм представления информации он обеспечивает, и, наконец тем выше информационная емкость его формы, т.е. тем большее количество информации может быть записано в структуре его формы до момента начала повышения ее энтропии.

Здесь уместным является пример с магнитофонной лентой на которую мы пытаемся записать как можно больше информации на единицу длины путем уменьшения скорости протяжки. Если при постоянном информационном потоке записи эту скорость уменьшать линейно, то первоначально плотность информации будет возрастать также практически линейно (а энтропия соответственно уменьшаться), однако скоро мы заметим, что плотность информации стала возрастать медленнее, т.к. возросли шумы (уменьшилось отношение сигнал/шум). Если продолжать и дальше уменьшать скорость протяжки, то конце концов это приведет к тому, что качественный записывающий сигнал будет восприниматься лентой практически как стирающий, т.е. на нее будет записываться один шум.

Таким образом можно сделать по крайней мере следующие выводы:

Процесс труда можно рассматривать как процесс редукции образа продукта труда в структуре физической среды, что становится непосредственно очевидным при достижении ментального типа сознания;

Человеческая душа с ее неисчерпаемым творческим потенциалом является единственным источником всякой собственности и стоимости в этом мире. Поэтому даже в чисто экономическом, в общем-то достаточно "приземленном" смысле, нет ничего более ценного в мире, чем человеческая душа.

Примечание: Согласно теории "Естественного права" (Сократ, Платон, Фома Аквинский) наиболее глубоким источником права является природа самого человека. Одним из основных правовых отношений является отношение собственности. На этом основании автор выдвигает (в качестве гипотезы, конечно) "Естественную теорию собственности":

1. Человеческая Душа является единственным и наиболее глубоким источником всех форм собственности и их фундаментом;

2. В зависимости от формы сознания человеческая душа отождествляет себя с различными "телами проявления" и, таким образом, возникает первая производная форма собственности: - собственность на свое тело и право на жизнь (при физической форме сознания - это собственность на физическое тело и физическую жизнь);

3. Из "Естественного права" собственности на свое тело возникает право собственности на все, что произведено непосредственно и исключительно с применением своего тела: прежде всего сам живой (собственный) труд, средства и продукты труда (физического и "умственного");

4. Право собственности на свой труд и средства труда приводят к праву собственности на продукты своего труда, произведенные с использованием собственных средств труда, а также к отсутствию права собственности на продукты труда, произведенные с использованием чужих средств труда (наемный труд).

 Темп времени является величиной индивидуальной для каждого объекта и определяется мощностью информационно-энергетического канала, связывающего физическую форму объекта с его более глубокими структурными уровнями.

Информация, как товар

В эпоху господства капитала полагали, что "чистым товаром" является золото. Однако, если проанализировать те свойства золота, которые превратили его в основной эквивалент стоимости, то с очевидностью обнаружится, что это именно те свойства, из-за которых золото является идеальным носителем информации (информация легко "записывается" в золото, т.к. оно достаточно мягкое; информация долго сохраняется в золоте, т.к. оно не ржавеет, не является хрупким, не подвержено другим формам "порчи", т.е. стирания). Известно, что "стоимость" является не физическим свойством той или иной вещи, стоимость - это свойство вещи, которое приписывают ей люди, которые вступают посредством нее в определенные экономические отношения друг с другом. В действительности же все отношения людей друг с другом являются информационными. Золото, как эквивалент стоимости, также является лишь "информационным пакетом", несущим определенное количество информации, соответствующее его весу. Исходя из всех этих рассуждений и учитывая информационную теорию стоимости, основные положения которой были сформулированы выше, являясь свидетелями информационного общества, победившего в развитых странах, мы можем предположить, что единственным "чистым товаром" является (а по существу всегда и являлась) только информация.

Информация является квинтэссенцией стоимости

Кратко рассмотрим вопрос о стоимости самой информации, имеющий самое непосредственное отношение к проблеме оценки экономической эффективности применения систем интеллектуальной обработки данных.

Мы знаем, как информация, в качестве рекламы, приносит деньги. Мы знаем также, что технология, "Ноу-хау", стоит значительно дороже, чем продукты ее применения.

Информация, как и нефть, может быть "сырой" или обработанной. Сырая информация может почти ничего не стоить по сравнению со стоимостью аналитически обработанной информации, т.е. информации, которая находится в форме пригодной для употребления, готовой немедленно принести громадные преимущества ее обладателю по сравнению с другими людьми, ею не обладающими.

Стоимость и амортизация интеллектуальных систем и баз знаний

Любая программная система представляет собой виртуальное средство труда работающее на базе универсального компьютера. Эти информационные средства труда, так же как и обычные "физические", могут быть предназначены либо для непосредственного потребления пользователем (группа "Б"), или для создания других подобных средств труда ("группа "А").

Вопрос о стоимости программных систем - это вопрос о стоимости средств труда, начисто лишенных своего "физического тела". В их создание вложен громадный высококвалифицированный труд, наукоемкие технологии, но тиражируются такие средства очень просто - путем перезаписи на магнитный носитель. Это своего рода "психосинтез", и если бы нечто аналогичное стало возможным с физическими объектами, то наступил бы настоящий "золотой век", по крайней мере в плане материальном (гибкие роботизированные комплексы уже приближают их к этому). Следовательно, в соответствии с информационной теорией стоимости программные продукты имеют высокую потребительную стоимость и практически никакой меновой стоимости. Меновая стоимость программных продуктов определяется практически затратами на поиск места, где они уже есть, и на доставку потребителю. С появлением Internet практически решены вопросы и поиска, и доставки программного обеспечения и других "информационных товаров".

Чтобы повысить меновую стоимость программных систем их разработчики стараются затруднить их так называемое "свободное тиражирование" или попросту говоря - воровство, вводя необходимость инсталляции и "привязывая" систему к конкретному компьютеру (имеются также другие способы). Но, во-первых, против этого также есть свои средства, а во-вторых, такая привязка снижает функциональную ценность программной системы, т.к. делает ее более уязвимой при технических авариях, модернизации компьютера и т.п., что в общем делает ее менее удобной для пользователя.

Что касается износа программных систем, этих "нематериальных активов", то физический износ у них вообще отсутствует, а моральный может быть весьма значительным: после появления новой версии программного продукта - старой уже никто не хочет пользоваться (хотя иногда появляется "сырая" и "не очень работающая" новая версия, а старая - хорошо отработана и идеально выполняет свои функции). Итак, с появлением новой версии старая может "в один момент" потерять всю свою стоимость (в том числе и балансовую - в результате переоценки).

Иначе обстоит дело с базами данных и интеллектуальными системами, которые накапливают и структурируют информацию, обрабатывают ее по более или менее сложным алгоритмам, в результате чего их стоимость непрерывно возрастает. Стоимость баз данных, находящихся на банковском сервере, может в десятки миллионов раз превышать стоимость самого компьютера и в процессе работы это соотношение все больше увеличивается в пользу информации. Естественно, такую ценную информацию необходимо защищать, чтобы даже если сервер будет похищен, злоумышленники не смогли извлечь из него ни одно бита интересующей их информации.

Источники экономической эффективности АСУ и систем интеллектуальной обработки данных с позиций теории информации

Информация, содержащаяся в системе, непосредственно связана с энтропией этой системы (обратно пропорционально), а та, в свою очередь, – с количеством энергии в системе (пропорционально). Таким образом, информация имеет энергетический эквивалент. В принципе возможна формула, связывающая количество информации с количеством энергии, наподобие знаменитой формулы Альберта Эйнштейна E=mc2.

При сообщении некоторой системе определенного количества информации ее энтропия уменьшается, что приводит к выделению или экономии энергии (охлаждению системы). Например, при внедрении системы оперативного управления процессом уборки зерновых в масштабах одного района Краснодарского края в 1983-1988 годах за счет повышения ровня системной организации объекта управления экономилось топлива на сумму около 400 тысяч рублей. Автором данной работы эти мысли высказывались в предложенной им информационной теории стоимости еще в 1979 году. В последние годы подобные мысли высказываются и рядом других авторов [132].

Вывод о выборе в качестве базовой численной меры количества информации

Аналитическая информация измеряется в БИТах или других единицах измерения информации, а также может быть безразмерной (однако во втором случае она сложнее поддается содержательной интерпретации).

Таким образом, в качестве количественной меры взаимосвязи факторов и будущих состояний АОУ целесообразно использовать количество информации.

Однако, известно много различных информационных мер и, следовательно, возникает задача выбора одной из них, оптимальной по выбранным критериям. Различные выражения классической теории информации для количества информации: Хартли, Шеннона и Харкевича учитывают различные аспекты информационного моделирования объектов (таблице 3.2):

 

Таблица 3. 2 – СООТВЕТСТВИЕ  ТРЕБОВАНИЯМ
ВЫРАЖЕНИЙ ДЛЯ КОЛИЧЕСТВА ИНФОРМАЦИИ

– формула Хартли учитывает количество классов (мощность множества состояний объекта управления) но никак не учитывает их признаков или факторов, переводящих объект в эти состояния, т.е. содержит интегральное описание объектов;

– формула Шеннона основывается на учете признаков, т.е. основывается на дискретном описании объектов;

– формула Харкевича учитывает понятие цели и также как формула Шеннона основана на статистике признаков, но не учитывает мощности множества будущих состояний объекта управления, включающего целевые и другие будущие состояния объекта управления и также как формула Шеннона основывается на дискретном описании объектов.

Как видно из таблицы 3.2, классическая формула Харкевича по учитываемым критериям имеет преимущества перед классическими формулами Хартли и Шеннона, т.к. учитывает как факторы, так и понятие цели. Поэтому именно выражение для семантической целесообразности информации Харкевича взято за основу при выводе обобщающего выражения, удовлетворяющего всем предъявляемым требованиям.

 

3.1.3. Конструирование системной численной меры на основе базовой

 

Системное обобщение формулы Хартли для количества информации.

Классическая формула Хартли имеет вид:

(3. 1)

Будем искать ее системное обобщение в виде:

(3. 2)

где:

W – количество чистых (классических) состояний системы.

j – коэффициент эмерджентности Хартли (уровень системной организации объекта, имеющего W чистых состояний);

Учитывая, что возможны смешанные состояния, являющиеся нелинейной суперпозицией или одновременной реализацией чистых (классических) состояний "из W по m", всего возможно состояний системы, являющихся сочетаниями классических состояний. Таким образом, примем за аксиому, что системное обобщение формулы Хартли имеет вид [153, 366]:

(3. 3)

Так как , то при M=1 выражение (3.3) приобретает вид (3.1), т.е. выполняется принцип соответствия, являющийся обязательным для более общей теории.

Рассмотрим подробнее смысл выражения (3.3), представив сумму в виде ряда слагаемых:

(3. 4)

Первое слагаемое в (3.4) дает количество информации по классической формуле Хартли, а остальные слагаемые – дополнительное количество информации, получаемое за счет системного эффекта, т.е. за счет наличия у системы иерархической структуры или смешанных состояний. По сути дела эта дополнительная информация является информацией об иерархической структуре системы, как состоящей из ряда подсистем  различных уровней сложности.

Например, пусть система состоит из W пронумерованных элементов 1-го уровня иерархии. Тогда на 2-м уровне иерархии элементы соединены в подсистемы из 2 элементов 1-го уровня, на 3-м – из 3, и т.д. Если выборка любого элемента равновероятна, то из факта выбора n-го элемента по классической формуле Хартли мы получаем количество информации согласно (3.1). Если же при этом известно, что  данный элемент входит в определенную подсистему 2-го уровня, то это дает дополнительное количество информации, за счет учета второго слагаемого, поэтому общее количество получаемой при этом информации будет определяться выражением (3.4) уже с двумя слагаемыми (M=2). Если элемент одновременно входит в M подсистем разных уровней, то количество информации, получаемое о системе и ее подсистемах при выборке этого элемента определяется выражением (3.4). Так, если мы вытаскиваем кирпич из неструктурированной кучи, состоящей из 32 кирпичей, то получаем 5 бит информации, если же из этих кирпичей сложен дом, то при аналогичном действии мы получаем дополнительное количество информации о том, из какой части дома (подсистемы) вытащен этот кирпич. Действия каменщика, укладывающего кирпич на место, предусмотренное проектом, значительно выше по целесообразности, чем у грузчика, складывающего кирпичи в кучу.

Учитывая, что при M=W:

(3. 5)

в этом случае получаем:

(3. 6)

Выражение (3.5) дает оценку максимального количества информации, которое может содержаться в элементе системы с учетом его вхождения в различные подсистемы ее иерархической структуры.

Однако реально в любой системе осуществляются не все формально возможные сочетания элементов 1-го уровня иерархии, т.к. существуют различные правила запрета, различные для разных систем. Это означает, что возможно множество различных систем, состоящих из одинакового количества тождественных элементов, и отличающихся своей структурой, т.е. строением подсистем различных иерархических уровней. Эти различия систем как раз и возникают благодаря различию действующих для них этих правил запрета. По этой причине систему правил запрета предлагается назвать информационным проектом системы. Различные системы, состоящие из равного количества одинаковых элементов (например, дома, состоящие из 20000 кирпичей), отличаются друг от друга именно по причине различия своих информационных проектов.

Из выражения (3.5) очевидно, что I быстро стремится к W:

(3. 7)

В действительности уже при W>4 погрешность выражения (3.5) не превышает 1% (таблица 3.3):

 

Таблица 3. 3 – ЗАВИСИМОСТЬ ПОГРЕШНОСТИ
ВЫРАЖЕНИЯ (3.5) ОТ КОЛИЧЕСТВА КЛАССОВ  W

 

График зависимости погрешности выражения (3.5) от количества классов W приведен на рисунке 3.6:

Рисунок 3. 6. Зависимость погрешности приближенного выражения системного обобщения формулы Хартли от количества классов W

 

Приравняв правые части выражений (3.2) и (3.3):

(3. 8)

получим выражение для коэффициента эмерджентности Хартли:

(3. 9)

Непосредственно из вида выражения для коэффициента эмерджентности Хартли (3.9) ясно, что он представляет собой относительное превышение количества информации о системе при учете системных эффектов (смешанных состояний, иерархической структуры ее подсистем и т.п.) над количеством информации без учета системности, т.е. этот коэффициент отражает уровень системности объекта.

С учетом выражения (3.9) выражение (3.2) примет вид:

(3. 10)

или при M=W и больших W, учитывая (3.4 – 3.6):

(3. 11)

Выражение (3.10) и представляет собой искомое системное обобщение классической формулы Хартли, а выражение (3.11) – его достаточно хорошее приближение при большом количестве элементов или состояний системы (W).

Таким образом, коэффициент эмерджентности Хартли отражает уровень системности объекта и изменяется от 1 (системность минимальна, т.е. отсутствует) до W/Log2W (системность максимальна). Очевидно, для каждого количества элементов системы существует свой максимальный уровень системности, который никогда реально не достигается из-за действия правил запрета на реализацию в системе ряда подсистем различных уровней иерархии.

Например: из 32 букв русского алфавита может быть образовано не  осмысленных 6-буквенных слов, а значительно меньше. Если мы услышим одно из этих в принципе возможных слов, то получим не 5´6=30 информации, содержащейся непосредственно в буквах (в одной букве содержится Log232=5 бит), а 30+19,79=49,79 бит, т.е. в 1.66 раз больше. Это и есть уровень системности иерархического уровня 6-буквенных слов русского языка. Уровень системности русского языка, как системы, состоящей из слов длиной от одной до 6 букв, согласно выражения (3.9) с учетом (3.5), равен примерно 6,4.

Аналогично и в генах, этих "символах генома", содержится значительно больше информации о фенотипе, чем предполагается в классической генетике Менделя, т.к. они образуют ансамбли различных уровней иерархии в зависимости от влияния среды и технологий управления (адаптивность системы "генотип-среда", Драгавцев В.А., 1993).

На уровне слов верхняя оценка уровня системности русского языка с учетом (3.5) составляет огромную величину: 2616,48 (предполагается, что в русском языке 40000 слов и предложения могут иметь любую длину). Необходимо отметить, что правила запрета на порядок слов в русском языке значительно слабее, чем, например в английском, поэтому возможно гораздо больше грамматически правильных и несущих различную информацию предложений из одних и тех же слов. Это значит, что уровень системности русского языка на уровне предложений, по-видимому, значительно превосходит уровень системности английского языка. При длине предложения до 2-х слов системность русского языка на уровне предложений согласно (3.9) составляет: 52330916.

Анализ выражения (3.9) показывает, что при М=1 оно преобразуется в (3.1), т.е. выполняется принцип соответствия. При М>1 количество информации в соответствии с системной теорией информации (СТИ) (3.9) будет превосходить количество информации, рассчитанное по классической теории информации (КТИ) (3.1). Непосредственно из выражения (3.2) получаем:

(3. 12)

Первое слагаемое в выражении (3.12) отражает количество информации, согласно КТИ, а второе – СТИ, т.е. доля системной информации.

Представляет несомненный интерес исследование закономерностей изменения доли системной информации в поведении элемента системы в зависимости от количества классов W и сложности смешанных состояний M.

В таблице 3.4 приведены результаты численных расчетов в соответствии с выражением (3.9):

 

Таблица 3. 4 – ЗАВИСИМОСТЬ I(W,M) ОТ КОЛИЧЕСТВА КЛАССОВ W
И СЛОЖНОСТИ СМЕШАННЫХ СОСТОЯНИЙ М

Сводные данные из таблицы 3.4 приведены в таблице 3.5, а в графическом виде они представлены на рисунке 3.7.

 

Таблица 3. 5 – ЗАВИСИМОСТЬ КОЛИЧЕСТВА ИНФОРМАЦИИ I(W,M)
ОТ СЛОЖНОСТИ СМЕШАННЫХ СОСТОЯНИЙ M ДЛЯ РАЗЛИЧНОГО
КОЛИЧЕСТВА КЛАССОВ W

 

Рисунок 3. 7. Зависимость количества информации I(W,M)
от сложности смешанных состояний M для разного количества классов W

 

Рост количества информации в СТИ по сравнению с КТИ обусловлен системным эффектом (эмерджентностью), который связан с учетом смешанных состояний, возникающих путем одновременной реализации нескольких чистых (классических) состояний. Выражение (3.9) дает максимальную возможную оценку количества информации, т.к. могут существовать различные правила запрета на реализацию тех или иных смешанных состояний.

Фактически это означает, что в СТИ множество возможных состояний объекта рассматривается не как совокупность несвязанных друг с другом состояний, как в КТИ, а как система, уровень системности которой как раз и определяется коэффициентом эмерджентности Хартли j (3.9), являющегося монотонно возрастающей функцией сложности смешанных состояний M. Следовательно, дополнительная информация, которую мы получаем из поведения объекта в СТИ, по сути дела является информацией о системе всех возможных состояний объекта, элементом которой является объект в некотором данном состоянии.

Закон возрастания эмерджентности и следствия из него.

Численные расчеты и аналитические выкладки в соответствии с СТИ показывают, что при возрастании количества элементов в системе доля системной информации в поведении ее элементов возрастает. Это обнаруженное нами новое фундаментальное свойство систем предлагается назвать законом возрастания эмерджентности.

Закон возрастания эмерджентности: чем больше элементов в системе, тем большую долю от всей содержащейся в ней информации составляет системная информация.

На рисунках 3.8 и 3.9 приведены графики скорости и ускорения возрастания эмерджентности в зависимости от количества элементов в системе.

 

Рисунок 3. 8. Возрастание доли системной информации в поведении элемента системы при увеличении количества элементов W

 

Более детальный анализ закона возрастания эмерджентности с использованием конечных разностей первого и второго порядка (таблица 3.5) показывает, что при увеличении количества элементов в системе доля системной информации в ней возрастает с ускорением, которое постепенно уменьшается. Это утверждение будем называть леммой 1.

 

 Рисунок 3. 9. Ускорение возрастания доли системной информации

в поведении элемента системы от количества элементов W

 

Продолжим анализ закона возрастания эмерджентности. Учитывая, что:

 

выражение (3.3) принимает вид:

(3. 13)

где: 1<=М<=W.

 

и учитывая, что Log21=0, выражение (3.13) приобретает вид:

(3. 14)

Введем обозначения:

(3. 15)

С учетом (3.14) выражение (3.9) для коэффициента эмердентности Хартли приобретает вид:

 

Заменяя в (3.13) факториал на Гамма-функцию, получаем обобщение выражения (3.3) на непрерывный случай:

 

Или окончательно:

(3. 16)

Для непрерывного случая обозначения (3.15) принимают вид:

(3. 17)

Учитывая выражения (3.9) и (3.16) получим выражение для коэффициента эмерджентности Хартли для непрерывного случая:

 

И окончательно для непрерывного случая:

(3. 18)

Анализируя выражения (3.14) и (3.16) видим, что количество информации, получаемое при выборке из системы некоторого ее элемента, состоит из двух слагаемых:

1) зависящего только от количества элементов в системе: W (первое слагаемое);

2) зависящего как от количества элементов в системе W, так и от максимальной сложности подсистем: M (второе слагаемое).

Этот результат позволяет высказать гипотезы "О природе сложности системы" и "О видах системной информации":

– сложность системы определяется количеством содержащейся в ней информации;

– системная информация включает две составляющих: зависящее от количества элементов системы и зависящее также от характера взаимосвязей между элементами.

Изучим какой относительный вклад вносит каждое слагаемое в общее количество информации системы в зависимости от числа элементов в системе W и сложности подсистем M. Результаты численных расчетов отношения IW/IMW для различных значений W и M приведены в таблице 3.6 и на рисунке 3.10:

 

Таблица 3. 6 – ОТНОСИТЕЛЬНЫЙ ВКЛАД ВИДОВ ИНФОРМАЦИИ IMW/IW
В ОБЩЕЕ КОЛИЧЕСТВО ИНФОРМАЦИИ, СОДЕРЖАЩЕЙСЯ В СИСТЕМЕ

 

Рисунок 3. 10. Относительный вклад видов информации IMW/IW
в общее количество информации, содержащейся в системе

 

Анализ таблицы 3.6 и рисунка 3.10 показывает, что чем выше уровень системности, тем большая доля информации системы содержится во взаимосвязях ее элементов, и чем меньше элементов с системе, тем быстрее возрастает доля информации, содержащейся во взаимосвязях элементов при возрастании  уровня системности. Эти утверждения будем рассматривать как леммы 2 и 3.

 

Таким образом полная формулировка закона возрастания эмерджентности с гипотезой о видах информации в системе и тремя леммами приобретает вид:

ЗАКОН ВОЗРАСТАНИЯ ЭМЕРДЖЕНОСТИ: чем больше элементов в системе, тем большую долю от всей содержащейся в ней информации составляет системная информация.

Гипотеза 1: "О природе сложности системы": сложность системы определяется количеством содержащейся в ней информации.

Гипотеза 2: "О видах системной информации": системная информация включает две составляющих:

– зависящее от количества элементов системы;

– зависящее также от характера взаимосвязей между элементами.

Лемма-1: при увеличении количества элементов в системе доля системной информации в ней возрастает с ускорением, которое постепенно уменьшается.

Лемма-2: чем выше уровень системности, тем большая доля информации системы содержится во взаимосвязях ее элементов.

Лемма-3: чем меньше элементов в системе, тем быстрее возрастает доля информации, содержащейся во взаимосвязях элементов при возрастании  уровня системности.

 

Системное обобщение классической формулы Харкевича для количества информации

Это обобщение представляет большой интерес, в связи с тем, что А.Харкевич впервые ввел в теорию информации понятие цели. Он считал, что количество информации, сообщенное объекту, можно измерять по изменению вероятности достижения цели этим объектом за счет использования им этой информации.

Рассмотрим таблицу 3.7, в которой столбцы соответствуют будущим состояниям АОУ (целевым и нежелательным), а строки факторам, характеризующим объект управления, управляющую систему и окружающую среду.

 

Таблица 3. 7 – МАТРИЦА АБСОЛЮТНЫХ ЧАСТОТ

Классическая формула А.Харкевича имеет вид:

(3. 19)

где:

Pij – вероятность достижения объектом управления j-й цели при условии сообщения ему i-й информации;

Pj – вероятность самопроизвольного достижения объектом управления j-й цели.

Однако: А.Харкевич в своем выражении для количества информации не ввел зависимости количества информации, от мощности пространства будущих состояний объекта управления, в т.ч. от количества его целевых состояний. Вместе с тем, один из возможных вариантов учета количества будущих состояний объекта управления обеспечивается классической и системной формулами Хартли (3.1) и (3.9); выражение  (3.19) при подстановке в него реальных численных значений вероятностей Pij и Pj не дает количества информации в битах; для выражения (3.19) не выполняется принцип соответствия, считающийся обязательным для обобщающих теорий. Возможно, в этом состоит одна из причин слабого взаимодействия между классической теорией информации Шеннона и семантической теорией информации.

Чтобы снять эти вопросы, приближенно выразим вероятности Pij, Pi и Pj через частоты:

(3. 20)

Подставим в выражение (3.19) значения для Pij и Pj из (3.20):

(3. 21)

Введем коэффициент эмерджентности Y в модифицированную формулу А.Харкевича:

(3. 22)

где: Y – коэффициент эмерджентности Харкевича (ак будет показано выше, он определяет степень детерминированности объекта с уровнем системной организации j, имеющего W чистых состояний, на переходы в которые оказывают влияние A факторов, о чем в модели накоплено N фактов).

Известно, что классическая формула Шеннона для количества информации для неравновероятных событий преобразуется в формулу Хартли при условии, что события равновероятны, т.е. удовлетворяет фундаментальному принципу соответствия [338].

Естественно потребовать, чтобы и обобщенная формула Харкевича также удовлетворяла аналогичному принципу соответствия, т.е. преобразовывалась в формулу Хартли в предельном случае, когда каждому классу (состоянию объекта) соответствует один признак (фактор), и каждому признаку – один класс, и эти классы (а, значит и признаки), равновероятны. В этом предельном случае отпадает необходимость двухвекторного описания объектов, при котором 1-й вектор (классификационный) содержит интегральное описание объекта, как принадлежащего к определенным классам, а 2-й вектор (описательный) – дискретное его описание, как имеющего определенные атрибуты. Соответственно, двухвекторная модель, предложенная в данной работе, преобразуется в "вырожденный" частный случай – стандартную статистическую модель. В этом случае количество информации, содержащейся в признаке о принадлежности объекта к классу является максимальным и равным количеству информации, вычисляемому по системной формуле Хартли (3.9).

Таким образом при взаимно-однозначном соответствии классов и признаков:

(3. 23)

формула А.Харкевича (3.13) приобретает вид:

(3. 24)

откуда:

(3. 25)

или, учитывая выражение для коэффициента эмерджентности Хартли (3.8):

(3. 26)

Смысл коэффициента эмерджентности Харкевича (3.25) проясняется, если учесть, что при количестве состояний системы W равном количеству фактов N о действии на эту систему различных факторов он равен 1. В этом случае факторы однозначно определяют состояния объекта управления, т.е. являются детерминистскими. Если же количество фактов N о действии на эту систему различных факторов превосходит количество ее состояний W, что является гораздо более типичным случаем, то этот коэффициент меньше 1. По-видимому, это означает, что в этом случае факторы как правило не однозначно (и не так жестко как детерминистские) определяют поведение объекта управления, т.е. являются статистическими.

Таким образом, коэффициент эмерджентности Харкевича Y изменяется от 0 до 1 и определяет степень детерминированности системы:

Y=1 соответствует полностью детерминированной системе, поведение которой однозначно определяется действием минимального количества факторов, которых столько же, сколько состояний системы;

Y=0 соответствует полностью случайной системе, поведение которой никак не зависит действия факторов независимо от их количества;

– 0<Y<1 соответствуют большинству реальных систем поведение которых зависит от многих факторов, число которых превосходит количество состояний системы, причем ни одно из состояний не определяется однозначно никакими сочетаниями действующих факторов.

Из выражения (3.25) видно, что в частном случае, когда реализуются только чистые состояния объекта управления, т.е. M=1, коэффициент эмерджентности А.Харкевича приобретает вид:

(3. 27)

Подставив коэффициент эмерджентности А.Харкевича (3.25) в выражение (3.22), получим:

 

или окончательно:

(3. 28)

Из вида выражения (3.25) для Y очевидно, что увеличение уровня системности влияет на семантическую информационную модель (3.28) аналогично повышению уровня детерминированности системы: понижение уровня системности, также как и степени детерминированности системы приводит к ослаблению влияния факторов на поведение системы, т.е. к понижению управляемости системы за счет своего рода "инфляции факторов".

Например: управлять толпой из 1000 человек значительно сложнее, чем воздушно-десантным полком той же численности. Процесс превращения 1000 новобранцев в воздушно-десантный полк это и есть процесс повышения уровня системности и степени детерминированности системы. Этот процесс включает процесс иерархического структурирования (на отделения, взвода, роты, батальоны), а также процесс повышения степени детерминированности команд, путем повышения "степени беспрекословности" их исполнения. Оркестр, настраивающий инструменты, также весьма существенно отличается от оркестра, исполняющего произведение под управлением дирижера.

Необходимо отметить, что при повторном использовании той же самой обучающей выборки степень детерминированности модели уменьшается. Очевидно, с формальной математической точки зрения этого явления можно избежать, если перед расчетом информативностей признаков делить абсолютные частоты на количество объектов обучающей выборки.

С использованием выражения (3.28) непосредственно из матрицы абсолютных частот (таблица 3.7) рассчитывается матрица информативностей (таблица 3.8), содержащая связи между факторами и будущими состояниями АОУ и имеющая много различных интерпретаций и играющая основополагающую роль в данном исследовании.

 

Таблица 3. 8 – МАТРИЦА ИНФОРМАТИВНОСТЕЙ

 

Из рассмотрения основополагающего выражения (3.28) видно, что:

1. При выполнении условий взаимно-однозначного соответствия классов и признаков (3.23) первое слагаемое в выражении (3.28) обращается в ноль и при всех реальных значениях входящих в него переменных оно отрицательно.

2. Выражение (3.28) является нелинейной суперпозицией двух выражений: системного общения формулы Хартли (второе слагаемое), и первого слагаемого, которое имеет вид формулы Шеннона для плотности информации и отличается от него тем, что выражение под логарифмом находится в степени, которая совпадает с коэффициентом эмерджентности Харкевича, а также способом взаимосвязи входящих в него абсолютных частот с вероятностями.

Это дает основание предположить, что первое слагаемое в выражении (3.28) является одной из форм системного обобщения выражения Шеннона для плотности информации:

(3. 29)

Поэтому вполне оправданным будет назвать степень в (3.29) коэффициентом эмерджентности Шеннона-Харкевича.

Генезис и интерпретации системной (эмерджентной) теории информации.

Полученное системное обобщение формулы Харкевича (3.28) учитывает как взаимосвязь между признаками (факторами) и будущими, в т.ч. целевыми состояниями объекта управления, так и мощность множества будущих состояний объекта управления. Кроме того она объединяет возможности интегрального и дискретного описания объектов, учитывает уровень системности и степень детерминированности описываемой системы (таблица 3.9):

 

Таблица 3. 9 – СООТВЕТСТВИЕ  ТРЕБОВАНИЯМ ФОРМУЛ "КТИ / СТИ"

 

При этом факторами являются управляющие факторы, т.е. управления со стороны системы управления, факторы окружающей среды, а также факторы, характеризующие текущее и прошлые состояния объекта управления. Все это делает полученное выражение (3.28) оптимальным по сформулированным критериям для целей построения содержательных информационных моделей активных объектов управления и для применения для синтеза адаптивных систем управления (см. диаграмму: "Генезис системного обобщения формулы Харкевича для количества информации", рисунок 3.11).

 

Рисунок 3. 11. Генезис системной (эмерджентной) теории информации

 

 

С точки зрения современной физики будущее существует ни менее объективно, чем настоящее, но в другом фазовом состоянии [30]. Причем в будущем одновременно сосуществуют состояния объектов и их сочетания, являющиеся альтернативными и несовместимыми в настоящем. Переход из будущего в настоящее связан с реализацией одной из альтернатив в процессе редукции волновой функции и имеет принципиально вероятностный характер. При этом происходит снятие неопределенности и передача соответствующего количества информации с виртуального уровня на физический, а также запись этой информации в структуре физической среды. В процессе редукции свободная информация многовариантного будущего преобразуется в связанную информацию физической структуры редуцированного объекта. В процессе записи этой информации в соответствии с ее содержанием и формируется эта структура редуцированной формы объекта.

Количество информации, содержащейся в будущем, не может быть рассчитано на основе классической теории информации (КТИ), т.к. само понятие информации в КТИ самым существенным образом основано на понятии классического объекта, который может находиться только в четко фиксированных "чистых" состояниях. В системной теории информации понятие информации обобщено путем учета возможности реализации "смешанных" состояний, являющихся суперпозицией или одновременной реализацией нескольких чистых состояний. Смешанное состояние может объединять 2, 3 и более чистых состояния. Параметр М в формулах, приведенных на рисунке 3.11, как раз и отражает сложность смешанных состояний. Это имеет смысл, т.к. в конкретных системах могут существовать различные правила запрета на возникновение тех или иных смешанных состояний, таким образом фактически может реализоваться значительно меньше смешанных состояний, чем формально возможно. При М=1 формулы СТИ в соответствии с принципом соответствия преобразуются в формулы КТИ.

Проведенный анализ позволяет выдвинуть гипотезу о том, что синтез и модификация структур в системах подчиняется обобщенному принципу, который предлагается назвать принципом Паули-Мопертюи:

"В любой системе каждый из ее элементов принимает состояние, обеспечивающее максимум информации в системе, как целом (Паули) при минимуме управляющего информационного воздействия на элемент со стороны системы, как целого (Мопертюи)."

Этот принцип может играть роль правила запрета при структурировании системы.

Некоторые примеры, иллюстрирующие предложенную гипотезу:

– фрактальные структуры (каждый элемент строится по тем же законам, что и все целое, часть подобна целому);

– живые организмы (в каждой в клетке содержится генетическая информация обо всем организме);

– квантовые структуры, в т.ч. редукция волновой функции, как информационный процесс синтеза физических структур;

– структуры иерархического управления (на каждом уровне управления руководитель знает и самостоятельно реализует свою задачу, направленную на достижение цели всей системы в целом);

– локальные и корпоративные компьютерные сети, Internet.

 

Итак, различные выражения классической теории информации для количества информации: Хартли, Шеннона и Харкевича учитывают различные аспекты информационного моделирования объектов.

Полученное системное обобщение формулы А.Харкевича (3.28) учитывает как взаимосвязь между признаками (факторами) и будущими, в т.ч. целевыми состояниями объекта управления, так и мощность множества будущих состояний. Кроме того она объединяет возможности интегрального и дискретного описания объектов, учитывает уровень системности и степень детерминированности системы.

При этом факторами являются управляющие факторы, т.е. управления со стороны системы управления, факторы окружающей среды, а также факторы, характеризующие текущее и прошлые состояния объекта управления. Все это делает полученное выражение (3.28) оптимальным по сформулированным критериям для целей построения содержательных информационных моделей активных объектов управления и для применения для синтеза рефлексивных АСУ активными объектами.

 

3.2. СЕМАНТИЧЕСКАЯ ИНФОРМАЦИОННАЯ МОДЕЛЬ АСК-АНАЛИЗА

 

Основная проблема, решаемая в аналитической модели: выбор способа вычисления весовых коэффициентов, отражающих степень и характер влияния факторов на переход активного объекта управления в различные состояния.

Основное отличие предлагаемого подхода от методов обобщения экспертных оценок состоит в том, что в предлагаемом подходе от экспертов требуется лишь само решение, а весовые коэффициенты автоматически подбираются в соответствии с моделью таким образом, что в сходных случаях будут приниматься решения, аналогичные предлагаемым экспертами. В традиционных подходах от экспертов требуют либо самих весовых коэффициентов, либо правил принятия решения (продукций).

 

3.2.1. Формализм динамики взаимодействующих семантических информационных пространств. Двухвекторное представление данных.

 

Не всегда и не все классы являются атрибутами, также не всегда и не все атрибуты являются классами по смыслу. Поэтому традиционное представление данных в форме одной матрицы с одинаковыми строками и столбцами представляется нецелесообразным и предлагается более общее – двухвекторное представление.

В предлагаемой математической модели формальное описание объекта представляет собой совокупность его интенсионального и экстенсионального описаний. Интенсиональное (дискретное) описание – это последовательность информативностей (но не кодов) тех и только тех признаков, которые реально фактически встретились у данного конкретного объекта. Экстенсиональное (континуальное) описание состоит из информативностей (но не кодов) тех классов распознавания, для формирования образов которых по мнению экспертов целесообразно использовать интенсиональное описание данного конкретного объекта. Именно взаимодействие и взаимная дополнительность этих двух взаимоисключающих видов описания объектов формирует то, что психологи, логики и философы называют "смысл".

Таким образом формальное описание объекта в предлагаемой модели состоит из двух векторов. Первый вектор описывает к каким обобщенным категориям (классам распознавания) относится объект с точки зрения экспертов (вектор субъективной, смысловой, человеческой оценки). Второй же вектор содержит информацию о том, какими признаками обладает данный объект (вектор объективных характеристик). Необходимо особо подчеркнуть, что связь этих двух векторов друг с другом имеет вообще говоря не детерминистский, а вероятностный, статистический характер.

Если объект описан обоими векторами, то это описание можно использовать для формирования обобщенных образов классов распознавания, а также для проверки степени успешности выполнения этой задачи.

Если объект описан только вторым вектором – вектором признаков, то его можно использовать только для решения задачи распознавания (идентификации), которую можно рассматривать как задачу восстановления вектора классов данного объекта по его известному вектору признаков.

Предлагаемая модель удовлетворяет принципу соответствия, т.е. в ней одновекторный вариант описания предметной области получается как некоторое подмножество из возможных в ней вариантов, определяемое двумя ограничениями:

– справочник классов распознавания тождественно совпадает со справочником признаков;

– наличие какого-либо признака у объекта обучающей выборки однозначно (детерминистским образом) определяет принадлежность этого объекта к соответствующему классу распознавания (взаимно-однозначное соответствие классов и признаков).

Очевидно, эти ограничения приводят и к соответствующим ограничениям, накладываемым в свою очередь на варианты обработки информации и анализа данных в подобных системах.

Если говорить конкретнее, такая модель данных стирает различие между атрибутами и классами и не позволяет решать ряд задач, в которых эта абстракция является недопустимым упрощением.  Эти задачи будут подробнее рассмотрены ниже.

Семантические пространства классов и атрибутов

Наглядно модель данных целесообразно представить себе в виде двух взаимосвязанных фазовых (т.е. абстрактных) пространств, в первом из которых осями координат служат шкалы атрибутов (пространство атрибутов), а во втором – шкалы классов (пространство классов).

В пространстве атрибутов векторами являются объекты обучающей выборки и обобщенные образы классов. Вектор класса представляет собой массив координат в фазовом пространстве, каждый элемент массива, т.е. координата, соответствует определенному атрибуту, а значение этой координаты – весовому коэффициенту, отражающему количество информации, содержащееся в факте наблюдения данного атрибута у объекта о принадлежности этого объекта к данному классу. В пространстве классов векторами являются атрибуты. Вектор атрибута представляет собой массив координат в фазовом пространстве, каждый элемент массива, т.е. координата, соответствует определенному классу, а значение этой координаты – весовому коэффициенту, отражающему количество информации, содержащееся в факте наблюдения объекта данного класса о том, что у этого объекта будет определенный атрибут.

Таким образом, выбор смысла и математической формы значений весовых коэффициентов вводит метрику в этих фазовых пространствах. Это самым существенным образом отличает предложенные семантические информационные пространства классов и атрибутов от семантического пространства, используемого в основном в психологии, в котором осями являются признаки (шкалы), а  значениями координат по осям являются – градации признаков.

Однако этого недостаточно. Чтобы над векторами в фазовых пространствах можно было корректно выполнять стандартные операции сложения, вычитания, скалярного и векторного умножения, выполнять преобразования системы координат, переход от одной системы координат к другой, и вообще применять аппарат линейной алгебры и аналитической геометрии, что представляет большой научный и практический интерес и является очень актуальным, необходимо корректно ввести в этих пространствах системы координат т.е. системы отсчета, удовлетворяющие определенным требованиям.

Требования к системам координат, свойства векторов классов и атрибутов, решение проблемы снижения размерности описания и ортонормирования

В качестве осей координат пространства атрибутов целесообразно выбрать вектора атрибутов, обладающие следующими свойствами:

1. Их должно быть минимальное количество, достаточное для полного описания предметной области.

2. Эти вектора должны пересекаться в одной точке.

3. Значения координат вектора должны измеряться в одной единице измерения, т.е. должны быть сопоставимы.

Для выполнения первого требования необходимо, чтобы математическая форма и смысл весовых коэффициентов были выбраны таким образом, чтобы модули векторов атрибутов в пространстве классов были пропорциональны их значимости для решения задач идентификации, прогнозирования и управления. Причем наиболее значимые вектора атрибутов не должны коррелировать друг с другом, т.е. должны быть ортонормированны. В этом случае при удалении векторов с минимальными модулями автоматически останутся наиболее значимые практически ортонормированные вектора, которые можно принять за базисные, т.е. в качестве осей системы координат.

Второе требование означает, что минимальное расстояние между этими векторами в пространстве классов должно быть равно нулю.

Третье требование предполагает соответствующий выбор математической формы для значений координат.

Эти идеальные требования практически никогда не будут соблюдаться на практике с абсолютной точностью. Однако этого и не требуется. Достаточно, чтобы реально выбранные в качестве базисных атрибуты отображались в пространстве классов векторами, для которых эти требования выполняются с точностью, достаточной для применения соответствующих математических моделей и математического аппарата на практике.

Аналогично обстоит дело и с минимизацией размерности пространства классов. В качестве базисных могут выбраны вектора классов, имеющие максимальную длину и взаимно (попарно) ортонормированные.

Очевидно, задача выбора базисных векторов имеет не единственное решение, т.е. может существовать несколько систем таких векторов, которые можно рассматривать как результат действия преобразований системы координат, состоящих из смещений и поворотов.

 

3.2.2. Конструирование максимального конфигуратора предметной области (когнитивная структуризация, формализация предметной области, шкалы и градации)

 

Полное описание типов измерительных шкал дается в [4]

В данной работе предлагается следующие определения.

Шкала – это способ классификации объектов по наименованиям или степени выраженности некоторого свойства.

Градация – это положение на шкале (или интервал, диапазон), соответствующее наименованию или определенной степени выраженности свойства.

Формализация предметной области это процесс состоящий из двух основных этапов:

1. Конструирование шкал и градаций для описания и кодирования состояний объекта управления и факторов, влияющих на его поведение.

2. Отнесение состояний объекта управления и факторов к определенным градациям соответствующих шкал.

Понятие шкалы тесно связано с ключевым понятием когнитивной психологии: понятием конструкта, более того, практически является синонимом или формальным аналогом этого понятия. Конструктом называется понятие, имеющее полюса, противоположные по смыслу, и ряд промежуточных градаций. Познание состоит в создании (генерировании) новых конструировании конструктов и их использовании для ориентации в предметной области. Таким образом формализация предметной области по сути дела представляет собой ее познание, т.е. когнитивную структуризацию. В приведенной таблице 3.10 дана характеристика измерительных шкал согласно [4].

 

Таблица 3. 10 – ХАРАКТЕРИСТИКА И ПРИМЕРЫ ИЗМЕРИТЕЛЬНЫХ ШКАЛ

 

Конечно, наименования могут быть присвоены градациям всех видов измерительных шкал.

Шкалы классов

Очень плодотворным является представление классов распознавания, как некоторых областей в фазовом пространстве, в котором в качестве осей координат выступают некоторые шкалы. Классы распознавания могут рассматриваться, также, как градации (конкретные значения, заданные с некоторой точностью, или диапазоны - зоны), заданные на этих шкалах. Количество шкал, тип шкал и количество градаций на них в предлагаемой модели задает сам пользователь.

Если представить эти шкалы как оси координат, то, очевидно, наиболее обобщенным классам распознавания соответствуют зоны на самих осях. Кроме того возможны варианты сочетаний по 2 оси, соответствующие областям на координатных плоскостях. Существуют также области в фазовом пространстве, образованные сочетаниями градаций сразу n-го количества шкал, где n <= N, где N - размерность фазового пространства. Естественно, пользователь может исследовать только те классы, которые его интересуют, сознательно принимая решение не рассматривать остальных. Но он должен знать, что и остальные классы также могут быть сформированы и исследованы, а для этого нужно иметь их классификацию, принцип разработки которой мы только что рассмотрели.

Конкретными реализациями обобщенных категорий могут быть объекты, их состояния или ситуации (но применять мы, как правило, будем термин "объекты", всегда имея в виду и остальные возможные варианты). Синонимами понятия "класс распознавания" являются применяющиеся в специальной литературе термины "объекты", "категории", "образы", "эталоны", "типы", "профили".

Когда классы распознавания сформированы с ними могут осуществляться три основные операции:

– сравнение конкретных объектов, их состояний или ситуаций с классами;

– сравнение классов друг с другом;

– вывод информации о содержании обобщенного образа класса в форме таблиц или графических диаграмм.

Шкалы атрибутов

Конкретные объекты, предъявляемые Системе в качестве примеров или реализаций некоторых обобщенных классов (прецедентов), описываются на языке атрибутов, т.е. признаков.

Признаки могут иметь любую природу, в частности:

– объективную - физическую, химическую и др. (вес, температура, рост);

– социально-экономическую (меновую и потребительную стоимость, степень амортизации, процент дивидендов);

– эмоционально-психологическую (привлекательный, предупредительный, исполнительный, конфликтный и т.п.).

Система признаков двухуровневая, что позволяет формализовать (шкалировать) не только качественные (да/нет), но и количественные (числовые) признаки, а также позволяет обрабатывать вопросы со многими, в том числе и неальтернативными вариантами ответов. Вопрос с вариантами ответов можно рассматривать как шкалу с градациями. Такое понимание позволяет "ввести в оборот" хорошо разработанную теорию шкалирования, что является весьма ценным. В предлагаемой модели нет ограничений на тип и количество шкал, а также на количество градаций в них (за исключением суммарного общего количества градаций. Нет в предлагаемой модели и таких искусственных ограничений, как, например, необходимость одинакового количества градаций во всех шкалах, или необходимость использовать только шкалы только одного какого-либо типа, и т.п., которые, как правило, встречаются в других системах.

В принципе могут быть сконструированы системы признаков, представляемые деревьями трех и более уровней, однако программно реализовывать их нецелесообразно, т.к. они все сводятся к двухуровневым деревьям (вопросы с вариантами ответов).

Данная структура системы признаков относится к закрытому типу с множественным выбором. Это также не является ограничением, т.к. к данной системе могут быть сведены результаты тестирования с помощью тестов других видов: как открытых, так и закрытых, как с вербальным стимульным материалом, так и с невербальным (рисуночные тесты, тесты на конструирование, на ассоциации и т.п.).

Кинематическая и динамическая интерпретация модели

Шкалы классов (атрибутов) можно представить себе в качестве осей координат в некотором абстрактном семантическом пространстве. Тогда каждый атрибут (класс) в этом пространстве будет отображаться вектором, координатами которого являются значения информативностей. Динамика атрибута (класса) будут отображаться в этом пространстве в виде траектории. Для анализа кинематики и динамики факторов, объектов и классов могут быть адаптированы и применены понятия и законы теоретической механики, а также математический аппарат линейной алгебры и аналитической геометрии, обобщенные для неортонормированных пространств.

Например, в качестве системы отсчета в пространстве атрибутов могут быть выбраны вектора нескольких классов, наиболее сильно отличающихся друг от друга (наиболее близкие к ортонормированным).

Уровни системной организации классов

Классы распознавания могут относится к различным уровням иерархии какой-либо системы. Например, это могут быть конкретные студенты, группы, курсы, факультеты, учебные заведения, районы, регионы и т.д. В предлагаемой модели предусмотрена возможность работы с классами распознавания, относящимися не только к некоторому диапазону градаций шкал (кодов), но и к заданному диапазону уровней организации. Сами эти уровни могут иметь любой смысл, какой именно - определяет сам пользователь. Классификатор уровней классов входит в состав нормативно-справочной информации. Работа с уровнями предоставляет ряд преимуществ, по сравнению с использованием диапазонов кодов:

– классы распознавания, относящиеся к одному уровню, могут идти в справочнике в любом порядке;

– изменять коды уровней значительно легче, чем переделывать справочники, к тому же это не требует перекодирования обучающей выборки;

– уровни классов имеют самостоятельный смысл, тогда как выделение диапазонов кодов выглядит более искусственным приемом.

Уровни системной организации атрибутов

В предлагаемой модели предусмотрена возможность работы с уровнями признаков, относящимися не только к некоторому диапазону градаций (кодов), но и к заданному диапазону уровней организации. Сами эти уровни могут иметь любой смысл, какой именно – определяет сам пользователь. Например, для интегрального описания индивидуальности могут быть введены уровни качеств личности: генетически обусловленные (конституционные), социально-обусловленные (связанные с воспитанием, образованием, влиянием среды), отражающие текущее состояние. При этом в последующем анализе могут быть выявлены взаимосвязи между признаками различных уровней, т.е. может быть определено, какие конституционные качества необходимы для того, чтобы возникли определенные социально-обусловленные качества, и какие какими не должны быть первые и вторые, чтобы человек не мог оказаться в определенных нежелательных текущих состояниях. Классификатор уровней классов входит в состав нормативно-справочной информации. Работа с уровнями предоставляет ряд преимуществ, по сравнению с использованием диапазонов кодов:

– признаки, относящиеся к одному уровню, могут идти в справочнике в любом порядке;

– изменять коды уровней значительно легче, чем переделывать справочники, к тому же это не требует перекодирования обучающей выборки;

– уровни признаков имеют самостоятельный смысл, тогда как выделение диапазонов кодов выглядит более искусственным приемом.

 

3.2.3. Применение классической теории информации К.Шеннона для расчета весовых коэффициентов и мер сходства

 

Формально, распознавание есть не что иное, как принятие решения о принадлежности распознаваемого объекта или его состояния к определенному классу (классам) [251, 277]. Из этого следует внутренняя и органичная связь методов распознавания образов и принятия решений. Аналитический обзор позволяет сделать вывод, что наиболее глубокая основа этой связи состоит в том, что и распознавание образов, и принятие решений есть прежде всего снятие неопределенности. Распознавание снимает неопределенность в вопросе о том, к какому классу относится распознаваемый объект. Если до распознавания существовала неопределенность в вопросе о том, к какому классу относится распознаваемый объект или его состояние, то в результате распознавания эта неопределенность уменьшается, причем возможно и до нуля (когда объект идентифицируется однозначно). Принятие решения (выбор) также снимает неопределенность в вопросе о том, какое из возможных решений будет принято, если существовало несколько альтернативных вариантов решений и принимается одно из них.

Для строгого исследования процессов снятия неопределенности оптимальным является применение аппарата теории информации, которая как бы специально создана для этой цели. Из этого непосредственно следует возможность применения методов теории информации для решения задач распознавания и принятия решений в АСУ. Таким образом, теория информации может рассматриваться как единая основа методов распознавания образов и принятия решений.

Формальная постановка задачи

В рефлексивных АСУ активными объектами модели распознавания образов и принятия решений применимы в подсистемах идентификации состояния АОУ и выработки управляющего воздействия: идентификация состояния АОУ представляет собой принятие решения о принадлежности этого состояния к определенной классификационной категории (задача распознавания); выбор многофакторного управляющего воздействия из множества возможных вариантов представляет собой принятие решения (обратная задача распознавания).

Распознавание образов есть принятие решения о принадлежности объекта или его состояния к определенному классу. Если до распознавания существовала неопределенность в вопросе о том, к какому классу относится распознаваемый объект или его состояние, то в результате распознавания эта неопределенность уменьшается, в том числе может быть и до нуля (когда объект идентифицируется однозначно). Из данной постановки непосредственно следует возможность применения методов теории информации для решения задач распознавания образов и принятия решений в АСУ.

Информация как мера снятия неопределенности

Как было показано выше, теория информация применима в АСУ для решения задач идентификации состояния сложного объекта управления (задача распознавания) и принятия решения о выборе многофакторного управляющего воздействия (обратная задача распознавания).

Так в результате процесса познания уменьшается неопределенность в наших знаниях о состоянии объекта познания, а в результате процесса труда (по сути управления) – уменьшается неопределенность поведения продукта труда (или объекта управления). В любом случае количество переданной информации представляет собой количественную меру степени снятия неопределенности.

В данном разделе, основываясь на работе [347], приведем математический аппарат из теории информации К.Шеннона, позволяющий решить эти задачи на основе построения и применения информационной модели АОУ.

Процесс получения информации можно интерпретировать как изменение неопределенности в вопросе о том, от какого источника отправлено сообщение в результате приема сигнала по каналу связи.

Формально эту модель можно представить следующим образом. Пусть есть два взаимосвязанных множества:

1. Множество из N информационных источников {xi}, априорные вероятности предъявления которых равны p(xi).

2. Множество из M признаков {yj}, которые встречаются с априорными вероятностями p(yj) и условными вероятностями: p(xi|yj).

Априорная вероятность наблюдения признака – это средняя вероятность его наблюдения при предъявлении информационных источников (объектов) из исходного множества, а условная вероятность – вероятность его наблюдения при предъявлении определенного из них.

До получения информации ситуация характеризуется неопределенностью того, от какого источника она будет направлена, т.е. априорной энтропией:

(3. 30)

Допустим, что множества информационных источников и сообщений о них никак не связаны (представляют собой независимые события), т.е. связаны совершенно случайным образом. Это означает, что события из этих двух множеств независимы друг от друга.

Пусть, например, pij – есть вероятность наступления события (xi,yj), т.е. вероятность того, что если в сообщении был признак yj, то это сообщение от источника xi:

pij=pipj.

(3. 31)

Тогда в соответствии с фундаментальным определением Шеннона, энтропия множества XY, являющегося объединением множеств источников и сообщений, будет иметь вид:

(3. 32)

Подставив в эту формулу выражение для вероятности (3.31), получим:

 

Здесь использовано классическое определение энтропии (3.30):

(3.30)

и учтено условие нормировки вероятностей:

Таким образом, для независимых источников и сообщений получаем:

H(XY)=H(X)+H(Y).

(3. 33)

Обобщим это выражение на тот случай , когда содержание сообщений связано с тем, от какого они информационного источника. Этот случай представляет для нас особый интерес, т.к. именно в этом случае по сообщению можно определить источник.

Будем считать, что энтропия объединения множеств информационных источников и сообщений XY по прежнему определяется выражением Шеннона:

(3. 34)

Однако вероятность совместного наступления зависимых событий:

– "активен i–й информационный источник";

– "в сообщении наблюдается j–й признак"

будет равна

(3. 35)

где: – условная вероятность наблюдения признака yj в информационном сообщении от источника xi. Тогда, аналогично для энтропии объединенного множества получим выражение:

(3. 36)

 

H(XY)=H(X)+H(Y|X).

(3. 37)

В этом выражении учтено условие нормировки: , а также приведенное выше выражение для энтропии H(X). Второе слагаемое обозначим: H(Y|X) и назовем условной энтропией множества признаков из сообщений от информационных источников:

(3. 38)

Учитывая (3.35), окончательно получаем:

(3. 39)

Условной энтропией H(Y|X) измеряется степень неопределенности множества Y после снятия неопределенности множества X. Так как, очевидно, (xi,yj)=(yj,xi), то аналогично, условной энтропией H(X/Y) измеряется степень неопределенности множества X после снятия неопределенности множества Y:

H(XY)=H(X)+H(Y|X)=H(Y)+H(X|Y)=H(YX).

(3. 40)

Фактически, условная энтропия H(X/Y) показывает нам, насколько много информации для идентификации информационных источников мы в среднем получаем из сообщений от них.

Информация, как мера соответствия объектов обобщенным образам классов

Количество информации является мерой соответствия распознаваемого объекта (его состояния) обобщенному образу класса, определенное на основе информации о признаках этого объекта.

Количество информации есть количественная мера степени снятия неопределенности: информация, содержащаяся в множестве Y относительно множества X есть уменьшение степени неопределенности множества X, возникающее в результате снятия неопределенности множества Y.

В нашем случае первое множество – это множество признаков наблюдаемого объекта, а второе – множество классов. До наблюдения объекта с системой признаков Y неопределенность наших знаний о принадлежности этого объекта к классу была H(X) (априорная энтропия), после наблюдения системы признаков Y эта неопределенность уменьшилась и стала равна H(X|Y) (апостериорная энтропия). Количество информации о том, что наблюдаемый объект с системой признаков Y относится к классу X, равно уменьшению неопределенности наших знаний об этом, которое произошло в результате обнаружения у объекта признаков, т.е. равно разности априорной и апостериорной энтропии этого класса:

(3. 41)

Если после обнаружения системы признаков неопределенность знаний о принадлежности объекта к классу стала равна нулю H(X|Y)=0, т.е. это стало известно точно, то количество информации просто равно априорной энтропии. Если же это стало известно лучше, но еще не до конца, то количество информации будет меньше, чем априорная энтропия как раз на величину оставшейся, т.е. еще не снятой неопределенности. Поэтому энтропия – это недостающая информация.

Перепишем выражение (3.41) в явной форме, подставив в него выражения для априорной и апостериорной энтропии из (3.30) и (3.39):

(3. 42)

Учитывая, что

(3. 43)

получаем выражение для среднего количества информации, которое содержится в сообщениях об источниках информации

 

или окончательно:

(3. 44)

Находим выражение, связывающее информацию и взаимную энтропию, основываясь на (3.44):

(3. 45)

Учитывая в выражении (3.44), что pij=pji (условие симметричности) получаем:

I(X,Y)=I(Y,X),

(3. 46)

т.е. количество информации в признаках об объектах (сообщениях об источниках информации) то же самое, что и в объектах о признаках или в источниках информации о сообщениях, так как это одна и та же информация. По этой причине эту информацию иногда называют взаимной, так как она отражает определенное отношение двух множеств и не существует сама по себе независимо от них или только когда есть лишь одно из них.

Подставляя H(X|Y) из (3.40) в выражение (3.45) получаем:

(3. 47)

Таким образом, энтропия системы, состоящей из объединения двух подсистем, меньше суммы индивидуальных энтропий этих подсистем на величину взаимной информации, содержащейся в каждой из подсистем относительно другой подсистемы.

АСУ как раз и выступает информационным системообразующим фактором, объединяющим подсистемы в единую систему, имеющую меньшую суммарную энтропию, чем ее части.

Это очень похоже на своеобразный информационный аналог известного в физике "дефекта масс". Так называется физический эффект, состоящий в том, что масса системы меньше сумм масс ее частей на величину массы, соответствующей энергии их взаимодействия [25, 30]. Подобные аналогии могут быть продолжены значительно дальше [152]. Из этого следует, что по крайней мере для информационных систем информация это и есть то интегрирующее начало, которое делает систему системой, объединяя ее части в целое, т.е. по сути дела информация есть то, без чего система разрушается на части.

Количество информации в индивидуальных событиях и лемма Неймана–Пирсона

Следуя традиции, заложенной Шенноном, до сих пор анализировалось среднее количество информации, приходящееся на любую пару состояний (xi,yj) объекта X и сообщения Y. Эта характеристика естественна при рассмотрении особенностей стационарно функционирующих информационных систем, когда играют роль лишь их среднестатистические характеристики.

В классическом анализе Шеннона идет речь лишь о передаче символов по одному информационному каналу от одного источника к одному приемнику. Его интересует прежде всего передача самого сообщения.

В данном исследовании ставится другая задача: идентифицировать информационный источник по сообщению от него. Поэтому метод Шеннона был обобщен путем учета в математической модели возможности существования многих источников информации, о которых к приемнику по зашумленному каналу связи приходят не отдельные символы–признаки, а сообщения, состоящие из последовательностей символов (признаков) любой длины.

Следовательно, ставится задача идентификации информационного источника по сообщению от него, полученному приемником по зашумленному каналу. Метод, являющийся обобщением метода К.Шеннона, позволяет применить классическую теорию информации для построения моделей систем распознавания образов и принятия решений, ориентированных на применение для синтеза адаптивных АСУ сложными объектами.

Для решения поставленной задачи необходимо вычислять не средние информационные характеристики, а количество информации, содержащееся в конкретном j–м признаке (символе) о том, что он пришел от данного i–го источника информации. Это позволит определить и суммарное количество информации в сообщении о каждом информационном источнике, что дает интегральный критерий для идентификации или прогнозирования состояния АОУ.

Логично предположить, что среднее количество информации, содержащейся в системе признаков о системе классов

(3. 48)

является ничем иным, как усреднением (с учетом условной вероятности наблюдения) "индивидуальных количеств информации", которые содержатся в конкретных признаках о конкретных классах (источниках), т.е.:

(3. 49)

Это выражение определяет так называемую "плотность информации", т.е. количество информации, которое содержится в одном отдельно взятом факте наблюдения j–го символа (признака) на приемнике о том, что этот символ (признак) послан i–м источником.

Если в сообщении содержится M символов, то суммарное количество информации о принадлежности данного сообщения i–му информационному источнику (классу) составляет:

(3. 50)

Необходимо отметить, что применение сложения в выражении (3.43) является вполне корректным и оправданным, так как информация с самого начала вводилась как аддитивная величина, для которой операция сложения является корректной.

Преобразуем выражение (3.50) к виду, более удобному для практического применения (численных расчетов). Для этого, следуя [347], выразим вероятности встреч признаков через частоты их наблюдения:

(3. 51)

Подставив (3.44) в (3.25), получим:

(3. 52)

Если ранжировать классы в порядке убывания суммарного количества информации о принадлежности к ним, содержащейся в данном сообщении (т.е. описании объекта), и выбирать первый из них, т.е. тот, о котором в сообщении содержится наибольшее количество информации, то мы получим обоснованную статистическую процедуру, основанную на классической теории информации, оптимальность которой доказывается в фундаментальной лемме Неймана–Пирсона [234].

Сравнивая выражения (3.52) и (3.28) видим, что в системное обобщенное формулы Харкевича входит слагаемое, сходное с выражением Шеннона для плотности информации. Различия состоят в том, что в выражении (3.28) это слагаемое возведено в степень, имеющую смысл коэффициента эмерджентности Харкевича. Необходимо отметить, что значения частот в этих формулах связаны с вероятностями несколько различным образом (выражения 3.20 и 3.51).

Если ранжировать классы в порядке убывания суммарного количества информации о принадлежности к ним, содержащейся в данном сообщении (т.е. описании объекта), и выбирать первый из них, т.е. тот, о котором в сообщении содержится наибольшее количество информации, то мы получим обоснованную статистическую процедуру, основанную на классической теории информации, оптимальность которой доказывается в фундаментальной лемме Неймана–Пирсона [234].

Таким образом, распознавание образов есть принятие решения о принадлежности объекта или его состояния к определенному классу. Если до распознавания существовала неопределенность в вопросе о том, к какому классу относится распознаваемый объект или его состояние, то в результате распознавания эта неопределенность уменьшается, в том числе может быть и до нуля. Понятие информации может быть определено следующим образом: "Информация есть количественная мера степени снятия неопределенности". Количество информации является мерой соответствия распознаваемого объекта (его состояния) обобщенному образу класса.

Количество информации имеет ряд вполне определенных свойств. Эти свойства позволяют ввести понятие "количество информации в индивидуальных событиях", которое является весьма перспективным для применения в системах распознавания образов и поддержки принятия решений.

 

 

 

 

 

 

3.2.4. Математическая модель метода распознавания образов и принятия решений, основанного на системной теории информации

 

Формальная постановка основной задачи рефлексивной АСУ активными объектами и ее декомпозиция

Рассмотрим некоторые основные понятия, необходимые для дальнейшего изложения. При этом будут использованы как литературные данные, так и результаты, полученные в предыдущих главах данной работы.

Принятие решения в АСУ – это выбор некоторого наиболее предпочтительного управляющего воздействия из исходного множества всех возможных управляющих воздействий, обеспечивающего наиболее эффективное достижение целей управления. В результате выбора неопределенность исходного множества уменьшается на величину информации, которая порождается самим актом выбора [277]. Следовательно, теория информации может быть применена как для идентификации состояний объекта управления, так и для принятия решений об управляющих воздействиях в АСУ.

Модель АСУ включает в себя: модель объекта управления, модель управляющей подсистемы, а также модель внешней среды. Управляющая подсистема реализует следующие функции: идентификация состояния объекта управления, выработка управляющего воздействия, реализация управляющего воздействия.

С позиций теории информации сложный объект управления (АОУ) может рассматриваться как шумящий (определенным образом) информационный канал, на вход которого подаются входные параметры , представляющие собой управляющие воздействия, а также факторы предыстории и среды, а на выходе фиксируются выходные параметры , связанные как с входными параметрами, так и с целевыми и иными состояниями объекта управления.

Одной из основных задач АСУ является задача принятия решения о наиболее эффективном управляющем воздействии. В терминах теории информации эта задача формулируется следующим образом: зная целевое состояние объекта управления, на основе его информационной модели определить такие входные параметры , которые с учетом предыстории и актуального состояния объекта управления, а также влияния среды с наибольшей эффективностью переведут его в целевое состояние, характеризующееся выходными параметрами .

С решением этой задачи тесно связана задача декодирования теории информации: "По полученному в условиях помех сообщению определить, какое сообщение было передано" [309]. Для решения данной задачи используются коды, корректирующие ошибки, а в более общем случае, - различные методы распознавания образов.

Учитывая вышесказанное, предлагается рассматривать принятие решения об управляющем воздействии в АСУ как решение обратной задачи декодирования, которая формулируется следующим образом: "Какое сообщение необходимо подать на вход зашумленного канала связи, чтобы на его выходе получить заранее заданное сообщение". Данная задача решается на основе математической модели канала связи.

Декомпозиция основной задачи в ряд частных подзадач

Построение аналитической модели АОУ затруднено из-за отсутствия или недостатка априорной информации об объекте управления, а также из-за ограниченности и сложности используемого математического аппарата. В связи с этим предлагается путь решения данной проблемы, состоящий в поэтапном решении следующих задач:

1–я задача: разработать абстрактную модель более общего класса (содержательную информационную);

2–я задача: обучить абстрактную информационную модель путем учета информации о реальном поведении АОУ, поступающей в процессе экспериментальной эксплуатации АСУ; на этом этапе адаптируется и конкретизируется абстрактная модель АОУ, т.е. в ней все более точно отражаются взаимосвязи между входными параметрами и состояниями АОУ;

3–я задача: на основе конкретной содержательной информационной модели разработать алгоритмы решения следующих задач АСУ:

3.1. Расчет влияния факторов на переход АОУ в различные возможные состояния (обучение, адаптация).

3.2. Прогнозирование поведения АОУ при конкретном управляющем воздействии и выработка многофакторного управляющего воздействия (основная задача АСУ).

3.3. Выявление факторов, вносящих основной вклад в детерминацию состояния АОУ; контролируемое удаление второстепенных факторов с низкой дифференцирующей способностью, т.е. снижение размерности модели при заданных ограничениях.

3.4. Сравнение влияния факторов. Сравнение состояний АОУ.

Сформулируем предлагаемую абстрактную модель АОУ, опишем способ ее конкретизации и приведем алгоритмы решения задач адаптивных АСУ АОУ на основе данной модели.

Решение задачи 1: "Синтез семантической информационной модели активного объекта управления"

Исходные данные для выявления взаимосвязей между факторами и состояниями объекта управления предлагается представить в виде корреляционной матрицы – матрицы абсолютных частот (таблица 3.11):

 

Таблица 3. 11 – МАТРИЦА АБСОЛЮТНЫХ ЧАСТОТ

 

В этой матрице в качестве классов (столбцов) приняты будущие состояния объекта управления, как целевые, так и нежелательные, а в качестве атрибутов (строк) – факторы, которые разделены на три основных группы, математически обрабатываемые единообразно: факторы, характеризующие текущее и прошлые состояния объекта управления; управляющие факторы системы управления; факторы, характеризующие прошлые, текущее и прогнозируемые состояния окружающей среды. Отметим, что форма таблицы 3.11 является универсальной формой представления непосредственно эмпирических данных в единстве их дискретного и интегрального представления (причины – следствия, факторы – результирующие состояния, признаки – обобщенные образы классов, образное – логическое и т.п.).

Управляющие факторы объединяются в группы, внутри каждой из которых они альтернативны (несовместны), а между которыми - нет (совместны). В этом случае внутри каждой группы выбирают одно из доступных управляющих воздействий с максимальным влиянием.  Варианты содержательной информационной модели без учета прошлых состояний объекта управления и с их учетом, аналогичны, соответственно, простым и составным цепям Маркова, автоматам без памяти и с памятью.

В качестве количественной меры влияния факторов, предложено использовать обобщенную формулу А.Харкевича (3.28), полученную на основе предложенной эмерджентной теории информации. При этом по формуле (3.28) непосредственно из матрицы абсолютных частот (таблица 3.11) рассчитывается матрица информативностей (таблица 3.12), которая и представляет собой основу содержательной информационной модели предметной области:

 

Таблица 3. 12 – МАТРИЦА ИНФОРМАТИВНОСТЕЙ

 

Весовые коэффициенты таблицы 3.12 непосредственно определяют, какое количество информации Iij система управления получает о наступлении события: "активный объект управления перейдет в j–е состояние", из сообщения: "на активный объект управления действует i–й фактор".

Принципиально важно, что эти весовые коэффициенты не определяются экспертами неформализуемым способом, а рассчитываются непосредственно на основе эмпирических данных и удовлетворяют всем ранее сформулированным требованиям, т.е. являются сопоставимыми, содержательно интерпретируемыми, отражают понятия "достижение цели управления" и "мощность множества будущих состояний объекта управления" и т.д.

В данном исследовании обосновано, что предложенная информационная мера обеспечивает сопоставимость индивидуальных количеств информации, содержащейся в факторах о классах, а также сопоставимость интегральных критериев, рассчитанных для одного объекта и разных классов, для разных объектов и разных классов.

Когда количество информации Iij>0i–й фактор способствует переходу объекта управления в j–е состояние, когда Iij<0 – препятствует этому переходу, когда же Iij=0 – никак не влияет на это. В векторе i–го фактора (строка матрицы информативностей) отображается, какое количество информации о переходе объекта управления в каждое из будущих состояний содержится в том факте, что данный фактор действует. В векторе j–го состояния класса (столбец матрицы информативностей) отображается, какое количество информации о переходе объекта управления в соответствующее состояние содержится в каждом из факторов.

Таким образом, матрица информативностей (таблица 3.12) является обобщенной таблицей решений, в которой входы (факторы) и выходы (будущие состояния АОУ) связаны друг с другом не с помощью классических (Аристотелевских) импликаций, принимающих только значения: "Итина" и "Ложь", а различными значениями истинности, выраженными в битах и принимающими значения от положительного теоретически-максимально-возможного ("Максимальная степень истинности"), до теоретически неограниченного отрицательного ("Степень ложности").

Фактически предложенная модель позволяет осуществить синтез обобщенных таблиц решений для различных предметных областей непосредственно на основе эмпирических исходных данных и продуцировать на их основе прямые и обратные правдоподобные (нечеткие) логические рассуждения по неклассическим схемам с различными расчетными значениями истинности, являющимся обобщением классических импликаций (таблица 3.13):

 

Таблица 3. 13 – ПРЯМЫЕ И ОБРАТНЫЕ ПРАВДОПОДОБНЫЕ ЛОГИЧЕСКИЕ
ВЫСКАЗЫВАНИЯ С РАСЧЕТНОЙ (В СООТВЕТСТВИИ С СТИ)
СТЕПЕНЬЮ ИСТИННОСТИ ИМПЛИКАЦИЙ

 

Приведем пример более сложного высказывания, которое может быть рассчитано непосредственно на основе матрицы информативностей – обобщенной таблицы решений (таблица 3.13):

Если A, со степенью истинности a(A,B) детерминирует B, и если С, со степенью истинности a(C,D) детерминирует D, и A совпадает по смыслу с C со степенью истинности a(A,C), то это вносит вклад в совпадение B с D, равный степени истинности a(B,D).

При этом в прямых рассуждениях как предпосылки рассматриваются факторы, а как заключение – будущие состояния АОУ, а в обратных – наоборот: как предпосылки – будущие состояния АОУ, а как заключение – факторы. Степень истинности i-й предпосылки – это просто количество информации Iij, содержащейся в ней о наступлении j-го будущего состояния АОУ. Если предпосылок несколько, то степень истинности наступления j-го состояния АОУ равна суммарному количеству информации, содержащемуся в них об этом. Количество информации в i-м факторе о наступлении j-го состояния АОУ, рассчитывается в соответствии с выражением (3.28) СТИ.

Прямые правдоподобные логические рассуждения позволяют прогнозировать степень достоверности наступления события по действующим факторам, а обратные – по заданному состоянию восстановить степень необходимости и степень нежелательности каждого фактора для наступления этого состояния, т.е. принимать решение по выбору управляющих воздействий на АОУ, оптимальных для перевода его в заданное целевое состояние.

Необходимо отметить, что предложенная модель, основывающаяся на теории информации, обеспечивает автоматизированное формирования системы нечетких правил по содержимому входных данных, как и комбинация нечеткой логики Заде-Коско с нейронными сетями Кохонена [184]. Принципиально важно, что качественное изменение модели путем добавления в нее новых классов не уменьшает достоверности распознавания уже сформированных классов. Кроме того, при сравнении распознаваемого объекта с каждым классом учитываются не только признаки, имеющиеся у объекта, но и отсутствующие у него, поэтому предложенной моделью правильно идентифицируются объекты, признаки которых образуют множества, одно из которых является подмножеством другого (как и в Неокогнитроне К.Фукушимы) [184].

Данная модель позволяет прогнозировать поведение АОУ при воздействии на него не только одного, но и целой системы факторов:

(3. 53)

В теории принятия решений скалярная функция Ij векторного аргумента называется интегральным критерием. Основная проблема состоит в выборе такого аналитического вида функции интегрального критерия, который обеспечил бы эффективное решение сформулированной выше задачи АСУ.

Учитывая, что частные критерии (3.28) имеют смысл количества информации, а информация по определению является аддитивной функцией, предлагается ввести интегральный критерий, как аддитивную функцию от частных критериев в виде:

(3. 54)

В выражении (3.54) круглыми скобками обозначено скалярное произведение. В координатной форме это выражение имеет вид:

,

(3. 55)

где:

– вектор j–го состояния объекта управления;

 – вектор состояния предметной области, включающий все виды факторов, характеризующих объект управления, возможные управляющие воздействия и окружающую среду (массив–локатор), т.е.:

В реализованной модели значения координат вектора состояния ПО принимались равными либо 1 (фактор действует), либо 0 (фактор не действует).

Таким образом, интегральный критерий представляет собой суммарное количество информации, содержащееся в факторах различной природы (т.е. факторах, характеризующих объект управления, управляющее воздействие и окружающую среду) о переходе активного объекта управления в целевое состояние.

В многокритериальной постановке задача прогнозирования состояния объекта управления, при оказании на него заданного многофакторного управляющего воздействия Ij, сводится к максимизации интегрального критерия:

(3. 56)

т.е. к выбору такого состояния объекта управления, для которого интегральный критерий максимален.

Задача принятия решения о выборе наиболее эффективного управляющего воздействия является обратной задачей по отношению к задаче максимизации интегрального критерия (идентификации и прогнозирования), т.е. вместо того, чтобы по набору факторов прогнозировать будущее состояние АОУ, наоборот, по заданному (целевому) состоянию АОУ определяется такой набор факторов, который с наибольшей эффективностью перевел бы объект управления в это состояние.

Предлагается еще одно обобщение этой фундаментальной леммы, основанное на косвенном учете корреляций между информативностями в векторе состояний при использовании средних по векторам. Соответственно, вместо простой суммы количеств информации предлагается использовать корреляцию между векторами состояния и объекта управления, которая количественно измеряет степень сходства этих векторов:

(3. 57)

где:

      – средняя информативность по вектору класса;

     – среднее по вектору идентифицируемой ситуации (объекта).

    – среднеквадратичное отклонение информативностей вектора класса;

    – среднеквадратичное отклонение по вектору распознаваемого объекта.

Выражение (3.57) получается непосредственно из (3.55) после замены координат перемножаемых векторов их стандартизированными значениями:

Результат прогнозирования поведения объекта управления, описанного данной системой факторов, представляет собой список его возможных будущих состояний, в котором они расположены в порядке убывания суммарного количества информации о переходе объекта управления в каждое из них.

Сравнения результатов идентификации и прогнозирования с опытными данными, с использованием выражений (3.57) и (3.55), показали, что при малых выборках они практически не отличаются, но при увеличении объема выборки до 400 и более (независимо от предметной области) выражение (3.57) дает погрешность идентификации (прогнозирования) на 5% – 7% меньше, чем (3.55). Поэтому в предлагаемой модели используется мера сходства (3.58).

В связи с тем, что в дальнейшем изложении широко применяются понятия теории АСУ, теории информации (связи), теории распознавания образов и методов принятия решений, приведем таблицу соответствия наиболее часто используемых нами терминов из этих научных направлений, имеющих сходный смысл (таблица 3.14):

 

Таблица 3. 14 – СООТВЕТСТВИЕ ТЕРМИНОВ
РАЗЛИЧНЫХ НАУЧНЫХ НАПРАВЛЕНИЙ

 

Вывод системного обобщения формулы Харкевича (3.28) приведен в разделе 3.1 данной работы. Чрезвычайно важное для данного исследования выражение (3.28) заслуживает специального комментария. Прежде всего нельзя не обратить внимания на то, что оно по своей математической форме, т.е. формально, ничем не отличается от выражения для превышения сигнала над помехой для информационного канала [309]. Из этого, на первый взгляд, внешнего совпадения следует интересная интерпретация выражения (3.28). А именно: можно считать, что обнаружив некоторый i–й признак у объекта, предъявленного на распознавание, мы тем самым получаем сигнал, содержащий некоторое количество информации

о том, что этот объект принадлежит к j–му классу. По–видимому, это так и есть, однако чтобы оценить насколько много или мало этой информации нами получено, ее необходимо с чем–то сравнить, т.е. необходимо иметь точку отсчета или базу для сравнения. В качестве такой базы естественно принять среднее по всем признакам количество информации, которое мы получаем, обнаружив этот j–й класс:

Иначе говоря, если при предъявлении какого–либо объекта на распознавание у него обнаружен i–й признак, то для того, чтобы сделать из этого факта обоснованный вывод о принадлежности этого объекта к тому или иному классу, необходимо знать и учесть, насколько часто вообще (т.е. в среднем) обнаруживается этот признак при предъявлении объектов данного класса.

Фактически это среднее количество информации можно рассматривать как некоторый "информационный шум", который имеется в данном признаке и не несет никакой полезной информации о принадлежности объектов к тем или иным классам. Полезной же информацией является степень отличия от этого шума. Таким образом классическому выражению Харкевича (3.12) для семантической целесообразности информации может быть придан более привычный для теории связи вид:

который интерпретируется как вычитание шума из полезного сигнала. Эта операция является совершенно стандартной в системах шумоподавления.

Если полезный сигнал выше уровня шума, то его обнаружение несет информацию в пользу принадлежности объекта к данному классу, если нет – то, наоборот, в пользу не принадлежности.

Возвращаясь к выражению (3.12), необходимо отметить, что сам А.А.Харкевич рассматривал как вероятность достижения цели, при условии, что система получила информацию , а – как вероятность ее достижения при условии, что система этой информации не получала. Очевидно, что фактически соответствует вероятности случайного угадывания объектом управления правильного пути к цели, или, что тоже самое, вероятности самопроизвольного, т.е. без оказания управляющих воздействий, достижения АОУ целевого заданного состояния.

Необходимо отметить также, что каждый признак объекта управления как канала связи может быть охарактеризован динамическим диапазоном, равным разности максимально возможного (допустимого) уровня сигнала в канале и уровня помех в логарифмическом масштабе:

Максимальное количество информации, которое может содержаться в признаке, полностью определяется количеством классов распознавания W и равно количеству информации по Хартли: I=Log2W.

Динамический диапазон признака является количественной мерой его полезности (ценности) для распознавания, но все же предпочтительней для этой цели является среднее количество полезной для классификации информации в признаке, т.е. исправленное выборочное среднеквадратичное отклонение информативностей:

(3. 58)

Очевидна близость этой меры к длине вектора признака в семантическом пространстве атрибутов:

(3. 59)

В сущности выражение (3.58) просто представляет собой нормированный вариант (3.59).

 

Решение задачи 2: "Адаптация модели объекта управления"

На основе обучающей выборки, содержащей информацию о том, какие факторы действовали, когда АОУ переходил в те или иные состояния, методом прямого счета формируется матрица абсолютных частот, имеющая вид, представленный в таблице 3.11. Необходимо отметить, что в случае АОУ в большинстве случаев нет возможности провести полный факторный эксперимент для заполнения матрицы абсолютных частот. В данной работе предполагается, что это и не обязательно, т.е. на практике достаточно воспользоваться естественной вариабельностью факторов и состояний АОУ, представленных в обучающей выборке. С увеличением объема обучающей выборки в ней со временем будут представлены все практически встречающиеся варианты сочетаний факторов и состояний АОУ.

В соответствии с выражением (3.28), непосредственно на основе матрицы абсолютных частот |||| (таблица 3.11) рассчитывается матрица информативностей факторов |||| (таблица 3.12).

Количество информации в i–м факторе о наступлении j–го состояния АОУ является статистической мерой их связи и количественной мерой влияния данного фактора на переход АОУ в данное состояние.

Решение задачи 3: "Разработка алгоритмов решения основных задач АСУ"

Как было показано в разделе 3.2, решение задачи 3 предполагает решение следующих подзадач.

Решение подзадачи 3.1: "Расчет влияния факторов на переход объекта управления в различные состояния (обучение, адаптация)"

При изменении объема обучающей выборки или изменении экспертных оценок прежде всего пересчитывается матрица абсолютных частот, а затем, на ее основании и в соответствии с выражением (28), - матрица информативностей. Таким образом, предложенная модель обеспечивает отображение динамических взаимосвязей, с одной стороны, между входными и выходными параметрами, а с другой, - между параметрами и состояниями объекта управления. Конкретно, это отображение осуществляется в форме так называемых векторов факторов и состояний.

В профиле (векторе) i–го фактора (строка матрицы информативностей) отображается, какое количество информации о переходе АОУ в каждое из возможных состояний содержится в том факте, что данный фактор действует.

В профиле (векторе) j–го состояния АОУ (столбец матрицы информативностей) отображается, какое количество информации о переходе АОУ в данное состояние содержится в каждом из факторов.

Решение подзадачи 3.2: "Прогнозирование поведения объекта управления при конкретном управляющем воздействии и выработка многофакторного управляющего воздействия (обратная задача прогнозирования)"

Прогнозирование состояния АОУ осуществляется следующим образом:

1. Собирается информация о действующих факторах, характеризующих состояние предметной области (активный объект управления описывается факторами, характеризующими его текущее и прошлые состояния; управляющая система характеризуется технологическими факторами, с помощью которых она оказывает управляющее воздействие на активный объект управления; окружающая среда характеризуется прошлыми, текущими и прогнозируемыми факторами, которые также оказывают воздействие на активный объект управления).

2. Для каждого возможного будущего состояния АОУ подсчитывается суммарное количество информации, содержащееся во всей системе факторов (согласно п.1), о наступлении этого состояния.

3. Все будущие состояния АОУ ранжируются в порядке убывания количества информации об их осуществлении.

Этот ранжированный список будущих состояний АОУ и представляет собой первичный результат прогнозирования.

Если задано некоторое определенное целевое состояние, то выбор управляющих воздействий для фактического применения производится из списка, в котором все возможные управляющие воздействия расположены в порядке убывания их влияния на перевод АОУ в данное целевое состояние. Такой список называется информационным портретом состояния АОУ [152].

Управляющие воздействия могут быть объединены в группы, внутри каждой из которых они альтернативны (несовместны), а между которыми - нет (совместны). В этом случае внутри каждой группы выбирают одно из фактически доступных управляющих воздействий с максимальным влиянием на достижение заданного целевого состояния АОУ.

Однако выбор многофакторного управляющего воздействия нельзя считать завершенным без прогнозирования результатов его применения. Описание АОУ в актуальном состоянии состоит из списка факторов окружающей среды, предыстории АОУ, описания его актуального (исходного) состояния, а также выбранных управляющих воздействий. Имея эту информацию по каждому из факторов в соответствии с выражением (7), нетрудно подсчитать, какое количество информации о переходе в каждое из состояний содержится суммарно во всей системе факторов. Данный метод соответствует фундаментальной лемме Неймана–Пирсона, содержащей доказательство оптимальности метода выбора той из двух статистических гипотез, о которой в системе факторов содержится больше информации. В то же время он является обобщением леммы Неймана–Пирсона, так как вместо информационной меры Шеннона используется системное обобщение семантической меры целесообразности информации Харкевича.

Предлагается еще одно обобщение этой фундаментальной леммы, основанное на косвенном учете корреляций между информативностями в профиле состояния при использовании среднего по профилю. Соответственно, вместо простой суммы количеств информации предлагается использовать ковариацию между векторами состояния и АОУ, которая количественно измеряет степень сходства формы этих векторов.

Результат прогнозирования поведения АОУ, описанного данной системой факторов, представляет собой список состояний, в котором они расположены в порядке убывания суммарного количества информации о переходе АОУ в каждое из них.

Решение подзадачи 3.3: "Выявление факторов, вносящих основной вклад в детерминацию состояния АОУ; снижение размерности модели при заданных ограничениях"

Естественно считать, что некоторый фактор является тем более ценным, чем больше среднее количество информации, содержащееся в этом факторе о поведении АОУ [152]. Но так как в предложенной модели количество информации может быть и отрицательным (если фактор уменьшает вероятность перехода АОУ в некоторое состояние), то простое  среднее арифметическое информативностей может быть близко к нулю. При этом среднее будет равно нулю и в случае, когда все информативности равны нулю, и тогда, когда они будут велики по модулю, но с разными знаками. Следовательно, более адекватной оценкой полезности фактора является среднее модулей или, что наиболее точно, исправленное (несмещенное) среднеквадратичное отклонение информативностей по профилю признака.

Ценность фактора по сути дела определяется его полезностью для различения состояний АОУ, т.е. является его дифференцирующей способностью или селективностью.

Необходимо также отметить, что различные состояния АОУ обладают различной степенью обусловленности, т.е. в различной степени детерминированы факторами: некоторые слабо зависят от учтенных факторов, тогда как другие определяются ими практически однозначно. Количественно детерминируемость состояния АОУ предлагается оценивать стандартным отклонением информативностей вектора обобщенного образа данного состояния.

Предложено и реализовано несколько итерационных алгоритмов корректного удаления малозначимых факторов и слабодетерминированных состояний АОУ при заданных граничных условиях [152]. Решение задачи снижения размерности модели АОУ при заданных граничных условиях позволяет снизить эксплуатационные затраты и повысить эффективность РАСУ АО.

Решение подзадачи 3.4: "Сравнение влияния факторов. Сравнение состояний объекта управления"

Факторы могут сравниваться друг с другом по тому влиянию, которое они оказывают на поведение АОУ. Сами состояния могут сравниваться друг с другом по тем факторам, которые способствуют или препятствуют переходу АОУ в эти состояния. Это сравнение может содержать лишь результат, т.е. различные степени сходства/различия (в кластерном анализе), или содержать также причины этого сходства/различия (в когнитивных диаграммах).

Эти задачи играют важную роль в теории и практике РАСУ АО при необходимости замены одних управляющих воздействий другими, но аналогичными по эффекту, а также при изучении вопросов семантической устойчивости управления (различимости состояний АОУ по детерминирующим их факторам).

Этот анализ проводится над классами распознавания и над признаками. Он включает: информационный (ранговый) анализ; кластерный и конструктивный анализ, семантические сети; содержательное сравнение информационных портретов, когнитивные диаграммы.

Семантический информационный анализ

Предложенная математическая модель позволяет сформировать информационные портреты обобщенных эталонных образов классов распознавания и признаков.

Портреты классов распознавания представляют собой списки признаков в порядке убывания содержащегося в них количества информации о принадлежности к этим классам.

Информационный портрет класса распознавания показывает нам, каков информационный вклад каждого признака в общий объем информации, содержащейся в обобщенном образе этого класса.

В подходе к решению задач рефлексивных АСУ АО, основанном на применении методов распознавания образов, классам распознавания соответствуют, во–первых, исходные, а во–вторых, результирующие, в том числе целевые состояния объекта управления. Это значит, что в первом случае портреты классов используются для идентификации исходного состояния АОУ, потому что именно с ними сравнивается состояние объекта управления, а во втором – для выработки управляющего воздействия, так как его выбирают в форме суперпозиции неальтернативных факторов из информационного портрета целевого состояния, оказывающих наибольшее влияние на перевод АОУ в это состояние.

Портреты признаков представляют собой списки классов распознавания в порядке убывания количества информации о них, которое содержит данный признак. По своей сути информационный портрет признака раскрывает нам смысл данного признака, т.е. его семантическую нагрузку. В теории и практике рефлексивных АСУ АО информационный портрет фактора является развернутой количественной характеристикой, содержащей информацию о силе и характере его влияния на перевод АОУ в каждое из возможных результирующих состояний, в том числе в целевые. Информационные портреты классов и признаков допускают наглядную графическую интерпретацию в виде двухмерных (2d) и трехмерных (3d) диаграмм.

Кластерно–конструктивный анализ и семантические сети

Кластеры представляют собой такие группы классов распознавания (или признаков), внутри которых эти классы наиболее схожи друг с другом, а между которыми наиболее различны [76, 81, 85, 107, 179, 219, 294]. В данной работе,  в качестве классов распознавания рассматриваются как исходные, так и результирующие, в том числе целевые состояния объекта управления, а в качестве признаков – факторы, влияющие на переход АОУ в результирующие состояния.

Исходные состояния АОУ, объединенные в кластер, характеризуются общими или сходными методами перевода в целевые состояния. Результирующие состояния АОУ, объединенные в кластер, являются слаборазличимыми по факторам, детерминирующим перевод АОУ в эти состояния. Это означает, что одно и то же управляющее воздействие при одних и тех же предпосылках (исходном состоянии и предыстории объекта управления и среды) могут привести к переводу АОУ в одно из результирующих состояний, относящихся к одному кластеру. Поэтому кластерный анализ результирующих состояний АОУ является инструментом, позволяющим изучать вопросы устойчивости управления сложными объектами.

При выборе управляющего воздействия как суперпозиции неальтернативных факторов часто возникает вопрос о замене одних управляющих факторов другими, имеющими сходное влияние на перевод АОУ из данного текущего состояния в заданное целевое состояние. Кластерный анализ факторов как раз и позволяет решить эту задачу: при невозможности применить некоторый управляющий фактор его можно заменить другим фактором из того же кластера.

При формировании кластеров используются матрицы сходства объектов и признаков, формируемые на основе матрицы информативностей.

В соответствии с предлагаемой математической моделью могут быть сформированы кластеры для заданного диапазона кодов классов распознавания (признаков) или заданных диапазонов уровней системной организации с различными критериями включения объекта (признака) в кластер.

Эти критерии могут быть сформированы автоматически либо заданы непосредственно. В последнем уровне кластеризации, в частности при задании одного уровня, в кластеры включаются не только похожие, но и все непохожие объекты (признаки), и, таким образом, формируются конструкты классов распознавания и признаков.

В данной работе под конструктом понимается система противоположных (наиболее сильно отличающихся) кластеров, которые называются "полюсами" конструкта, а также спектр промежуточных кластеров, к которым применима количественная шкала измерения степени их сходства или различия [152, 325].

Понятия "кластер" и "конструкт" тесно взаимосвязаны:

– так как положительный и отрицательный полюса конструкта представляют собой кластеры, в наибольшей степени отличающиеся друг от друга, то конструкты могут быть получены как результат кластерного анализа кластеров;

– конструкт может рассматриваться как кластер с нечеткими границами, включающий в различной степени, причем не только в положительной, но и отрицательной, все классы (признаки).

В теории рефлексивных АСУ АО, конструктивный анализ позволяет решить такие задачи, как:

1. Определение в принципе совместимых и в принципе несовместимых целевых состояний АОУ. Совместимыми называются целевые состояния, для достижения которых необходимы сходные предпосылки и управляющие воздействия, а несовместимыми – для которых они должны быть диаметрально противоположными. Например, обычно сложно совмещаются такие целевые состояния, как очень высокое качество продукции и очень большое ее количество.

2. Определение факторов, имеющих не только сходное (это возможно и на уровне кластерного анализа), но и совершенно противоположное влияние на поведение сложного объекта управления.

Современный интеллект имеет дуальную структуру и, по сути дела, мыслит в системе кластеров и конструктов. Поэтому инструмент автоматизированного кластерно–конструктивного анализа может быть успешно применен для рефлексивного управления активными объектами.

Необходимо отметить, что формирование кластеров затруднено из-за проблемы комбинаторного взрыва, так как требует полного перебора и проверки "из n по m" сочетаний элементов (классов или признаков) в кластеры. Конструкты же формируются непосредственно из матрицы сходства прямой выборкой и сортировкой, что значительно проще в вычислительном отношении, так как конструктов значительно меньше, чем кластеров (всего n2). Поэтому учитывая, что при формировании конструктов автоматически формируются и их полюса, т.е. кластеры, в предложенной математической модели реализован не кластерный анализ, а сразу конструктивный (как более простой в вычислительном отношении и более ценный по получаемым результатам).

Диаграммы смыслового сходства–различия классов (признаков) соответствуют определению семантических сетей [244], т.е. представляют собой ориентированные графы, в которых признаки соединены линиями, соответствующими их смысловому сходству–различию.

Когнитивные диаграммы классов и признаков

В предложенной в настоящем исследовании математической модели в обобщенной постановке реализована возможность содержательного сравнения обобщенных образов классов распознавания и признаков, т.е. построения когнитивных диаграмм [152].

В информационных портретах классов распознавания мы видим, какое количество информации о принадлежности (или не принадлежности) к данному классу мы получаем, обнаружив у некоторого объекта признаки, содержащиеся в информационном портрете. В кластерно–конструктивном анализе мы получаем результаты сравнения классов распознавания друг с другом, т.е. мы видим, насколько они сходны и насколько отличаются. Но мы не видим, какими признаками они похожи и какими отличаются, и какой вклад каждый признак вносит в сходство или различие некоторых двух классов.

Эту информацию мы могли бы получить, если бы проанализировали и сравнили два информационных портрета. Эту работу и осуществляет режим содержательного сравнения классов распознавания.

Аналогично, в информационных портретах признаков мы видим, какое количество информации о принадлежности (или не принадлежности) к различным классам распознавания мы получаем, обнаружив у некоторого объекта данный признак. В кластерно–конструктивном анализе мы получаем результаты сравнения признаков друг с другом, т.е. мы видим, насколько они сходны и насколько отличаются. Но мы не видим, какими классами они похожи и какими отличаются, и какой вклад каждый класс вносит в смысловое сходство или различие некоторых двух признаков.

Эту информацию мы могли бы получить, если бы проанализировали и сравнили информационные портреты двух признаков. Эту работу и осуществляет режим содержательного (смыслового) сравнения признаков.

Содержательное (смысловое) сравнение классов

Обобщим математическую модель, предложенную и развиваемую в данной главе, на случай содержательного сравнения двух классов распознавания: J–го и L–го.

Признаки, которые есть по крайней мере в одном из классов, будем называть связями, так как благодаря тому, что они либо тождественны друг другу, либо между ними имеется определенное сходство или различие по смыслу, они вносят определенный вклад в отношения сходства/различия между классами.

Список выявленных связей сортируется в порядке убывания модуля силы связи, причем учитывается не более заданного количества связей.

Пусть, например:

у J–го класса обнаружен i–й признак,

у L–го класса обнаружен k–й признак.

Используем те же обозначения, что и в разделе 3.1.

На основе обучающей выборки системой рассчитывается матрица абсолютных частот встреч признаков по классам (таблица 3.11).

В разделе 3.1. получено выражение (3.28) для расчета количества информации в i–м признаке о принадлежности некоторого конкретного объекта к j–му классу (плотность информации), которое имеет вид:

(3.28)

Аналогично, формула для количества информации в k–м признаке о принадлежности к L–му классу имеет вид:

(3. 60)

Вклад некоторого признака i в сходство/различие двух классов j и l равен соответствующему слагаемому корреляции образов этих классов, т.е. просто произведению информативностей

(3. 61)

Классический коэффициент корреляции Пирсона, количественно определяющий степень сходства векторов двух классов: j и l, на основе учета вклада каждой связи, образованной i–м признаком, рассчитывается по формуле

(3. 62)

где:

– средняя информативность признаков j–го класса;

– средняя информативность признаков L–го класса;

– среднеквадратичное отклонение информативностей признаков j–го класса;

– среднеквадратичное отклонение информативностей признаков L–го класса.

Проанализируем, насколько классический коэффициент корреляции Пирсона (3.62) пригоден для решения важных задач:

– содержательного сравнения классов;

– изучения внутренней многоуровневой структуры класса.

Упростим анализ, считая, что средние информативности признаков по обоим классам близки к нулю, что при достаточно больших выборках (более 400 примеров в обучающей выборке) практически близко к истине.

Каждое слагаемое (3.61) суммы (3.62) отражает связь между классами, образованную одним i–м признаком. I–я связь существует в том и только в том случае, если i–й признак есть у обоих классов. Поэтому эти связи уместно называть одно–однозначными.

Этот подход можно назвать классическим для когнитивного анализа. Рассмотрим когнитивную диаграмму, приведенную на стр. 222 работы классика когнитивной психологии Р.Солсо [296] (рисунок 3.12)

Рисунок 3. 12
. Когнитивная диаграмма
из классической работы Роберта Солсо [296].

 

В данной когнитивной диаграмме наглядно в графической форме показано сравнение классов (обобщенных образов) "Малиновка" и "Птица" разных уровней общности по их атрибутам (признакам).

Как видно из данной диаграммы, в ней:

1. Все атрибуты имеют одинаковый вес, т.е. не учитывается, что некоторые атрибуты более важны для идентификации класса, чем другие. Это соответствует предположению, что этот вес равен по модулю 1 для всех атрибутов.

2. Все признаки имеют одинаковый знак, т.е. они все характерны для классов и нет атрибутов нехарактерных. Это соответствует предположению,  что вес всех признаков положительный, т.е. все призхнаки вносят вклад в сходство и нет признаков, вносящих вклад в различие.

3. Классы сравниваются только по тем атрибутам, которые есть одновременно у них обоих, т.е. признаки, имеющиеся у обоих классов вносят вклад в сходство классов, а признаки, которые есть только у одного из классов не вносят никакого вклада ни в сходство классов, ни в различие. Это соответствует предположению, что атрибуты ортонормированы, т.е. корреляция их друг с другом равна 0 (атрибуты семантически не связаны).

Каждое из этих трех допущений является довольно сильным и желательно их снять и, тем самым, обобщить принцип построения когнитивных диаграмм, приведенный в данном примере.

Но это означает, что данный подход не позволяет сравнивать классы, описанные различными, т.е. непересекающимися наборами признаков. Но даже если общие признаки и есть, то невозможность учета вклада остальных признаков является недостатком классического подхода, так как из содержательного анализа связей неконтролируемо исключается потенциально существенная информация. Таким образом, классический подход имеет ограниченную применимость при решении задачи №1. Для решения задачи №2 подход, основанный на формуле (3.62), вообще не применим, так как различные уровни системной организации классов образованы различными признаками и, следовательно, между уровнями не будет ни одной одно–однозначной связи.

Основываясь на этих соображениях, предлагается в общем случае учитывать вклад в сходство/различие двух классов, который вносят не только общие, но и остальные признаки. Логично предположить, что этот вклад (при прочих равных условиях) будет тем меньше, чем меньше корреляция между этими признаками.

Следовательно, для обобщения выражения для силы связи (3.61) необходимо умножить произведение информативностей признаков на коэффициент корреляции между ними, отражающий степень сходства или различия признаков по смыслу.

Таким образом, будем считать, что любые два признака (i,k) вносят определенный вклад в сходство/различие двух классов (j,l), определяемый сходством/различием признаков и количеством информации о принадлежности к этим классам, которое содержится в данных признаках:

(3. 63)

где – классический коэффициент корреляции Пирсона, количественно определяющий степень сходства по смыслу двух признаков: i и k, на основе учета вклада каждой связи, образованной содержащейся в них информацией о принадлежности к j–му классу

(3. 64)

где

– средняя информативность координат вектора i–го признака;

– средняя информативность координат вектора k–го признака;

– среднеквадратичное отклонение координат вектора i–го признака;

– среднеквадратичное отклонение координат вектора k–го признака.

Коэффициент корреляции между признаками (3.64) рассчитывается на основе всей обучающей выборки, а не только объектов двух сравниваемых классов. Так как коэффициент корреляции между признаками (3.64) практически всегда не равен нулю, то каждый признак i образует связи со всеми признаками k, где k={1,...,A}, а каждый признак k в свою очередь связан со всеми остальными признаками. Это означает, что выражение (3.63) является обобщением (3.61) с учетом много–многозначных связей.

На основе этих представлений сформулируем выражение для обобщенного коэффициента корреляции Пирсона между двумя классами: j и l, учитывающего вклад в их сходство/различие не только одно–однозначных, но и много–многозначных связей, образуемых коррелирующими признаками. Когнитивные диаграммы с много–многозначными  связями предлагается называть обобщенными когнитивными диаграммами.

(3. 65)

где Kik определяется выражением (3.64).

Сравним классический (3.62) и обобщенный (3.65) коэффициенты корреляции Пирсона друг с другом. Очевидно, при i=k (3.65) преобразуется в (3.62), т.е. соблюдается принцип соответствия. Отметим, что модель позволяет задавать минимальный коэффициент корреляции (порог) между признаками, образующими учитываемые связи. При пороге 100% отображаются только одно–однозначные связи, учитываемые в классическом коэффициенте корреляции (3.62). Из выражений (3.62) и (3.65) видно, что

(3. 66)

так как в обобщенном коэффициенте корреляции учитываются связи между классами, образованные за счет учета корреляций между различными признаками. Ясно, что отношение

(3. 67)

отражает степень избыточности описания классов. В модели имеется возможность исключения из системы признаков наименее ценных из них для идентификации классов. При этом в первую очередь удаляются сильно коррелирующие друг с другом признаки. В результате степень избыточности системы признаков уменьшается, и она становится ближе к ортонормированной.

Рассмотрим вопрос о единицах измерения, в которых количественно выражаются связи между классами.

Сходство двух признаков  выражается величиной от – 1 до +1.

Максимальная теоретически возможная информативность признака в Bit выражается формулой

(3. 68)

где Nobj – количество классов.

Таким образом, максимальная теоретически возможная сила связи Rmax равна

(3. 69)

Сила связи в диаграммах выражается в процентах от максимальной теоретически возможной силы связи.

На графической диаграмме отображается 8 наиболее сильных по модулю связей, рассчитанных согласно формуле (3.60), причем знак связи изображается цветом (красный +, синий – ), а величина – толщиной линии. Имеется возможность выводить диаграммы только с положительными или только с отрицательными связями (для не цветных принтеров).

Диаграммы Мерлина [143, 189] представляют собой частный случай обобщенных когнитивных диаграмм (т.е. с много–многозначными связями), т.е. диаграммы Мерлина – это когнитивные диаграммы, формируемые в соответствии с предложенной моделью при следующих граничных условиях:

1. Класс сравнивается сам с собой.

2. Фильтрация левого и правого информационных портретов выбрана по уровням системной организации признаков (в данном случае – уровням Мерлина).

3. Левый класс отображается с фильтрацией по одному уровню системной организации, а правый – по другому.

4. Диалог задания вида диаграмм предоставляет пользователю возможность задать следующие параметры:

– способ нормирования толщины линий, отображающих связи: нормирование по текущей диаграмме или по всем диаграммам;

– способ фильтрации признаков в информационных портретах диаграммы: по диапазону признаков или по диапазону уровней системной организации (уровням Мерлина);

– сами диапазоны признаков или уровней для левого и правого информационных портретов;

– максимальное количество связей, отображаемых на диаграмме;

– уровень сходства признаков, образующих одну связь, отображаемую на диаграмме: от 0 до 100%. При уровне сходства 100% в диаграммах отображаются только связи, образованные теми признаками, которые есть в обоих портретах одновременно, т.е. взаимно–однозначные связи. При уровне сходства менее 100% вообще говоря связи становятся много–многозначными, так как каждый признак корреляционно связан со всеми остальными;

– уровень сходства классов, отображаемых на диаграмме.

Таким образом, в предлагаемой математической модели в общем виде реализована возможность содержательного сравнения обобщенных образов состояний АОУ и факторов, т.е. построения когнитивных диаграмм [152, 277], веса атрибутов определяются автоматически на основе исходных данных в соответствии с математической моделью и могут принимать различные по величине положительные и отрицательные значения. Кроме того на основе кластерного анализа атрибутов определяются корреляции между ними, которые учитываются при определении вклада атрибутов в сходство или различие классов. Поэтому отношения между атрибутами разных классов в когнитивной диаграмме не "один к одному", как в диаграмме на рисунке 3.12, а "многие ко многим".

В информационном портрете состояния АОУ показано, какое количество информации о принадлежности (не принадлежности) АОУ к данному состоянию, а также о переходе (не переходе) АОУ в данное состояние содержится в том факте, что на АОУ действуют факторы, содержащиеся в данном информационном портрете.

Кластерно–конструктивный анализ дает результат сравнения состояний АОУ друг с другом, т.е. показывает, насколько эти состояния сходны друг с другом и насколько отличаются друг от друга. Но он не показывает, какими факторами эти состояния АОУ похожи и какими отличаются, и какой вклад каждый фактор вносит в сходство или различие каждых двух состояний. Чтобы получить эту информацию, необходимо проанализировать два информационных портрета, что и делается при содержательном сравнении состояний АОУ .

Смысл и значение диаграмм Мерлина применительно к проблематике АСУ состоит в том, что они наглядно представляют внутреннюю структуру детерминации состояний АОУ, т.е. показывают, каким образом связаны друг с другом факторы и будущие состояния АОУ.

 

Таким образом:

– для моделирования процессов принятия решений в адаптивных АСУ сложными системами целесообразно применение многокритериального подхода с аддитивным интегральным критерием, в котором в качестве частных критериев используется семантическая мера целесообразности информации (Харкевич, 1960);

– предложенная математическая модель обеспечивает эффективное решение следующих задач, возникающих при синтезе адаптивных АСУ АОУ: разработка абстрактной информационной модели АОУ; адаптация и конкретизация абстрактной модели на основе апостериорной информации о реальном поведении АОУ; расчет влияния факторов на переход АОУ в различные возможные состояния; прогнозирование поведения АОУ при конкретном управляющем воздействии и выработка многофакторного управляющего воздействия (основная задача АСУ); выявление факторов, вносящих основной вклад в детерминацию состояния АОУ; контролируемое удаление второстепенных факторов с низкой дифференцирующей способностью, т.е. снижение размерности модели при заданных ограничениях; сравнение влияния факторов, сравнение целевых и других состояний АОУ.

Предложенная методология, основанная на теории информации, обеспечивает эффективное моделирование задач принятия решений в адаптивных АСУ сложными системами.

Содержательное (смысловое) сравнение признаков

Предложенная математическая модель позволяет осуществить содержательное сравнение  информационных портретов двух признаков.

Выявляются классы, которые есть по крайней мере в одном из векторов. Такие классы называются связями, так как благодаря тому, что они либо тождественны друг другу, либо между ними имеется определенное сходство или различие, они вносят определенный вклад в отношения сходства/различия между признаками по смыслу.

Все связи между признаками сортируются в порядке убывания модуля, в соответствии с определенными ограничениями, связанными с тем, что нет необходимости учитывать очень слабые связи.

Для каждого класса известно, какое количество информации о принадлежности к нему содержит данный признак – это информативность. Здесь необходимо уточнить, что информативность признака – это не только количество информации в признаке о принадлежности к данному классу, но и количество информации в классе о том, что при нем наблюдается данный признак, т.е. это взаимная информация класса и признака.

Если бы классы были тождественны друг другу, т.е. это был бы один класс, то его вклад в сходство/различие двух признаков был бы просто равен соответствующему данному классу слагаемому корреляции этих признаков, т.е. просто произведению информативностей.

Но поскольку это в общем случае это могут быть различные классы, то, очевидно, необходимо умножить произведение информативностей на коэффициент корреляции между классами.

Таким образом, будем считать, что любые два класса (j,l) вносят определенный вклад в сходство/различие двух признаков (i,k), определяемый сходством/различием этих классов и количеством информации о принадлежности к ним, которое содержится в данных признаках

(3. 70)

Вывод формулы (3.70) обобщенного коэффициента корреляции Пирсона для двух признаков совершенно аналогичен выводу формулы (3.65), поэтому он здесь не приводится. Формулы для всех входящих в (3.70) величин приведены выше в предыдущем разделе.

Так же, как и в режиме содержательного сравнения классов, в данном режиме сила связи выражается в процентах от максимальной теоретически–возможной силы связи. На диаграммах отображается 16 наиболее значимых связей, рассчитанных согласно этой формуле, причем знак связи изображается цветом (красный +, синий –), а величина – толщиной линии. Имеется возможность вывода диаграмм только с положительными или только с отрицательными связями.

Математическая модель позволяет получить обобщенные инвертированные когнитивные диаграммы для любых двух заданных признаков, для пар наиболее похожих и непохожих признаков, для всех их возможных сочетаний, а также инвертированные диаграммы Мерлина.

Необходимо отметить, что понятия, соответствующие по смыслу терминам "обобщенная инвертированная когнитивная диаграмма" и "инвертированная диаграмма Мерлина" не упоминаются даже в фундаментальных руководствах по когнитивной психологии [296] и впервые предложены в [143, 152]. Эти диаграммы представляют собой частный случай обобщенных когнитивных диаграмм признаков, формируемых в соответствии с предложенной математической моделью при следующих ограничениях:

1. Признак сравнивается сам с собой.

2. Выбрана фильтрация левого и правого вектора по уровням системной организации классов (аналог уровней Мерлина для свойств).

3. Левый вектор отображается с фильтрацией по одному уровню системной организации классов, а правый – по другому.

Обоснование сопоставимости частных критериев Iij

Применение этого метода корректно, если можно сравнивать суммарное количество информации о переходе АОУ в различные состояния, рассчитанное в соответствии с выражением (3.62), т.е. если они сопоставимы друг с другом.

Будем считать, что величины сопоставимы тогда и только тогда, когда одновременно выполняются следующие три условия:

1. Сопоставимы индивидуальные количества информации, содержащейся в признаках о принадлежности к классам.

2. Сопоставимы величины, рассчитанные для одного объекта и разных классов.

3. Сопоставимы величины, рассчитанные для разных объектов и разных классов.

Очевидно, для решения всех этих вопросов необходимо дать точное и полное определение самого термина "сопоставимость".

Считается, что величины сопоставимы, если существует некоторая количественная шкала для измерения этих величин.

Таким образом, в нашем случае сопоставимость обеспечивается, если на шкале определены направление и единица измерения, а также есть абсолютный минимум (ноль) или максимум.

Докажем теоремы о выполнении условий сопоставимости для упрощенной и полной информационных моделей объектов и классов распознавания. Для этого рассмотрим вышеперечисленные необходимые и достаточные условия сопоставимости для упрощенной и полной информационных моделей.

Теорема-1: "О сопоставимости индивидуальных количеств информации, содержащейся в признаках объекта о принадлежности к классам"

В упрощенной информационной модели класса и информационной модели объекта принято, что все признаки имеют одинаковый вес, который равен 1, если признак есть у класса, и 0, если его нет. Уже одним этим обеспечивается сопоставимость индивидуальных количеств информации в упрощенной модели.

В полной модели количество информации рассчитывается в соответствии с модифицированной формулой Харкевича (3.28). Таким образом, в полной информационной модели класса для каждого признака известно, какое количество информации о принадлежности к данному классу он содержит. Это количество информации может быть положительным, нулевым и отрицательным, но не может превосходить некоторой максимальной величины, определяемой количеством классов распознавания: I=Log2W (мера Хартли), где W – количество классов распознавания. Следовательно, для полной информационной модели сопоставимость индивидуальных количеств информации также обеспечивается, так как для них применима шкала отношений.

Это означает, что индивидуальные количества информации можно суммировать и ввести интегральный критерий как аддитивную меру от индивидуальных количеств информации, что и т.д.

Теорема-2: "О сопоставимости величин суммарной информации, рассчитанных для одного объекта и разных классов"

В упрощенной информационной модели вариант расстояния Хэмминга, в котором учитываются только совпадения 1 (т.е. существующих признаков), для кодовых слов объекта и класса равно:

(3. 71)

где   – кодовое слово (профиль, массив–локатор) j–го класса;

Li  – кодовое слово (профиль, массив–локатор) объекта.

Пусть длина кодового слова (количество признаков) равна А. Длины кодовых слов объекта и классов одинаковы. Признаки могут принимать значения {0,1}. Тогда из этих условий и выражения (3.71) следует:

(3. 72)

Но выражение (3.72) является математическим определением шкалы отношений, что означает полную сопоставимость предложенной меры сходства для упрощенной информационной модели одного объекта и многих классов, что и т.д.

В полной информационной модели мера сходства объекта с классом имеет вид, определяемый выражением (3.70).

Очевидно, величина  нормирована:

(3. 73)

что и доказывает применимость шкалы отношений и полную сопоставимость меры сходства для полной информационной модели одного объекта и многих классов.

Это значит, что можно сравнивать меры сходства данного объекта с каждым из классов и ранжировать классы в порядке убывания сходства с данным объектом, что и т.д.

Теорема-3: "О сопоставимости величин суммарной информации, рассчитанных для разных объектов и разных классов, а также классов и классов, признаков и признаков"

Очевидно, величина , рассчитанная по формуле (3.70) для различных объектов и классов нормирована:

(3. 74)

что и доказывает применимость шкалы отношений и полную сопоставимость мер сходства для полной информационной модели многих объектов и многих классов.

Это значит, что можно сравнивать меры сходства различных объектов с классами распознавания и делать выводы о том, что одни объекты распознаются лучше, а другие хуже на данном наборе классов и признаков, что и т.д.

Аналогичные рассуждения верны и для сравнения векторов классов друг с другом, а также векторов признаков друг с другом, что позволяет применить модели кластерно–конструктивного анализа и алгоритмы построения семантических сетей, что и т.д.

Теорема-4: "Об аддитивности неметрического интегрального критерия сходства, основанного на модифицированной формуле А.Харкевича и обобщенной лемме Неймана-Пирсона"

Рассмотрим информационные модели распознаваемого объекта и классов распознавания, т.е. модели, основанные на теории кодирования – декодирования. Эта модель является упрощенной, но достаточно адекватной для решения вопроса об аддитивности меры сходства объектов и классов.

Информационная модель распознаваемого объекта представляет собой двоичное слово, каждый разряд которого соответствует определенному признаку. Если признак есть у распознаваемого объекта, то соответствующий разряд имеет значение 1, если нет – то 0. Двоичное слово с установленными в 1 разрядами, соответствующими признакам распознаваемого объекта, называется его кодовым словом.

Упрощенная информационная модель класса распознавания есть двоичное слово, каждый разряд которого соответствует определенному признаку. Соответствие между двоичными разрядами и признаками для классов то же самое, что и для распознаваемых объектов. Если признак есть у класса, то соответствующий разряд имеет значение 1, если нет – то 0. Двоичное слово с установленными в 1 разрядами, соответствующими признакам класса, называется его кодовым словом.

Такая модель класса является упрощенной, так как в ней принято, что все признаки имеют одинаковый вес равный 1, если он есть у класса, и 0, если его нет, тогда как в полной информационной модели класса для каждого признака известно, какое количество информации о принадлежности к данному классу он содержит. Это количество информации может быть положительным, нулевым и отрицательным, но не может превосходить некоторой максимальной величины, определяемой количеством классов распознавания: I=Log2N (мера Хартли), где N – количество классов.

Таким образом, в упрощенной информационной модели различные классы распознавания отличаются друг от друга только наборами признаков, которые им соответствуют.

При использовании этих упрощенных моделей задача распознавания объекта сводится к задаче декодирования, т.е. кодовые слова объектов рассматриваются как искаженные зашумленным каналом связи кодовые слова классов. Распознавание состоит в том, что по кодовому слову объекта определяется наиболее близкое ему в определенном смысле кодовое слово класса. При этом естественной и наиболее простой мерой сходства между распознаваемым объектом и классом является расстояние Хэмминга между их кодовыми словами, т.е. количество разрядов, которыми они отличаются друг от друга.

Рассмотрим теперь вопрос об аддитивности количества информации как частного критерия в интегральном критерии.

Известно [234], что существует всего два варианта формирования интегрального критерия из частных критериев: аддитивный и мультипликативный, поэтому задача сводится к выбору одного из этих вариантов.

Рассмотрим эти варианты. Пусть кодовое слово объекта состоит из N разрядов. Тогда добавление еще одного разряда, отображающего имеющийся (1) или отсутствующий (0) признак, приведет к различным результатам в случаях, когда интегральный критерий есть аддитивная и мультипликативная функция индивидуальных количеств информации в признаках (таблица 3.15):

 

Таблица 3. 15 – СРАВНЕНИЕ АДДИТИВНОГО И МУЛЬТИПЛИКАТИВНОГО
ВАРИАНТОВ ИНТЕГРАЛЬНОГО КРИТЕРИЯ

Дополнительный
признак

Аддитивная
функция:

Мультипликативная
функция:

Есть (1)

Нет (0)

 

Здесь предполагается, что: I=f(n), f(1)=1, f(0)=0.

Итак, если функция аддитивна – добавление еще одного разряда увеличит количество информации в кодовом слове на 1 бит, если соответствующий признак есть, и не изменит этого количества, если его нет; если же функция мультипликативна, – то это не изменит количества информации в кодовом слове, если соответствующий признак есть, и сделает его равным нулю, если его нет.

Очевидно, мультипликативный вариант интегрального критерия не соответствует классическим представлениям о природе информации, тогда как аддитивный вариант полностью им соответствует: требование аддитивности самой меры информации было впервые обосновано Хартли в 1928 году, подтверждено Шенноном в 1948 году, и в последующем развитии теории информации никогда не подвергалось сомнению. На аддитивности частных критериев, имеющих смысл количества информации, основана известная лемма Неймана-Пирсона [234, стр.152].

Таким образом, аддитивность интегрального критерия, основанного на частных критериях, имеющих смысл количества информации, можно считать обоснованной, что и т.д.

Обобщение интегральной модели путем учета значений выходных параметров объекта управления

Выходные параметры– это свойства объекта управления, зависят от входных параметров (в том числе параметров, характеризующих среду) и связанны с его целевым состоянием сложным и неоднозначным способом:

Задача идентификации состояния АОУ по его выходным параметрам решается подсистемой идентификации управляющей подсистемы, работающей на принципах системы распознавания образов. При этом классами распознавания являются выходные состояния АОУ, а признаками – его выходные параметры.

Подсистема выработки управляющих воздействий, также основанная на алгоритмах распознавания образов, обеспечивает выбор управления , переводящего объект управления в целевое состояние .

При этом последовательно решаются следующие две обратные задачи распознавания:

во–первых, по заданному целевому состоянию  определяются наиболее характерные для данного состояния выходные параметры объекта управления:

во–вторых, по определенному на предыдущем шаге набору выходных параметров определяются входные параметры , с наибольшей эффективностью переводящие объект управления в данное целевое состояние с этими выходными параметрами:

1. Показано, что определенная ограниченность подхода Шеннона, рассмотренная в четвертой главе данной работы, преодолевается в апостериорном подходе. Обосновано, что одной из наиболее перспективных конкретизаций апостериорного подхода, является подход, предложенный в 1960 году А.А.Харкевичем [234, 309, 330, 347]. Для моделирования процессов принятия решений в адаптивных АСУ сложными системами предложено применить многокритериальный подхода с аддитивным интегральным критерием, в котором в качестве частных критериев используется семантическая мера целесообразности информации. При апостериорном подходе количество информации оценивается косвенно: по изменению степени целесообразности поведения системы, получившей эту информацию. В результате получения информации поведение системы улучшается (растет выигрыш), а в результате получения дезинформации – ухудшается (растет проигрыш). Известны и более развитые обобщения [234], основанные на интересных и правдоподобных идеях, однако они наталкиваются на значительные математические трудности и намного более сложны в программной реализации, поэтому их рассмотрение в данном исследовании признано нецелесообразным.

2. Предложенная математическая модель обеспечивает эффективное решение следующих задач, возникающих в адаптивных АСУ СС:

– разработка абстрактной информационной модели АОУ;

– адаптация и конкретизация абстрактной модели на основе информации о реальном поведении АОУ;

– расчет влияния факторов на переход АОУ в различные возможные состояния;

– прогнозирование поведения АОУ при конкретном управляющем воздействии и выработка многофакторного управляющего воздействия (основная задача АСУ);

– выявление факторов, вносящих основной вклад в детерминацию состояния АОУ; контролируемое удаление второстепенных факторов с низкой дифференцирующей способностью, т.е. снижение размерности модели при заданных граничных условиях;

– сравнение влияния факторов, сравнение целевых и других состояний АОУ.

3. Таким образом, предложенная методология, основанная на теории информации, обеспечивает эффективное моделирование задач принятия решений в адаптивных АСУ сложными системами.

4. На примере метода сведения многокритериальной задачи принятия решений к однокритериальной показана глубокая внутренняя взаимосвязь данной модели с математической моделью распознавания образов. На этой основе введено понятие "интегрального метода" распознавания и принятия решений и, после изложения основных понятий теории информации, предложена базовая математическая модель "интегрального метода", основанная на теории информации. Показано, что теория информации может рассматриваться как единая основа методов РО и ПР, распознавание образов как принятие решения о принадлежности объекта к классу распознавания, прогнозирование как распознавание будущих состояний, принятие решения об управляющем воздействии на объект управления в АСУ как решение обратной задачи распознавания.

5. Проведено исследование базовой математической модели на примере решения основной задачи АСУ: задача принятия решения о наиболее эффективном управляющем воздействии. Осуществлена декомпозиция основной задачи в последовательность частных задач для каждой из которых найдено решение, показана взаимосвязь основной задачи АСУ с задачей декодирования теории информации.

 

3.3. НЕКОТОРЫЕ СВОЙСТВА МАТЕМАТИЧЕСКОЙ МОДЕЛИ (СХОДИМОСТЬ, АДЕКВАТНОСТЬ, УСТОЙЧИВОСТЬ И ДР.)

 

Под сходимостью семантической информационной модели в данной работе понимается:

а) зависимость  информативностей факторов (в матрице информативностей) от объема обучающей выборки;

б) зависимость адекватности модели (интегральной и дифференциальной валидности) от объема обучающей выборки.

Для измерения сходимости в смыслах "а" и "б" в системе реализован специальный исследовательский режим.

Под адекватностью модели понимается ее внутренняя и внешняя дифференциальная и интегральная валидность.

Под устойчивостью модели понимается ее способность давать незначительные различия в прогнозах и рекомендациях по управлению при незначительных различиях в исходных данных для решения этих задач.

 

3.3.1. Непараметричность модели. Робастные процедуры и фильтры для исключения артефактов

 

Предложенная семантическая информационная модель является непараметрической, т.к. не основана на предположениях о нормальности распределений исследуемой выборки.

Критерии для выявления артефактов есть только при большой статистике, когда же все частоты атрибутов малы, то невозможно отличить артефакт от значимого атрибута. При увеличении статистики частоты значимых атрибутов растут пропорционально объему выборки, тогда как частоты артефактов так и остаются чрезвычайно малыми, близкими к единице. В модели реализована процедура удаления наиболее вероятных артефактов, которая, как показывает опыт, существенно повышает качество (адекватность) модели.

 

3.3.2. Зависимость информативностей факторов от объема обучающей выборки

 

При учете в модели апостериорной информации, содержащейся в очередном объекте обучающей выборки, происходит перерасчет значений информативностей атрибутов. Иначе говоря изменяется количество информации, содержащейся в факте обнаружения у объекта данного атрибута о принадлежности объекта к определенному классу.

При этом значения информативностей атрибута "сходятся" к некоторому пределу в соответствии с двумя основными "сценариями":

1. Процесс "последовательных приближений", напоминающего по своей форме "затухающие колебания" (рисунок 3.13).

2. Относительно "плавное" возрастание или убывание с небольшими временными отклонениями от этой тенденции (рисунок 3.14). Других сценариев не наблюдается.

 

Рисунок 3. 13. Зависимость количества информации, содержащегося
в атрибуте №1 о принадлежности идентифицируемого объекта
(обладающего этим атрибутом) к классу №4

 

 Рисунок 3. 14. Зависимость количества информации, содержащегося в атрибуте №1 о принадлежности идентифицируемого объекта
(обладающего этим атрибутом) к классу №10

 

В любом случае при накоплении достаточно большой статистики и сохранении закономерностей предметной области, отражаемых обучающей выборкой, модель стабилизируется в том смысле, что значения информативностей атрибутов перестают существенно изменяться. При достижении этого состояния можно утверждать, что добавление новых примеров из обучающей выборки не вносит в модель ничего нового и процесс обучения продолжать нецелесообразно.

 

3.3.3. Зависимость адекватности семантической информационной модели от объема обучающей выборки (адекватность при малых выборках)

 

При экспериментальном исследовании характеристик предлагаемой модели было обнаружено следующее:

1. При малых выборках адекватность модели (внутренняя интегральная и дифференциальная валидность) равна 100% (рисунок 3.15, диапазон "А"). Это можно объяснить тем, что при малых объемах выборки все выявленные закономерности имеют детерминистский характер.

2. При увеличении объема исследуемой выборки происходит понижение адекватности модели (переход: А®В) и стабилизация адекватности на некотором уровне около 95-98% (рисунок 3.15, диапазон "В")

3. Учет в модели объектов обучающей выборки, отражающих закономерности, качественно отличающиеся от ранее выявленных, приводит к понижению адекватности модели (переход: В®С) и ее стабилизации на уровне от 80 до 90% (рисунок 3.15, диапазон "С").

4. Внутри диапазона "В" вариабельность объектов обучающей выборки по закономерностям "атрибут®класс" меньше, чем в диапазоне "С", т.е. объекты обучающей выборки диапазона "В" более однородны, чем "С".

 

Рисунок 3. 15. Зависимость адекватности модели от объема обучающей выборки

 

Выявленные в модели причинно-следственные закономерности имеют силу для определенного подмножества обучающей выборки, например, отражающих определенный период времени, который соответствует детерминистскому периоду развития предметной области. При качественном изменении закономерностей устаревшие данные могут даже на некоторое время (пока модель не сойдется к новым закономерностям) нарушать ее адекватность.

В многочисленных проведенных практических исследованных модель показала высокую скорость сходимости и высокую адекватность на малых выборках. На больших выборках (т.е. охватывающих несколько детерминистских и бифуркационных состояний предметной области) закономерности с коротким периодом "причина-следствие" переформировываются заново, а с длительным (охватывающим несколько детерминистских и бифуркационных состояний) – автоматически становятся незначимыми и не ухудшают адекватность модели, если процесс апериодический, или сохраняют силу, если они имеют фундаментальный характер.

Из вышесказанного вытекает критерий остановки процесса обучения: если в модели ничего существенно не меняется при добавлении в обучающую выборку все новых и новых данных, то это означает, что модель адекватно отображает генеральную совокупность и продолжать процесс обучения нецелесообразно.

Здесь уместно рассмотреть один часто встречающийся вопрос, который состоит в следующем. Если для формирования образов классов распознавания предъявлено настолько малое количество обучающих анкет, что говорить об обобщении и статистике не приходится, то как это может повлиять на качество формирования этих образов и на достоверность распознавания?  Если бы была статистика, то как показывает опыт, около 95% анкет, формирующих образ оказывается типичными для него, а остальные не типичными. Если этот образ формируется на основе буквально одной - двух анкет, то вероятнее всего (т.е. с вероятностью около 95%) они являются типичными, и, следовательно, образ будет сформирован практически таким же, как и при большой статистике, т.е. правильным. При увеличении статистики в этом случае информативности признаков, составляющих образ практически не меняются). Но есть некоторая, сравнительно незначительная вероятность (около 5%), что попадется нетипичная анкета. Тогда при увеличении статистики образ быстро качественно изменится и "быстро сойдется" к адекватному, "нетипичная" анкета будет идентифицирована и ее данные либо будут удалены из модели, либо для нее специально будет создан свой класс.

При незначительной статистике относительный вклад каждой анкеты в некоторый образ, сформированный с ее применением, будет достаточно велик. Поэтому в этом случае при распознавании Система уверенно относит анкету к этому образу. При большой статистике Система также уверенно относит типичные анкеты к образам, сформированным с их применением. Незначительное количество нетипичных анкет могут быть распознаны ошибочно, т.е. не отнесены Системой к тем образам, к которым их отнесли эксперты.

Наличие в системе классов распознавания очень сходных образов (по данным кластерно-конструктивного анализа) также может формально уменьшать валидность Системы. Однако фактически очень сходные образы целесообразно объединить в один, т.к. по-видимому, их разделение объективно ничем не оправдано, т.е. не соответствует действительности. Для осуществления данной операции предназначен режим: "Получение стат.характеристики обучающей выборки и объединение классов распознавания (ручной ремонт обучающей выборки)".

 

3.3.4. Семантическая устойчивость модели

 

Под семантической устойчивостью модели [141] в данном исследовании понимается ее свойство давать малое различие в прогнозе при замене одних факторов, другими, мало отличающимися по смыслу (т.е. сходными по их влиянию на поведение АОУ). Проведенные автором исследования и численные эксперименты показали, что предложенная модель обладает очень высокой семантической устойчивостью.

 

3.3.5. Зависимость некоторых параметров модели от ее ортонормированности

 

Изучим зависимость уровня системности, степени детерминированности и адекватности модели от ее ортонормированности. В связи с тем, что соответствующий научно-исследовательский режим, позволяющий изучить эти зависимости методом численного эксперимента, на момент написания данной работы находится в стадии разработки, получим интересующие нас зависимости путем анализа выражений (3.9) и (3.25), полученных в разделе 3.1.3.

При этом будем различать ортонормированность модели по классам и ортонормированность по атрибутам.

Зависимость адекватности модели от ее ортонормированности

Эта зависимость изучалась методом численного эксперимента. При этом были получены следующие результаты.

На 1-м этапе ортонормирования адекватность модели (ее внутренняя дифференциальная и интегральная валидность) возрастает. Это можно объяснить тем, что, во-первых, уменьшается количество ошибок идентификации с близкими, т.е. коррелирующими классами, и, во-вторых, удаление из модели малоинформативных признаков по сути улучшает отношение "сигнал/шум" модели, т.е. качество идентификации.

На 2-м этапе ортонормирования адекватность модели стабилизируется и незначительно колеблется около максимума. Это объясняется тем, что атрибуты, удаляемые на этом этапе, не являются критическим для адекватности модели.

На 3-м этапе ортонормирования адекватность модели начинает уменьшаться, т.к. дальнейшее удаление атрибутов не позволяет адекватно описать предметную область.

При приближении процесса ортонормирования к 3-му этапу или его наступлении этот процесс должен быть остановлен.

Зависимость уровня системности модели от ее ортонормированности

Рассмотрим выражение (3.9):

(3.9)

При выполнении операции ортонормирования по классам из модели последовательно удаляются те из них, которые наиболее сильно корреляционно связаны друг с другом. В результате в модели остаются классы практически не коррелирующие, т.е. ортонормированные. Поэтому можно предположить, что в результате ортонормирования правила запрета на образование подсистем классов становятся более жесткими, и уровень системности модели уменьшается.

Зависимость степени детерминированности модели от ее ортонормированности

Рассмотрим выражение (3.25):

(3.25)

Так как каждый класс как правило описан более чем одним признаком, то при ортонормировании классов и удалении некоторых из них из модели суммарное количество признаков N будет уменьшаться быстрее, чем количество классов W, поэтому степень детерминированности будет возрастать.

При ортонормировании атрибутов числитель выражения (3.25) не изменяется, а знаменатель уменьшается, поэтому и в этом случае степень детерминированности возрастает.

Таким образом, ортонормирование модели приводит к увеличению степени ее детерминированности.

По этой причине предлагается считать "истинной детерменированностью" предел, к которому стремится детерминированность, при корректном ортонормировании модели, т.е. при достижении максимума адекватности.

 

3.4. СВЯЗЬ СИСТЕМНОГО ОБОБЩЕНИЯ ИНФОРМАЦИОННОЙ МЕРЫ ХАРКЕВИЧА СО СТАТИСТИКОЙ c2 И НОВАЯ МЕРА УРОВНЯ СИСТЕМНОСТИ ПРЕДМЕТНОЙ ОБЛАСТИ

 

Статистика c2 представляет собой сумму вероятностей совместного наблюдения признаков и объектов по всей корреляционной матрице или определенным ее подматрицам (т.е. сумму относительных отклонений частот совместного наблюдения признаков и объектов от среднего):

(3. 75)

где:

– Nij – фактическое количество встреч i-го признака у объектов j-го класса;

– t      ожидаемое количество встреч i-го признака у объектов j-го класса.

(3. 76)

Нельзя не обратить внимание на то, что статистика c2 математически простым образом связана с количеством информации в системе признаков о классе распознавания, в соответствии с системным обобщением формулы Харкевича для плотности информации (3.28)

(3. 77)

а именно из (3.76) и (3.77) получаем:

(3. 78)

Из (3.78) очевидно:

(3. 79)

Сравнивая выражения (3.75) и (3.79), видим, что числитель в выражении (3.75) под знаком суммы отличается от выражения (3.79) только тем, что в выражении (3.79) вместо значений Nij и t взяты их логарифмы. Так как логарифм является монотонно возрастающей функцией аргумента, то введение логарифма не меняет общего характера поведения функции.

Фактически это означает, что:

(3. 80)

Если фактическая вероятность наблюдения i–го при­знака при предъявлении объекта j–го класса равна ожидаемой (средней), то наблюдение этого признака не несет никакой информации о принадлежности объекта к данному классу. Если же она выше средней – то это говорит в пользу того, что предъявлен объект данного класса, если же ниже – то другого.

Поэтому наличие статистической связи (информации) между признаками и классами распознавания, т.е. отличие вероятностей их совместных наблюдений от предсказываемого в соответствии со случайным нормальным распределением, приводит к увеличению фактической статистики c2 по сравнению с теоретической величиной.

Из этого следует возможность использования в качестве количественной меры степени выраженности закономерностей в предметной области использовать не матрицу абсолютных частот и меру c2, а новую меру основанную на матрице информативностей и системном обобщении формулы Харкевича для количества информации:

(3. 81)

где:

– средняя информативность признаков по матрице информативностей.

Значение данной меры показывает среднее отличие количества информации в факторах о будущих состояниях активного объекта управления от среднего количества информации в факторе (которое при больших выборках близко к 0). По своей математической форме эта мера сходна с мерами для значимости факторов и степени сформированности образов классов и коррелирует с объемом пространства классов и пространства атрибутов.

Описанная выше математическая модель обеспечивает инвариантность результатов обучения Системы относительно следующих параметров обучающей выборки:

1. Суммарное количество и порядок ввода анкет обучающей выборки.

2. Количество анкет обучающей выборки по каждому классу распознавания.

3. Суммарное количество признаков во всех анкетах обучающей выборки.

4. Суммарное количество признаков по эталонным описаниям различных классов распознавания.

5. Количество признаков и их порядок в отдельных анкетах обучающей выборки.

Это обеспечивает высокое качество решения задач системой распознавания на неполных и разнородных (в вышеперечисленных аспектах) данных как обучающей, так и распознаваемой выборки, т.е. при таких статистических характеристиках потоков этих данных, которые чаще всего и встречается на практике и которыми невозможно или очень сложно управлять.

 

3.5. СРАВНЕНИЕ, ИДЕНТИФИКАЦИЯ И ПРОГНОЗИРОВАНИЕ КАК ОБЪЕКТНЫЙ АНАЛИЗ (РАЗЛОЖЕНИЕ ВЕКТОРОВ ОБЪЕКТОВ В РЯД ПО ВЕКТОРАМ КЛАССОВ)

 

В разделе 3.4 были введены неметрические интегральные критерии сходства объекта, описанного массивом-локатором Li с векторами обобщенных образов классов Iij (выражения 3.57 и 3.55)

(3. 82)

В выражении (3.82) круглыми скобками обозначено скалярное произведение. В координатной форме это выражение имеет вид:

,

(3. 83)

где:

– вектор j–го состояния объекта управления;

 – вектор состояния предметной области, включающий все виды факторов, характеризующих объект управления, возможные управляющие воздействия и окружающую среду (массив–локатор), т.е.:

Для непрерывного случая выражение (3.81) принимает вид:

(3. 84)

Таким образом, выражение (3.82) представляет собой вариант выражения (3.80) интегрального критерия сходства объекта и класса для непрерывного случая в координатной форме.

Интересно и очень важно отметить, что коэффициенты ряда Фурье по своей математической форме и смыслу сходны с ненормированными коэффициентами корреляции, т.е. по сути скалярными произведениями для непрерывных функций в координатной форме: выражение (3.82), между разлагаемой в ряд кривой f(x) и функциями Sin и Сos различных частот и амплитуд на отрезке [–L, L] [3]:

 

(3. 85)

где: n={1, 2, 3,…} – натуральное число.

Из сравнения выражений (3.82) и (3.83) следует вывод, что процесс идентификации и прогнозирования (распознавания), реализованный в предложенной математической модели, может рассматриваться как разложение вектора распознаваемого объекта в ряд по векторам классов распознавания.

Например, при результатах идентификации, представленных на рисунке (3.16):

Рисунок 3. 16. Пример разложения профиля курсанта усл.№69
в ряд по обобщенным образам классов

Продолжая развивать аналогию с разложением в ряд, данный результат идентификации можно представить в векторной аналитической форме:

Или в координатной форме, более удобной для численных расчетов:

(3. 86)

где:

I(j) – интегральный критерий сходства массива-локатора, описывающего состояние объекта, и j-го класса, рассчитываемый согласно выражения (3.57):

(3.57)

I(i,j) – вектор обобщенного образа j-го класса, координаты которого рассчитываются в соответствии с системным обобщением формулы Харкевича (3.28):

(3.28)

Примечание: обозначения I(i,j) и Iij, и т.п. эквивалентны. Смысл всех переменных, входящих в выражения (3.28) и (3.57) раскрыт в разделе 3.1.3 данной работы.

 

При дальнейшем развитии данной аналогии естественно возникают вопросы:

– о полноте, избыточности и ортонормированности системы векторов классов как функций, по которым будет вестись разложение вектора объекта;

– о сходимости, т.е. вообще возможности и корректности такого разложения.

В общем случае вектор объекта совершенно не обязательно должен разлагаться в ряд по векторам классов таким образом, что сумма ряда во всех точках точно совпадала со значениям исходной функции. Это означает, что система векторов классов не обязательно будет полна по отношению к профилю распознаваемого объекта, и, тем более, всех возможных объектов. Предлагается считать не разлагаемые в ряд, т.е. плохо распознаваемые объекты суперпозицией хорошо распознаваемых объектов ("похожих" на те, которые использовались для формирования образов), и объектов, которые и не должны распознаваться, так как объекты этого типа не встречались в обучающей выборке и не использовались для формирования обобщенных образов классов.

Нераспознаваемую компоненту можно рассматривать либо как шум, либо считать ее полезным сигналом, несущим ценную информацию о еще не исследованных объектах интересующей нас предметной области (в зависимости от целей и тезауруса исследователей). Первый вариант не приводит к осложнениям, так как примененный в математической модели алгоритм сравнения векторов объектов и классов, основанный на вычислении нормированной корреляции Пирсона (сумма произведений), является весьма устойчивым к наличию белого шума в идентифицируемом сигнале. Во втором варианте необходимо дообучить систему распознаванию объектов, несущих такую компоненту (в этой возможности и заключается адаптивность модели). Технически этот вопрос решается просто копированием описаний плохо распознавшихся объектов из распознаваемой выборки в обучающую, их идентификацией экспертами и дообучением системы. Кроме того, может быть целесообразным расширить справочник классов распознавания новыми классами, соответствующими этим объектам.

Но на практике гораздо чаще наблюдается противоположная ситуация (можно даже сказать, что она типична), когда система векторов избыточна, т.е. в системе классов распознавания есть очень похожие классы (между которыми имеет место высокая корреляция, наблюдаемая в режиме: "кластерно–конструктивный анализ"). Практически это означает, что в системе сформировано несколько практически одинаковых образов с разными наименованиями. Для исследователя это само по себе является очень ценной информацией. Однако, если исходить только из потребности разложения распознаваемого объекта в ряд по векторам классов (чтобы определить суперпозицией каких образов он является, т.е. "разложить его на компоненты"), то наличие сильно коррелирующих друг с другом векторов представляется неоправданным, так как просто увеличивает размерности данных, внося в них мало нового по существу. Поэтому возникает задача исключения избыточности системы классов распознавания, т.е. выбора из всей системы классов распознавания такого минимального их набора, в котором профили классов минимально коррелируют друг с другом, т.е. ортогональны в фазовом пространстве признаков. Это условие в теории рядов называется "ортонормируемостью" системы базовых функций, а в факторном анализе связано с идеей выделения "главных компонент".

В предлагаемой математической модели есть два варианта выхода из данной ситуации: исключение неформирующихся, расплывчатых или дублирующих классов; объединение почти идентичных по содержанию классов.

Но выбрать вариант и реализовать его, используя соответствующие режимы, пользователь технологии АСК-анализа должен сам. Вся необходимая и достаточная информация для принятия соответствующих решений предоставляется пользователю системы.

Если считать, что функции образов образуют формально–логическую систему, к которой применима теорема Геделя, то можно сформулировать эту теорему для данного случая следующим образом: "Для любой системы базисных функций всегда существует по крайней мере одна такая функция, что она не может быть разложена в ряд по данной системе базисных функций, т.е. всегда существует функция, которая является ортонормированной ко всей системе базисных функций в целом".

Очевидно, не взаимосвязанными друг с другом могут быть только четко оформленные, детерминистские образы, т.е. образы с высокой степенью редукции ("степень сформированности конструкта"). Поэтому в процессе выявления взаимно–ортогональных базисных образов в первую очередь будут выброшены аморфные "расплывчатые" образы, которые связаны практически со всеми остальными образами.

В некоторых случаях результат такого процесса представляет интерес и это делает оправданным его реализацию. Однако можно предположить, что и наличие расплывчатых образов в системе является оправданным, так как в этом случае система образов не будет формальной и подчиняющейся теореме Геделя, следовательно, система распознавания будет более полна в том смысле, что повысится вероятность идентификации любого объекта, предъявленного ей на распознавание. Конечно, уровень сходства с аморфным образом не может быть столь же высоким, как с четко оформленным, поэтому в этом случае может быть более уместно применить термин "ассоциация" или нечеткая, расплывчатая идентификация, чем "однозначная идентификация".

Итак, можно сделать следующий вывод: возможность наличия в системе не только четко оформленных (детерминистских) образов, но и образов аморфных, нечетких, расплывчатых является важным достоинством перспективной системы распознавания, так как обеспечивает ей возможность устойчивой работы даже в тех случаях, в которых системы распознавания (идентификации) и информационно–поисковые системы детерминистского типа практически неработоспособны. В этих условиях перспективная система работает как система ассоциативной идентификации.

Таким образом, в предложенной семантической информационной модели при идентификации и прогнозировании по сути дела осуществляется разложение векторов идентифицируемых объектов по векторам классов распознавания, т.е. осуществляется "объектный анализ" (по аналогии с спектральным, гармоническим или Фурье–анализом), что позволяет рассматривать идентифицируемые объекты как суперпозицию обобщенных образов классов различного типа с различными амплитудами (3.84). При этом вектора обобщенных образов классов с математической точки зрения представляют собой произвольные функции, и не обязательно образуют полную и не избыточную (ортонормированную) систему функций.

 

3.6. ВЫВОДЫ

 

1. В третьей главе сформулированы требования к математической модели и к численной мере, а затем обоснован выбор базовой численной меры.

Для этого рассмотрены три вида информации: абсолютная, относительная и аналитическая информация и отдано предпочтение аналитической форме информации, к которой принадлежат относительные вероятности, относительные проценты и количество информации. Вместо традиционных мер, основанных на понятии "стоимости" и "полезности" предложено использовать информационную меру. Рассмотрены различные аспекты применения теории информации для анализа процесса труда и средств труда как информационных систем. Показано, что принятие решения об управляющем воздействии и управление есть обратный процесс по отношению к идентификации и прогнозированию, т.е. познанию. Показана связь количества (синтаксиса) и качества (содержания, семантики) информации, записываемой в структуре предмета труда, с меновой и потребительной стоимостью. Сформулирована информационная теория стоимости, в которой информация рассматривается как сущность стоимости и как "первичный" и по сути единственный товар. Рассмотрены вопросы определения стоимости и амортизация интеллектуальных систем и баз знаний. Показано, что их стоимость генераторов информации  возрастает в процессе эксплуатации. С позиций теории информации раскрыт фундаментальный источник экономической эффективности АСУ и систем интеллектуальной обработки данных: понижение энтропии объекта управления как приемника сообщений в результате получения управляющей информации. Сделан вывод о целесообразности выбора в качестве базовой численной меры количества информации. Поставлена задача выбора или конструирования конкретной численной меры, основанной на понятии информации.

2. В классической теории информации Шеннона, созданной на основе обобщения результатов Больцмана, Найквиста и Хартли, само понятие информации определяется на основе теоретико-множественных и комбинаторных представлений на основе анализа поведения классического макрообъекта, который может переходить только в четко фиксированные альтернативные редуцированные состояния. Однако, квантовые объекты и сложные активные рефлексивные системы могут оказываться одновременно в двух и более альтернативных для классических объектов состояниях. Такие состояния будем называть смешанными. Таким образом наблюдается картина последствий, не сводящаяся к простой сумме последствий альтернативных вариантов, т.е. очень напоминающая квантовое физическое явление, которое называется интерференцией плотности вероятности. Это явление, безусловно имеющее системный характер, предлагается называть "интерференция последствий выбора".

3. Предлагается обобщение классической теория информации Хартли-Шеннона путем рассмотрения квантовых и активных объектов в качестве объектов, на основе анализа которых формируется само основополагающее понятие информации. Обобщенную таким образом теорию информации предлагается называть системной или эмерджентной теорией информации (было бы удачным назвать ее и квантовой, но этот термин уже используется в другом смысле). Основным отличием эмерджентной теории информации от классической является учет свойства системности, как фундаментального и универсального свойства всех объектов, на уровне самого понятия информации, а не только в последующем изложении, как в классической теории.

4. Предложена системная модификация формулы Хартли для количества информации:

где:

W – количество чистых (классических) состояний системы;

– сочетания "по m" классических состояний.

Так как , то при M=1 выполняется принцип соответствия, являющийся обязательным для более общей теории. Данная формула дает верхнюю оценку возможного количества информации  состоянии системы, т.к. возможны различные правила запрета и реальное количество возможных состояний системы будет меньшим, чем .

Предложено приближенное выражение для системной модификации формулы Хартли (при M=W):

При W>4 погрешность данного выражения не превышает 1%.

Дополнительная информация, которую мы получаем из поведения объекта в СТИ, по сути дела является информацией о множестве всех его возможных состояний, как системы, элементом которой является объект в некотором данном состоянии.

5. Численные расчеты и аналитические выкладки показывают, что при возрастании количества элементов в системе доля системной информации в поведении ее элементов возрастает, причем возрастает ускоренно. Это обнаруженное нами свойство систем предлагается назвать "Законом возрастания эмерджентности".

6. Предложена системная модификация классической формулы А.Харкевича, являющееся нелинейной суперпозицией классических выражением для плотности информации Шеннона и количества информации Хартли.

где: j – коэффициент эмерджентности Хартли (уровень системной организации объекта, имеющего W чистых состояний):

Полученное выражение учитывает как взаимосвязь между признаками (факторами) и будущими, в т.ч. целевыми состояниями объекта управления, так и мощность множества будущих состояний. Кроме того она объединяет возможности интегрального и дискретного описания объектов, что является основой формализации смысла, а также удовлетворяет принципу соответствия, т.е. преобразуется в формулу Хартли в предельном случае, когда каждому классу (состоянию объекта) соответствует один признак (фактор), и каждому признаку – один класс, и эти классы (а, значит и признаки), равновероятны.

7. Все это делает выражение оптимальным по сформулированным критериям для целей построения семантической информационной модели активных объектов управления и для применения для синтеза рефлексивных АСУ активными системами.

8. В предложенной семантической информационной модели генерируется обобщенная таблица решений, в которой входы (факторы) и выходы будущие состояния активного объекта управления (АОУ) связаны друг с другом не с помощью классических (Аристотелевских) импликаций, принимающих только значения: "Истина" и "Ложь", а различными значениями истинности, выраженными в битах и принимающими значения от положительного теоретически-максимально-возможного ("Максимальная степень истинности"), до теоретически неограниченного отрицательного ("Степень ложности"). Синтез обобщенных таблиц решений для различных предметных областей осуществляется непосредственно на основе эмпирических исходных данных, на основе этих таблиц продуцируются прямые и обратные правдоподобные (нечеткие) логические рассуждения по неклассическим схемам с различными расчетными значениями истинности, являющимся обобщением классических импликаций. При этом в прямых рассуждениях как предпосылки рассматриваются факторы, а как заключение – будущие состояния АОУ, а в обратных – наоборот. Степень истинности i-й предпосылки – это количество информации Iij, содержащейся в предпосылке о наступлении j-го будущего состояния активного объекта управления.

9. Евклидово расстояние в качестве меры сходства объекта с классом, класса с классом и атрибута с атрибутом не применимо, т.к. информационное семантическое пространство вообще говоря неортонормированно, расстояние Махалонобиса также неприменимо, т.к. измеряет расстояние от центроида, а не между векторами, поэтому на основе леммы Неймана-Пирсона в качестве неметрической меры сходства предложено использовать суммарное количество информации. Если предпосылок несколько, то степень истинности наступления j-го состояния АОУ равна суммарному количеству информации, содержащемуся в них об этом:

Или в координатной форме:

,

где:  – вектор j–го состояния объекта управления, координаты которого в информационном семантическом пространстве рассчитываются согласно системного обобщения формулы Харкевича, приведенной в п.6;   – булев вектор состояния предметной области, включающий все виды факторов, характеризующих объект управления, возможные управляющие воздействия и окружающую среду (массив–локатор).

10. Предложенная семантическая информационная модель позволяет решать задачи идентификации и прогнозирования развития активных систем (разложение вектора объекта по векторам классов – "Объектный анализ"), а также вырабатывать эффективные управляющие воздействия путем решения обратной задачи прогнозирования и применения элементов нетрадиционной логики и правдоподобных (нечетких) рассуждений. В ней объединены преимущества содержательных и статистических моделей, созданы предпосылки для реализации АСК-анализа.

11. Исследована взаимосвязь примененной в модели семантической меры Харкевича со статистикой Х2, и, на этой основе, предложена новая статистическая мера наличия причинно-следственных связей H, основанная на модифицированной формуле Харкевича:

где:

– средняя информативность признаков по матрице информативностей.

Обоснована устойчивость модели при малых выборках, дано обоснование сопоставимости частных критериев, разработана интерпретация распознавания как объектного анализа (разложение вектора объекта в ряд по векторам классов), предложены робастные процедуры, а также процедуры обеспечения структурной репрезентативности выборки.

12. Предложен коэффициент эмерджентности Хартли j, который представляет собой относительное превышение количества информации о системе при учете системных эффектов (смешанных состояний, иерархической структуры ее подсистем и т.п.) над количеством информации без учета системности, т.е. этот коэффициент отражает уровень системности объекта. Уровень системности объекта изменяется от 1 (системность минимальна, т.е. отсутствует) до W/Log2W (системность максимальна). Для каждого количества элементов системы существует свой максимальный уровень системности, который никогда реально не достигается из-за действия правил запрета на реализацию в системе ряда подсистем различных уровней иерархии.

Предложен коэффициент эмерджентности Харкевича Y, который изменяется от 0 до 1 и определяет степень детерминированности системы:

Y=1 соответствует полностью детерминированной системе, поведение которой однозначно определяется действием минимальным количеством факторов, которых столько же, сколько состояний системы;

Y=0 соответствует полностью случайной системе, поведение которой никак не зависит действия факторов независимо от их количества;

0<Y<1 соответствуют большинству реальных систем поведение которых зависит от многих факторов, число которых превосходит количество состояний системы, причем ни одно из состояний не определяется однозначно никакими сочетаниями действующих факторов.

Увеличение уровня системности влияет на семантическую информационную модель аналогично повышению уровня детерминированности. Понижение уровня системности, также как и степени детерминированности системы приводит к ослаблению влияния факторов на поведение системы, т.е. к своего рода "инфляции факторов".

Основной вывод по результатам третьей главы:

В предложенном системном обобщении формулы Харкевича впервые непосредственно в аналитическом выражении для самого понятия "Информация" отражены такие фундаментальные свойства систем, как "Уровень системности" и "Степень детерминированности" системы, кроме того это выражение (как и формула Шеннона) удовлетворяет принципу соответствия с выражением Хартли в детерминистском случае, учитывает понятие цели, мощность множества будущих состояний объекта управления, объединяет возможности интегрального и дискретного описания объектов. По этим причинам полученное выражение является оптимальным в качестве основы для построения математической модели рефлексивных АСУ активными объектами.