Дистрибутивные преобразования логического описания
Вторым этапом выполнения методики, в силу специфики дальнейшего перехода от булевых переменных к достоверности событий, является дистрибутивное преобразование логических функций (12.1) к виду, который обеспечивает единственность вхождения всех переменных, участвующих в одном логическом выражении.
Это преобразование выполняется с помощью свойства дистрибутивности конъюнкции по отношению к дизъюнкции и дизъюнкции по отношению к конъюнкции, что составляет суть эквивалентного дистрибутивного преобразования (12.1).
Правила эквивалентных преобразований логических выражений широко известны. Однако указанная специфика свойства дистрибутивности гарантирует возможность с помощью последовательного вынесения за скобки обеспечить единственность вхождения каждой используемой переменной в отдельное логическое выражение.
Необходимость такого преобразования обусловлена заменой операций конъюнкции и дизъюнкции их приближенным "суррогатом" - передаточной функцией. Практически такая функция основана на суммировании (взвешенных) сигналов на входе нейрона. Тогда неоднократность вхождения одних и тех же сигналов становится недопустимой.
Однако приведенный ранее пример показывает, что не всегда подобное преобразование приводит к успеху. Тогда используется прием "размножения" решений, основанный на том, что логическое выражение разбивается на составляющие выражения, объединенные операцией дизъюнкции. Для всех таких выражений, входящих в описание вместо прежнего, определяется одно общее решение.
В результате таких преобразований каждое выражение логического описания в общем случае представляет собой скобочную запись с более чем одним уровнями вложенности.
Однако указанное свойство передаточной функции, сводящей две операции к одной, порождает возможность существенного упрощения нейросети, а именно, - сведение ее к однослойной.
Ранее было показано, что с помощью приема "размножения" решений такое сведение всегда возможно. Однако оно приводит к "дроблению" сети, к размножению путей получения одних и тех же решений, к перегрузке сети заданной фиксированной структуры на этапе ее обучения.
В то же время многие реальные процессы по самому смыслу своему (экономические системы, управляющие, технологические и др.) адекватны не просто однослойным логическим нейронным сетям, но даже сетям совершенным.
Анализ на возможность построения однослойной нейросети следует проводить на этом же этапе выполнения методики до выполнения дистрибутивных преобразований.
Самый простой способ такого анализа заключается в следующем. Для каждого логического выражения в (12.1) выпишем без повторения множества используемых в них переменных (сформируем обобщенные эталоны). Проведем совместный анализ обобщенных эталонов, составленных по всем логическим выражениям, и установим, отсутствует ли полное вхождение одного из таких эталонов в другой? Если такое вхождение отсутствует (пересечение обобщенных эталонов допустимо), то возможно построение однослойной нейросети, т.е. непосредственное соединение связями нейронов-рецепторов с нейронами выходного слоя. Более того, если все обобщенные эталоны содержат одинаковое число переменных, возможно построение совершенной нейронной сети.
Если некоторый обобщенный эталон входит в состав другого (пример такой СПР приведен в лекции 9), необходимо полное воспроизведение структуры логических связей, что приводит к многослойной нейросети.
В то же время многие реальные процессы по самому смыслу своему (экономические системы, управляющие, технологические и др.) адекватны не просто однослойным логическим нейронным сетям, но даже сетям совершенным.
Анализ на возможность построения однослойной нейросети следует проводить на этом же этапе выполнения методики до выполнения дистрибутивных преобразований.
Самый простой способ такого анализа заключается в следующем. Для каждого логического выражения в (12.1) выпишем без повторения множества используемых в них переменных (сформируем обобщенные эталоны). Проведем совместный анализ обобщенных эталонов, составленных по всем логическим выражениям, и установим, отсутствует ли полное вхождение одного из таких эталонов в другой? Если такое вхождение отсутствует (пересечение обобщенных эталонов допустимо), то возможно построение однослойной нейросети, т.е. непосредственное соединение связями нейронов-рецепторов с нейронами выходного слоя. Более того, если все обобщенные эталоны содержат одинаковое число переменных, возможно построение совершенной нейронной сети.
Если некоторый обобщенный эталон входит в состав другого (пример такой СПР приведен в лекции 9), необходимо полное воспроизведение структуры логических связей, что приводит к многослойной нейросети.