Wednesday, July 20, 2022

Any Boolean function can be represented as a neural network

 Все начинается с MP Neuron, который представляет собой очень упрощенную модель нейрона. С очень простой идеей суммирования всех входных данных, превышающих порог для данной функции, нейрон срабатывает, иначе он не срабатывает. Очень примитивное начало на деле. Для проверки его репрезентативности рассмотрим геометрическую интерпретацию. Сначала двухмерный анализ с двумя входными данными для аппроксимации функции ИЛИ, а затем переход к трехмерному анализу с тремя входными данными.

















Следовательно, McCulloch Pitts Neuron можно использовать для представления любой булевой функции, которая является линейно отделимой. Кроме того, мы можем видеть строгое правило демаркации вместо постепенной границы принятия решений, где все, что немного выше разделяющей границы, равно 1, а чуть ниже - 0. Нейроны запускаются со ступенчатой функцией, подобной поведению. Большая гибкость достигается за счет того, что персептроны имеют веса, прикрепленные к каждому из его входов, но все еще существует строгое разграничение. 

Но вышеупомянутые механизмы не работают для нелинейно разделимых функций. Очень простым примером является XOR, представьте, что для этой функции рисуется разделительная линия в двумерной плоскости. Не будет ни одного! Как и в XOR, большинство данных линейно неразделимы по своей природе.

=====================================

Следовательно, для создания разделительных границ для этих функций требуются передовые вычислительные модели, такие как современные нейронные сети. Просто посмотрите базовую иллюстрацию с одним скрытым слоем и некоторыми предопределенными весами, которые воспроизводят функцию XOR.












h1(0,0) => w1 = 0, h2(1,0) =>w2 = 1, h3(0,1) =>w3 = 1, h4(1,1) => w4 = 0 ;  x 1, x2 выбираются из {0,1} - всего 4 комбинации на входе и значение w= x1(⊕)x2 на выходе.

Любая булева функция n входов может быть представлена сетью персептронов, содержащей 1 скрытый слой с 2^n персептронами и один выходной слой, содержащий 1 персептрон. Это достаточное условие, но не необходимое.

В нашем анализе сетей с одним скрытым слоем со ступенчатой ​​функцией, подобной аппроксимации. У него есть ограничения с его жесткими критериями оценки, эквивалентными ступенчатой ​​функции.

Диграммы для x1 ^ x2, x1 v x2, x1 -> x2 = (!x1) v (x2) нетрудно построить так же как и для XOR

Для х1 ^ x2 :

h1(0,0) => w1 = 0, h2(1,0) =>w2 = 0, h3(0,1) =>w3 = 0, h4(1,1) => w4 = 1 ;  x 1, x2 выбираются из {0,1} - всего 4 комбинации на входе и значение w= (x1 ^ x2) на выходе.

Для х1 v x2 :

h1(0,0) => w1 = 0, h2(1,0) =>w2 = 1, h3(0,1) =>w3 = 1, h4(1,1) => w4 = 1 ;  x 1, x2 выбираются из {0,1} - всего 4 комбинации на входе и значение w= (x1 v x2) на выходе.

No comments:

Post a Comment