Add neural network part
This commit is contained in:
parent
36fcbc6ffe
commit
eaf2d3f44c
2 changed files with 349 additions and 1 deletions
|
@ -99,10 +99,38 @@ D'un neurone vers l'infini...
|
|||
|
||||

|
||||
|
||||
Dans un réseau de neurones, chacune a son propre poid et biais, les paramètres
|
||||
Dans un réseau de neurones, chacun a son propre poid et biais, les paramètres
|
||||
du réseau sont composés de l'ensemble des poids et biais. Tous les neurones
|
||||
d'une même couche ont **les mêmes fonctions**.
|
||||
|
||||
Le réseaux est organisés en couche. Les **reseaux de neuronnes complètement
|
||||
connectés**, toutes les sorties des neuronnes de la couche 0 sont connectés aux
|
||||
entrées de tous les neurines de la couche 1.
|
||||
|
||||
### Application de transformation
|
||||
|
||||
Les résultats obtenus en sortie de notre réseaux noe sont pas forcément
|
||||
compatibles avec la séparation linéaires. Il est alors possible d'appliquer une
|
||||
**matrice de transformation**, ce qui reviens à appliquer une autre couche à
|
||||
notre réseau.
|
||||
|
||||

|
||||
|
||||
Dans le schéma ci-dessus:
|
||||
|
||||
1. La première transformation est \\(
|
||||
W = \begin{pmatrix}
|
||||
+\frac{1}{2} -\frac{1}{2} \\\
|
||||
-\frac{1}{2} +\frac{1}{2}
|
||||
\end{pmatrix}
|
||||
\\) ce qu nous donne \\(Wx\\)
|
||||
2. La seconde est \\(g(u) = max\\{0,x\\}\\) ce qu nous donne \\(h(x) = g(Wx)\\)
|
||||
|
||||
Au final, nous avons \\({w_{2}}^{t}h(x)+ b_{2} = (4 4)h(x) - 1 \implies y = {w_{2}}^{t}h(x)+ b_{2} \\)
|
||||
|
||||
Ce n'est rien d'autre qu'un réseaux de neurones avec une couche cachée \\(h\\)
|
||||
|
||||
|
||||
[wiki_neurone]:https://commons.wikimedia.org/w/index.php?title=User:Nicolas.Rougier
|
||||
[mcculloch]:https://fr.wikipedia.org/wiki/Warren_McCulloch
|
||||
[pitts]:https://fr.wikipedia.org/wiki/Walter_Pitts
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue