ADALINE

Page d’aide sur l’homonymie

Pour le film américain réalisé par Lee Toland Krieger sorti en 2015, voir Adaline.

Page d’aide sur l’homonymie

Ne doit pas être confondu avec Adalin.

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

ADALINE (Adaptive Linear Neuron ou plus tard Adaptive Linear Element) est un réseau de neurones artificiels simple-couche.

Il a été développé par le professeur Bernard Widrow et un de ses étudiants, Ted Hoff, de l'université Stanford en 1960. Adaline s'appuie sur le neurone formel de McCulloch et Pitts. Il se compose d'un poids synaptique, d'un biais (une constante qu'on ajoute à l'entrée) et d'une fonction de sommation.

La différence entre Adaline et le modèle de McCulloch-Pitts réside dans la phase d'apprentissage, où les poids synaptiques sont ajustés en fonction de la somme pondérée des données en entrées. Dans le perceptron standard (McCulloch-Pitts), le réseau passe par la fonction d'activation (ou fonction de transfert) et la fonction de sortie est utilisée pour ajuster les poids synaptiques.

Il existe aussi une extension appelée Madaline.

Définition

Adaline est un réseau neuronal simple-couche, avec plusieurs nœuds, chacun acceptant plusieurs entrées et générant une sortie. Étant données les variables suivantes :

  • x, le vecteur d'entrée
  • w, le « vecteur poids »
  • n, le nombre d'entrées
  • θ {\displaystyle \theta } , une constante
  • y, la sortie

on a alors : y = j = 1 n x j w j + θ {\displaystyle y=\sum _{j=1}^{n}x_{j}w_{j}+\theta } .

Et si on suppose que :

  • x n + 1 = 1 {\displaystyle x_{n+1}=1}
  • w n + 1 = θ {\displaystyle w_{n+1}=\theta }

alors la sortie se réduit au produit scalaire de x et w : y = x w {\displaystyle y=x\cdot w}

Algorithme d'apprentissage

Posons :

  • η {\displaystyle \eta } , le taux d'apprentissage (une constante)
  • d, la sortie désirée
  • o, la sortie réelle,

alors les poids sont mis à jour comme suit : w w + η ( d o ) x {\displaystyle w\leftarrow w+\eta (d-o)x} .
Adaline converge vers l'erreur des moindres carrés qui est : E = ( d o ) 2 {\displaystyle E=(d-o)^{2}}

  • icône décorative Portail des neurosciences
  • icône décorative Portail de l'informatique théorique