Considérons l'architecture sans couche cachée suivante :
where:
Voici l'algorithme d'entraînement pour des réseaux sans couche cachée :
Initialiser les poids \( w_{ij} \) avec une valeur arbitraire
Répéter
Choisir un exemple dans la base d'entrainement <\( x \),\( \check{o}\)> (x est l'entrée, \( \check{o} \) est la sortie désirée)
Calculer la somme de chaque neurone : \( S_j = \sum\limits_{i=1}^N w_{ij}x_i \)
alculer les sorties (\( o \)) du réseau : \( o_j = f(S) \)
Pour chaque sortie, calculer l'erreur : \( \delta_j = ( \check{o}_j - o_j ) \)
Actualiser les poids synaptiques : \( w_{ij} = w_{ij} + \eta.\delta_j.x_i.\frac{df(S)}{dS} \)
Tant qu'il reste des exemples