Apprentissage du Perceptron

Introduction

Cette applet illustre une forme simple d'apprentissage supervisé appelée la règle d'apprentissage du perceptron.

Avec cette applet, vous pouvez entraîner le perceptron de manière à ce qu'il agisse comme une unité logique binaire. Il peut calculer ou approximer la plupart des fonctions booléennes à deux entrées. Cependant, un problème apparaît lorsqu'on essaye de lui faire apprendre le OU exclusif (XOR) ou le non-OU exclusif (XNOR). L'applet fourni une solution pour résoudre ce problème en introduisant une entrée supplémentaire.

Auteur

L'applet original a été écrit par Fred Corbett, et est disponible ici. Ces pages ont été modifiées par Olivier Michel et Alix Herrmann.


Théorie

Cliquez sur les deux liens ci-dessous pour en apprendre davantage. Ensuite allez directement à l'applet.


Applet

(Il se peut que vous ayez besoin de redimensionner votre fenêtre pour voir la totalité de l'applet)

Comme le neurone simple, ce perceptron simple a seulement deux entrées. La différence est qu'un règle d'apprentissage a été implémentée.

Cliquez ici pour lire les instructions. Vous pouvez afficher ces intructions dans une fenêtre séparée afin de pouvoir les lire en même temps que vous utilisez l'applet.
 

 


Questions

  1. Quels motifs peuvent être appris avec la fonction d'activation pas unitaire ? Combien d'itérations sont nécessaires en moyenne ?
  2. Idem, mais avec une fonction d'activation sigmoïde.
  3. Idem, mais avec une fonction d'activation linéaire seuillée.
  4. Idem, mais avec une fonction d'activation gaussienne, essayez de deviner à l'avance de qu'il va se passer. Peut-il réellement apprendre quelque chose ?
  5. L'associateur linéaire n'a pas de non-linéarité (fonction d'activation identité). Peut-il apprendre à reconnaitre les mêmes motifs qu'avec la fonction d'activation pas unitaire, sigmoïde, ou linéaire seuillée ? Quel est le role de la non-linéarité ?