Attributes | Values |
---|
rdfs:label
| - Backpropagation (de)
- Backpropagation (en)
- Propagación hacia atrás (es)
- Retropropagació (ca)
- Rétropropagation du gradient (fr)
- Truyền ngược (vi)
- Метод обратного распространения ошибки (ru)
|
rdfs:comment
| - En statistiques, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones, consistant à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale. (fr)
|
rdfs:seeAlso
| |
sameAs
| |
Wikipage page ID
| |
Wikipage revision ID
| |
dbo:wikiPageWikiLink
| |
page length (characters) of wiki page
| |
dct:subject
| |
prop-fr:wikiPageUsesTemplate
| |
prov:wasDerivedFrom
| |
foaf:isPrimaryTopicOf
| |
dbo:discoverer
| |
has abstract
| - En statistiques, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones, consistant à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale. De façon abusive, on appelle souvent « technique de rétropropagation du gradient » l'algorithme classique de correction des erreurs reposant sur le calcul du gradient grâce à la rétropropagation. C'est cette méthode qui est présentée ici. La correction des erreurs peut se faire selon d'autres méthodes, par exemple le calcul de la dérivée seconde. Ce principe fonde les méthodes de type algorithme du gradient, qui sont utilisées dans des réseaux de neurones multicouches comme les perceptrons multicouches. L'algorithme du gradient a pour but de converger de manière itérative vers une configuration optimale des poids synaptiques. Cet état peut être un minimum local de la fonction, ou, idéalement, le minimum global de cette fonction (dite fonction de coût). Normalement, la fonction de coût est non linéaire au regard des poids synaptiques. Elle dispose également d'une borne inférieure et moyennant quelques précautions lors de l'apprentissage, les procédures d'optimisation finissent par aboutir à une configuration stable au sein du réseau de neurones. (fr)
|
is dbo:wikiPageWikiLink
of | |
is Wikipage redirect
of | |
is oa:hasTarget
of | |
is foaf:primaryTopic
of | |