Attributes | Values |
---|
rdfs:label
| |
rdfs:comment
| - Le théorème de Cover est un énoncé de la théorie de l'apprentissage automatique et est l'une des principales motivations théoriques pour l'utilisation de l'astuce du noyau non linéaires dans les applications de l'apprentissage automatique. Le théorème stipule que, étant donné un ensemble de données d'apprentissage qui ne sont pas séparables par un classifieur linéaire, on peut avec une forte probabilité le transformer en un ensemble qui est linéairement séparable en le projetant dans un espace de dimension supérieure au moyen d'une transformation non linéaire. Le théorème est nommé d'après le théoricien de l'information Thomas M. Cover qui l'a énoncé en 1965. Dans sa propre formulation, il s’énonce comme suit : (fr)
|
sameAs
| |
Wikipage page ID
| |
Wikipage revision ID
| |
dbo:wikiPageWikiLink
| |
Link from a Wikipage to an external page
| |
page length (characters) of wiki page
| |
dct:subject
| |
prop-fr:wikiPageUsesTemplate
| |
prov:wasDerivedFrom
| |
foaf:depiction
| |
prop-fr:année
| |
prop-fr:auteur
| |
prop-fr:doi
| |
prop-fr:isbn
| |
prop-fr:journal
| - IEEE Transactions on Electronic Computers (fr)
|
prop-fr:lieu
| - Upper Saddle River, New Jersey (fr)
|
prop-fr:nom
| - Haykin (fr)
- Sanjay (fr)
- Mohan (fr)
- Mehrotra (fr)
|
prop-fr:numéro
| |
prop-fr:pages
| |
prop-fr:passage
| |
prop-fr:prénom
| - Simon (fr)
- S. (fr)
- Chilukuri K. (fr)
- Kishan (fr)
|
prop-fr:titre
| - Geometrical and Statistical properties of systems of linear inequalities with applications in pattern recognition (fr)
- Elements of artificial neural networks (fr)
- Neural Networks and Learning Machines (fr)
|
prop-fr:url
| |
prop-fr:volume
| |
prop-fr:éditeur
| - MIT Press (fr)
- Pearson Education Inc (fr)
|
prop-fr:numéroÉdition
| |
thumbnail
| |
foaf:isPrimaryTopicOf
| |
named after
| |
has abstract
| - Le théorème de Cover est un énoncé de la théorie de l'apprentissage automatique et est l'une des principales motivations théoriques pour l'utilisation de l'astuce du noyau non linéaires dans les applications de l'apprentissage automatique. Le théorème stipule que, étant donné un ensemble de données d'apprentissage qui ne sont pas séparables par un classifieur linéaire, on peut avec une forte probabilité le transformer en un ensemble qui est linéairement séparable en le projetant dans un espace de dimension supérieure au moyen d'une transformation non linéaire. Le théorème est nommé d'après le théoricien de l'information Thomas M. Cover qui l'a énoncé en 1965. Dans sa propre formulation, il s’énonce comme suit : « A complex pattern-classification problem, cast in a high-dimensional space nonlinearly, is more likely to be linearly separable than in a low-dimensional space, provided that the space is not densely populated. » (fr)
|
is dbo:wikiPageWikiLink
of | |
is oa:hasTarget
of | |
is foaf:primaryTopic
of | |