About: dbpedia-fr:Théorème_de_Cover     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : owl:Thing, within Data Space : prod-dbpedia.inria.fr associated with source document(s)

AttributesValues
rdfs:label
  • Théorème de Cover (fr)
rdfs:comment
  • Le théorème de Cover est un énoncé de la théorie de l'apprentissage automatique et est l'une des principales motivations théoriques pour l'utilisation de l'astuce du noyau non linéaires dans les applications de l'apprentissage automatique. Le théorème stipule que, étant donné un ensemble de données d'apprentissage qui ne sont pas séparables par un classifieur linéaire, on peut avec une forte probabilité le transformer en un ensemble qui est linéairement séparable en le projetant dans un espace de dimension supérieure au moyen d'une transformation non linéaire. Le théorème est nommé d'après le théoricien de l'information Thomas M. Cover qui l'a énoncé en 1965. Dans sa propre formulation, il s’énonce comme suit : (fr)
sameAs
Wikipage page ID
Wikipage revision ID
dbo:wikiPageWikiLink
Link from a Wikipage to an external page
page length (characters) of wiki page
dct:subject
prop-fr:wikiPageUsesTemplate
prov:wasDerivedFrom
foaf:depiction
  • http://commons.wikimedia.org/wiki/Special:FilePath/Kernel_trick_idea.svg
prop-fr:année
prop-fr:auteur
  • Thomas.M. Cover (fr)
prop-fr:doi
prop-fr:isbn
prop-fr:journal
  • IEEE Transactions on Electronic Computers (fr)
prop-fr:lieu
  • Upper Saddle River, New Jersey (fr)
prop-fr:nom
  • Haykin (fr)
  • Sanjay (fr)
  • Mohan (fr)
  • Mehrotra (fr)
prop-fr:numéro
prop-fr:pages
prop-fr:passage
prop-fr:prénom
  • Simon (fr)
  • S. (fr)
  • Chilukuri K. (fr)
  • Kishan (fr)
prop-fr:titre
  • Geometrical and Statistical properties of systems of linear inequalities with applications in pattern recognition (fr)
  • Elements of artificial neural networks (fr)
  • Neural Networks and Learning Machines (fr)
prop-fr:url
prop-fr:volume
  • EC-14 (fr)
prop-fr:éditeur
  • MIT Press (fr)
  • Pearson Education Inc (fr)
prop-fr:numéroÉdition
thumbnail
foaf:isPrimaryTopicOf
named after
has abstract
  • Le théorème de Cover est un énoncé de la théorie de l'apprentissage automatique et est l'une des principales motivations théoriques pour l'utilisation de l'astuce du noyau non linéaires dans les applications de l'apprentissage automatique. Le théorème stipule que, étant donné un ensemble de données d'apprentissage qui ne sont pas séparables par un classifieur linéaire, on peut avec une forte probabilité le transformer en un ensemble qui est linéairement séparable en le projetant dans un espace de dimension supérieure au moyen d'une transformation non linéaire. Le théorème est nommé d'après le théoricien de l'information Thomas M. Cover qui l'a énoncé en 1965. Dans sa propre formulation, il s’énonce comme suit : « A complex pattern-classification problem, cast in a high-dimensional space nonlinearly, is more likely to be linearly separable than in a low-dimensional space, provided that the space is not densely populated. » (fr)
is dbo:wikiPageWikiLink of
is oa:hasTarget of
is foaf:primaryTopic of
Faceted Search & Find service v1.16.111 as of Oct 19 2022


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 07.20.3234 as of May 18 2022, on Linux (x86_64-ubuntu_bionic-linux-gnu), Single-Server Edition (39 GB total memory, 18 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software