This HTML5 document contains 82 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbpedia-dehttp://de.dbpedia.org/resource/
dcthttp://purl.org/dc/terms/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
dbpedia-eshttp://es.dbpedia.org/resource/
n28http://g.co/kg/m/
dbpedia-ruhttp://ru.dbpedia.org/resource/
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
category-frhttp://fr.dbpedia.org/resource/Catégorie:
dbpedia-cshttp://cs.dbpedia.org/resource/
n12http://fr.dbpedia.org/resource/Modèle:
n19http://babelnet.org/rdf/
n18http://fr.dbpedia.org/resource/Fichier:
wikipedia-frhttp://fr.wikipedia.org/wiki/
n23http://commons.wikimedia.org/wiki/Special:FilePath/
dbpedia-fahttp://fa.dbpedia.org/resource/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
dbpedia-euhttp://eu.dbpedia.org/resource/
dbpedia-arhttp://ar.dbpedia.org/resource/
owlhttp://www.w3.org/2002/07/owl#
dbpedia-ithttp://it.dbpedia.org/resource/
n4http://ma-graph.org/entity/
dbpedia-zhhttp://zh.dbpedia.org/resource/
dbpedia-frhttp://fr.dbpedia.org/resource/
prop-frhttp://fr.dbpedia.org/property/
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
dbrhttp://dbpedia.org/resource/
wikidatahttp://www.wikidata.org/entity/
dbpedia-jahttp://ja.dbpedia.org/resource/

Statements

Subject Item
dbpedia-fr:Word_embedding
rdfs:label
Hitz-bektoreak Worteinbettung Word embedding Word embedding Вкладання слів Word embedding 単語の埋め込み
rdfs:comment
Le word embedding (« plongement de mots » ou « plongement lexical » en français) est une méthode d'apprentissage d'une représentation de mots utilisée notamment en traitement automatique des langues. Le terme devrait plutôt être rendu par vectorisation de mots pour correspondre plus proprement à cette méthode. La technique des plongements lexicaux diminue la dimension de la représentation des mots en comparaison d'un modèle vectoriel par exemple, facilitant ainsi les tâches d'apprentissage impliquant ces mots, puisque moins soumis au fléau de la dimension.
owl:sameAs
n4:2777462759 dbpedia-es:Word_embedding dbpedia-de:Worteinbettung dbpedia-ja:単語の埋め込み dbpedia-cs:Vnoření_slov dbpedia-it:Word_embedding dbpedia-eu:Hitz-bektoreak n19:s14596891n dbpedia-ar:تضمين_الكلمات dbpedia-fa:جاسازی_کلمه dbpedia-zh:词嵌入 wikidata:Q18395344 dbpedia-uk:Вкладання_слів n28:011q58l3 dbr:Word_embedding dbpedia-ru:Векторное_представление_слов
dbo:wikiPageID
9630044
dbo:wikiPageRevisionID
189581800
dbo:wikiPageWikiLink
dbpedia-fr:Similarité_cosinus dbpedia-fr:Espace_vectoriel dbpedia-fr:Opinion_mining dbpedia-fr:Plongement dbpedia-fr:Word2vec dbpedia-fr:Encodage_one-hot dbpedia-fr:Noam_Chomsky n18:Skip-gram.png n18:Speech_recognition_(1).png dbpedia-fr:Modèle_vectoriel dbpedia-fr:Corpus dbpedia-fr:Apprentissage_automatique dbpedia-fr:Vecteur category-fr:Apprentissage_automatique dbpedia-fr:Réduction_de_la_dimensionnalité n18:Word_embeddings_Skip-gram.svg category-fr:Traitement_automatique_du_langage_naturel dbpedia-fr:Analyse_sémantique_latente n18:Cbow.png n18:Word_embeddings_CBOW.svg dbpedia-fr:Heuristique_(mathématiques) dbpedia-fr:Nombre_réel dbpedia-fr:Fléau_de_la_dimension dbpedia-fr:Traitement_automatique_des_langues dbpedia-fr:Fonction_softmax dbpedia-fr:Distance_(mathématiques) dbpedia-fr:Topologie_discrète dbpedia-fr:Réseau_de_neurones_artificiels dbpedia-fr:Matrice_creuse dbpedia-fr:Zellig_Harris dbpedia-fr:John_Rupert_Firth
dbo:wikiPageLength
22391
dct:subject
category-fr:Apprentissage_automatique category-fr:Traitement_automatique_du_langage_naturel
prop-fr:wikiPageUsesTemplate
n12:Portail n12:Références n12:Section_à_sourcer n12:Sources_à_lier n12:Titre_en_italique n12:Lien n12:Langue n12:, n12:À_déjargoniser
prov:wasDerivedFrom
wikipedia-fr:Word_embedding?oldid=189581800&ns=0
foaf:depiction
n23:Cbow.png n23:Speech_recognition_(1).png n23:Skip-gram.png n23:Word_embeddings_CBOW.svg n23:Word_embeddings_Skip-gram.svg
prop-fr:fr
sémantique distributionnelle
prop-fr:langue
en
prop-fr:trad
Distributional semantics
dbo:thumbnail
n23:Word_embeddings_CBOW.svg?width=300
foaf:isPrimaryTopicOf
wikipedia-fr:Word_embedding
dbo:abstract
Le word embedding (« plongement de mots » ou « plongement lexical » en français) est une méthode d'apprentissage d'une représentation de mots utilisée notamment en traitement automatique des langues. Le terme devrait plutôt être rendu par vectorisation de mots pour correspondre plus proprement à cette méthode. Cette technique permet de représenter chaque mot d'un dictionnaire par un vecteur de nombres réels. Cette nouvelle représentation a ceci de particulier que les mots apparaissant dans des contextes similaires possèdent des vecteurs correspondants qui sont relativement proches. Par exemple, on pourrait s'attendre à ce que les mots « chien » et « chat » soient représentés par des vecteurs relativement peu distants dans l'espace vectoriel où sont définis ces vecteurs. Cette technique est basée sur l'hypothèse (dite « de Harris » ou distributional hypothesis) qui veut que les mots apparaissant dans des contextes similaires ont des significations apparentées. La technique des plongements lexicaux diminue la dimension de la représentation des mots en comparaison d'un modèle vectoriel par exemple, facilitant ainsi les tâches d'apprentissage impliquant ces mots, puisque moins soumis au fléau de la dimension.
dbo:isPartOf
dbpedia-fr:Traitement_automatique_des_langues