Aprendissatge non supervisat

Un article de Wikipédia, l'enciclopèdia liura.

Dins lo domeni informatic e de l'intelligéncia artificiala, l'aprendissatge non supervisat designa la situacion d'aprendissatge automatic ont las donadas son pas etiquetadas (per exemple etiquetadas coma « bala » o « peis »). S'agís donc de descobrir las estructuras sosjacentas a aquelas donadas non etiquetadas. Puèi que las donadas son pas etiquetadas, es impossible a l'algoritme de calcular de faiçon certana un resultat de capitada. Atal, los metòdes non supervisats presentan una auto-organizacion que captura los modèls coma de densitats de probabilitat o, dins lo cas de las rets de neurònas, coma combinason de preferéncias de caracteristicas neuronalas encodées dins los peses e las activacions de la maquina.

Los autres nivèls de l'espèctre de supervision son l'aprendissatge per refortiment ont la maquina recep pas qu'un resultat de proesa numerica coma guida, e l'aprendissatge semi-supervisat ont una partida pichona de las donadas es etiquetada.

L'introduccion dins un sistèma d'un apròchi d'aprendissatge non supervisat es un mejan d'experimentar l'intelligéncia artificiala. En general, dels sistèmas d'aprendissatge non supervisat permeton d'executar de las tascas mai complèxas que los sistèmas d'aprendissatge supervisat, mas pòdon tanben èsser mai imprevisibles. E mai se un sistèma d'IA d'aprendissatge non supervisat arriba tot sol, per exemple, a far la tria entre de gats e dels cans, pòt tanben ajustar de categorias inesperadas e non desiradas, e classar de las raças inabitualas, introdusent mai de bruch que d'òrdre[1].

Aprendissatge non supervisat e aprendissatge supervisat[modificar | modificar lo còdi]

L'aprendissatge non supervisat consistís a aprene sens supervisor. S'agís de tirar de classas o grops d'individús presentant de caracteristicas comunas[2]. La qualitat d'un metòde de classificacion es mesurada per sa capacitat a descobrir d'unes o totes los motius amagats.

Se distinguís l'aprendissatge supervisat e l'aprendissatge non supervisat. Dins lo primièr aprendissatge, s'agís d'aprene a classar un individú novèl demest un ensemble de classas prédéfinies : se coneis las classas a priori. A l'invèrs, dins l'aprendissatge non supervisat, lo nombre e la definicion de las classas son pas balhats a priori[3].

Exemples[modificar | modificar lo còdi]

Diferéncia entre los dos tips d'aprendissatge.

Aprendissatge supervisat[modificar | modificar lo còdi]

  • Se dispausa d'elements ja classats

Exemple : articles en rubrica cosina, espòrt, cultura...

Diferéncia dintra los dos tips d'aprendissatge.
  • Se vòl classar un element novèl

Exemple : li atribuïr un nom demest cosina, espòrt, cultura...

Aprendissatge non supervisat[modificar | modificar lo còdi]

  • Se dispausa d'elements non classats

Exemple : una flor

  • Se los vòl regropar en classas

Exemple : se doas flors an la meteissa forma, son en rapòrt amb una meteissa planta correspondenta.

Existís dos principals metòdes d'aprendissatge non supervisadas[4] :

Utilizacions[modificar | modificar lo còdi]

Las tecnicas d'aprendissatge non supervisat pòdon èsser utilizadas per resòlvre, entre autras, los problèmas seguents[5] :

L'aprendissatge non supervisat pòt tanben èsser utilizat en conjoncion amb una inferéncia bayésienne per produire de probabilitats condicionalas per cada variabla aleatòria estant los autres.

Partitionnement de donadas[modificar | modificar lo còdi]

Lo partitionnement de donadas, regropament o clustering es la tecnica mai utilizada per resòlvre los problèmas d'aprendissatge non supervisat. La mesa en foguièr consistís a separar o a dividir un ensemble de donadas en un certan nombre de grops, de manièra que los ensembles de balhadas apartenissent als meteisses grops se semblan mai que los d'autres grops. En tèrmes simples, l'objectiu es de separar los grops avent de traches similars e de los assignar en rasims.

Vesèm aquò amb un exemple. Supausam que siatz lo cap d'una botiga de locacion e que desiràvetz comprene las preferéncias de vòstres clients per desvolopar vòstra activitat. Podètz regropar totes vòstres clients en 10 grops en foncion de lors costumas de crompa e utilizar una estrategia distinta pels clients de cadun d'aqueles 10 grops. E es çò que nos apelam lo Clustering[6].

Metòdes[modificar | modificar lo còdi]

Lo clustering consistís a gropar de ponches de donadas en foncion de lors similituds, mentre que l'associacion consistís a descobrir de relacions entre los atributs d'aqueles ponches de donadas:

Las tecnicas de clustering cercan de descompausar un ensemble d'individús en mantun jos ensembles los mai omogenèus possibles

  • Se coneis pas la classa dels exemples (nombre, forma, talha)
  • Los metòdes son plan nombroses, tipologias generalament emplegadas per los distinguir Metòdes de partitionnement / Metòdes ierarquics
  • Amb recobrament / sens recobrament
  • Autre : incrémental / non incrémental
  • D'eventualas informacions sus las classas o d'autras informacions sus las donadas an pas d'influéncia sus la formacion dels foguièrs, solament sus lor interpretacion[7].

L'un dels algoritmes mai conegut e utilizat en clustering es la K-mejana. Aquel algoritme va metre dins de “zònas” (Foguièr), las donadas que se semblan. Las donadas se trobant dins lo meteis foguièr son similars.

L'apròchi de K-Means consistís a afectar aleatòriament dels centres de foguièrs (apelats centroids), e puèi assignar cada ponch de nòstras donadas al centroid que li es lo mai pròche. Aquò s'efectua fins a assignar totas las donadas a un foguièr[8].

Rets de neurònas[modificar | modificar lo còdi]

Tascas vs metòdes[modificar | modificar lo còdi]

Tendéncia per una tasca a utilizar de metòdes supervisats o non supervisadas. Los noms de tascas cavalgant los limits del cercle son intencionals. Mòstra que la division classica de las tascas imaginativas (a esquèrra) utilizant de metòdes non supervisats es fosca dins los esquèmas d'aprendissatge d'uèi.

Las tascas de la ret de neurònas son sovent classadas coma discriminatives (reconeissença) o generativas (imaginacion). Las tascas discriminatives utilizan sovent (mas pas totjorn) dels metòdes supervisats e las tascas generativas utilizan de metòdes non supervisats (veire diagrama de Venn); pasmens, la separacion es plan fosca. Per exemple, la reconeissença d'objèctes favoriza l'aprendissatge supervisat, mas l'aprendissatge non supervisat pòt egalament regropar d'objèctes en grops. En mai, a mesura que de progrèsses, d'unas tascas utilizan los dos metòdes, e d'unas tascas oscillan de l'una a l'autre. Per exemple, la reconeissença d'imatges a començat coma essent fòrça supervisada, mas es venguda ibrida en emplegant un prat-entrainament non supervisada, puèi es tornada a la supervision amb l'aveniment de l'abandon , de Tornat legir e dels tausses d'aprendissatge adaptatius.

Aprendissatge[modificar | modificar lo còdi]

Pendent la fasa d'aprendissatge, una ret non supervisada ensaja d'imitar las donadas que li son fornidas e utiliza l'error dins sa sortida imitada per se corregir (valent a dire corregir sos peses e sos biaisses). De còps, l'error es exprimida coma una febla probabilitat que la sortida erronèa se produga, o pòt èsser exprimida coma un estat de nauta energia instabla dins la ret.

Al contra de l'utilizacion dominanta de la rétropropagation pels metòdes supervisats, l'aprendissatge non supervisat utiliza egalament d'autres metòdes, sustot : la règla d'aprendissatge de Hopfield, la règla d'aprendissatge de Boltzmann, la divergéncia contrastive, lo sòm desvelhat, l'inferéncia variationnelle, la versemblança maximala, lo maximum A posteriori, l'escapolon de Gibbs, e la rétropropagation de las errors de reconstruccion o de las reparamétrisations d'estat amagat. Veire lo tablèu çai jos per mai de detalhs.

Energia[modificar | modificar lo còdi]

Una foncion energetica es una mesura macroscopica de l'estat d'activacion d'una ret. Dins las maquinas Boltzmann, jòga lo ròtle de la foncion de còst. Aquela analogia amb la fisica es inspirada de l'analisi per Ludwig Boltzmann de l'energia macroscopica d'un gas a partir de las probabilitats microscopicas del movement de las particulas , ont k es lo Constanta de Boltzmann e T es la temperatura. Dins la ret RBM, la relacion es [9], ont p & E vàrian sus cada esquèma d'activacion possibla e . Per èsser mai precís, , ont a es un modèl d'activacion de totas las neurònas (visiblas e amagats). En consequéncia, las primièras rets de neurònas pòrtan lo nom de Boltzmann Engenha. Paul Smolensky apèla l'Armonia. Una ret cerca energia bassa que correspond a una Armonia nauta.

Tips de rets[modificar | modificar lo còdi]

Soslinham aicí d'unas caracteristicas de d'unas rets. De detalhs son egalament balhats dins lo tablèu comparatiu çai jos. A mesura que la concepcion de las rets cambi, de foncionalitats son ajustadas per activar de novèlas foncionalitats o suprimidas per accelerar l'aprendissatge. Per exemple, las neurònas càmbian entre determinista (Hopfield) e estocastica (Boltzmann) per permetre una sortida robusta, los peses son suprimits dins una jaça (RBM) per accelerar l'aprendissatge, o las connexions pòdon venir asimetricas (Helmholtz). Las connexion simetricas permeton una formulacion energetica globala.

Notacions

Un rets es compausada de neurònas, se nòta la matritz de connexion de la ret , l'energia del rets .

Ret Hopfield

Publicacion 1982[10]
Neuròna Neuròna formala binària
  • es l'estat de de neuròna
  • es lo lindal de la neuròna
Energia
Formacion amb :
  • lo nombre de motiu d'entrainament
  • es la valor de la neuròna pel motiu

Una ret basada sus de domenis magnetics dins lo fèrre amb una sola jaça auto-connectada. Pòt èsser utilizat coma memòria adressable pel contengut. Una neuròna correspond a un domeni de fèrre amb de moments magnetics binaris Up e Down, e las connexions neuronalas correspondon a l'influéncia dels domenis los unes suls autres.

Un rets es compausada de neurònas binàrias dont l'estat o per la neuròna . S'apren a las rets los motius , . Pendent l'inferéncia, se presenta a la ret dels motius apreses mas incomplèt o bruité, la ret actualiza cada estat en utilizant la foncion d'activacion estandarda e conduch a un estat aprés.

De peses simetrics e las bonas foncions d'energia garantisson la convergéncia cap a un modèl d'activacion establa. Los peses asimetrics son dificils d'analisar. Las rets Hopfield son utilizats coma de memòrias adressables pel contengut (CAM).

Maquina de Boltzmann

Publicacion 1975[11]
Neuròna Las probabilitat d'activacion son balhadas per :

amb :

Energia
Formacion minimizar la divergéncia KL amb :
  • e = taus d'aprendissatge,
  • p' = distribucion predicha e p = distribucion reala.

Un rets es compausada de neurònas estocasticas, d'estat per la neuròna e dont la probabilitat d'activacion depend de las activacions de las autras neurònas. Es separat en 2 jaças (amagat vs visible), mas utiliza totjorn de peses simetrics a 2 vias. Las neurònas visiblas recebon la dintrada que son de vectors a las valors binàrias.

Lor valor d'estat es escandalhada a partir d'aquela densitat de probabilitat coma seguís : supausam qu'una neuròna binària s'avia amb una probabilitat de Bernoulli e se pause amb . S'escandalha dins aqueste en prenent un nombre aleatòri unifòrmament distribuït i, e en o plaçant dins la foncion de distribucion cumulativa invèrsa, que dins aquel cas es la foncion lindal a 2/3. La foncion invèrsa

Segon la termodinamica de Boltzmann, las probabilitats individualas balhan luòc a d'energias macroscopicas.

Maquina de Boltzmann restrencha

Publicacions 1986[12], 2002[13]
Neuròna Las probabilitat d'activacion son balhada per :

amb

  • la foncion sigmoïda,
  • e respectivament los biaisses de las neurònas e .
Energia
Formacion Algoritme de divergéncia contrastive:

ont designa de mejanas

S'agís d'una maquina Boltzmann ont las connexions lateralas dins una jaça son defendudas. S'a donc tornarmai de las neurònas estocasticas, d'estat per la neuròna de la jaça visibla e per la neuròna de la jaça amagat.

Lo rets es entrainada per maximizar produch de las probabilitat .

Las maquinas de Boltzmann "non restrechas" pòdon aver de connexions entre las unitats amagadas. Aquela restriccion permet d'utilizar d'algoritmes d'aprendissatge mai eficaces qu'aqueles disponibles per la classa generala de las maquinas de Boltzmann, en particular l'algoritme de divergéncia contrastive basat sul gradient

Ret de cresença sigmoïda

Energia
Formacion , per +1/-1 neuròna

Introducha per Radford Neal en 1992, aquela ret aplique las idèas dels modèls grafics probabilistas a las rets neuronalas. La principala diferéncia residís dins lo fach que los noses dels modèls grafics an de significacions prat-atribuïdas, mentre que las caracteristicas de las neurònas del Belief Net son determinadas après la formacion. La ret es un graf aciclic dirigit feblament connectat compausat de neurònas estocasticas binàrias. La règla d'aprendissatge proven del maximum de versemblança sus , ont Los son d'activacions provenenta d'un escapolon non biaissat de la distribucion posteriora, çò que pausa problèma a causa del problèma d'explicacion de l'alunhament levat per Judea Perl. Los metòdes bayésiennes variationnelles utilizan un tafanari de substitucion e ignòran manifèstament aquela complexitat.

Ret de cresença prigond e maquina de Boltzman restrechas empilats

Energia
Formacion divergéncia contrastive iterativa en prenent

lo precedent rets coma dintrada

Introduch per Hinton, aquela ret es un ibrid de RBM e de ret de cresença sigmoïda. Las doas jaças superioras son un RBM e la segonda jaça cap aval forma una ret de cresença sigmoïda. Se l'entraina pel metòde del RBM empilat, puèi se gèta los peses de reconeissença jol RBM superior. En 2009, 3-4 jaças semblan èsser la prigondor optimala[14].

Aquela ret compòrta mantunas RBM per codar una ierarquia de caracteristicas amagadas. Après la formacion d'un sol RBM, una autra jaça amagada blava (veire RBM d'esquèrra) es aponduda, e las doas jaças superioras son formadas coma un RBM rog e blau.

Maquina de Helmholtz

Publicacion 1995[15]
Energia
Formacion minimizar la divergéncia KL

En plaça de la connexion simetrica bidireccionala de las maquinas Boltzmann empiladas, avèm de connexions unidireccionalas separadas per formar una bocla. Fa a l'encòp generacion e discriminacion.

Son las primièras inspiracions de las encodeurs automaticas variationnels. S'agís de 2 rets combinadas en un sol - los peses cap al davant opèran la reconeissença e los peses cap a l'arrièr començan l'imaginacion. Es benlèu la primièra ret a far las doas. Helmholtz a pas trabalhat dins l'aprendissatge automatic mas a inspirat la vision d'un "motor d'inferéncia estatistica dont la foncion es d'inferir las causas probablas de las dintradas sensorialas" (3). la neuròna binària estocastica genèra una probabilitat que son estat siá 0 o 1. La dintrada de donadas es normalament pas considerada coma una jaça, mas dins lo mòde de generacion de la maquina Helmholtz, la jaça de donadas recep la dintrada de la jaça intermediària a de peses separats a aquel efièch, donc es considerat coma una jaça. Aquela ret compòrta donc 3 jaças.

Autoencodeur

Publicacion 1991[16]
Energia
Formacion rétropropagation del gradient

Una ret feed-forward qu'a per mira de trobar una bona representacion de la jaça intermediària de son mond de dintrada. Aquela ret es determinista, es pas donc pas tan robust coma son successor lo VAE.

Auto-encodeur variationnel

Publicacion 2016[17]
Inferéncia & energia minimizar l'error de reconstruccion - minimizar la divergéncia KL
Formacion rétropropagation del gradient

Aplica l'inferéncia variationnelle a l'autoencodeur. La jaça intermediària es un ensemble de mejanas e de variàncias per las distribucions gaussianas. La natura estocastica permet una imaginacion mai robusta que l'auto-encodeur determinista.

Aquestas son inspiradas de las maquinas de Helmholtz[18] e combinan una ret de probabilitat amb de rets de neurònas. Un Autoencoder es una ret CAM a 3 jaças, ont la jaça intermediària es supausada èsser una representacion intèrna dels modèls de dintrada. La ret neuronala del codeur es una distribucion de probabilitat (z estant x) e la ret del descodador es (x estant z). Los peses son nommats e puslèu que W e V coma dins Helmholtz - una diferéncia cosmetica. Aquelas 2 rets aicí pòdon èsser entièrament connectats o utilizar un autre esquèma NN.

Comparason[modificar | modificar lo còdi]

Aquel tablèu presenta d'esquèmas de connexion de diferentas rets non supervisats.

Hopfield Boltzmann RBM Boltzmann empilat Helmholz Auto-encodeur VAE
Usatge & notables memòrias adressables per contengut, problèma de viatjaire de comèrci memòrias adressables per contengut reconeissença de formas. utilizat dins las chifras e la paraula : MNIST. reconeissença & imaginacion. prat-entrainament non supervisada e/o reglatge fin supervisat. imaginacion, mimetisme lenga : escritura creativa, traduccion. vision : débruitage[19] generar de donadas realistas
Fòrça sembla a de sistèmas fisics donc ereta lors eqüacions ← parièr. las neurònas amagadas agisson coma una representacion intèrna del mond exterior programa de formacion practica mai rapida que las maquinas Boltzmann s'entraine lèu. balha una jaça ierarquica de foncionalitats leugièrament anatomica. analisable amb la teoria de l'informacion e la mecanica estatistica
Feblesa La libertat de las connexions torna aquela ret dificila a analisar; dificil a formar a causa de las connexions lateralas l'equilibri necessita tròp d'iteracions las neurònas entièras e a valor reala son mai complicats.

Demest las rets portant de noms de personas, sol Hopfield trabalhava dirèctament amb las rets de neurònas. Boltzmann e Helmholtz an precedit las rets de neurònas artificialas, mas lors òbras en fisica e fisiologia an inspirat los metòdes analitics utilizats.

Istoric[modificar | modificar lo còdi]

1969 Perceptrons de Minsky & Papert mòstra qu'un perceptron sens jaças amagadas mal escasa sus XOR
annadas 1970 (datas aproximativas) Primièra ivernacion de l'IA
1974 Modèle magnetica d'Ising prepausat per WA Little per la cognicion
1980 Fukushima introdutz lo néocognitron, apelat mai tard ret de neurònas a convolution. Es principalament utilizat dins l'aprendissatge supervisat, mas merita una mencion aicí.
1982 La ret de Hopfield, una varianta d'Ising es descricha coma CAM e classificators per John Hopfield.
1983 Maquina de Boltzmann varianta d'Ising amb neurònas probabilistas descricha per Hinton & Sejnowski en seguida de las òbras de Sherington & Kirkpatrick de 1975.
1986 Paul Smolensky publica Harmony Theory, qu'es un RBM amb practicament la meteissa foncion energetica de Boltzmann. Smolensky a pas balhat de programa de formacion practica. Hinton l'a fach al mièg de las annadas 2000
1995 Dayan & Hinton presenta la maquina Helmholtz
1995-2005 (datas aproximativas) Segonda ivernacion de l'IA
2013 Kingma, Rezende, & co. introduch las auto-encodeurs variationnels coma ret de probabilitat grafica bayésien, amb de rets de neurònas coma compausants.

Aprendissatge Hebbien, ART, SOM[modificar | modificar lo còdi]

L'exemple classic d'aprendissatge non supervisat dins l'estudi de las rets de neurònas es lo principi de Donald Hebb, valent a dire que las neurònas que s'activan amassa se connècten amassa[20]. La règla de Hebb estipula que la connexion es afortida independentament d'una error, mas es exclusivament en foncion de coïncidéncia dels potencials d'accion entre las doas neurònas[21],[22]. Una version similara que modifica los peses sinaptics pren en compte lo temps entre los potencials d'accion (plasticitat dependenta del moment del pic o STDP). L'aprendissatge hebbien es estat supausat jos-tibar una gamma de foncions cognitivas, talas coma la reconeissença de formas e l'aprendissatge expérientiel.

Demest los modèls de ret de neurònas, la carta autoadaptative (SOM) e la teoria de la ressonància adaptativa (ART) son correntament utilizadas dins los algoritmes d'aprendissatge non supervisat. Lo SOM es una organizacion topografica dins la quala los emplaçaments pròches sus la carta representan de dintradas amb de proprietats similaras. Lo modèl ART permet al nombre de foguièrs de variar en foncion de la talha del problèma e permet a l'utilizator de controlar lo gra de similitud entre los membres dels meteisses foguièrs pel mejan d'una constanta definida per l'utilizator apelada paramètre de vigilància. Las rets ART son utilizats per de nombrosas tascas de reconeissença de formas, talas coma la reconeissença automatica de ciblas e lo tractament dels senhals sismics[22].

Nòtas e referéncias[modificar | modificar lo còdi]

  1. « Aprendissatge non supervisat »
  2. Guillaume Cleuziou, Un metòde de classificacion non-supervisada per l'aprendissatge de règlas e la recèrca d'informacion, (lira en linha)
  3. « Classificacion »
  4. Pierre-Louis GONZALEZ, METÒDES DE CLASSIFICACION, Cnam,
  5. Zakariyaa ISMAILI, « Aprendissatge Supervisat Vs. Non Supervisat », sus BrightCape, (consultat lo )
  6. « Aprendissatge Supervisat Vs. Non Supervisat », sul DataScientist, (consultat lo )
  7. « Aprendissatge non supervisat »
  8. « l'aprendissatge non supervisat – Maquina Learning »
  9. (en) G. Hinton, « A Practical Guida to Training Restricted Boltzmann Maquinas », dins Neural Networks: Tricks of the Trade, panatòri. 7700, Springer, (ISBN 978-3-642-35289-8, DOI 10.1007/978-3-642-35289-8_32, lira en linha [PDF]).
  10. (en) J J Hopfield, « Neural networks and physical systems with emergent collectiva computational abilities. », Proceedings of the Nacional Academy of Sciéncias, panatòri. 79, no 8,‎ , p. 2554–2558 (ISSN 0027-8424 e 1091-6490, PMID 6953413, PMCID PMC346238, DOI 10.1073/pnas.79.8.2554, lira en linha, consultat lo )
  11. David Sherrington e Scott Kirkpatrick, « Solvable Model of a Espin-Glass », Physical Review Letters, panatòri. 35, no 26,‎ , p. 1792–1796 (DOI 10.1103/PhysRevLett.35.1792, lira en linha, consultat lo )
  12. James L. McClelland e San Diego. PDP Research Group University of California, Parallel distributed processing : exploracions in the microstructure of cognicion, MIT Press, (ISBN 0-262-18120-7, 978-0-262-18120-4 e 0-262-13218-4, OCLC 12837549, lira en linha)
  13. (en) Geoffrey E. Hinton, « Training Products of Expèrts by Minimizing Contrastive Divergéncia », Neural Computacion, panatòri. 14, no 8,‎ , p. 1771–1800 (ISSN 0899-7667 e 1530-888X, DOI 10.1162/089976602760128018, lira en linha, consultat lo )
  14. (en) Hinton, Geoffrey, « Deep Belief Nets », Video,
  15. (en) Peter Dayan, Geoffrey E. Hinton, Radford M. Neal e Richard S. Zemel, « The Helmholtz Engenha », Neural Computacion, panatòri. 7, no 5,‎ , p. 889–904 (ISSN 0899-7667 e 1530-888X, DOI 10.1162/neco.1995.7.5.889, lira en linha, consultat lo )
  16. (en) Mark A. Kramer, « Nonlinear principal component analysis using autoassociative neural networks », AIChE Journal, panatòri. 37, no 2,‎ , p. 233–243 (ISSN 0001-1541 e 1547-5905, DOI 10.1002/aic.690370209, lira en linha, consultat lo )
  17. Nat Dilokthanakul, Pedro A. M. Mediano, Marta Garnelo e Matthew C. H. Lee, « Deep Unsupervised Clustering with Gaussian Mixtura Variational Autoencoders », arXiv:1611.02648 [cs, stat],‎ (lira en linha, consultat lo )
  18. (en) « Neural Variational Inference: Variational Autoencoders and Helmholtz maquinas - B.log », sus artem.sobolev.name (consultat lo )
  19. (en) Pascal Vincent, Hugo Larochelle, Yoshua Bengio e Pierre-Antoine Manzagol, « Extracting and composing robust features with denoising autoencoders », Proceedings of the 25th internacional conference s'Engenha learning - ICML '08, ACM Press,‎ , p. 1096–1103 (ISBN 978-1-60558-205-4, DOI 10.1145/1390156.1390294, lira en linha, consultat lo )
  20. (en) J. Buhmann e H. Kuhneln, « [Proceedings 1992] IJCNN Internacional Jonch Conference òm Neural Networks », dins Unsupervised and supervised datèt clustering with competitive neural networks, panatòri. 4, IEEE, (ISBN 0780305590, DOI 10.1109/ijcnn.1992.227220, S2CID 62651220), p. 796–801
  21. (en) Alberto Comesaña-Campos e José Benito Bouza-Rodríguez, « An aplicacion of Hebbian learning in the design process decision-making », Journal of Intelligent Manufacturing, panatòri. 27, no 3,‎ , p. 487–506 (ISSN 0956-5515, DOI 10.1007/s10845-014-0881-z, S2CID 207171436, lira en linha).
  22. a e b (en) Carpenter, G.A. e Grossberg, S., « The ART of adaptive pattern recognition by a self- organizing neural network », Computar, panatòri. 21, no 3,‎ , p. 77–88 (DOI 10.1109/2.33, S2CID 14625094, lira en linha)

Veire tanben[modificar | modificar lo còdi]

Bibliografia[modificar | modificar lo còdi]

Articles connèxes[modificar | modificar lo còdi]