48 votes

Réseaux neuronaux : obsolètes ?

Selon une réponse de aquí Les réseaux de neurones artificiels sont dépassés par les machines à vecteurs de support, les processus gaussiens, les modèles génératifs et descriptifs. Quelle est votre opinion ?

41voto

Matt Rogish Points 11824

Du papier de ce type ici : http://www.inference.phy.cam.ac.uk/mackay/BayesGP.html ("Gaussian Processes - A Replacement for Supervised Neural Networks ?"), il affirme que

"Les problèmes les plus intéressants, la tâche de découverte de caractéristiques par exemple, ne sont pas ceux que les processus gaussiens résoudront. Mais peut-être que les multicouches ne peuvent pas les résoudre non plus."

Cependant, le magazine Kidney suggère que

"En conclusion, bien que nous comprenions que pour des problèmes particuliers, l'ANN peut donner des résultats raisonnables, nous soutenons qu'en général (d'un point de vue perspective théorique) et en particulier (pour le cas considéré) l'étude de cas considérée), la machine à vecteurs de support surpasse en effet l'ANN".

Enfin : www.cs.umu.se/education/examina/Rapporter/MichalAntkowiak.pdf

La figure 4.3 présente une comparaison des meilleurs résultats obtenus par chaque méthode. Elle apparaît que de bien meilleurs résultats de classification ont été obtenus en utilisant ANN que le SVM. Il semble également que les ANN soient plus résistants à l'insufficient de données de données, car même pour un petit ensemble de images de Melanoma Maligna, les résultats étaient satisfaisants. Cela ne peut pas être dit SVM, qui a eu un problème avec la classification classification de la maladie susmentionnée maladie susmentionnée et l'a induit en erreur avec Naevus mélanocytaire.

Donc, comme à peu près tout en informatique, c'est une question de compromis, et ce n'est pas "le meilleur" mais "le meilleur pour votre problème particulier".

35voto

StompChicken Points 6102

Je pense que l'expression "n'est plus à la mode" est plus appropriée que "obsolète". Le fait est que la communauté des chercheurs est tout aussi sensible au battage médiatique et à la mode que n'importe quelle autre communauté.

Les réseaux neuronaux ont fait l'objet d'une grande publicité il y a plusieurs années, car ils étaient considérés comme l'une des premières technologies d'IA qui allaient résoudre tous les problèmes du monde. Depuis, les réseaux neuronaux ont connu un retour de bâton, en partie parce qu'ils sont considérés comme une vieille technologie qui n'a pas été à la hauteur de l'engouement, et en partie parce qu'ils sont considérés comme difficiles à utiliser.

Toutefois, de nouvelles recherches très intéressantes sont menées dans le domaine de l'"apprentissage profond" qui, d'après ce que j'ai compris, repose sur une méthode efficace de formation de réseaux neuronaux comportant un grand nombre de couches cachées. Certains des résultats produits par cette technique sont très impressionnants.

Les réseaux neuronaux sont passés de mode depuis un certain temps, mais peut-être est-ce le moment de faire un come-back ?

21voto

Junier Points 889

Les réseaux neuronaux peu profonds sont certainement moins populaires car des méthodes comme les SVM peuvent être aussi efficaces (ou plus) avec moins de bricolage.

Cependant, les réseaux neuronaux sont toujours très actifs et pertinents, en particulier les réseaux neuronaux profonds, connus sous le nom de réseaux à croyance profonde (DBN). Les DBN existent en deux versions : les réseaux convolutifs et les machines de Boltzmann restreintes (RBM). Les réseaux convolutifs sont généralement utilisés pour la vision (et je n'en sais pratiquement rien de plus). Les DBNs construits à partir de plusieurs couches de RBMs sont excellents pour apprendre les caractéristiques de haut niveau des données de manière non supervisée, l'auto-codage, le hachage sémantique, et oui, la classification.

L'astuce consiste à pré-entraîner les DBN avant d'utiliser la rétro-propagation, qui est généralement lente et plutôt inutile au-delà de 2 ou 3 couches.

Deux grandes sources :

Tutoriel vidéo de Hinton

Apprendre les architectures profondes pour l'IA

17voto

Alex Fort Points 9961

Les réseaux neuronaux sont une méthode d'"apprentissage automatique". Ce n'est pas parce qu'il existe de nouvelles technologies que les anciennes sont obsolètes. Elles ont de nombreuses applications, notamment l'évaluation des risques pour les entreprises financières.

Ils sont assez bons pour détecter des modèles, donc les gens les utilisent encore dans des applications qui en ont besoin. Je les ai moi-même trouvés utiles pour l'évaluation des risques, en les utilisant pour déterminer si un client donné représente un risque élevé pour l'entreprise, sur la base d'un grand nombre de données d'entraînement antérieures. Il existe certainement de meilleures méthodes pour faire quelque chose comme ça, mais j'ai trouvé qu'un NN était une solution parfaitement acceptable, avec de bons résultats.

10voto

MaD70 Points 2902

Étrange conclusion qui me rappelle un précédent historique, le perceptron 's cas (le perceptron est un type simple de réseau neuronal artificiel) :

... en 1969, Minsky a co-écrit avec Seymour Papert, Perceptrons : Un Introduction à la géométrie computationnelle Géométrie . Dans ce travail, ils ont attaqué les limites du perceptron.
Ils ont montré que le perceptron pouvait résoudre des fonctions linéairement séparables linéaires séparables. Ce qui est particulièrement intéressant, c'est le fait que le perceptron ne pouvait toujours ne pouvait toujours pas résoudre les fonctions XOR et NXOR. et NXOR. De même, Minsky et Papert ont déclaré que le style de recherche effectuée sur le perceptron était voué à l'échec en raison de ces limitations. C'était, bien sûr, la remarque tout aussi inopportune de Minsky. En conséquence, très peu de recherches ont été dans ce domaine jusqu'aux années 1980's§. ...

§ Minsky et Papert sont deux pionniers de l'IA, leur opinion était donc très prise en compte à l'époque. C'était le classique débat symbolique vs. subsymbolique dans l'intelligence artificielle.

En fait, il était facile de surmonter cette limitation en ajoutant simplement plus d'une couche de nœuds (neurones artificiels).

La morale de l'histoire est qu'une technologie peut surmonter ses limites, même avec une amélioration modeste. C'est le cas (avec une amélioration pas si modeste) de l'étude de Jürgen Schmidhuber et de ses collègues. travaux récents sur les réseaux neuronaux récurrents (RNN) :

... Les premiers RNN des années 1990 ne pouvaient pas apprendre à regarder loin dans le passé. Leurs problèmes ont été analysés pour la première fois de manière rigoureuse dans le cadre du projet RNN long time lag de Schmidhuber par son ancien doctorant Hochreiter (1991). Un réseau de rétroaction appelé "mémoire à long terme" (LSTM, Neural Comp., 1997) surmonte les problèmes fondamentaux des RNN traditionnels, et permet de manière efficace apprend à résoudre de nombreuses tâches auparavant inapprenables. impliquant : ...

Prograide.com

Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X