25 Commits 6ee4befc0c ... c62438ea3f

Author SHA1 Message Date
  Marc Beninca c62438ea3f wip 3 months ago
  Marc Beninca e5b9a55f10 wip 3 months ago
  Marc Beninca a0a002fe73 wip 3 months ago
  Marc Beninca 078b811e12 white 3 months ago
  Marc Beninca c7771935c5 ex-nonlinear 3 months ago
  Marc Beninca 15814b43f3 ex-linear 3 months ago
  Marc Beninca b0a1c30e7d example 3 months ago
  Marc Beninca fae39133a3 opti 3 months ago
  Marc Beninca 3bc0e345c2 figures 3 months ago
  Marc Beninca 4e4e0b35c5 multi 3 months ago
  Marc Beninca 4e97f982ea wip 3 months ago
  Marc Beninca 9a6990f5b9 wip 3 months ago
  Marc Beninca a965db1f79 krbf 3 months ago
  Marc Beninca f79e2f8923 gs 3 months ago
  Marc Beninca a7809f9235 red 3 months ago
  Marc Beninca 31096f104d wip 3 months ago
  Marc Beninca 0c9357f8ea similar 3 months ago
  Marc Beninca cab249c497 kt 3 months ago
  Marc Beninca b22c45f3ec nonlinear 3 months ago
  Marc Beninca 7c5a85c2d9 prez 3 months ago
  Marc Beninca d62bed937d rbf 3 months ago
  Marc Beninca 8f4f6193f4 fixes 3 months ago
  Marc Beninca 79933282a9 souple 3 months ago
  Marc Beninca bab5b230bb pb 3 months ago
  Marc Beninca a8f9a57279 outliers 3 months ago

+ 21 - 4
cnam/travaux/probatoire/document.bib

@@ -71,6 +71,16 @@ publisher = "O'Reilly",
 pages     = "164",
 }
 
+@article{scaling,
+author    = "Minaxi Arora and Lekha Bhambhu",
+title     = "Role of Scaling in Data Classification Using SVM",
+year      = "2014",
+journal   = "IJARCSSE",
+volume    = "4",
+issue     = "10",
+pages     = "271-273",
+}
+
 @book{multi-class,
 author    = "Paresh Deka",
 title     = "A primer on machine learning applications in civil engineering",
@@ -102,8 +112,15 @@ year      = "2010",
 school    = "Université Paris VI",
 }
 
-@unpublished{cs,
-author    = "Philippe Gambette",
-title     = "Classification supervisée et non supervisée",
-year      = "2014",
+@misc{ex-linear,
+author = "Abhishek Ghose",
+title  = "Learning SVMs From Examples",
+year   = "2017",
+url    = "https://www.kdnuggets.com/2017/08/support-vector-machines-learning-svms-examples.html",
+}
+@misc{ex-nonlinear,
+author = "Abhishek Ghose",
+title  = "Learning SVMs From Examples",
+year   = "2017",
+url    = "https://www.kdnuggets.com/2017/08/support-vector-machines-learning-svms-examples.html/2",
 }

+ 5 - 2
cnam/travaux/probatoire/document.tex

@@ -22,12 +22,12 @@ urlcolor=blue,
 %⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
 \newcommand{\fig}[4]{\begin{figure}[H]\begin{center}
 \includegraphics[height=#3]{images/#4.png}
-\caption{#2}\end{center}\end{figure}}
+\label{#1}\caption{#2}\end{center}\end{figure}}
 %⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
 \newcommand{\bifig}[5]{\begin{figure}[H]\begin{center}
 \includegraphics[height=#3]{images/#4.png}
 \includegraphics[height=#3]{images/#5.png}
-\caption{#2}\end{center}\end{figure}}
+\label{#1}\caption{#2}\end{center}\end{figure}}
 %⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
 \newcommand{\hr}{\rule{\textwidth}{1pt}}
 \newcommand{\hrq}{\rule{.25\textwidth}{1pt}}
@@ -73,6 +73,9 @@ Informatique, Réseaux, Systèmes et Multimédia
 %–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
 \printbibliography[heading=bibintoc,title=Références]
 \pagebreak
+\renewcommand{\listfigurename}{Figures}
+\listoffigures
+\pagebreak
 % appendicies ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
 \appendix
 %⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅

+ 8 - 1
cnam/travaux/probatoire/document/conclusion.tex

@@ -1,5 +1,12 @@
 \section{Conclusion}
 
-…
+Nombreux outils logiciels implémentant les \gls{svm},
+(libSVM, SVM-Light, SVMTorch) disponibles pour différents langages.
+
+Nativement bons linéairement, noyau permet apprentissage non-linéaire.
+
+Noyau élément clé, \gls{kf} pas facile à choisir.
+
+Il faut savoir rester patient pour les temps d’entraînement.
 
 \pagebreak

+ 8 - 6
cnam/travaux/probatoire/document/critics.tex

@@ -16,8 +16,8 @@ résoudre des problèmes de régression ou de classification}
 
 \end{itmz}\begin{itmz}
 
-\item{est une alternative aux réseaux de neurones,\\
-dans le cas de \glspl{ds} de taille réduite}
+\item{est souvent une meilleure alternative aux réseaux de neurones,\\
+surtout dans le cas de \glspl{ds} de taille réduite}
 
 \end{itmz}\begin{itmz}
 
@@ -25,7 +25,8 @@ dans le cas de \glspl{ds} de taille réduite}
 
 \end{itmz}\begin{itmz}
 
-\item{peut capturer des relations complexes dans des \glspl{ds}}
+\item{peut capturer des relations complexes dans des \glspl{ds},\\
+même sans connaissance préalable de ces dernières}
 
 \end{itmz}\begin{itmz}
 
@@ -52,7 +53,7 @@ par l’intermédiaire de différentes \glspl{kf}}
 
 \end{itmz}\begin{itmz}
 
-\item{une variété de \glspl{kf} existe pour les fonctions de décision}
+\item{de nombreuses \glspl{kf} existent pour les fonctions de décision}
 
 \end{itmz}\begin{itmz}
 
@@ -82,7 +83,8 @@ car ces derniers doivent y être intégralement stockés}
 
 \end{itmz}\begin{itmz}
 
-\item{difficile d’identifier les bonnes valeurs de paramètres}
+\item{difficile d’identifier les bonnes valeurs de paramètres,\\
+sans passer par des techniques comme \gls{gs}}
 
 \end{itmz}\begin{itmz}
 
@@ -117,7 +119,7 @@ plusieurs paramètres varient, contrairement à d’autres méthodes}
 \end{itmz}\begin{itmz}
 
 \item{une normalisation préalable des données est nécessaire,\\
-pour que les fonctions objectifs restent pertinentes}
+pour que les fonctions objectifs soient plus pertinentes}
 
 \end{itmz}\begin{itmz}
 

+ 58 - 3
cnam/travaux/probatoire/document/example.tex

@@ -1,7 +1,62 @@
-\section{Exemple d’application}
+\section{Exemples}
 
-…
+Les 2 cas suivants,
+linéaire \cite{ex-linear} et non linéaire \cite{ex-nonlinear},
+illustrent bien le propos.
 
-\cite{cs}
+\subsection{Linéaire}
+
+Une classification est voulue pour pouvoir déterminer si un étudiant
+sera bon ou non en \gls{ml}, à partir des 2 notes qu’il a obtenu
+aux examens de Mathématiques et de Statistiques.
+
+\fig{}{\Gls{ds} très bien distribué}
+{16em}{ex-linear-plot}
+
+Avec un tel \gls{ds}, l’identification des \glspl{sv} est aisée,
+et une marge la plus large possible est facilement applicable.
+
+\fig{}{Séparation à Vaste Marge très nette}
+{16em}{ex-linear-svm}
+
+\pagebreak
+
+\fig{}{Anomalies dans le \gls{ds}, violations de marge}
+{16em}{ex-linear-out}
+
+Pour un \gls{ds} avec aberrations, faire varier une marge souple permet
+de trouver un compromis entre généralisation et spécialisation.
+
+\fig{}{Différentes séparations à marge souple, variation de C}
+{32em}{ex-linear-soft}
+
+\pagebreak
+
+\subsection{Non linéaire}
+
+\fig{}{\Gls{ds} inséparable de façon linéaire}
+{16em}{ex-nonlinear-plot}
+
+Création d’un nouvel espace dimensionnel avec des transformations
+non linéaires des variables d’origine.
+
+{\large
+$X_{1}=x_{1}^{2}$ ; $X_{2}=x_{2}^{2}$ ; $X_{3}=\sqrt{2} × x_{1} × x_{2}$
+}
+
+Ce nouvel espace permet de trouver une marge et un \gls{hpp} séparateur.
+
+\fig{}{\Gls{hpp} séparateur linéaire dans le nouvel espace dimensionnel}
+{24em}{ex-nonlinear-linear}
+
+\pagebreak
+
+\fig{}{Projection de la marge de séparation dans l’espace d’origine}
+{24em}{ex-nonlinear-sv}
+
+Le retour à l’espace de départ permet ainsi marge et séparation non linéaires.
+
+\fig{}{Fonction de décision finale non linéaire dans l’espace d’origine}
+{24em}{ex-nonlinear-svm}
 
 \pagebreak

+ 12 - 0
cnam/travaux/probatoire/document/glossaries.tex

@@ -1,11 +1,15 @@
 \printglossary[title=Abréviations,type=\acronymtype]
 
+\newacronym{anova}{ANOVA}{ANalysis Of VAriance}
 \newacronym{hbos}{HBOS}{Histogram Based Outlier Score}
+\newacronym{irm}{IRM}{Imagerie par Résonnance Magnétique}
 \newacronym{nn}{NN}{Nearest Neighbors}
 \newacronym{rbf}{RBF}{Radial Basis Function}
 \newacronym{sgbd}{SGBD}{Systèmes de Gestion de Bases de Données}
 \newacronym{si}{SI}{Systèmes d’Information}
+\newacronym{svc}{SVC}{Support Vector Classification}
 \newacronym{svm}{SVM}{Support Vector Machine}
+\newacronym{svr}{SVR}{Support Vector Regression}
 \newacronym{tic}{TIC}{Technologies d’Information et de Communication}
 
 \pagebreak
@@ -25,6 +29,10 @@ name={dataset},
 plural={datasets},
 description={ensembles de données}
 }
+\newglossaryentry{gs}{
+name={grid search},
+description={algorithme d’affinage d’hyperparamètres par grille de valeurs}
+}
 \newglossaryentry{kf}{
 name={fonction noyau},
 plural={fonctions noyau},
@@ -35,6 +43,10 @@ name={hyperplan},
 plural={hyperplans},
 description={sous-espace en n−1 dimesions d’un espace en n dimensions}
 }
+\newglossaryentry{kt}{
+name={kernel trick},
+description={astuce du noyau}
+}
 \newglossaryentry{ml}{
 name={machine learning},
 description={apprentissage machine automatique}

+ 5 - 3
cnam/travaux/probatoire/document/introduction.tex

@@ -24,7 +24,9 @@ pour conserver une capacité de généralisation}
 choisir les algorithmes les plus pertinents}
 \end{itmz}
 
-\subsection{Méthodes non supervisées}
+\subsection{Méthodes}
+
+\subsubsection{Méthodes non supervisées}
 
 Ces premières méthodes permettent de travailler avec un ensemble d’éléments
 ne disposant pas d’étiquetage préalable, elles mettent ainsi en place
@@ -42,7 +44,7 @@ Exemples d’algorithmes :
 \item{Apriori}
 \end{itmz}
 
-\subsection{Méthodes semi-supervisées}
+\subsubsection{Méthodes semi-supervisées}
 
 Ces méthodes autorisent l’utilisation d’un ensemble d’éléments hétérogène,
 certains étant ayant déjà été étiquetés au préalable, alors que d’autres non.
@@ -55,7 +57,7 @@ Exemples d’algorithmes :
 \item{autoencodeurs}
 \end{itmz}
 
-\subsection{Méthodes supervisées}
+\subsubsection{Méthodes supervisées}
 
 Ces méthodes utilisent 2 sous-ensembles d’éléments intégralement étiquetés,
 ayant une valeur de sortie pour plusieurs valeurs de variables en entrée.

+ 171 - 36
cnam/travaux/probatoire/document/principles.tex

@@ -13,18 +13,18 @@ Cette approche se révèle appropriée dans de nombreux cas d’utilisation :
 \item{classification d’images, quel que soit le \gls{si}}
 \item{détection de \gls{sgn} dans des fichiers multimédias}
 \item{quantification de granularité dans des textures}
-\item{reconnaissance de caractères dans des images}
+\item{reconnaissance de caractères et d’écriture dans des images}
 \item{classification d’expressions faciales dans des images}
 \item{reconnaissance vocale dans des échantillons sonores}
-\item{classification de protéines}
+\item{classification et prédiction de structure de protéines}
 \item{établissement de diagnostics médicaux}
-\item{classification de documents en différentes catégories}
+\item{classification de documents texte en différentes catégories}
 \end{itmz}
 
 En fonction du type de problèmes, deux types de résolution :
 \begin{itmz}
-\item{\textbf{régression}}
-\item{\textbf{classification}}
+\item{\textbf{régression} (\gls{svr}) → nombre}
+\item{\textbf{classification} (\gls{svc}) → catégorie}
 \end{itmz}
 
 En fonction des \glspl{ds}, deux types d’approches mathématiques :
@@ -35,10 +35,10 @@ En fonction des \glspl{ds}, deux types d’approches mathématiques :
 
 Quatre paramètres permettent d’affiner le modèle :
 \begin{itmz}
-\item{\textbf{noyau} : linéaire, \gls{rbf}, polynominal ou \gls{sigmoid}}
-\item{\textbf{degré} : aide à trouver un \gls{hpp} séparateur en contexte polynominal,
+\item{\textbf{noyau} : linéaire, \gls{rbf}, polynomial, \gls{sigmoid}, etc.}
+\item{\textbf{degré} : aide à trouver un \gls{hpp} séparateur en contexte polynomial,
 faisant rapidement augmenter le temps nécessaire à l’entraînement}
-\item{\textbf{gamma} : pour les \glspl{hpp} non linéaires}
+\item{\textbf{γ} : pour les \glspl{hpp} non linéaires}
 \item{\textbf{C} : pénalité augmentant la distance des données prises en compte,\\
 au risque d’engendrer un surentraînement si trop importante}
 \end{itmz}
@@ -48,7 +48,8 @@ au risque d’engendrer un surentraînement si trop importante}
 \subsection{Régression}
 
 Un hyperparamètre \textbf{ε} permet de fait varier l’épaisseur de la marge,
-afin d’y inclure le plus de données possible.
+pour y inclure le plus de données possible.
+Les éléments exclus sont identifiés en rose.
 
 \subsubsection{Régression linéaire}
 
@@ -62,7 +63,7 @@ Régression la plus simple : une approximation affine est suffisante.
 Régression nécessitant l’utilisation d’une fonction noyau.\\
 Une plus grande valeur de C intègre des données plus éloignées.
 
-\bifig{}{Régression polynominale de degré 2, variation de C \cite{homl-nonlinear}}
+\bifig{}{Régression polynomiale de degré 2, variation de C \cite{homl-nonlinear}}
 {15em}{regression_nonlinear_left}{regression_nonlinear_right}
 
 \pagebreak
@@ -73,59 +74,193 @@ Il s’agit du type de résolution le plus fréquemment utilisé.
 
 \subsubsection{Classification linéaire}
 
-…
+Cette section se penche sur la classification de 2 espèces d’iris,
+en fonction des longueurs et largeurs de leurs pétales.
 
-\bifig{}{Vaste marge \cite{homl-large-scale}}
+\textbf{Séparation à Vaste Marge}
+
+La figure de gauche montre que dans l’absolu, un grand nombre de droites
+peut séparer correctement les 2 ensembles à classifier.
+La figure de droite montre cependant qu’en utilisant les éléments
+les plus proches, appelés dans ce cas \glspl{sv}, il est alors possible
+de définir une marge de séparation la plus large qui soit, afin de
+déterminer la droite médiane de séparation la plus efficace.
+
+\bifig{}{Séparation à Vaste Marge \cite{homl-large-scale}}
 {9em}{margin_large_left}{margin_large_right}
 
-…
+Un changement d’échelle préalable aide à la séparation des données,
+et peut mener à une meilleure efficacité du modèle pour la classification.
+\cite{scaling}
+
+La figure de droite montre l’inclusion d’un \gls{sv} supplémentaire.
 
-\bifig{}{ \cite{homl-large-scale}}
+\bifig{}{Changements d’échelles de dimensions \cite{homl-large-scale}}
 {10em}{margin_scale_left}{margin_scale_right}
 
-…
+\pagebreak
+
+\textbf{Séparation à marge souple}
+
+L’approche de vaste marge peut être perturbée par 2 problématiques distinctes.
 
-\bifig{}{ \cite{homl-hard-few}}
-{9em}{margin_hard_left}{margin_hard_right}
+La figure de droite montre par exemple des \glspl{sv} tellement proches,
+que la pertinence du modèle s’en trouve forcément impactée, réduisant
+ainsi la fiabilité de la séparation.
 
-…
+La figure de gauche montre quant à elle une anomalie (outlier),
+rendant de fait toute séparation linéaire impossible.
 
-\bifig{}{ \cite{homl-hard-few}}
-{9em}{margin_few_left}{margin_few_right}
+\bifig{}{Sensibilité de vaste marge aux anomalies \cite{homl-hard-few}}
+{9.5em}{margin_hard_left}{margin_hard_right}
 
-…
+Il faut donc utiliser un modèle plus flexible pour pouvoir éviter
+ce type de problèmes. Le but étant de trouver le meilleur compromis
+entre avoir la marge la plus large, et y retrouver le moins possible
+d’éléments intrus, appelés violations de marge.
+
+Il est ainsi possible d’utiliser l’hyperparamètre \textbf{C} pour faire
+varier la distance de prise en compte des éléments proches de la marge.
+
+Plus la valeur de \textbf{C} augmente, plus le nombre de violations de
+marge diminiue, mais plus le modèle se spécialise.
+
+Une attention particulière doit donc être portée à la réduction de marge,
+sans quoi le modèle perdrait en capacité de généralisation
+et donc en précision.
+
+\bifig{}{Plus ou moins de violations de marge, variation de C \cite{homl-hard-few}}
+{9.5em}{margin_few_left}{margin_few_right}
+
+\pagebreak
 
 \subsubsection{Classification non linéaire}
 
-…
+Toutes les données ne sont pas forcément séparables de façon linéaire.
 
-\bifig{}{Séparabilité linéaire \cite{homl-nonlinear-linear}}
-{14em}{nonlinear_linear_left}{nonlinear_linear_right}
+Pour y adapter un modèle, il est donc nécessaire de passer par la création
+de nouvelles variables résultant de la transformation des données.
 
-…
+Sur la ligne de la figure de gauche, des éléments verts sont entourés d’éléments bleus, inséparables linéairement tels quels.
 
-\fig{}{ \cite{homl-feat-poly}}
-{9em}{features_polynomial}
+La figure de droite introduit alors une variable $X_{2}$, élévation
+au carré de la variable d’origine $X_{1}$, permettant ainsi
+une séparation linéaire des données.
 
-…
+\bifig{}{Séparation linéaire par ajout de variable \cite{homl-nonlinear-linear}}
+{14.5em}{nonlinear_linear_left}{nonlinear_linear_right}
 
-\bifig{}{\Gls{kf} polynominale \cite{homl-poly}}
+L’ajout de variables polynomiales autorise donc des séparations sous
+forme de courbes, et non plus seulement de droites.
+
+La figure suivante montre un exemple de séparation curviligne régulière,
+correspondant à la répartition des 2 catégories présentes.
+
+\fig{}{Classification utilisant des variables polynomiales \cite{homl-feat-poly}}
+{14em}{features_polynomial}
+
+\pagebreak
+
+\textbf{Noyau polynomial}
+
+Combiner des polynomes de degrés faibles est simple, pratique et
+relativement rapide à calculer.
+
+Mais plus les \glspl{ds} seront complexes, plus il faudra composer avec
+des polynomes de plus haut degré, générant un grand nombre de variables,
+et rendant ainsi le modèle trop lent.
+
+Un outil mathématique appelé \gls{kt} permet de contourner ce problème.
+Se basant sur le théorème de Mercer, il permet de remplacer dans un espace
+de grande dimension, un produit scalaire par une \gls{kf} facile à calculer.
+
+Ce \gls{kt} simplifie donc les calculs ultérieurs d’affinage.
+La technique \gls{gs}, limitant les hyperparamètres à des sous-ensembles
+de valeurs prédéfinies respectant un certain pas, permet ensuite un bon
+compromis de temps de calcul pour trouver les valeurs de réglages
+les plus appropriées.
+
+\bifig{}{\Gls{kf} polynomiale \cite{homl-poly}}
 {14em}{kernel_polynomial_left}{kernel_polynomial_right}
 
-…
+\textbf{Similarité}
+
+Une autre façon de gérer des données non linéairement séparables
+est d’utiliser une fonction de similarité, comme la \gls{rbf} gaussienne.
 
-\bifig{}{ \cite{homl-feat-simi}}
+Le principe est de transformer les éléments en fonction de leur similitude
+avec des points de repères déterminés dans l’ensemble d’origine.
+Utiliser chacun des éléments comme point de repère augmente la probabilité
+de séparabilité linéaire, mais également le nombre de variables et donc
+le temps de calcul.
+
+La figure de gauche montre les 2 points de repère choisis en rouge,
+ainsi que leur courbe gaussienne associée.
+
+La figure de droite montre tous les points transformés avec la \gls{rbf}
+gaussienne, devenant également linéairement séparables.
+
+\bifig{}{Variables de similarité utilisant la \gls{rbf} gaussienne \cite{homl-feat-simi}}
 {14em}{features_similar_left}{features_similar_right}
 
-…
+\textbf{Noyau gaussien \gls{rbf}}
 
-\bifig{}{\Gls{kf} gaussien \gls{rbf} \cite{homl-rbf}}
+Le \gls{kt} marche également dans un tel contexte de similarité.
+
+Faire varier \textbf{C} (colonnes) change la distance de prise en compte.\\
+Faire varier \textbf{γ} (rangées) modifie l’épaisseur de la « cloche » gaussienne.
+
+\bifig{}{\Gls{kf} gaussienne (\gls{rbf}) \cite{homl-rbf}}
 {26em}{kernel_rbf_left}{kernel_rbf_right}
 
-…
+\pagebreak
+
+\textbf{Autres noyaux}
+
+En complément aux plus courants vus précédemment, un certain nombre
+d’autres noyaux existe :
+
+\begin{itmz}
+\item{\gls{rbf} de Laplace}
+\item{tangente hyperbolique}
+\item{sigmoïde}
+\item{fonction de Bessel de première espèce}
+\item{\gls{rbf} \gls{anova}}
+\item{sillon linéaire à 1 dimension}
+\item{chaîne (utilisé pour les documents texte ou séquences d’ADN)}
+\end{itmz}
+
+\textbf{Autres outils}
+
+Des algorithmes récents se sont montrés plus efficaces avec de grands \glspl{ds} :
+
+\begin{itmz}
+\item{descente par sous-gradient, avec des techniques de décomposition}
+\item{descente par coordonnée, en effectuant des minimisations itératives}
+\end{itmz}
+
+\subsubsection{Classification multi-classes}
+
+Quand au moins 3 catégories sont à classifier,
+et donc pour étendre les modèles à plus de 2 catégories,
+deux approches sont intéressantes \cite{multi-class} :
+
+\begin{itmz}
+\item{\gls{svm} à arbre de décision}
+\item{\gls{svm} par paires}
+\end{itmz}
+
+\subsubsection{Optimisation}
+
+Normaliser les données avant de les classifier peut donner de bien meilleurs
+résultats en fonction du type de problèmes considéré.
 
-Référence multi-classes \cite{multi-class}
+Dans le cadre de la proposition d’un nouvel algorithme pour classifier des
+tumeurs cérébrales à partir d’\gls{irm} \cite{mri}, sont recensées
+(entre 1990 et 2018) de nombreuses combinaisons de pré-traitements
+et de classifications. \cite{optimization}
 
-Référence optimisation \cite{mri} \cite{optimization}
+Parmi ces traitements : filtre gaussien, réduction de bruit,
+suppression d’artefacts, égalisation d’histogramme, filtre médian.
 
 \pagebreak

BIN
cnam/travaux/probatoire/images/ex-linear-out.png


+ 0 - 0
cnam/travaux/probatoire/images/ex-linear-plot.png


Some files were not shown because too many files changed in this diff