19 Commits b33a7b6556 ... 3c866fff90

Author SHA1 Message Date
  Marc Beninca 3c866fff90 research 3 months ago
  Marc Beninca 97349220f1 et 3 months ago
  Marc Beninca b47dcd1ecf sigmoid 3 months ago
  Marc Beninca 709f8431c2 pluriel 3 months ago
  Marc Beninca 87e2f60515 départ 3 months ago
  Marc Beninca 686bdc2316 pluriel 3 months ago
  Marc Beninca 5145c2bedf fix 3 months ago
  Marc Beninca 09ba22eb95 singulier 3 months ago
  Marc Beninca 177bb5a216 intro 3 months ago
  Marc Beninca e94b9606b0 or 3 months ago
  Marc Beninca 49ead75828 singulier 3 months ago
  Marc Beninca 944efd7788 singulier 3 months ago
  Marc Beninca d6f1f045c7 shrink 3 months ago
  Marc Beninca ab47569fd6 pléonasme 3 months ago
  Marc Beninca 6f2be36806 comma 3 months ago
  Marc Beninca d6b5bf757d half 3 months ago
  Marc Beninca 9d102eb17c kt 3 months ago
  Marc Beninca f78d881c09 ensemble 3 months ago
  Marc Beninca 3ad2ae29a5 wip 3 months ago

+ 4 - 3
cnam/travaux/probatoire/document/critics.tex

@@ -1,4 +1,4 @@
-\section{Critique}
+\section{Critiques}
 
 
 \subsection{Avantages}
@@ -12,7 +12,7 @@ de petits changements dans les données impactent peu les \glspl{hpp}}
 \end{itmz}\begin{itmz}
 
 \item{ce même modèle peut être utilisé à la fois pour\\
-résoudre des problèmes de régression ou de classification}
+résoudre des problèmes de régression et de classification}
 
 \end{itmz}\begin{itmz}
 
@@ -123,7 +123,8 @@ pour que les fonctions objectifs soient plus pertinentes}
 
 \end{itmz}\begin{itmz}
 
-\item{les problèmes multi-classes sont encore un champ de recherche}
+\item{les problèmes multi-classes sont encore\\
+un champ de recherche à part entière}
 
 \end{itmz}
 

+ 3 - 3
cnam/travaux/probatoire/document/glossaries.tex

@@ -27,7 +27,7 @@ description={regroupement d’éléments en sous-ensembles caractéristiques}
 \newglossaryentry{ds}{
 name={dataset},
 plural={datasets},
-description={ensembles de données}
+description={ensemble de données}
 }
 \newglossaryentry{gs}{
 name={grid search},
@@ -45,7 +45,7 @@ description={sous-espace en n−1 dimesions d’un espace en n dimensions}
 }
 \newglossaryentry{kt}{
 name={kernel trick},
-description={astuce du noyau}
+description={astuce du noyau pour éviter des calculs plus complexes}
 }
 \newglossaryentry{ml}{
 name={machine learning},
@@ -57,7 +57,7 @@ description={dissimulation d’informations dans un plus grand ensemble}
 }
 \newglossaryentry{sigmoid}{
 name={sigmoïde},
-description={courbe à double asymptôte 0 et 1, centrée sur 0,5}
+description={courbe à double asymptôte 0 et 1, centrée sur 1÷2}
 }
 \newglossaryentry{sv}{
 name={support vector},

+ 6 - 6
cnam/travaux/probatoire/document/introduction.tex

@@ -18,7 +18,7 @@ des \glspl{ds} exploitables puis, à partir de cet apprentissage,
 
 Les 2 défis à relever pour être pertinents dans cette démarche :
 \begin{itmz}
-\item{ne pas surentraîner (spécialiser) l’apprentisseur automatique\\
+\item{ne pas surentraîner (spécialiser) l’apprentisseur automatique,\\
 pour conserver une capacité de généralisation}
 \item{pour chaque type de problèmes à résoudre,\\
 choisir les algorithmes les plus pertinents}
@@ -47,8 +47,8 @@ Exemples d’algorithmes :
 \subsubsection{Méthodes semi-supervisées}
 
 Ces méthodes autorisent l’utilisation d’un ensemble d’éléments hétérogène,
-certains étant ayant déjà été étiquetés au préalable, alors que d’autres non.
-Un mélange de différentes techniques s’avère donc être nécessaire.
+certains ayant déjà été étiquetés au préalable, alors que d’autres non.
+Un mélange de différentes techniques s’avère donc nécessaire.
 
 Exemples d’algorithmes :
 \begin{itmz}
@@ -73,8 +73,8 @@ de fournir des valeurs de sortie prédictives de 2 types :
 
 Exemples d’algorithmes :
 \begin{itmz}
-\item{régressions linéaire, logistique ou vectorielle}
-\item{arbres de régression, classification}
+\item{régression linéaire, logistique ou vectorielle}
+\item{arbre de régression ou classification}
 \item{k-\gls{nn} (plus proches voisins)}
 \item{classificateur Naïve Bayes}
 \item{réseaux de neurones}
@@ -83,6 +83,6 @@ Exemples d’algorithmes :
 
 Ce sont ces \gls{svm} qui feront l’objet d’étude du présent document.
 En seront passés en revue les différents principes techniques sous-jacents,
-un exemple d’application, ainsi qu’un regard critique sur ce type d’algorithmes.
+deux exemples d’application, ainsi que des critiques sur ce type d’algorithmes.
 
 \pagebreak

+ 7 - 7
cnam/travaux/probatoire/document/principles.tex

@@ -27,7 +27,7 @@ En fonction du type de problèmes, deux types de résolution :
 \item{\textbf{classification} (\gls{svc}) → catégorie}
 \end{itmz}
 
-En fonction des \glspl{ds}, deux types d’approches mathématiques :
+En fonction des \glspl{ds}, deux types d’approche mathématique :
 \begin{itmz}
 \item{\textbf{linéaire} : la plus simple}
 \item{\textbf{non linéaire} : faisant appel à des \glspl{kf}}
@@ -39,8 +39,8 @@ Quatre paramètres permettent d’affiner le modèle :
 \item{\textbf{degré} : aide à trouver un \gls{hpp} séparateur en contexte polynomial,
 faisant rapidement augmenter le temps nécessaire à l’entraînement}
 \item{\textbf{γ} : pour les \glspl{hpp} non linéaires}
-\item{\textbf{C} : pénalité augmentant la distance des données prises en compte,\\
-au risque d’engendrer un surentraînement si trop importante}
+\item{\textbf{C} : pénalité augmentant la distance des données prises en compte, au\\
+risque d’engendrer un surentraînement pour une valeur trop importante}
 \end{itmz}
 
 \pagebreak
@@ -95,7 +95,7 @@ et peut mener à une meilleure efficacité du modèle pour la classification.
 
 La figure de droite montre l’inclusion d’un \gls{sv} supplémentaire.
 
-\bifig{}{Changements d’échelles de dimensions \cite{homl-large-scale}}
+\bifig{}{Changements d’échelles des dimensions \cite{homl-large-scale}}
 {10em}{margin_scale_left}{margin_scale_right}
 
 \pagebreak
@@ -139,7 +139,7 @@ et donc en précision.
 Toutes les données ne sont pas forcément séparables de façon linéaire.
 
 Pour y adapter un modèle, il est donc nécessaire de passer par la création
-de nouvelles variables résultant de la transformation des données.
+de nouvelles variables résultant de la transformation des données de départ.
 
 Sur la ligne de la figure de gauche, des éléments verts sont entourés d’éléments bleus, inséparables linéairement tels quels.
 
@@ -190,7 +190,7 @@ est d’utiliser une fonction de similarité, comme la \gls{rbf} gaussienne.
 
 Le principe est de transformer les éléments en fonction de leur similitude
 avec des points de repères déterminés dans l’ensemble d’origine.
-Utiliser chacun des éléments comme point de repère augmente la probabilité
+Utiliser chacun des éléments comme points de repère augmente la probabilité
 de séparabilité linéaire, mais également le nombre de variables et donc
 le temps de calcul.
 
@@ -223,7 +223,7 @@ d’autres noyaux existe :
 \begin{itmz}
 \item{\gls{rbf} de Laplace}
 \item{tangente hyperbolique}
-\item{sigmoïde}
+\item{\gls{sigmoid}}
 \item{fonction de Bessel de première espèce}
 \item{\gls{rbf} \gls{anova}}
 \item{sillon linéaire à 1 dimension}

+ 24 - 0
cnam/travaux/probatoire/présentation.tex

@@ -8,6 +8,15 @@
 \subsection{Machine learning}
 %⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
 \subsection{Méthodes}
+\begin{frame}{\bititle\\Introduction / Méthodes non supervisées}
+
+\end{frame}
+\begin{frame}{\bititle\\Introduction / Méthodes semi-supervisées}
+
+\end{frame}
+\begin{frame}{\bititle\\Introduction / Méthodes supervisées}
+
+\end{frame}
 %–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
 \section{Principes}
 %⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
@@ -15,9 +24,24 @@
 \begin{frame}{\bititle\\Principes / Régression / Linéaire}
 
 \end{frame}
+\begin{frame}{\bititle\\Principes / Régression / Non linéaire}
+
+\end{frame}
 %⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
 \subsection{Classification}
 %–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
+\section{Exemples}
+%⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
+\subsection{Linéaire}
+\begin{frame}{\bititle\\Exemples / Linéaire / Distribué}
+
+\end{frame}
+\begin{frame}{\bititle\\Exemples / Linéaire / Aberrant}
+
+\end{frame}
+%⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
+\subsection{Non linéaire}
+%–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
 \section{Questions}
 \begin{frame}{\bititle\\Questions}
 \Huge\centering