La fase di addestramento

Dato un dominio di interesse e una specifica metrica, per ogni classe di oggetti, alcuni elementi fra essi sono passati al sistema per l' addestramento. Un algoritmo $\Phi $ seleziona le $w$ caratteristiche (feature) più rilevanti e calcola per ognuna di queste caratteristiche un vettore $\phi$ di set di valori, in relazione alla metrica scelta.


\begin{displaymath}
\Phi(esempi\_addestramento) = \phi =
\left[
\begin{array}...
...ots, \phi_{w,k}, \cdots, \phi_{w,j}} \}
\end{array} \right]
\end{displaymath} (3.3)

$\Phi $ e la metrica variano da compito a compito. $\phi_{i,k}$ è il k-esimo valore della metrica della i-esima caratteristica.

Partendo dalla definizione generale di Funzione Gaussiana che è:


\begin{displaymath}
gauss(x) = \exp \left(- \frac{(x - \mu)^{2}} {2 \cdot \sigma^{2}}\right)
\end{displaymath} (3.4)

vengono definite , per la i-esima caratteristica:

\begin{displaymath}
\mu_{i} = \omega \left( \{ \phi_{i,1} , \phi_{i,2}, \cdots, \phi_{i,j} \} \right)
\end{displaymath} (3.5)


\begin{displaymath}
\sigma^{2}_{i} = \psi \left( \{ \phi_{i,1} , \phi_{i,2}, \cdots, \phi_{i,j} \} \right)
\end{displaymath} (3.6)

Quindi sostituendo (3.5) e (3.6) nella (3.4), viene definita la i-esima funziona gaussiana come segue:


\begin{displaymath}
g_{i}(x_{i},\{ \phi_{i,1} , \phi_{i,2}, \cdots, \phi_{i,j} ...
...- \frac{(x_{i} - \mu_{i})^{2}} {2 \cdot \sigma^{2}_i}\right)
\end{displaymath} (3.7)

dove $x_{i}$ è la i-esima componente del nuovo pattern da classificare. A questo punto si può costruire il vettore caratteristico della categoria, che è il Gaussian Mono-dimensional Environment che si vuole trovare.

In forma compatta esso si definisce come:


\begin{displaymath}
G(x) =
\left[
\begin{array}{c}
g_{1}(x_{1}, \{ \phi_{1,...
...1} , \phi_{n,2}, \cdots, \phi_{n,j}\})
\end{array} \right ]
\end{displaymath} (3.8)

Nelle prossime sezioni viene descritto come costruire il vettore $x$ del pattern da classificare, e come effettuare tale classificazione su di esso.

Alessio Pace 2004-03-26