D:
Perché la selezione delle funzioni è così importante nell'apprendimento automatico?
UN:La selezione delle funzioni è estremamente importante nell'apprendimento automatico principalmente perché serve come tecnica fondamentale per indirizzare l'uso delle variabili su ciò che è più efficiente ed efficace per un determinato sistema di apprendimento automatico.
Gli esperti parlano di come funzionano la selezione e l'estrazione delle funzioni per ridurre al minimo la maledizione della dimensionalità o aiutare a gestire il sovradimensionamento: si tratta di modi diversi per affrontare l'idea di una modellazione eccessivamente complessa.
Download gratuito: Machine Learning e perché è importante |
Un altro modo per dirlo è che la selezione delle funzionalità aiuta a fornire agli sviluppatori gli strumenti per utilizzare solo i dati più pertinenti e utili nei set di formazione sull'apprendimento automatico, il che riduce drasticamente i costi e il volume di dati.
Un esempio è l'idea di misurare una forma complessa su scala. Man mano che il programma si ridimensiona, identifica un numero maggiore di punti dati e il sistema diventa molto più complesso. Ma una forma complessa non è il tipico set di dati utilizzato da un sistema di apprendimento automatico. Questi sistemi possono utilizzare set di dati con livelli di varianza molto diversi tra le diverse variabili. Ad esempio, nella classificazione delle specie, gli ingegneri possono utilizzare la selezione delle caratteristiche per studiare solo le variabili che daranno loro i risultati più mirati. Se ogni animale nella carta ha lo stesso numero di occhi o gambe, i dati potrebbero essere rimossi o altri punti di dati più rilevanti potrebbero essere estratti.
La selezione delle funzioni è il processo discriminante mediante il quale gli ingegneri indirizzano i sistemi di apprendimento automatico verso un obiettivo. Oltre all'idea di rimuovere la complessità dai sistemi su larga scala, la selezione delle funzionalità può anche essere utile per ottimizzare aspetti di ciò che gli esperti chiamano "trade-off di bias varianza" nell'apprendimento automatico.
I motivi per cui la selezione delle funzioni aiuta con l'analisi di bias e varianza sono più complicati. Uno studio della Cornell University sulla selezione delle caratteristiche, la varianza di bias e l'inserimento di insegne serve a illustrare come la selezione delle caratteristiche aiuta i progetti.
Secondo gli autori, l'articolo "esamina il meccanismo con cui la selezione delle caratteristiche migliora l'accuratezza dell'apprendimento supervisionato".
Lo studio afferma inoltre:
Un'analisi empirica di bias / varianza man mano che la selezione della funzione avanza indica che il set di funzionalità più accurato corrisponde al miglior punto di scambio di bias-varianza per l'algoritmo di apprendimento.
Nel discutere l'uso di rilevanza forte o debole, gli autori parlano della selezione delle caratteristiche come "un metodo di riduzione della varianza" - questo ha senso quando si pensa alla varianza come essenzialmente alla quantità di variazione in una data variabile. Se non vi è alcuna variazione, il punto dati o l'array potrebbero essere essenzialmente inutili. Se c'è una varianza estremamente elevata, potrebbe devolversi in ciò che gli ingegneri possono considerare come "rumore" o risultati arbitrari irrilevanti che sono difficili da gestire per il sistema di apprendimento automatico.
Alla luce di ciò, la selezione delle funzionalità è una parte fondamentale del design nell'apprendimento automatico.