D:
Perché le unità di elaborazione grafica (GPU) sono importanti per il deep learning?
UN:L'uso di unità di elaborazione grafica (GPU) ha un'importanza particolare per il campo del deep learning. La ragione ha a che fare con il modo in cui sono installati i sistemi di apprendimento profondo e con ciò che sono destinati a fare.
Gli esperti definiscono l'apprendimento profondo come un tipo di apprendimento automatico in cui gli algoritmi utilizzano più livelli per l'analisi progressiva dei dati.
Alcuni citano esempi particolari, come le reti neurali convoluzionali (CNN) con i loro vari livelli che coinvolgono il massimo pooling, filtraggio, riempimento, avanzamento e altri compiti.
In un senso più ampio, cose come l'elaborazione delle immagini e l'elaborazione del linguaggio naturale si basano su procedure multi-step e multi-algoritmo, molte delle quali assomigliano alle reti neurali che i professionisti dell'apprendimento automatico imparano a identificare e analizzare.
Come abbiamo notato in un precedente articolo, le GPU sono generalmente apprezzate nell'apprendimento automatico, a causa della loro capacità di elaborazione parallela. Con il progredire dell'apprendimento automatico, anche il mondo dell'hardware stava passando dall'idea di un singolo core CPU forte a più unità con elaborazione parallela in grado di gestire più rapidamente grandi quantità di lavoro computazionale.
Con i sistemi di apprendimento profondo che abbracciano modelli generativi di livello superiore come reti di credenze profonde, macchine Boltzmann e sistemi a stati ecologici, c'è una necessità specifica di elaborazione parallela e progettazione di base specializzata. Si potrebbe dire che l'uso delle GPU è in qualche modo simile all'uso delle macchine RISC avanzate in alcuni altri tipi di elaborazione - che personalizzare i chip per un uso particolare ha un buon senso.
Oltre all'utilità delle GPU per il deep learning, vedi anche questi stessi tipi di processori diventare popolari nelle mosse verso un cambiamento fondamentale nella struttura di elaborazione nota come calcolo quantistico.
Anche in questo caso, è la complessità e l'ordinamento di livello superiore della potenza di elaborazione che richiede la capacità di elaborazione parallela. Nel calcolo quantistico, i bit tradizionali sono sostituiti da qubit, che possono avere un valore di 1, 0 o una combinazione non specificata. Questo tipo di "pezzo di Schroedinger" costituisce la base per un modello informatico che può capovolgere il mondo dell'IT.
Per coloro che sono interessati alle tecnologie emergenti, sarà fondamentale osservare l'uso delle GPU e dei loro successori in sistemi come reti di apprendimento profondo e configurazioni di calcolo quantistico. Entrambi, direbbero molti esperti, sono nella loro infanzia e matureranno e porteranno risultati negli anni a venire.