D:
In che modo la legge di Moore ha contribuito all'attuale rivoluzione dell'IA?
UN:È allettante pensare ai progressi odierni nell'intelligenza artificiale come principalmente legati alla risoluzione di problemi logici e orientati ai dati, ma per le aziende che cercano di innovare e andare avanti, può essere utile tornare indietro e pensare a come l'hardware sempre più potente ha anche ha contribuito all'attuale machine learning e funzionalità di intelligenza artificiale.
Alcuni dei modi più ovvi in cui la legge di Moore ha giovato al progresso dell'intelligenza artificiale sono evidenti a chiunque abbia osservato l'IT negli ultimi 30 anni. Il primo è che le attuali stazioni di lavoro e data center centralizzati che funzionano su set di dati di intelligenza artificiale sono più piccoli di quanto non sarebbero stati nei giorni precedenti dell'informatica - e questo fa la differenza. Se i mainframe semplici occupassero ancora lo spazio di un set lavatrice / asciugatrice, ciò avrebbe comprensibilmente un effetto smorzante sullo sviluppo agile di ogni sorta di nuove tecnologie.
Tuttavia, cosa ancora più importante, i risultati in termini di efficienza delle aziende basati sulla legge di Moore hanno consentito la prevalenza di dispositivi mobili di raccolta dati estremamente piccoli. Gli smartphone sono il miglior esempio, ma la legge di Moore ci ha fornito anche fotocamere digitali, lettori MP3 e molti altri piccoli componenti hardware che raccolgono tutti i propri dati a un ritmo sorprendente. Ora, l'internet delle cose sta caricando quel processo con elettrodomestici da cucina intelligenti e ogni sorta di hardware molto moderno che si scambia l'idea che i dispositivi con chip siano abbastanza piccoli da poter essere inseriti in quasi tutto.
Tuttavia, questi non sono gli unici modi in cui la legge di Moore ha giovato allo sviluppo del nuovo apprendimento automatico e al progresso dell'intelligenza artificiale. Nel MIT Technology Review, lo scrittore Tom Simonite afferma che la legge di Moore è stata anche utile come una sorta di "dispositivo di coordinamento" che è servito a proiettare ciò che arriverà sul mercato negli anni futuri, per dare agli sviluppatori e ad altri una sorta di strada mappa e indicazioni per l'innovazione futura.
Un'altra prospettiva interessante viene da Niel Viljoen, che parla di come la legge di Moore possa essere ancora fondamentale per i nuovi sistemi basati su cloud e l'emergere della nuovissima tecnologia di intelligenza artificiale.
L'argomento di Viljoen sembra essere che l'aggiunta di core di uso generale ai sistemi di ridimensionamento non sia sufficiente per connettere realmente l'hardware a una rete in modo completo, il che porta a colli di bottiglia. Un'idea corrispondente è che i modelli di convergenza accelereranno tutti i tipi di funzioni dei sistemi ad alta intensità di dati. In altre parole, dal momento che i sistemi informatici continuavano a ridimensionare il loro uso dei dati in base a ciò che potevano adattarsi a un componente hardware, i costruttori non sono mai riusciti a includere alcune delle funzioni corollarie dello sviluppo come l'elaborazione delle immagini, la crittografia, il rendering video, ecc.
Di conseguenza, i moderni data center sono diventati molto potenti, ma dipendono ancora da elementi esterni per eseguire l'elaborazione richiesta: Viljoen pone la futura comparsa di "sistemi su un chip" in cui l'hardware iperconvergente ha tutto il necessario per eseguire tutte le funzionalità di rete, per semplificare i flussi di dati e rendere i sistemi agili e potenti.
In generale, la legge di Moore ha aiutato nel progresso dell'IT e continua ad aiutare, in modi fondamentali. Fa parte del modello "La fantascienza è il presente" che mostra fino a che punto l'umanità è arrivata a costruire sistemi di dati nel corso di uno o due secoli.