Casa Audio Perché la ricerca di Darpa è spiegabile ai?

Perché la ricerca di Darpa è spiegabile ai?

Anonim

D:

Perché DARPA sta cercando "intelligenza artificiale spiegabile"?

UN:

In generale, l'intelligenza artificiale spiegabile sta diventando una parte molto annunciata del lavoro all'avanguardia nelle scienze dei dati. Sta aiutando a guidare il controllo umano di un tipo di tecnologia intrinsecamente volatile e dinamica: l'IA spiegabile aiuta a rispondere a molte delle nostre domande collettive su come funzionerà l'intelligenza artificiale.

Per capire l'IA spiegabile, aiuta a capire che aspetto ha l'IA normale. Tradizionalmente, quando l'IA inizia a prendere forma, il tipico progetto consiste in una nuova fantastica funzionalità software, nascosta in algoritmi e set di addestramento e codice lineare, che è una sorta di "scatola di blocchi" per gli utenti. Sanno che funziona - semplicemente non sanno esattamente come.

Ciò può portare a "problemi di fiducia" in cui gli utenti possono mettere in discussione le basi su cui una tecnologia prende le decisioni. Questo è ciò che l'IA spiegabile dovrebbe affrontare: i progetti di AI spiegabili sono dotati di un'infrastruttura aggiuntiva per mostrare agli utenti finali l'intento e la struttura dell'IA - perché fa quello che fa.

In un'epoca in cui grandi innovatori come Bill Gates ed Elon Musk stanno esprimendo preoccupazione per il funzionamento dell'intelligenza artificiale, l'IA spiegabile sembra estremamente attraente. Gli esperti sostengono che una buona intelligenza artificiale spiegabile potrebbe aiutare gli utenti finali a capire perché le tecnologie fanno ciò che fanno, aumentano la fiducia e aumentano anche la facilità d'uso e l'utilizzo di queste tecnologie.

In particolare, tuttavia, DARPA spiega da solo in modo specifico perché è interessato ai nuovi progetti. Una pagina su DARPA mostra che il Dipartimento della Difesa anticipa un "torrente" di applicazioni di intelligenza artificiale e una certa quantità di caos nel suo sviluppo.

"I continui progressi promettono di produrre sistemi autonomi in grado di percepire, apprendere, decidere e agire da soli", scrive David Gunning. “Tuttavia, l'efficacia di questi sistemi è limitata dall'incapacità attuale della macchina di spiegare le loro decisioni e azioni agli utenti umani. … L'intelligenza artificiale spiegabile, in particolare l'apprendimento automatico spiegabile, sarà essenziale se i futuri guerrieri devono comprendere, fidarsi adeguatamente e gestire efficacemente una generazione emergente di partner di macchine artificialmente intelligenti. ”

Il saggio online di Gunning suggerisce che i sistemi di intelligenza artificiale spiegabili aiuteranno a "fornire la logica" per le tecnologie, mostrare i loro punti di forza e di debolezza e rendere i casi d'uso più trasparenti. Un grafico sulla pagina mostra come una semplice pipeline di funzionalità di intelligenza artificiale dai dati di allenamento sarebbe aumentata da qualcosa chiamato un modello spiegabile e un'interfaccia spiegabile che aiuterà l'utente a rispondere alle domande. Gunning suggerisce inoltre che un programma di intelligenza artificiale spiegabile avrà due aree di interesse principali: una dovrebbe setacciare i dati multimediali per trovare ciò che è utile per gli utenti e un secondo obiettivo sarebbe simulare i processi decisionali per il supporto decisionale.

DARPA spera di fornire un "toolkit" che possa aiutare a sviluppare futuri sistemi di intelligenza artificiale spiegabili.

Perché la ricerca di Darpa è spiegabile ai?