Casa Audio In che modo le aziende stanno cercando di aggiungere un tachimetro al lavoro dell'intelligenza artificiale?

In che modo le aziende stanno cercando di aggiungere un tachimetro al lavoro dell'intelligenza artificiale?

Anonim

D:

In che modo le aziende stanno cercando di aggiungere un "tachimetro" al lavoro dell'intelligenza artificiale?

UN:

Alcune delle aziende che lavorano ai più recenti progressi nell'intelligenza artificiale si stanno concentrando sulla quantificazione dei progressi che hanno realizzato e sull'analisi comparativa di alcuni aspetti di come l'intelligenza artificiale si è evoluta nel tempo. Esistono numerosi motivi per cui le aziende stanno perseguendo questo tipo di analisi. In generale, stanno cercando di capire fino a che punto è arrivata l'intelligenza artificiale, come si applica alle nostre vite e in che modo influenzerà i mercati.

Alcune aziende stanno facendo brainstorming e monitorando i loro progressi nell'intelligenza artificiale per capire come le nuove tecnologie possono influenzare le libertà civili o come potrebbero creare nuove realtà economiche. A seconda dell'approccio dell'azienda, questi tipi di analisi possono assumere la forma di cercare di capire come i dati degli utenti possano fluire attraverso i sistemi, capire come funzioneranno le interfacce o capire quali capacità hanno le entità di intelligenza artificiale e come potrebbero usare tali capacità.

Quando si tratta di metodi, le aziende che stanno cercando di confrontare l'intelligenza artificiale possono concentrarsi sulla scomposizione di informazioni astratte - ad esempio, un articolo di Wired cita il progetto AI Index, dove lavorano ricercatori come Ray Perrault, che lavora nel laboratorio no profit SRI International in un'istantanea dettagliata di ciò che sta accadendo nel campo dell'intelligenza artificiale.

"Questo è qualcosa che deve essere fatto, in parte perché c'è così tanta follia là fuori dove sta andando l'IA", dice Perrault nell'articolo, commentando la motivazione per affrontare questo tipo di progetto.

Nel spiegare come funziona il benchmarking dell'intelligenza artificiale, alcuni esperti stanno spiegando che ingegneri o altre parti potrebbero provare a perseguire "prove difficili" per progetti di intelligenza artificiale, ad esempio, cercando di "ingannare" o "sconfiggere" i sistemi di intelligenza artificiale. Questo tipo di descrizione va davvero al cuore di come le aziende possono davvero monitorare e valutare l'intelligenza artificiale. Un modo di pensare a questo è applicare gli stessi tipi di idee che i programmatori hanno usato in passato per eseguire il debug dei sistemi di codice lineare.

Il debug dei sistemi di codice lineare consisteva nel trovare i punti in cui il sistema avrebbe funzionato bene: dove un programma si sarebbe arrestato in modo anomalo, dove si sarebbe bloccato, dove avrebbe funzionato lentamente, ecc. dove una funzione non funzionerebbe correttamente o dove potrebbero esserci eventi utente non intenzionali.

Se ci pensate, i moderni test dell'intelligenza artificiale possono essere uno sforzo simile su un piano molto diverso - poiché le tecnologie di intelligenza artificiale sono più cognitive che lineari, che i test assumono una forma molto diversa, ma gli umani stanno ancora cercando "i bug "- modi in cui questi programmi possono avere conseguenze non intenzionali, modi in cui potrebbero agire e danneggiare le istituzioni umane, ecc. Tenendo presente ciò, sebbene esistano molti metodi divergenti per creare un tachimetro o un punto di riferimento per il progresso dell'intelligenza artificiale, i tipi di i test duri sopra descritti in genere daranno agli umani una visione unica di quanto è arrivata l'intelligenza artificiale e cosa deve essere fatto per far sì che fornisca più positivi senza sviluppare più negativi.

In che modo le aziende stanno cercando di aggiungere un tachimetro al lavoro dell'intelligenza artificiale?