D:
Perché è importante che i data scientist cerchino la trasparenza?
UN:La trasparenza è essenzialmente importante nei progetti di scienza dei dati e nei programmi di apprendimento automatico, in parte a causa della complessità e della sofisticazione che li guida - perché questi programmi stanno "apprendendo" (generando risultati probabilistici) piuttosto che seguire predeterminate istruzioni di programmazione lineare e, di conseguenza, può essere difficile capire come la tecnologia stia raggiungendo delle conclusioni. Il problema della "scatola nera" degli algoritmi di apprendimento automatico che non sono completamente spiegabili ai responsabili delle decisioni umane è un grande problema in questo campo.
Con questo in mente, essere in grado di padroneggiare l'apprendimento automatico spiegabile o "IA spiegabile" sarà probabilmente un focus principale su come le aziende perseguono l'acquisizione di talenti per uno scienziato di dati. Già DARPA, l'istituzione che ci ha portato su Internet, sta finanziando uno studio multimilionario sull'IA spiegabile, cercando di promuovere le competenze e le risorse necessarie per creare tecnologie di apprendimento automatico e intelligenza artificiale trasparenti per l'uomo.
Un modo di pensarci è che spesso c'è una "fase di alfabetizzazione" dello sviluppo dei talenti e una "fase di iperliterazione". Per uno scienziato di dati, la fase di alfabetizzazione tradizionale sarebbe la conoscenza di come mettere insieme programmi di apprendimento automatico e come costruire algoritmi con linguaggi come Python; come costruire reti neurali e lavorare con esse. La fase di iperliterazione sarebbe la capacità di padroneggiare l'IA spiegabile, fornire trasparenza nell'uso degli algoritmi di machine learning e preservare la trasparenza mentre questi programmi lavorano verso i loro obiettivi e quelli dei loro gestori.
Un altro modo per spiegare l'importanza della trasparenza nella scienza dei dati è che i set di dati utilizzati continuano a diventare più sofisticati e quindi potenzialmente più invasivi nella vita delle persone. Un altro importante motore dell'apprendimento automatico spiegabile e della scienza dei dati è il regolamento generale europeo sulla protezione dei dati che è stato recentemente implementato per cercare di frenare l'uso non etico dei dati personali. Utilizzando il GDPR come caso di prova, gli esperti possono vedere come la necessità di spiegare i progetti di scienza dei dati si adatta alle preoccupazioni in materia di privacy e sicurezza, nonché all'etica aziendale.