D:
Perché il pregiudizio automatico è un problema nell'apprendimento automatico?
UN:È possibile rispondere a questa domanda in due modi diversi. Innanzitutto, perché il problema della distorsione da macchina, come in, perché esiste nei processi di apprendimento automatico?
L'apprendimento automatico, sebbene sofisticato e complesso, è in parte limitato in base ai set di dati che utilizza. La costruzione dei set di dati comporta una propensione intrinseca. Proprio come nei media, dove le omissioni e le scelte deliberate di inclusione possono mostrare un particolare pregiudizio, nell'apprendimento automatico, i set di dati utilizzati devono essere esaminati per determinare quale tipo di pregiudizio esiste.
Download gratuito: Machine Learning e perché è importante |
Ad esempio, è un problema comune per i test tecnologici e i processi di progettazione mostrare una preferenza per un tipo di utente rispetto a un altro. Un grande esempio è la disparità di genere nel mondo della tecnologia.
Perché questo fa la differenza e perché si applica all'apprendimento automatico?
Perché la mancanza di femmine esistenti in un ambiente di test può portare a una tecnologia prodotta che è meno user-friendly per un pubblico femminile. Il modo in cui alcuni esperti lo descrivono è che senza i test sulle donne esistenti, il prodotto finale potrebbe non riconoscere l'input delle utenti di sesso femminile - potrebbe non avere gli strumenti per riconoscere l'identità femminile o per gestire adeguatamente l'input delle donne.
Lo stesso vale per varie etnie, persone di diverse religioni o qualsiasi altro tipo di demografia. Senza i dati corretti, gli algoritmi di apprendimento automatico non funzioneranno correttamente per un determinato set di utenti, pertanto i dati di inclusione devono essere aggiunti deliberatamente alla tecnologia. Invece di prendere semplicemente i set di dati primari e rafforzare il pregiudizio intrinseco, i gestori umani devono davvero esaminare il problema.
Un altro esempio è un motore di apprendimento automatico che raccoglie informazioni su lavoro e stipendio e genera risultati. Se quel set di dati intrinseco non viene analizzato, la macchina rafforzerà il bias. Se rileva che gli uomini occupano la stragrande maggioranza dei lavori dirigenziali e il processo di apprendimento automatico prevede il filtraggio del set di dati non elaborati e la restituzione dei risultati corrispondenti, restituirà risultati che mostrano un pregiudizio maschile.
La seconda parte della domanda riguarda perché questo pregiudizio è così dannoso. Senza un'adeguata supervisione e sperimentazione, le nuove tecnologie possono danneggiare, non aiutare, il nostro senso di inclusione e uguaglianza. Se viene lanciato un nuovo prodotto tecnologico che riconosce i volti con una pelle più chiara, ma non quelli con la pelle più scura, può portare a crescenti tensioni etniche e la sensazione che l'azienda in questione non sia sensibile alla diversità. Se un algoritmo di apprendimento automatico riproduce e acuisce il pregiudizio nei set di dati, l'intelligenza artificiale aggiungerà la sua voce alle voci e alle tendenze umane già esistenti nel sistema sociale che favoriscono un gruppo di persone rispetto a un altro.
Il modo migliore per affrontarlo è guardare da vicino i set di dati sottostanti, utilizzare la selezione delle funzionalità, aggiungere input variabili e manipolare gli stessi set di dati grezzi e aumentare il vero potere dell'apprendimento automatico con la creazione umana deliberata di dati, per ottenere un risultato che offre un grande potere analitico, ma anche alcune di quelle intuizioni umane che i computer non possono ancora replicare.