Casa Banche dati Utilizzando algoritmi per prevedere le elezioni: una chat con Drew Linzer

Utilizzando algoritmi per prevedere le elezioni: una chat con Drew Linzer

Anonim

Drew presenterà al Big Data Innovation Summit, il 30 e 31 gennaio a Las Vegas: http://analytics.theiegroup.com/bigdata-lasvegas, insieme a relatori di Obama per l'America, Best Buy, LinkedIn, The New York Times, Nokia, Bitly, Barnes & Nobles, Walmart Labs e molti altri.


Link di registrazione: http://bit.ly/Zs3wms


Questa intervista è stata condotta da George Hill e pubblicata sulla rivista Big Data Innovation.


Che tipo di reazione c'è stata alle tue previsioni?


La maggior parte della reazione si è concentrata sulla differenza di accuratezza tra quelli di noi che hanno studiato i sondaggi dell'opinione pubblica e le previsioni "sentimentali" di esperti e commentatori popolari. Il giorno delle elezioni, analisti di dati come me, Nate Silver (blog FiveThirtyEight del New York Times), Simon Jackman (Stanford University e Huffington Post) e Sam Wang (Princeton Election Consortium) hanno posto tutte le possibilità di rielezione di Obama a oltre il 90% e prevedendo correttamente 332 voti elettorali per Obama come il risultato più probabile. Nel frattempo, esperti come Karl Rove, George Will e Steve Forbes hanno dichiarato che Romney avrebbe vinto - e in alcuni casi, facilmente. Ciò ha portato a parlare di una "vittoria per le assenze" che spero possa portare alle elezioni future.


Come valuti l'algoritmo utilizzato nelle tue previsioni?


Il mio modello di previsione ha stimato i risultati del voto dello stato e il voto elettorale finale, ogni giorno della campagna, a partire da giugno. Volevo che la valutazione di queste previsioni fosse il più equa e obiettiva possibile e non mi lasciasse spazio di manovra se fossero sbagliate. Quindi, circa un mese prima delle elezioni, ho pubblicato sul mio sito Web una serie di otto criteri di valutazione che avrei usato una volta che i risultati fossero stati conosciuti. Come si è scoperto, il modello ha funzionato perfettamente. Ha previsto durante l'estate che Obama avrebbe vinto tutti i suoi stati del 2008 meno Indiana e Carolina del Nord, e si è mosso a malapena da quella previsione anche dopo che il supporto per Obama si è spostato verso l'alto a settembre, quindi è sceso dopo il primo dibattito presidenziale.


La quantità di dati utilizzati durante questa campagna sia dagli analisti indipendenti che dai team della campagna è stata enorme, che tipo di implicazioni ha per l'utilizzo dei dati nel 2016?


La campagna del 2012 ha dimostrato che molteplici e diverse fonti di informazioni quantitative potevano essere gestite, attendibili e applicate con successo verso una varietà di scopi. Noi outsider siamo stati in grado di prevedere i risultati delle elezioni con largo anticipo. All'interno delle campagne, ci sono stati enormi passi avanti nel targeting degli elettori, nel monitoraggio delle opinioni, nella raccolta di fondi e nell'affluenza degli elettori. Ora che sappiamo che questi metodi possono funzionare, penso che non si potrà tornare indietro. Mi aspetto che giornalisti e commentatori della campagna prendano molto più sul serio l'aggregazione dei sondaggi nel 2016. E sebbene Obama e i democratici attualmente sembrino avere un vantaggio nella tecnologia della campagna, sarei sorpreso se i repubblicani non riuscissero a recuperare rapidamente.


Pensi che il successo di questa campagna basata sui dati abbia fatto sì che i gestori delle campagne debbano ora essere analisti e strateghi?


I gestori delle campagne potrebbero non dover essere loro stessi analisti, ma dovrebbero apprezzare maggiormente il modo in cui i dati e la tecnologia possono essere sfruttati a proprio vantaggio. Le campagne hanno sempre utilizzato la ricerca di sondaggi per formulare la strategia e misurare il sentimento degli elettori. Ma ora ci sono una serie di altri potenti strumenti disponibili: siti Web di social network, database degli elettori, smartphone mobili ed e-mail marketing, solo per citarne alcuni. E questo si aggiunge ai recenti progressi nelle metodologie di polling e nella modellistica dell'opinione statistica. C'è molta innovazione in corso nella politica della campagna americana in questo momento.


Sei riuscito a prevedere i risultati elettorali 6 mesi prima, quale pensi sia il tempo massimo realistico per prevedere con precisione un risultato usando le tue tecniche di analisi?


Circa quattro o cinque mesi sono circa fino a quando la scienza ci lascia andare adesso; e questo lo spinge persino un po '. Prima di questo, i sondaggi non erano sufficientemente informativi sull'eventuale risultato: troppe persone sono indecise o non hanno iniziato a prestare attenzione alla campagna. I fattori storici economici e politici che hanno dimostrato di essere correlati con i risultati elettorali iniziano anche a perdere il loro potere predittivo una volta superato l'intervallo di circa 4-5 mesi. Fortunatamente, ciò dà ancora molto tempo alle campagne per pianificare la strategia e prendere decisioni su come allocare le proprie risorse.

Utilizzando algoritmi per prevedere le elezioni: una chat con Drew Linzer