Casa Audio Edge analytics: finalmente l'economia iot

Edge analytics: finalmente l'economia iot

Anonim

Di Techopedia Staff, 22 settembre 2016

Takeaway: la conduttrice Rebecca Jozwiak discute dell'analisi dei bordi con il Dr. Robin Bloor, Dez Blanchfield e Shawn Rogers della Dell Statistica.

Al momento non sei collegato. Accedi o registrati per vedere il video.

Rebecca Jozwiak: Signore e signori, ciao e benvenuti in Hot Technologies del 2016. Oggi abbiamo "Edge Analytics: finalmente l'economia IoT". Mi chiamo Rebecca Jozwiak. Sarò il tuo moderatore per il webcast di oggi. Facciamo tweet con un hashtag di # HOTTECH16 se vuoi unirti alla conversazione su Twitter.

Quindi l'IoT, sicuramente un argomento caldo quest'anno e l'internet delle cose, riguarda davvero i dati della macchina, i dati del sensore, i dati di registro, i dati del dispositivo. Nessuna delle novità, abbiamo avuto quel tipo di dati per sempre, ma è che non siamo stati davvero in grado di usarli e ora stiamo vedendo solo un sacco di nuovi modi di utilizzare quei dati. Soprattutto nel settore medico, i mercati finanziari, con petrolio e gas, materie prime, è solo una ricchezza di informazioni che non erano state sfruttate in precedenza. E non molte persone hanno davvero avuto una buona conoscenza di come farlo bene. Stiamo parlando di molti piccoli dati, ma sono molti e, sai, ci sono problemi di rete, c'è hardware coinvolto o deve essere elaborato e come si fa senza intasare il sistema? Bene, questo è quello che impareremo oggi.

Ecco la nostra gamma di esperti. Abbiamo il dottor Robin Bloor, il nostro principale analista di The Bloor Group. Abbiamo anche Dez Blanchfield, il nostro scienziato di dati presso The Bloor Group. E siamo felici di avere Shawn Rogers, direttore del marketing globale e dei canali di Dell Statistica. E con ciò, ho intenzione di passare la palla a Robin.

Dr. Robin Bloor: Okay, grazie per quello. Premerò un pulsante e lancerò una diapositiva. Non ho idea del motivo per cui ho creato questa immagine apocalittica per l'internet delle cose. Forse perché penso che diventerà caotico alla fine. Mi sposterò dritto. Questo è lo stesso per il corso in qualsiasi presentazione IoT. Devi, in un modo o nell'altro, dire qualcosa di scandaloso su dove sta andando tutto. E in realtà, la maggior parte di questo è probabilmente vero. Se davvero osservi il modo in cui queste curve si stanno espandendo gradualmente. Sai, personal computer, smartphone e tablet probabilmente continueranno a crescere. Le Smart TV probabilmente aumenteranno. Indossabili, probabilmente stanno esplodendo in questo momento, rispetto a quello che erano alcuni anni fa. Auto connesse, inevitabili che praticamente tutte le auto saranno collegate in modo completamente ampio e che trasmettono costantemente dati in ogni momento. E tutto il resto. E questo particolare grafico di BI Intelligence indica che tutto il resto supererà le cose ovvie molto, molto rapidamente.

Quindi cosa dire dell'IoT? La prima cosa è solo un punto architettonico. Sai, quando hai i dati e ti stai elaborando, in un modo o nell'altro, dovrai mettere insieme i due. E con i dati ai volumi che sono adesso e riuniti in vari luoghi, i due non sono più naturalmente insieme. Erano soliti essere ai vecchi tempi del mainframe, immagino. Quindi puoi pensare in termini di un livello di elaborazione, un livello di trasporto e un livello dati. E in un modo o nell'altro, il livello di trasporto oggigiorno sposterà l'elaborazione o sposterà i dati attraverso le reti. Quindi ecco le scelte: puoi spostare i dati nell'elaborazione, puoi spostare l'elaborazione nei dati, puoi spostare l'elaborazione e i dati in un comodo punto di esecuzione, oppure puoi frammentare l'elaborazione e frammentare i dati. E per quanto riguarda l'internet delle cose, i dati sono praticamente già frammentati alla nascita e la probabilità è che gran parte dell'elaborazione sarà frammentata in modo che possano essere eseguite le applicazioni che devono essere eseguite.

Quindi ho dipinto un quadro. La cosa interessante per me sull'IoT, parlo di un dominio di aggregazione in questo diagramma e sottolineo che ci sono sottodomini. Quindi puoi immaginare che il dominio IoT 1 qui sia un'auto di qualche tipo, e il dominio 2 e il dominio 3 e il dominio 4 siano auto di qualche tipo e aggregherai i dati localmente, eseguirai app locali su tali dati e metterai in azione varie cose. Ma per avere analisi su tutte le auto, dovrai trasferire i dati al centro, non necessariamente tutti i dati, ma dovrai aggregare al centro. E se ci pensate, allora potreste voler avere molti, molti domini di aggregazione diversi nello stesso insieme di cose IoT. E i domini stessi potrebbero ulteriormente aggregarsi. Quindi potresti avere questa gerarchia ripetuta. E fondamentalmente quello che abbiamo lì è una rete incredibilmente complessa. Molto più complesso di qualsiasi cosa avessimo dovuto avere prima.

Ho una nota in fondo qui. Tutti i nodi di rete, compresi i nodi foglia, possono essere creatori di dati, archivi di dati e punti di elaborazione. E questo ti dà una possibilità di distribuzione, come non abbiamo mai visto prima. Dez ne parlerà un po 'di più, quindi passerò a questo particolare punto. Una volta che siamo su Internet delle cose e tutti i dati si sono effettivamente risolti in eventi, il punto su questa diapositiva è solo quello di indicare che dovremo standardizzare gli eventi. Dovremo, almeno, dovremo avere questo. Avremo il tempo in cui si è verificato l'evento, la posizione geografica in cui si è verificato, la posizione virtuale o logica del processo che lo ha creato, il dispositivo di origine che lo ha creato, l'ID del dispositivo in modo da sapere esattamente quale dispositivo di origine lo ha creato, la proprietà dei dati e degli attori, quelle persone che hanno il diritto di utilizzare i dati in un modo o nell'altro, dovrà portare con sé le proprie autorizzazioni, il che significa che dovrà davvero portare con sé la sicurezza, e poi c'è i dati stessi. E quando lo guardi ti rendi conto che, sai, anche se hai un sensore che non fa altro che riportare la temperatura di qualcosa ogni secondo o giù di lì, in realtà ci sono molti dati solo per identificare esattamente dove i dati originato e ciò che è in realtà. A proposito, questa non è una lista esaustiva.

Quindi, in termini di futuro panorama IT, il modo in cui lo vedo è questo: che non è solo l'internet delle cose, c'è anche il fatto che saremo in un mondo di attività guidate dagli eventi, e quindi noi dovrà avere architetture guidate dagli eventi e queste architetture dovranno estendersi a reti di grandi dimensioni. E l'altra cosa è tutto in tempo reale, non è necessariamente il caso in cui siamo in tempo reale, ma c'è qualcosa a cui mi riferisco come tempo di lavoro, ovvero il tempo entro il quale i dati devono essere effettivamente resi disponibili elaborato. Potrebbe non essere, sai, un millisecondo dopo la sua creazione. Ma c'è sempre un tempo simile per ogni dato e una volta che hai un'architettura guidata dagli eventi, inizia a diventare più sensato pensare in termini di un approccio in tempo reale al modo in cui il mondo funziona.

Insomma, perché ciò di cui stiamo davvero parlando è l'analisi sull'IoT. Nonostante tutto, è ancora tempo di approfondire, e non è solo il momento di approfondire, la comprensione deve essere seguita da azioni. Quindi, il tempo di approfondire e il tempo di agire è ciò a cui vorrei ridurlo. Detto questo, restituirò la palla a Dez.

Dez Blanchfield: Grazie, Robin. Insight come sempre. Adoro il fatto che sia un atto difficile da seguire in ogni caso, ma farò del mio meglio.

Una delle cose che sto vedendo, e spesso mi diverto, per essere onesto, e non in una forma incline disingenua e negativa, ma c'è molta preoccupazione e panico sull'Internet delle cose che conquistano il mondo e ci sbagli e inizierai a perdere i tuoi dati, quindi voglio dare un po 'di un'occhiata ad alcune delle cose che abbiamo fatto negli ultimi due o tre decenni che erano un fac-simile a Internet delle cose, ma forse non proprio nella stessa scala. E solo per dimostrarci che in realtà siamo stati qui e abbiamo risolto alcuni dei problemi, non a questo livello di scala e non a questa velocità. Perché significa che possiamo effettivamente risolvere il problema e che sappiamo quali sono alcune delle risposte; dobbiamo solo accovacciarci e riapplicare alcuni degli apprendimenti che abbiamo avuto prima. E so che questa è l'intera conversazione che stiamo per avere e ho un'intera gamma di cose divertenti solo per chattare nella sezione Domande e risposte.

Ma quando pensiamo all'internet delle cose nel cerchio, al momento esiste una grande centralizzazione a livello di design che è stata scritta nei primissimi giorni. I dispositivi Fitbit, ad esempio, tendono tutti ad andare in un posto centrale ed è probabile che siano ospitati in una piattaforma cloud da qualche parte e tutti i dati provenienti da tutti quei dispositivi colpiscono lo stesso, diciamo solo, front-end di uno stack, inclusi web e servizi basati su app e dati. Ma nel tempo quella scala richiederà una reingegnerizzazione per far fronte alla quantità di dati che arrivano e riprogetteranno in tal modo in modo che ci siano più front-end e più copie dello stack in più posizioni e regioni. E stiamo vedendo questo e ci sono un certo numero di esempi che sto per darti di cui possiamo discutere.

Il punto chiave di questo è che anche se abbiamo visto alcune di queste soluzioni che sto per affrontare, la scala e il volume dei dati e il traffico di rete che Internet delle cose genererà richiede urgentemente un passaggio dal centro alle architetture distribuite secondo me, e lo sappiamo, ma non abbiamo necessariamente capito quale sia la soluzione. Quando pensiamo al concetto di cosa sia Internet delle cose, si tratta di un modello di rete su larga scala. Sono molte le cose che stanno facendo rumore. Cose che non hanno fatto rumore fino a poco tempo fa. E in effetti, penso che fosse ieri, stavo scherzando parlando dello stack, ma sono andato a comprare un nuovo tostapane e è arrivato con un'opzione che poteva dirmi varie cose, anche quando doveva essere pulito. E un nuovo forno a microonde con una funzione molto simile e potrebbe addirittura eseguire il ping di un'app sul mio telefono per dire che la cosa che stavo riscaldando era ora terminata. E sono fermamente convinto che se ci sono un paio di cose che non voglio parlare con me, sono il mio frigorifero, il microonde e i tostapane. Sono abbastanza a mio agio con loro che sono dispositivi stupidi. Ma ho una macchina nuova di recente, una piccola Audi, e mi parla e ne sono abbastanza contento, perché le cose di cui parla sono cose di interesse. Come aggiornare le mappe in tempo reale per dirmi dove c'è un percorso migliore per andare dal punto A al punto B perché ha rilevato il traffico attraverso vari meccanismi con i dati che vengono inviati.

Ho questa diapositiva. Abbiamo già visto che i modelli di rete ad alto volume richiedono un passaggio dall'acquisizione centralizzata alla distribuzione distribuita dei modelli di elaborazione e analisi dei dati. Abbiamo visto le cose spostarsi dai tre piccoli diagrammi grafici lì sul bordo destro dove abbiamo, quello a sinistra fuori dai tre, c'è un modello centralizzato con tutti i piccoli dispositivi che arrivano nella posizione centrale e raccogliere dati e la scala non è così grande, ci riescono bene lì. Nel mezzo abbiamo un modello e un hub leggermente più decentralizzati e parlato, che è ciò di cui penso avremo bisogno con Internet delle cose nella prossima generazione. E poi sul lato destro abbiamo questa rete completamente distribuita e mesh che è dove Internet delle cose e machine-to-machine andranno nel breve termine in futuro, ma non siamo del tutto lì per una serie di motivi. E principalmente perché finora utilizziamo piattaforme Internet per la maggior parte delle comunicazioni e non abbiamo effettivamente creato una seconda rete per trasportare molti di questi dati.

Esistono seconde reti già esistenti come la rete Batelco. Molte persone non pensano al fatto che le reti delle telecomunicazioni non sono Internet. Internet è una cosa molto separata in molti modi. Stanno instradando i dati dagli smartphone sulle reti telefoniche, quindi sulle reti telefoniche e su Internet in generale dove li stanno effettivamente sovrapponendo in due reti. Ma è del tutto possibile e probabile che Internet delle cose avrà bisogno di un'altra rete. Parliamo di Internet industriale come argomento in generale, di cui non entreremo nei dettagli ora, ma essenzialmente stiamo parlando di un'altra rete appositamente progettata per i tipi di trasporto per dati o Internet di cose e machine-to-machine comunicazione.

Ma alcuni degli esempi che volevo condividere in cui abbiamo visto che reti ad alto volume e dati distribuiti funzionano molto bene sono cose come Internet. Internet è stato appositamente progettato e progettato dal primo giorno per essere in grado di sopravvivere a una guerra nucleare. Se alcune parti degli Stati Uniti vengono fatte saltare in aria, Internet è stato progettato in modo che i dati possano spostarsi su Internet senza perdita di pacchetti per motivi che sono ancora connessi. E questo esiste ancora oggi su scala globale. Internet ha molteplici capacità in termini di ridondanza e pacchetti di routing. E infatti Internet è controllato da una cosa chiamata BGP, Border Gateway Protocol, e il Border Gateway Protocol, BGP, è specificamente progettata per far fronte a un router o switch o server inattivo. Quando si invia o si riceve un'e-mail, se si inviano tre e-mail di seguito, non si garantisce che ciascuna di queste e-mail seguirà lo stesso percorso verso la stessa destinazione finale. Possono spostarsi attraverso diverse parti di Internet per vari motivi. Potrebbe esserci un'interruzione, potrebbero esserci finestre di manutenzione in cui le cose non sono in linea per essere aggiornate, ci potrebbe essere solo una congestione nella rete, e vediamo che con cose come reti di traffico con auto e mezzi pubblici e navi e aerei. Riceviamo contenuti sui nostri dispositivi come laptop, tablet e computer attraverso i browser e così via ogni giorno attraverso le reti di distribuzione dei contenuti. Le reti di consegna dei contenuti riguardano il prelievo di copie del contenuto dalla piattaforma di servizio principale come il server Web e lo spostamento di copie di tale quantità e la cache di piccole quantità sul bordo della rete e la consegna solo dalla parte più vicina del bordo.

Anti-spam e cybersecurity - se un evento di spam si svolge in Canada e Microsoft lo rileva e vede che ci sono molte copie della stessa e-mail che viene inviata a un gruppo di persone a caso, vengono prese delle checksum, una firma per quel messaggio è creato e inserito in una rete e distribuito immediatamente. E così l'e-mail non arriva mai nella mia casella di posta o, se lo fa, viene immediatamente taggata come spam perché è stata rilevata da qualche altra parte ai margini della rete. E così altre parti del bordo della rete vengono informate di questa firma del messaggio di spam e viene inserita nell'indice di un database e se quei messaggi iniziano a comparire dall'altra parte del pianeta, li rileviamo e sappiamo che sono spam. E lo stesso vale per la sicurezza informatica. Un hack che si sta verificando su un lato del pianeta viene rilevato, registrato e mappato e all'improvviso sull'altra parte della rete possiamo combatterlo e archiviare le regole e le politiche e cambiare per vedere se possiamo bloccarlo. Soprattutto con il nuovo impatto di cose come denial-of-service o denial-of-service distribuito in cui migliaia di macchine vengono utilizzate per attaccare un sito Web centrale.

Bitcoin e blockchain, per impostazione predefinita, sono un libro mastro distribuito, la blockchain e fanno fronte a eventuali interruzioni o rotture della rete. Rilevazione e prevenzione delle frodi, elettricità e acqua - stiamo vedendo, conosci la rete elettrica, se una parte della rete ottiene un albero su di essa e tira fuori un palo e un filo, la mia casa continua a ricevere energia. Non lo so nemmeno, spesso non lo vedo nemmeno nelle notizie. E siamo tutti abituati alle reti di trasporto in cui originariamente esisteva un modello centralizzato, "Tutte le strade portavano a Roma", come si suol dire, e poi alla fine abbiamo dovuto passare al modello decentralizzato con mozzi e raggi, e poi siamo andati a una rete a maglie in cui è possibile spostarsi da un lato all'altro della città attraverso vari percorsi a maglie e diversi incroci. E quindi quello che vediamo qui è che questo modello centralizzato di ciò che stiamo facendo ora con l'internet delle cose dovrà spingersi al limite della rete. E questo vale più che mai per l'analisi, ed è per questo che dobbiamo spingere l'analitica nella rete. E per farlo richiede un approccio completamente nuovo nel modo in cui accediamo ed elaboriamo quei dati e i flussi di dati, a mio avviso. Stiamo parlando di uno scenario in cui credo che vediamo un'intelligenza limitata spinta al limite della rete su dispositivi connessi a Internet, ma presto vedremo quei dispositivi aumentare di intelligenza e aumentare il livello di analisi che desiderano fare. E di conseguenza avremo bisogno di spingere quelle persone sempre più avanti attraverso la rete.

Ad esempio, app intelligenti e social media: se pensiamo ai social media e ad alcune app intelligenti, sono ancora molto centrali. Sai, ci sono solo due o tre data center per artisti del calibro di Facebook. Google è diventato molto più decentralizzato, ma esiste ancora un numero limitato di data center in tutto il mondo. Quindi, quando pensiamo alla personalizzazione dei contenuti, devi pensare a livello locale. Molto di ciò viene fatto nel tuo browser o a livello di rete di distribuzione di contenuti locali. E pensiamo ai tracker di salute e fitness: molti dei dati che vengono raccolti da loro vengono analizzati localmente e quindi le nuove versioni dei dispositivi Garmin e Fitbit che metti al polso, stanno diventando sempre più intelligenti nel dispositivo . Ora non rimandano tutti i dati sulla frequenza cardiaca a un server centralizzato per tentare di completare l'analisi; stanno costruendo quell'intelligenza direttamente nel dispositivo. La navigazione in auto era che l'auto riceveva costantemente aggiornamenti e mappe da una posizione centrale, ora le auto intelligenti sono in macchina e l'auto prende le decisioni da sola e alla fine le auto si muoveranno. Le auto parleranno tra loro tramite reti wireless di qualche forma, che potrebbero essere su una rete wireless 3G o 4G nella prossima generazione, ma alla fine sarà da dispositivo a dispositivo. E l'unico modo per affrontare il volume è rendere i dispositivi più intelligenti.

Disponiamo già di sistemi di allarme di emergenza che raccolgono informazioni localmente e le inviano centralmente o in una rete mesh e prendono decisioni su ciò che sta accadendo localmente. Ad esempio, in Giappone, ci sono applicazioni che le persone eseguono sui loro smartphone con accelerometri nello smartphone. Gli accelerometri nello smartphone rileveranno vibrazioni e movimenti e possono determinare la differenza tra il normale movimento quotidiano e i tremori e gli shock di un terremoto. E quel telefono inizierà ad avvisarti immediatamente, localmente. L'app attuale sa che rileva i terremoti. Ma condivide anche quei dati attraverso una rete in un hub distribuito e parla in modo tale che le persone vicino a te vengano avvisate immediatamente o appena possibile quando i dati fluiscono attraverso la rete. E poi alla fine, quando arriva in una posizione centrale o in una copia distribuita della posizione centrale, spinge indietro verso le persone che non si trovano nelle immediate vicinanze, non hanno rilevato il movimento del pianeta, ma devono essere avvertite perché forse sta arrivando uno tsunami.

E l'infrastruttura della città intelligente - il concetto di infrastruttura intelligente, stiamo già costruendo l'intelletto in edifici intelligenti e infrastrutture intelligenti. Infatti, ieri ho parcheggiato la mia auto in città in una nuova area in cui parte della città è stata ristrutturata e ricostruita. E hanno rifatto tutte le strade, e ci sono dei sensori nelle strade, e il parchimetro reale sa che quando ho guidato con un'auto, sa che quando vado a rinfrescarmi per il limite di due ore che l'auto non si è mossa, e in realtà non mi ha permesso di ricaricare e rimanere per altre due ore. Dovevo salire in macchina, uscire dallo spazio e poi rientrare per ingannarlo per permettermi di rimanere lì per altre due ore. Ma la cosa interessante è che alla fine arriveremo al punto in cui non è solo rilevare l'auto che entra nell'area come un sensore localizzato, ma cose come le caratteristiche ottiche in cui il riconoscimento verrà applicato con le telecamere che guardano la mia targa, e saprà che in realtà ho appena tirato fuori, tirato indietro e ingannato, e semplicemente non mi lascerà rinnovare e andrò avanti. E poi distribuirà quei dati e si assicurerà che non posso farlo da nessun'altra parte e ingannare la rete anche su base continuativa. Perché, per sua natura, deve diventare più intelligente, altrimenti continueremo tutti a ingannarlo.

C'è un esempio di ciò in cui ho vissuto personalmente nella tecnologia firewall, tra la fine degli anni '80 e l'inizio degli anni '90, un prodotto chiamato Check Point FireWall-1. Una tecnologia firewall molto semplice che abbiamo usato per creare regole e costruire politiche e regole attorno a determinate cose per dire che tipi di traffico attraverso determinate porte e indirizzi IP e reti per arrivare da e verso l'altro, il traffico web da un luogo all'altro, passando dal browser e dal client al nostro server. Abbiamo risolto questo problema estraendo effettivamente la logica dai firewall stessi e spostandola in realtà nell'ASIC, il circuito integrato specifico dell'applicazione. Stava controllando le porte negli switch Ethernet. Abbiamo scoperto che i computer server, i computer che stavamo effettivamente utilizzando come server per prendere decisioni come firewall, non erano abbastanza potenti da gestire il volume del traffico che li attraversava per ogni piccola ispezione dei pacchetti. Abbiamo risolto il problema spostando la logica necessaria per eseguire l'ispezione dei pacchetti e i rilevamenti di Internet negli switch di rete che sono stati distribuiti e in grado di gestire il volume di dati che attraversano il livello di rete. Non ci siamo preoccupati a livello centralizzato con i firewall, l'abbiamo spostato verso gli switch.

E così abbiamo fatto costruire ai produttori la capacità di spingere percorsi, regole e politiche nello switch Ethernet in modo che a livello di porta Ethernet effettiva, e forse molte persone nel pool non abbiano familiarità con questo perché siamo vivendo tutti in un mondo wireless ora, ma una volta tutto doveva collegarsi via Ethernet. Ora a livello di porta Ethernet stavamo facendo un'ispezione dei pacchetti per vedere se i pacchetti potevano persino spostarsi nello switch e nella rete. Parte di questo è ciò che stiamo risolvendo ora attorno a questa sfida di acquisire dati nella rete, in particolare dai dispositivi IRT, e ispezionarli e fare analisi su di esso e probabilmente analisi su di esso in tempo reale per prendere decisioni su di esso. E in parte serve per ottenere informazioni sulla business intelligence e informazioni su come gli umani prendono decisioni migliori e altre analisi e prestazioni per le cose di livello machine-to-machine in cui i dispositivi parlano e prendono decisioni.

E questa sarà una tendenza che dovremo cercare di risolvere nell'immediato futuro perché se non lo facciamo, finiremo con questo diluvio di rumore. E abbiamo visto nel mondo dei big data, abbiamo visto cose come i data lake trasformarsi in paludi di dati che abbiamo appena finito con un diluvio di rumore per il quale non abbiamo capito come risolvere l'analisi di elaborazione per un sistema centralizzato moda. Se non risolviamo questo problema, a mio avviso, con l'IoT immediatamente e ottenendo una soluzione di piattaforma molto rapidamente, finiremo in un posto molto, molto brutto.

E con questo in mente, chiuderò con il mio punto, cioè che credo che uno dei più grandi cambiamenti in atto nel big data e nello spazio di analisi ora sia guidato dalla necessità immediata di reagire all'impatto di Internet di cose sull'analitica ad alto volume e in tempo reale, in quanto dobbiamo spostare le analisi fuori dalla rete e poi alla fine della rete solo per far fronte al volume puro di essa, solo per elaborarla. E alla fine, si spera, mettiamo l'intelligenza nella rete e il bordo della rete in un modello hub and speak che possiamo effettivamente gestirla e ottenere approfondimenti in tempo reale e trarne valore. E con ciò passerò ai nostri ospiti e vedremo dove ci porta questa conversazione.

Shawn Rogers: Mille Grazie. Sono Shawn Rogers di Dell Statistica e, ragazzo, per cominciare, sono totalmente d'accordo con tutti gli argomenti principali che sono stati toccati qui. E Rebecca, ne hai iniziato uno intorno all'idea, sai, questi dati non sono nuovi, ed è notevole per me quanto tempo ed energia sono spesi per discutere i dati, i dati, i dati dell'IoT. Ed è certamente rilevante, sai, Robin ha fatto un buon punto, anche se stai facendo qualcosa di veramente semplice e stai toccando un termostato una volta al secondo, sai, lo fai 24 ore al giorno e in realtà hai, sai, alcune interessanti sfide ai dati. Ma, sai, alla fine - e penso che molte persone del settore stiano parlando dei dati in questo modo - che non è poi così interessante e, al punto di Rebecca, è stato in giro da molto, molto tempo, ma in passato non siamo stati in grado di sfruttarlo al meglio. E penso che l'industria dell'analitica avanzata e l'industria della BI in generale stiano iniziando a girare la testa verso l'IoT. E Dez, per il tuo ultimo punto, far parte di uno dei punti difficili del panorama dei big data penso sia molto vero. Penso che tutti siano molto entusiasti di ciò che possiamo fare con questo tipo di dati, ma allo stesso tempo, se non riusciamo a capire come applicare insight, agire e, sai, ottenere analisi dove sono i dati, penso avremo delle sfide che le persone non vedono davvero farsi strada.

Detto questo, nello spazio di analisi avanzata siamo grandi fan di ciò che pensiamo possa accadere con i dati IoT, soprattutto se stiamo applicando l'analisi ad esso. E ci sono molte informazioni in questa diapositiva e permetterò a tutti di cacciare e beccare in giro, ma se guardi a diversi settori come la vendita al dettaglio all'estrema destra, sta vedendo le loro opportunità sorgere attorno alla possibilità di essere più innovativi o avere un po ' il risparmio sui costi o l'ottimizzazione o il miglioramento dei processi è molto importante e stanno vedendo molti casi d'uso per questo. Se guardi, sai, da sinistra a destra attraverso la diapositiva, vedrai come ognuna di queste singole industrie rivendica nuove capacità e nuove opportunità di differenziazione per se stesse quando applicano l'analisi all'IoT. E penso che la linea di fondo sia che se ti sforzerai di seguire quel percorso non dovrai solo preoccuparti dei dati, di cui abbiamo discusso e dell'architettura, ma devi anche cercare il modo migliore per applicare l'analitica ad esso e dove deve avvenire l'analisi.

Per molti di noi alla chiamata di oggi, sapete, Robin e io ci conosciamo da molto tempo e abbiamo avuto innumerevoli conversazioni sulle architetture tradizionali in passato, quelle attorno a database centralizzati o data warehouse aziendali e così via, e come noi ' nell'ultimo decennio abbiamo scoperto che facciamo un ottimo lavoro nel prolungare i limiti di tali infrastrutture. E non sono così fermi o forti come vorremmo che fossero oggi per supportare tutte le grandi analisi che stiamo applicando alle informazioni e, naturalmente, anche le informazioni stanno rompendo l'architettura, sai, la velocità dei dati, il volume dei dati e così via, stanno sicuramente estendendo i limiti di alcuni dei nostri approcci e strategie più tradizionali a questo tipo di lavoro. E quindi penso che in un certo senso inizi a chiedere la necessità per le aziende di assumere un punto di vista più agile e forse più flessibile di questo e questa è la parte, immagino, vorrei parlarne un po 'attorno all'IoT.

Prima di farlo, mi prenderò un momento solo per permettere a tutti di chiamarti, darti un po 'di informazioni su cosa sia Statistica e cosa facciamo. Come puoi vedere nel titolo di questa diapositiva, Statistica è un'analisi predittiva, i big data e la visualizzazione per la piattaforma IoT. Il prodotto in sé ha poco più di 30 anni e competiamo con gli altri leader del mercato con cui probabilmente hai familiarità sulla falsariga di poter applicare analisi predittive, analisi avanzate ai dati. Abbiamo visto un'opportunità per espandere la nostra portata di dove stavamo mettendo la nostra analisi e abbiamo iniziato a lavorare su alcune tecnologie che un po 'di tempo fa ci hanno posizionato piuttosto bene per sfruttare ciò di cui hanno parlato oggi sia Dez che Robin, che è questo nuovo approccio dove inserirai l'analisi e come la fonderai con i dati. Da quel lato arrivano altre cose che devi essere in grado di affrontare con la piattaforma e, come ho già detto, Statistica è sul mercato da molto tempo. Siamo molto bravi dal punto di vista della fusione dei dati e penso, sai, non abbiamo parlato troppo dell'accesso ai dati oggi, ma di essere in grado di raggiungere attraverso queste diverse reti e mettere le mani sui dati giusti al il momento giusto sta diventando sempre più interessante e importante per gli utenti finali.

Infine, commenterò un altro pezzo qui, perché Dez ha sottolineato le reti stesse, avendo un certo livello di controllo e sicurezza sui modelli analitici in tutto il tuo ambiente e su come si attaccano ai dati sta diventando molto importante. Quando sono entrato in questo settore qualche anno fa - quasi 20 penso a questo punto - quando abbiamo parlato di analisi avanzate, è stato in un modo molto curato. Solo un paio di persone nell'organizzazione ci hanno messo le mani sopra, lo hanno distribuito e hanno dato alla gente la risposta come richiesto o fornito approfondimenti come richiesto. Questo sta davvero cambiando e ciò che vediamo sono molte persone che stavano lavorando con uno o più modi diversi e più flessibili per raggiungere i dati, applicare sicurezza e governance ai dati e quindi essere in grado di collaborare. Queste sono alcune delle cose importanti che Dell Statistica considera.

Ma voglio approfondire l'argomento che è un po 'più vicino al titolo di oggi che è, come dovremmo affrontare i dati che provengono dall'Internet delle cose e cosa potresti voler cercare quando stai cercando soluzioni diverse. La diapositiva che ho davanti a te in questo momento è una specie di visione tradizionale e sia Dez che Robin hanno toccato questo, sai, l'idea di parlare con un sensore, che si tratti di un'automobile o di un tostapane o una turbina eolica, o cosa hai, e quindi spostare quei dati dall'origine dati alla tua rete in una sorta di configurazione centralizzata, come menzionato da Dez. E si collega abbastanza bene e molte aziende entrano nello spazio IoT originariamente stanno iniziando a farlo con quel modello.

L'altra cosa che è venuta, se guardi verso il fondo della diapositiva, è questa idea di prendere altre fonti di dati tradizionali, aumentare i tuoi dati IoT e quindi in questo tipo di core, indipendentemente dal fatto che il tuo core sia un data center o potrebbe essere nel cloud, non importa, prendi un prodotto come Statistica e quindi applichi l'analisi a quel punto e poi fornisci quelle informazioni ai consumatori sulla destra. E penso che questa sia la posta in gioco a questo punto. Questo è qualcosa che devi essere in grado di fare e devi avere un'architettura abbastanza aperta per una piattaforma di analisi avanzata e parlare con tutte queste, specie di diverse fonti di dati, tutti questi sensori e tutte queste diverse destinazioni in cui hai i dati. E penso che questo sia qualcosa che devi essere in grado di fare e penso che troverai che è vero che molti leader del mercato sono in grado di fare questo tipo di cose. Qui a Statistica ne parliamo come analisi di base. Vai a prendere i dati, riportali nel core, elaborali, aggiungi più dati se necessario o se vantaggioso, esegui le tue analisi e poi condividi tali informazioni per azione o approfondimento.

E quindi penso che quelli siano certamente dal punto di vista della funzione, probabilmente saremmo tutti d'accordo che, sai, questa è la nuda necessità e tutti devono farlo. Dove inizia a diventare un po 'interessante è dove hai enormi quantità di dati, sai, provenienti da diverse fonti di dati, come i sensori IoT, come ho detto, che si tratti di un'auto o di una telecamera di sicurezza o di un processo di produzione, inizia a diventare un vantaggio nel poter fare l'analitica in cui i dati vengono effettivamente prodotti. E il vantaggio per la maggior parte delle persone, penso, quando iniziamo a spostare l'analitica dal core al limite è la capacità di diffondere alcune delle sfide dei dati che si stanno verificando, e Dez e Robin probabilmente commenteranno questo alla fine oggi, ma penso che devi essere in grado di monitorare e agire sui dati al limite in modo che non sia sempre necessario spostare tutti quei dati sulla tua rete. Robin ne ha parlato nelle sue, in un certo senso, le immagini di architettura che ha disegnato, in cui hai tutte queste diverse fonti ma di solito c'è un punto di aggregazione. Il punto di aggregazione che vediamo abbastanza spesso è a livello di sensore, ma ancora più spesso a livello di gateway. E questi gateway esistono come una sorta di intermediario nel flusso di dati dalle origini dati prima di tornare al core.

Una delle opportunità di cui Dell Statistica ha approfittato è la nostra capacità di esportare un modello dalla nostra piattaforma di analisi avanzata centralizzata per essere in grado di prendere un modello e quindi eseguirlo al limite su una piattaforma diversa, come un gateway o all'interno di un database o cosa hai. E penso che la flessibilità che ci offre sia qual è il punto interessante della conversazione di oggi, ce l'hai oggi nella tua infrastruttura? Sei in grado di spostare un'analitica in cui vivono i dati anziché semplicemente spostare i dati in cui vivono le tue analisi? E questo è qualcosa su cui Statistica si sta concentrando da un po 'di tempo, e mentre guardi più da vicino le diapositive vedrai che c'è qualche altra tecnologia nella nostra società consociata, Dell Boomi. Dell Boomi è una piattaforma di integrazione dei dati e di integrazione delle applicazioni nel cloud e utilizziamo effettivamente Dell Boomi come dispositivo di gestione del traffico per spostare i nostri modelli da Dell Statistica, attraverso Boomi e dispositivi off-edge. E pensiamo che questo sia un approccio agile che le aziende richiederanno, per quanto a loro piaccia la versione che ti ho mostrato un minuto fa, che è il tipo di idea di base per spostare i dati dai sensori fino al centro, allo stesso tempo le aziende vorranno essere in grado di farlo nel modo in cui sto delineando qui. E i vantaggi nel fare questo sono alcuni dei punti che sia Robin che Dez hanno fatto, vale a dire, puoi prendere una decisione e agire alla velocità della tua attività? Riesci a spostare l'analitica da un luogo a un altro e ad essere in grado di risparmiare tempo, denaro, energia e complessità per spostare costantemente i dati di bordo nel core.

Ora sono il primo a dire che alcuni dei dati edge saranno sempre di merito abbastanza alto dove avrebbe senso archiviarli e conservarli e riportarli sulla tua rete, ma quali edge edge ti permetteranno di è la capacità di prendere decisioni alla velocità con cui i dati stanno effettivamente arrivando, giusto? Che sei in grado di applicare l'intuizione e l'azione a una velocità in cui è il valore più alto possibile. E penso che questo sia qualcosa che tutti cercheremo quando si tratta di utilizzare analisi avanzate e dati IoT è questa opportunità per muoversi alla velocità dell'azienda o alla velocità richiesta dal cliente. Penso che la nostra posizione sia che penso che devi essere in grado di fare entrambe le cose. E penso che molto presto e molto rapidamente, man mano che un numero crescente di aziende guarderà a set di dati più diversi, in particolare quelli dal lato IoT, inizieranno a guardare allo spazio dei fornitori e chiederanno cosa è in grado di fare Statistica. Il che consiste nel distribuire un modello al centro, come abbiamo fatto tradizionalmente per molti anni, o distribuirlo su piattaforme forse non tradizionali, come un gateway IoT, e di poter effettivamente valutare e applicare analisi ai dati al limite come i dati sono prodotti. E penso che sia qui che entra in gioco la parte eccitante di questa conversazione. Perché potendo applicare un'analitica al limite nel momento in cui i dati escono da un sensore, ci consente di agire il più velocemente possibile, ma ci consente anche di decidere, questi dati devono tornare immediatamente al core? Possiamo raggrupparlo qui e poi rispedirlo in pezzi e parti e fare ulteriori analisi in un secondo momento? Ed è quello che stiamo vedendo fare molti dei nostri principali clienti.

Il modo in cui Dell Statistica fa questo è che abbiamo una capacità di utilizzo, quindi per esempio costruisci una rete neurale all'interno di Statistica e volevi collocare la rete neurale altrove nel tuo panorama dei dati. Abbiamo la capacità di produrre quei modelli e tutte le lingue che hai notato nell'angolo destro lì - Java, PPML, C e SQL e così via, includiamo anche Python e siamo anche in grado di esportare i nostri script - e mentre lo spostate dalla nostra piattaforma che è centralizzata, potete quindi distribuire quel modello o quell'algoritmo ovunque ne abbiate bisogno. E come ho accennato in precedenza, utilizziamo Dell Boomi per metterlo e parcheggiarlo dove dobbiamo eseguirlo e quindi possiamo riportare i risultati, oppure possiamo aiutare a riportare i dati, o segnare i dati e agire utilizzando il nostro motore delle regole . Tutte queste cose diventano in qualche modo importanti quando iniziamo a guardare questo tipo di dati e pensiamo di nuovo.

Questo è qualcosa che la maggior parte di voi al telefono avrà bisogno di fare perché diventerà molto costoso e tassativo sulla vostra rete, come ha detto Dez, spostare i dati dalla sinistra di questi diagrammi alla destra di questi diagrammi sopra tempo. Non sembra molto, ma abbiamo visto clienti di produzione con diecimila sensori nelle loro fabbriche. E se hai diecimila sensori nella tua fabbrica, anche se stai solo facendo questi un secondo tipo di test o segnali, stai parlando di ottantaquattromila file di dati da ciascuno di quei singoli sensori al giorno. E così i dati si accumulano sicuramente e Robin in qualche modo lo ha menzionato. All'inizio ho menzionato un paio di settori in cui stiamo vedendo fare cose piuttosto interessanti usando il nostro software e i dati IoT: automazione degli edifici, energia, servizi pubblici è uno spazio davvero importante. Vediamo molto lavoro da fare sull'ottimizzazione del sistema, persino sul servizio clienti e, naturalmente, sulle operazioni generali e sulla manutenzione, all'interno delle strutture energetiche e all'interno dell'edificio per l'automazione. E questi sono alcuni casi d'uso che vediamo essere piuttosto potenti.

Abbiamo già fatto analisi dei bordi prima, immagino, che il termine fosse coniato. Come ho già detto, abbiamo radici profonde in Statistica. La società è stata fondata circa 30 anni fa, quindi abbiamo clienti che da un po 'di tempo integrano i dati IoT con le loro analisi e lo sono da un po' di tempo. E Alliant Energy è uno dei nostri casi d'uso o clienti di riferimento. E puoi immaginare il problema che un'azienda energetica ha con un impianto fisico. Scalare oltre i muri di mattoni di un impianto fisico è difficile e quindi aziende energetiche come Alliant sono alla ricerca di modi per ottimizzare la propria produzione di energia, migliorando sostanzialmente il processo di produzione e ottimizzandolo al massimo livello. E usano Statistica per gestire le fornaci all'interno dei loro impianti. E per tutti noi che torniamo ai nostri primi anni di lezione di scienze sappiamo tutti che le fornaci producono calore, il calore fa vapore, le turbine girano, otteniamo elettricità. Il problema per aziende come Alliant è in realtà l'ottimizzazione di come le cose si riscaldano e bruciano all'interno di quei grandi forni a ciclone. E ottimizzando la produzione per evitare i costi aggiuntivi di inquinamento, dislocamento del carbonio e così via. E quindi devi essere in grado di monitorare l'interno di uno di questi forni a ciclone con tutti questi dispositivi, sensori, quindi prendere tutti i dati di quel sensore e apportare modifiche al processo energetico su base continuativa. Ed è esattamente quello che Statistica fa per Alliant dal 2007, prima ancora che il termine IoT fosse super popolare.

All'inizio di Rebecca, i dati non sono certamente nuovi. La capacità di elaborarlo e usarlo correttamente è davvero il luogo dove stanno accadendo le cose eccitanti. Oggi abbiamo parlato un po 'dell'assistenza sanitaria nella pre-chiamata e stiamo vedendo tutti i tipi di applicazioni per le persone a fare cose come una migliore assistenza ai pazienti, la manutenzione preventiva, la gestione della catena di approvvigionamento e l'efficienza operativa dell'assistenza sanitaria. E questo è abbastanza in corso e ci sono molti casi d'uso diversi. Uno di cui siamo molto orgogliosi qui a Statistica è con il nostro cliente Shire Biopharmaceuticals. E Shire produce farmaci speciali per malattie davvero difficili da trattare. E quando creano un lotto della loro medicina per i loro clienti, è un processo estremamente costoso e anche quel processo estremamente costoso richiede tempo. Quando si pensa a un processo di produzione, come si vede, le sfide si stanno unificando su tutti i dati, essendo abbastanza flessibili in diversi modi di inserire i dati nel sistema, convalidare le informazioni e quindi essere in grado di prevedere in che modo aiutiamo quel cliente. E i processi che stavano attingendo la maggior parte delle informazioni dai nostri sistemi di produzione e, naturalmente, i dispositivi e i sensori che guidano questi sistemi di produzione. Ed è un ottimo caso d'uso per come le aziende evitano le perdite e ottimizzano i loro processi di produzione usando una combinazione di dati del sensore, dati IoT e dati regolari dai loro processi.

Quindi, sai, un buon esempio di dove la produzione, e in particolare la produzione ad alta tecnologia, stanno avvantaggiando l'industria sanitaria attorno a questo tipo di lavoro e dati. Penso di avere solo un paio di altri punti che vorrei sottolineare prima di concludere e restituire a Dez e Robin. Ma sai, penso che questa idea di poter spingere il tuo analitico ovunque nel tuo ambiente sia qualcosa che diventerà estremamente importante per la maggior parte delle aziende. Essere vincolati al tradizionale formato dei dati ETLing da fonti a posizioni centrali avrà sempre un posto nella tua strategia, ma non dovrebbe essere la tua unica strategia. Oggi devi adottare un approccio molto più flessibile alle cose. Al fine di applicare la sicurezza di cui ho parlato, evitare le tasse della tua rete, essere in grado di gestire e filtrare i dati come provengono dal limite e determinare quali dati vale la pena conservare a lungo termine, quali dati vale la pena spostare attraverso alla nostra rete o quali dati devono essere analizzati al momento della creazione, affinché possiamo prendere le migliori decisioni possibili. Questo approccio analitico, ovunque e in qualsiasi luogo, è qualcosa che prendiamo abbastanza a cuore in Statistica ed è qualcosa in cui siamo molto abili. E risale a una di quelle diapositive che ho menzionato in precedenza, la possibilità di esportare i tuoi modelli in una varietà di lingue, in modo che possano abbinarsi e allinearsi con le piattaforme in cui vengono creati i dati. E poi ovviamente avere un dispositivo di distribuzione per quei modelli che è anche qualcosa che portiamo sul tavolo e di cui siamo molto entusiasti. Penso che la conversazione di oggi sia, se vogliamo davvero fare sul serio questi dati che sono stati nei nostri sistemi per molto tempo e vorremmo trovare un vantaggio competitivo e un angolo innovativo per utilizzarli, devi applicare della tecnologia che ti permette di allontanarti da alcuni di quei modelli restrittivi che abbiamo usato in passato.

Ancora una volta, il mio punto è che se hai intenzione di fare l'IoT, penso che devi essere in grado di farlo nel profondo, di inserire i dati e abbinarli ad altri dati e fare le tue analisi. Ma anche, altrettanto importante o forse anche più importante, devi avere questa flessibilità per mettere l'analitica con i dati e spostare l'analitica dal lato centrale della tua architettura al limite per i vantaggi che ho menzionato prima. Questo è un po 'su chi siamo e cosa stiamo facendo sul mercato. E siamo molto entusiasti dell'IoT, riteniamo che stia diventando ormai maggiorenne e ci siano grandi opportunità per tutti qui di influenzare le loro analisi e i processi critici con questo tipo di dati.

Rebecca Jozwiak: Shawn, grazie mille, è stata una presentazione davvero fantastica. E so che Dez probabilmente morirà dalla voglia di farti qualche domanda, quindi Dez, ti lascerò andare per primo.

Dez Blanchfield: Ho un milione di domande ma mi contatterò perché so che anche Robin avrà. Una delle cose che vedo in lungo e in largo è una domanda che mi viene in mente e sono davvero desideroso di avere un'idea della tua esperienza in questo dato che sei nel cuore delle cose. Le organizzazioni stanno affrontando la sfida e alcuni di loro hanno appena letto artisti del calibro di "La quarta rivoluzione industriale" di Klaus Schwab e poi hanno avuto un attacco di panico. E quelli che non hanno familiarità con questo libro, è essenzialmente un'intuizione di un gentiluomo, di Klaus Schwab, che penso sia un professore, che è il fondatore e presidente esecutivo del World Economic Forum dalla memoria, e il libro tratta essenzialmente l'intera esplosione onnipresente delle cose e parte dell'impatto sul mondo in generale. Le organizzazioni con cui sto parlando non sono sicure se dovrebbero andare a modificare l'ambiente attuale o investire tutto nella costruzione di nuovi ambienti, infrastrutture e piattaforme. Anche in Dell Statistica, stai vedendo persone che eseguono il retrofit degli ambienti attuali e distribuiscono la tua piattaforma nell'infrastruttura esistente o li stai spostando verso la costruzione di tutte le nuove infrastrutture e prepararsi a questo diluvio?

Shawn Rogers: Sai, abbiamo avuto l'opportunità di servire entrambi i tipi di clienti e di essere sul mercato fintanto che abbiamo, ottieni quelle opportunità per andare oltre. Abbiamo clienti che hanno creato nuovissimi impianti favolosi negli ultimi due anni e li hanno dotati di dati dei sensori, IoT, analisi dal limite, end to end durante tutto il processo. Ma dovrei dire che la maggior parte dei nostri clienti sono persone che svolgono questo tipo di lavoro da un po 'ma sono state costrette a ignorare quei dati. Sai, Rebecca ha chiarito la questione: non si tratta di nuovi dati, questo tipo di informazioni è stato disponibile in molti formati diversi per molto tempo, ma dove il problema era stato quello di connettersi ad esso, spostandolo, portandolo in un posto dove potresti fare qualcosa di intelligente con esso.

E quindi direi che la maggior parte dei nostri clienti sta guardando ciò che hanno oggi, e Dez, hai già sottolineato questo punto, che fa parte di quella rivoluzione dei big data e penso che ciò di cui si tratta è, è tutto rivoluzione dei dati, giusto? Non dobbiamo più ignorare determinati dati di sistema o dati di produzione o costruzione di dati di automazione, ora abbiamo i giocattoli e gli strumenti giusti per andare a prenderli e quindi fare cose intelligenti con esso. E penso che ci siano molti driver in questo spazio che lo stanno facendo accadere e alcuni di loro sono tecnologici. Sai, le soluzioni per l'infrastruttura dei big data come Hadoop e altri hanno reso un po 'meno costoso e un po' più facile per alcuni di noi pensare di creare un data lago di quel tipo di informazioni. E ora ci stiamo guardando intorno all'azienda per dire "Ehi, abbiamo analisi nel nostro processo di produzione, ma sarebbero migliorate se potessimo aggiungere alcune intuizioni da questi processi?" E questo, penso, che cosa la maggior parte di i nostri clienti stanno facendo. Non è tanto creare da zero, ma aumentare e ottimizzare le analisi che già hanno con i dati che sono nuovi per loro.

Dez Blanchfield: Sì, ci sono alcune cose interessanti che stanno accadendo in alcuni dei più grandi settori che abbiamo visto e che hai menzionato, il potere e le utilità. L'aviazione sta attraversando questo boom in cui uno dei miei dispositivi preferiti di tutti i tempi di cui parlo regolarmente, il Boeing 787 Dreamliner e sicuramente l'equivalente Airbus, l'A330 ha seguito la stessa rotta. C'erano come seimila sensori nel 787 quando fu lanciato per la prima volta, e penso che ora stiano parlando di quindicimila sensori nella nuova versione di esso. E la cosa curiosa di parlare con alcune delle persone che si trovano in quel mondo era che l'idea di mettere i sensori nelle ali e così via, e la cosa sorprendente di 787 in una piattaforma di design è che, sai, hanno reinventato tutto in l'aeroplano. Come le ali, ad esempio, quando l'aereo decolla, le ali si flettono fino a dodici metri e mezzo. Ma in condizioni estreme le ali possono flettere in punta fino a 25 metri. Questa cosa sembra sbattere un uccello. Ma ciò che non hanno avuto il tempo di risolvere è stato l'ingegneria dell'analisi di tutti questi dati, quindi hanno sensori che fanno lampeggiare i LED in verde e rosso se succede qualcosa di brutto, ma in realtà non finiscono con approfondimenti in tempo reale. Inoltre, non hanno risolto il problema di come spostare il volume di dati perché nello spazio aereo domestico negli Stati Uniti su base giornaliera ci sono 87.400 voli. Quando ogni aereo raggiunge i suoi acquisti di un 787 Dreamliner, sono 43 petabyte al giorno di dati, perché attualmente questi aeroplani creano circa mezzo terabyte di dati ciascuno. E quando si moltiplicano 87.400 voli al giorno negli Stati Uniti negli Stati Uniti per punto cinque o mezzo terabyte, si ottengono 43, 5 petabyte di dati. Non possiamo fisicamente spostarlo. Quindi, in base alla progettazione, dobbiamo spingere l'analitica nel dispositivo.

Ma una delle cose che è interessante quando guardo l'intera architettura - e sono ansioso di vedere cosa ne pensi - è che ci siamo spostati verso la gestione dei dati master, una sorta di, i primi principi di gestione dei dati, tirando tutto in una posizione centrale. Abbiamo data lake e quindi creiamo piccoli stagni dati, se lo desideri, estratti di ciò su cui facciamo analisi, ma distribuendo ai margini, una delle cose che continua a emergere, in particolare da persone di database e gestori di dati o le persone nel settore della gestione delle informazioni, cosa succede quando ho molti piccoli laghi dati in miniatura distribuiti? Che tipo di cose sono state applicate a questo pensiero riguardo all'analisi dei bordi nella tua soluzione, in quanto, tradizionalmente, tutto verrebbe centralmente con il data lake, ora finiamo con queste piccole pozzanghere di dati ovunque, e anche se possiamo eseguire analisi su di essi localmente per ottenere alcune informazioni locali, quali sono alcune delle sfide che hai affrontato e come l'hai risolto, avendo quel set di dati distribuiti e in particolare quando ottieni i microcosmi di data lake e aree distribuite?

Shawn Rogers: Beh, penso che sia una delle sfide, giusto? Mentre andiamo via, sai, riportando tutti i dati nella posizione centrale o nell'esempio analitico di base che ho dato e poi facciamo la versione distribuita è che finisci con tutti questi piccoli silos, giusto? Proprio come hai rappresentato, giusto? Stanno facendo un po 'di lavoro, alcune analisi sono in esecuzione, ma come si possono riunire? E penso che la chiave sarà l'orchestrazione in tutto questo e penso che voi ragazzi sarete d'accordo con me, ma sono contento se non lo fate, che penso che stiamo osservando questa evoluzione da a volte.

Tornando ai tempi dei nostri amici Mr. Inmon e Mr. Kimball, che hanno aiutato tutti con l'architettura dei loro primi investimenti nel data warehouse, il punto è che siamo lontani da quel modello centralizzato per molto tempo. Abbiamo adottato questa nuova idea di consentire ai dati di dimostrare la loro gravità per dove dovrebbe risiedere meglio all'interno del tuo ecosistema e di allineare i dati con la migliore piattaforma possibile per il miglior risultato possibile. E abbiamo iniziato a spendere, credo, un approccio più orchestrato al nostro ecosistema come una sorta di modo generale di fare le cose, come è dove stiamo cercando di allineare tutti quei pezzi contemporaneamente. Che tipo di analisi o lavoro ho intenzione di fare con i dati, che tipo di dati sono, che ti aiuteranno a dettare dove dovrebbero vivere. Dove viene prodotto e che tipo di gravità hanno i dati?

Sai, vediamo molti di questi esempi di big data in cui le persone parlano di avere data lake da 10 e 15 petabyte. Bene, se hai un data lake che è così grande, è molto poco pratico per te spostarlo e quindi devi essere in grado di fornire analisi ad esso. Ma quando lo fai, al centro della tua domanda, penso che solleva molte nuove sfide per tutti orchestrare l'ambiente e applicare governance e sicurezza e capire cosa bisogna fare con quei dati per curarlo e ottenere il massimo valore da esso. E ad essere sincero con te - mi piacerebbe sentire la tua opinione qui - penso che siamo all'inizio e penso che ci sia ancora molto lavoro da fare. Penso che programmi come Statistica si stanno concentrando sul dare a più persone l'accesso ai dati. Siamo decisamente concentrati su queste nuove persone come i data scientist cittadini che vogliono condurre analisi predittive in luoghi all'interno dell'organizzazione che non avrebbero potuto essere prima. E penso che quelli siano alcuni dei primi giorni intorno a questo, ma penso che l'arco di maturità dovrà dimostrare un alto livello o orchestrazione e allineamento tra queste piattaforme e una comprensione di ciò che è in esse e del perché. E questo è un problema secolare per tutti noi gente di dati.

Dez Blanchfield: In effetti lo è e sono completamente d'accordo con te su questo e penso che la cosa grandiosa che stiamo ascoltando qui oggi sia almeno il front-end del problema di acquisire effettivamente i dati a livello di gateway, immagino, al limite della rete e la capacità di fare analisi a quel punto è sostanzialmente risolta ora. E ora ci libera di iniziare davvero a pensare alla prossima sfida, che è data lake distribuita. Grazie mille per quello, è stata una presentazione fantastica. Apprezzo molto la possibilità di parlarne con te.

Adesso passerò a Robin perché so che ha, e poi Rebecca ha anche una lunga lista di grandi domande da parte del pubblico dopo Robin. Robin?

Dr. Robin Bloor: Ok. Shawn, vorrei che tu dicessi qualcosa in più e non sto cercando di darti la possibilità di pubblicizzarlo, ma in realtà è molto importante. Sono interessato a sapere in quale momento Statistica ha effettivamente generato la capacità di esportazione del modello. Ma vorrei anche che tu dicessi qualcosa su Boomi perché tutto ciò che hai detto finora su Boomi è che è ETL, ed è davvero ETL. Ma in realtà è abbastanza capace ETL e per il tipo di tempi di cui stiamo parlando, e alcune delle situazioni di cui stiamo discutendo qui, questa è una cosa molto importante. Potresti parlare di queste due cose per me?

Shawn Rogers: Certo, sì, assolutamente posso. Sai, il nostro movimento in questa direzione era certamente iterativo ed era una specie di processo graduale. Ci stiamo preparando questa settimana per il lancio della versione 13.2 di Statistica. E ha gli ultimi aggiornamenti di tutte le funzionalità di cui stiamo parlando oggi. Ma tornando alla versione 13, un anno fa, in ottobre, abbiamo annunciato la nostra capacità di esportare modelli dalla nostra piattaforma e all'epoca la chiamavamo NDAA. L'acronimo stava per Native Distributed Analytics Architecture. Ciò che abbiamo fatto è stato dedicare molto tempo, energia e attenzione all'apertura della nostra piattaforma con l'opportunità di usarla come centro di comando centrale per le tue analisi avanzate, ma anche di implementare da lì. E i primi posti, Robin, che abbiamo implementato, hanno fatto un'aggiunta davvero eccezionale alla piattaforma sull'apprendimento automatico. E così abbiamo potuto distribuire da Statistica ad Azure Cloud di Microsoft per sfruttare la potenza di Azure per alimentare l'apprendimento automatico, come sapete, è molto intenso ed è un ottimo modo per utilizzare le tecnologie cloud. E quindi quello è stato il primo bit.

Ora qui esportavamo i nostri modelli in Azure e usavamo Azure per eseguirli e quindi inviare i dati o i risultati alla piattaforma Statistica. E poi siamo passati ad altre lingue da cui volevamo essere in grado di esportare, e ovviamente uno di loro, essendo Java, ci apre le porte per iniziare ora a esportare i nostri modelli verso altre destinazioni come Hadoop, quindi ha dato ci recita anche lì.

E infine ci siamo concentrati sulla capacità di produrre i nostri modelli con quella versione in database. E quindi quella è stata la prima iterazione e ad essere sincero con te, il gioco finale è stato IoT ma non eravamo ancora abbastanza lì con la versione 13 dello scorso ottobre. Da allora ci siamo arrivati ​​e questo ha a che fare con la capacità di fare tutte le cose che ho appena menzionato, ma poi di avere una sorta di dispositivo di trasporto. E tornando alla domanda di Dez, sai, qual è la sfida e come possiamo farlo quando abbiamo tutte queste analisi in giro? Bene, usiamo Boomi come una specie di hub di distribuzione e quindi perché è nel cloud e perché è così potente, come ho detto prima, è una piattaforma di integrazione dei dati, ma è anche una piattaforma di integrazione delle applicazioni e utilizza JVM per permetterci per parcheggiare e lavorare ovunque sia possibile atterrare una macchina virtuale Java. Questo è ciò che ha davvero spalancato la porta a tutti questi gateway e piattaforme di edge computing e edge server, perché tutti hanno il calcolo e la piattaforma disponibile per eseguire una JVM. E poiché possiamo far funzionare la JVM ovunque, Boomi ha trasformato essere una distribuzione meravigliosa e, usando la mia parola di prima, un dispositivo di orchestrazione.

E questo sta diventando molto importante perché abbiamo tutti, sai, penso che lo scenario dell'aereo un minuto fa sia stato fantastico, e ho detto, sai, produttori come Shire che hanno diecimila sensori in una delle loro fabbriche, tu a un certo punto deve iniziare a occuparsi del tipo di approccio centrale all'analisi avanzata. Essere ad hoc al riguardo non funziona più. Si usava quando il volume di modelli e algoritmi che stavamo eseguendo era minimo, ma ora è al massimo. Ce ne sono migliaia in un'organizzazione. Quindi, parte della nostra piattaforma è basata su server e quando disponi del nostro software aziendale hai anche la possibilità di modificare, valutare e gestire i tuoi modelli in tutto l'ambiente. E fa anche parte di quella cosa dell'orchestrazione. Avevamo bisogno di avere un livello, Robin, che non solo ti permettesse di ottenere un modello lì in primo luogo, ma ti offrisse anche un canale per modificare i modelli e sostituirli su base continuativa tutte le volte che ti servivano, perché questo non è qualcosa che puoi fare manualmente. Non è possibile camminare in una raffineria con una chiavetta USB cercando di caricare i modelli sui gateway. Devi avere un sistema di trasporto e di gestione tra di esso, e quindi la combinazione di Statistica e Boomi lo dà ai nostri clienti.

Dr. Robin Bloor: Sì. Bene, sarò molto breve ma, sai, questa affermazione che è stata fatta in precedenza sul data lake e sull'idea di accumulare petabyte in un determinato posto, e il fatto che abbia gravità. Sai, quando hai iniziato a parlare dell'orchestrazione, ho iniziato a farmi pensare al fatto molto semplice che, sapendo, mettere un data lago molto grande in un posto probabilmente significa che devi effettivamente eseguirne il backup e probabilmente significa che devi spostare molti dei dati comunque. Sai, la vera architettura dei dati è molto di più, secondo me, molto più nella direzione di cui stai parlando. Che è quello di distribuirlo in luoghi sensibili, è probabilmente la cosa che direi. E sembra che tu abbia un'ottima capacità per farlo. Voglio dire, sono ben informato su Boomi, quindi è un po ', in un modo o nell'altro, quasi ingiusto che io possa vederlo e forse il pubblico non può. Ma Boomi è così essenziale, a mio avviso, in termini di ciò che stai facendo perché ha funzionalità applicative. E anche perché la verità della questione è che non si eseguono questi calcoli analitici senza voler agire da qualche parte per qualche motivo o altro. E Boomi ha un ruolo in questo, giusto?

Shawn Rogers: Sì, assolutamente. E così, come sapete da precedenti conversazioni, Statistica ha un motore di regole aziendali in piena regola. E penso che sia davvero importante quando arriviamo al perché lo facciamo. Sai, ho scherzato sul fatto che non c'è davvero alcun motivo per fare l'IoT a meno che tu non abbia intenzione di analizzare, utilizzare i dati per prendere decisioni migliori o intraprendere azioni. E quindi ciò su cui ci siamo concentrati non è stato solo di essere in grado di mettere il modello in circolazione, ma di essere in grado di etichettarlo insieme, un set di regole. E poiché Boomi è così robusto nelle sue capacità di spostare le cose da un luogo all'altro, all'interno di un atomo Boomi possiamo anche incorporare la capacità di innescare, allertare e agire.

Ed è qui che iniziamo a ottenere quel tipo di vista sofisticata dei dati IoT in cui diciamo: "Va bene, vale la pena ascoltare questi dati". Ma davvero, sai, sapendo che "la luce è accesa, la luce è accesa, la luce è accesa, la luce è accesa "non è interessante quanto a quando la luce si spegne o quando il rilevatore di fumo si spegne o quando qualunque cosa accada al nostro processo di produzione va fuori specifica. Quando ciò accade, vogliamo essere in grado di agire immediatamente. E i dati diventano quasi secondari qui a questo punto. Poiché non è così importante che abbiamo salvato tutti quei segnali "va bene, va bene, va bene", l'importante è che notiamo il messaggio "Ehi, è brutto" e abbiamo preso provvedimenti immediati. Che si tratti di inviare un'e-mail a qualcuno o di poter coinvolgere le competenze del dominio o di avviare una serie di altri processi per agire immediatamente, che sia correttivo o in risposta alle informazioni. E penso che sia per questo che devi avere una visione orchestrata di questo. Non puoi semplicemente concentrarti sul trattare i tuoi algoritmi ovunque. Devi essere in grado di coordinarli e orchestrarli. Devi essere in grado di vedere come si esibiscono. E davvero, cosa più importante, intendo, perché diamine dovresti farlo se non potessi aggiungere l'opportunità di agire immediatamente contro i dati?

Dr. Robin Bloor: Okay, Rebecca, credo che tu abbia domande dal pubblico?

Rebecca Jozwiak: Sì . Ho un sacco di domande del pubblico. Shawn, so che non volevi restare troppo a lungo oltre l'ora. Cosa pensi?

Shawn Rogers: Sono felice. Vai avanti. Posso rispondere ad alcuni.

Rebecca Jozwiak: Vediamo. So che una delle cose che hai menzionato è che l'IoT è agli inizi e ha un certo grado di maturità che dovrà avere luogo e in qualche modo parla a questa domanda che un partecipante ha posto. Se il framework IPv6 sarà abbastanza robusto da supportare la crescita dell'IoT nei prossimi cinque o dieci anni?

Shawn Rogers: Oh, lascerò che Dez echeggi la mia risposta perché penso che sia più vicino a questo tipo di informazioni che sono. Ma ho sempre pensato che siamo su una strada molto veloce per piegare e rompere la maggior parte dei framework che abbiamo in atto. E mentre penso che l'aggiunta di quel nuovo tipo di specifica o la direzione in cui stiamo andando con i framework IPv6 sia importante, e ci apre la porta per avere molti più dispositivi e per essere in grado di dare tutto ciò che vuoi dare un indirizzo. Penso che tutto ciò che sto leggendo e vedendo con i miei clienti, e il numero di indirizzi richiesti, penso che ad un certo punto provocherà un altro cambiamento in quel panorama. Ma non sono davvero un esperto di networking, quindi non posso dire al cento per cento che lo spezzeremo ad un certo punto. Ma la mia esperienza mi dice che a un certo punto interromperemo quel modello.

Rebecca Jozwiak: Non sarei sorpreso. Penso che i quadri si spezzino sotto il peso di tutti i tipi di cose. E questo è logico, giusto? Voglio dire, non puoi inviare un'e-mail con una macchina da scrivere. Un altro partecipante chiede: "Puoi usare un framework Hadoop?" Ma immagino che potrei cambiarlo per dire, come useresti un framework Hadoop per l'analisi distribuita?

Shawn Rogers: Beh, Robin mi ha fatto il favore di farmi una domanda storica e quindi dalla versione 13 circa un anno fa per Statistica, abbiamo avuto la capacità di scacciare i modelli dal nostro sistema ed entrare in Hadoop. E lavoriamo a stretto contatto con tutti i grandi sapori di Hadoop. Abbiamo davvero grandi storie di successo sulla capacità di lavorare con Cloudera come una delle principali distribuzioni Hadoop con cui collaboriamo. Ma poiché possiamo produrre in Java, ci dà questa capacità di essere aperti e posizionare la nostra analisi ovunque. Inserirli in un cluster Hadoop è qualcosa che facciamo su base normale e regolare e quotidiana per molti dei nostri clienti. La risposta breve è sì, assolutamente.

Rebecca Jozwiak: Eccellente. E ho intenzione di buttartene un'altra e lasciarti andare in vacanza. Un altro partecipante sta chiedendo, con l'analitica IoT più l'apprendimento automatico, pensi che tutti i dati debbano essere archiviati per scopi storici e che impatto avrà sull'architettura della soluzione?

Shawn Rogers: Beh, non penso che tutti i dati debbano essere archiviati. Ma penso che sia molto interessante avere la capacità di intrattenere, ascoltare qualsiasi fonte di dati che desideriamo all'interno della nostra organizzazione, ovunque provenga. E penso che i cambiamenti che abbiamo visto sul mercato negli ultimi anni ci abbiano permesso di adottare quell'approccio all-data alle cose, e sembra essere davvero una specie di pagamento. Ma sarà diverso per ogni azienda e per ogni caso d'uso. Sai, quando guardiamo i dati sanitari, ora ci sono un sacco di problemi normativi, molti problemi di conformità di cui preoccuparsi, e questo ci fa salvare dati che altre aziende potrebbero non capire perché debbano essere salvati, giusto ? Nei processi produttivi, per molti dei nostri clienti manifatturieri, c'è un vero vantaggio nel poter esaminare storicamente i tuoi processi ed essere in grado di guardare indietro a grandi quantità di questi dati per imparare da esso e costruire modelli migliori da esso.

Penso che molti dati debbano essere conservati e penso che abbiamo soluzioni che lo rendono oggi più economico e scalabile. Allo stesso tempo, penso che ogni azienda troverà valore nei dati che non devono mantenere a livello atomico, ma vorranno analizzarli in un modo in tempo reale e prendere decisioni al riguardo per guidare l'innovazione all'interno la loro compagnia.

Rebecca Jozwiak: Okay bene. No, pubblico, oggi non ho ricevuto le domande di tutti, ma le inoltrerò a Shawn in modo che possa contattarti direttamente e rispondere a quelle domande. Ma grazie a tutti per aver partecipato. Grazie mille a Shawn Rogers della Dell Statistica e di tutti i nostri analisti, Dez Blanchfield e il Dr. Robin Bloor. Puoi trovare l'archivio qui su insideanalysis.com, SlideShare, stiamo iniziando a rimettere le nostre cose di nuovo lì, e stiamo rinnovando il nostro YouTube, quindi cercalo anche lì. Grazie mille gente. E con ciò ti saluterò e ci vediamo la prossima volta.

Edge analytics: finalmente l'economia iot