Casa Nelle news 10 Big Data fanno e non fanno

10 Big Data fanno e non fanno

Sommario:

Anonim

I big data promettono molto per tutti i tipi di settori. Se questi big data vengono sfruttati in modo efficace ed efficiente, possono avere un impatto significativo nel processo decisionale e nell'analisi. Ma il vantaggio dei big data può essere raggiunto solo se gestito in modo strutturato. Le migliori pratiche dei big data vengono gradualmente stabilite, ma ci sono già alcune cose da fare e da non fare quando si parla di implementazione.


Le seguenti indicazioni si basano sull'esperienza pratica e le conoscenze raccolte da progetti di vita reale. Ecco i miei migliori big data e cosa non fare.

Coinvolgi tutte le sezioni aziendali in un'iniziativa sui big data

Un'iniziativa sui big data non è un'attività isolata e indipendente e il coinvolgimento di tutte le unità aziendali è un must per ottenere valore reale e approfondimenti. I big data possono aiutare le organizzazioni a sfruttare grandi volumi di dati e ottenere informazioni sul comportamento dei clienti, eventi, tendenze, previsioni, ecc. Ciò non è possibile con un'istantanea dei dati, che acquisisce solo una parte dell'intero volume di dati elaborati in big data. Di conseguenza, le aziende si stanno concentrando sempre di più su tutti i tipi di dati provenienti da tutte le possibili strade / unità di business per comprendere il modello corretto.

Valuta tutti i modelli di infrastruttura per l'implementazione di big data

Il volume di dati e la sua gestione è una delle principali preoccupazioni per qualsiasi iniziativa sui big data. Poiché i big data si occupano di petabyte di dati, l'unica soluzione per gestirli è utilizzare i data center. Allo stesso tempo, la componente di costo deve essere considerata prima di selezionare e finalizzare qualsiasi struttura di stoccaggio. I servizi cloud sono spesso la scelta migliore, ma i servizi di diversi ambienti cloud devono essere valutati per determinare quello appropriato. Poiché l'archiviazione è uno dei componenti più importanti in qualsiasi implementazione di big data, è un fattore che dovrebbe essere valutato con molta attenzione in qualsiasi iniziativa di big data. (Ottieni un'altra prospettiva nella sfida dei Big Data di oggi deriva dalla varietà, non dal volume o dalla velocità.)

Prendi in considerazione le origini dati tradizionali nella pianificazione dei big data

Esistono varie fonti di big data e anche il numero di fonti aumenta di giorno in giorno. Questo enorme volume di dati viene utilizzato come input per l'elaborazione di big data. Di conseguenza, alcune aziende ritengono che le fonti di dati tradizionali non siano utili. Questo non è vero, poiché questi dati tradizionali sono una componente fondamentale per il successo di qualsiasi storia di big data. I dati tradizionali contengono informazioni preziose, quindi dovrebbero essere utilizzati insieme ad altre fonti di big data. Il valore reale dei big data può essere derivato solo se si tiene conto di tutte le fonti di dati (tradizionali e non tradizionali). (Ulteriori informazioni in Take That, Big Data! Perché i dati di piccole dimensioni possono dare un pugno più grande.)

Prendi in considerazione un insieme coerente di dati

In un ambiente di big data, i dati provengono da varie fonti. Il formato, la struttura e i tipi di dati variano da una fonte all'altra. La parte più importante è che i dati non vengono ripuliti quando si tratta del tuo ambiente di big data. Quindi, prima di fidarti dei dati in arrivo, è necessario verificare la coerenza mediante osservazioni e analisi ripetitive. Una volta confermata la coerenza dei dati, questi possono essere trattati come un insieme coerente di metadati. Trovare un insieme coerente di metadati mediante un'attenta osservazione del modello è un esercizio essenziale in qualsiasi pianificazione di big data.

Distribuire i dati

Il volume di dati è una delle principali preoccupazioni quando consideriamo un ambiente di elaborazione. A causa dell'enorme volume di dati gestiti dai big data, l'elaborazione su un singolo server non è possibile. La soluzione è un ambiente Hadoop, che è un ambiente di elaborazione distribuito che gira su hardware di base. Fornisce la potenza di un'elaborazione più rapida su più nodi. (Scopri di più in 7 cose da sapere su Hadoop.)

Non fare mai affidamento su un singolo approccio di analisi dei big data

Esistono varie tecnologie disponibili sul mercato per l'elaborazione di big data. Il fondamento di tutte le tecnologie di big data è Apache Hadoop e MapReduce. Pertanto, è importante valutare la tecnologia corretta per lo scopo corretto. Alcuni degli importanti approcci di analisi sono l'analisi predittiva, l'analisi prescrittiva, l'analisi del testo, l'analisi dei dati di flusso, ecc. La selezione del metodo / approccio appropriato è importante per raggiungere l'obiettivo desiderato. È meglio evitare di fare affidamento su un singolo approccio, ma per studiare vari approcci e selezionare la soluzione perfetta per la tua soluzione.

Non avviare iniziative di big data prima di essere pronti

Si consiglia sempre di iniziare con piccoli passi per qualsiasi iniziativa sui big data. Quindi, inizia con progetti pilota per acquisire competenze e poi procedere per l'implementazione effettiva. Il potenziale dei big data è molto impressionante, ma il valore reale può essere raggiunto solo quando riduciamo i nostri errori e acquisiamo maggiore competenza.

Non utilizzare i dati in modo isolato

Le fonti di big data sono sparse intorno a noi e stanno aumentando di giorno in giorno. È importante integrare tutti questi dati per ottenere un output analitico corretto. Diversi strumenti sono disponibili sul mercato per l'integrazione dei dati, ma dovrebbero essere valutati correttamente prima dell'uso. L'integrazione dei big data è un'attività complessa in quanto i dati provenienti da fonti diverse sono di formato diverso, ma è molto necessario per ottenere buoni risultati di analisi.

Non ignorare la sicurezza dei dati

La sicurezza dei dati è una considerazione importante nella pianificazione dei big data. Inizialmente, (prima di eseguire qualsiasi elaborazione), i dati sono in petabyte, quindi la sicurezza non è rigorosamente implementata. Ma dopo un po 'di elaborazione, otterrai un sottoinsieme di dati che fornisce alcune informazioni. A questo punto, la sicurezza dei dati diventa essenziale. Più i dati vengono elaborati e ottimizzati, tanto più spesso diventano preziosi per un'organizzazione. Questi dati di output ottimizzati sono proprietà intellettuale e devono essere protetti. La sicurezza dei dati deve essere implementata come parte del ciclo di vita dei big data.

Non ignorare la parte relativa alle prestazioni dell'analisi dei big data

L'output dell'analisi dei big data è utile solo quando offre buone prestazioni. I big data offrono ulteriori approfondimenti basati sull'elaborazione di un'enorme quantità di dati a una velocità maggiore. Pertanto, è essenziale gestirlo in modo efficace ed efficiente. Se le prestazioni dei big data non sono gestite con cura, causeranno problemi e renderà insignificante l'intero sforzo.


Nella nostra discussione, ci siamo concentrati su cosa fare e cosa non fare delle iniziative sui big data. I big data sono un'area emergente e per quanto riguarda l'implementazione, molte aziende sono ancora in fase di pianificazione. È essenziale comprendere le migliori pratiche relative ai big data per ridurre al minimo rischi ed errori. I punti di discussione sono stati derivati ​​da esperienze di progetti dal vivo, quindi forniranno alcune linee guida per il successo di una strategia di big data.

10 Big Data fanno e non fanno