Nel corso dei decenni, le aziende hanno accumulato un gran numero di risorse di dati aziendali. Tuttavia, la tradizionale tecnologia di data warehouse, la gestione dei dati e le capacità di analisi sono diventate carenze nel lavoro di business intelligence poiché le aziende non riescono a eliminare i silos di dati.

Il ruolo del data warehouse è quello di ottenere l’integrazione dei dati tra le linee di business e i sistemi per fornire un supporto dati unificato per l’analisi della gestione e il processo decisionale aziendale. Un data warehouse può sostanzialmente aiutarti a trasformare i dati operativi delle tue aziende in informazioni (o conoscenze) accessibili e di alto valore, e fornire le informazioni giuste alle persone giuste nel modo giusto al momento giusto.

Ma in altri casi, il tradizionale data warehouse non può soddisfare le esigenze di analisi dei dati. Le aziende presentano sfide nelle applicazioni di analisi dei dati, come la forte domanda di una piattaforma dati unificata, la potenza di elaborazione del centro dati, gli algoritmi core e la completezza dei dati presentano requisiti più elevati. Con i data warehouse, è difficile valutare il mining di valore sui dati globali e non può veramente riflettere il valore delle enormi risorse di dati del gruppo in termini di dimensioni ed effetti. Con la concorrenza sul mercato e la crescente globalizzazione, le imprese non solo sono soddisfatte dell’analisi dei dati interni, ma devono anche condurre un’analisi completa attraverso tecnologie esterne come il web e le applicazioni aziendali.

Ciò ha portato ai data center, che non sono solo un sistema o uno strumento, ma un dipartimento funzionale che fornisce la gestione e i servizi delle risorse dati per l’intera organizzazione attraverso una serie di piattaforme, strumenti, processi e specifiche. Questo ha sostituito l’architettura di elaborazione dei dati di mashup di elaborazione e archiviazione con Hadoop, Spark con tecnologie e componenti distribuiti come core, in grado di supportare il caricamento di dati batch e in tempo reale e requisiti aziendali flessibili. Il sistema di architettura dei data center nel contesto dei big data è la struttura ELT, che estrae i dati originali desiderati dai data center per la modellazione e l’analisi in qualsiasi momento in base alle esigenze delle applicazioni del livello superiore. In secondo luogo, l’obiettivo di stabilire data center è fondere tutti i dati dell’intera impresa, aprire il divario tra i dati,

I data center svolgono un ruolo vitale nella trasformazione digitale e nello sviluppo sostenibile delle imprese; i data center sono nati per il disaccoppiamento. Il significato più grande della costruzione di data center per le imprese è il disaccoppiamento di applicazioni e dati. In questo modo, le aziende possono creare applicazioni di dati che soddisfano le esigenze aziendali su richiesta senza restrizioni.


caratteristiche
Nei tradizionali data warehouse, l’integrazione è la più critica. A causa dei costi di elaborazione e archiviazione, i suoi dati devono essere estratti da diverse fonti di dati e concentrati, e la ridondanza dei suoi dati deve essere minimizzata il più possibile. Pertanto, i dati che entrano nei data warehouse devono essere convertiti, formattati, riorganizzati e riepilogati. Tutti i suoi dati hanno una singola caratteristica fisica ed esiste in modo strutturato. La nuova generazione di data warehouse utilizza il calcolo distribuito, ma i prodotti software esistono in una distribuzione centralizzata. In termini di architettura di sistema, il data warehouse esiste anche nell’archiviazione e nel calcolo centralizzati.

In confronto, il data center è il punto di collegamento tra la reception e il back office e fa precipitare strumenti e tecnologie comuni per l’azienda. I data center si riferiscono a piattaforme complete per la capacità di dati che integrano la raccolta di dati. La centralizzazione dei dati significa che attraverso la raccolta di dati eterogenei multi-sorgente interna ed esterna , governance, modellizzazione, analisi e applicazione, la gestione interna dei dati può essere ottimizzata per migliorare il business e il valore della cooperazione dei dati può essere rilasciato all’esterno, diventando il fulcro della gestione delle risorse di dati aziendali. L’architettura tecnica complessiva dei data center adotta un modello di architettura di cloud computing per risorse di elaborazione e risorse di archiviazione, impacchetta e integra risorse attraverso la tecnologia multi-tenant e si apre per fornire agli utenti servizi di dati “one-stop”.


Capacità e implementazione
I data warehouse sono essenzialmente database relazionali che hanno un design di database, adatto per scopi analitici storici. Conservano i dati che sono effettivamente ospitati sui server che risiedono nei data center. Quindi, in definitiva, un data warehouse è un database relazionale con un diverso design di database / schema. Puoi dire che i data warehouse sono distribuiti su server che risiedono all’interno dei data center, fisicamente.

I data warehouse sono repository centrali di dati integrati da diverse fonti. Memorizzano i dati attuali e storici in un unico posto che vengono utilizzati per creare report analitici per le organizzazioni. I data warehouse tradizionali vengono utilizzati principalmente per creare report di BI . Contiene un set completo di contenuti come la modellazione dei dati, la gestione dei metadati e la gestione della qualità dei dati. I sistemi di data warehouse registreranno tutti i record; conserverà tutte le modifiche nei record, ma è limitata dal costo e dal calcolo. Considerando la capacità, i data warehouse non registreranno l’intera quantità di dati dettagliati, in particolare i dati di log, quindi la capacità di dati è inferiore nella maggior parte delle piattaforme di data warehouse.

D’altro canto, i data center sono basati su piattaforme di elaborazione distribuite e piattaforme di archiviazione, che possono teoricamente espandere indefinitamente le capacità di elaborazione e archiviazione delle piattaforme. Gli strumenti di data warehouse più tradizionali si basano su una singola macchina. Una volta che il volume di dati diventa più grande, sarà limitato dalla capacità della singola macchina. I data center non stanno semplicemente costruendo framework di big data open source e sviluppando alcune tabelle di dati. Ciò richiede che i team abbiano una certa comprensione delle metodologie. Nel complesso, significa che la tua squadra ha competenze sufficienti . La quantità di risorse investite determina la costruzione di data center.

Di ihal