Che cos'è l'analisi dei dati?

I dati vengono creati più velocemente che mai, ma stai sfruttando al massimo i dati che stai raccogliendo?

È fondamentale una comprensione profonda dei dati per la costruzione di un'organizzazione di successo. L'analisi dei dati è il processo mediante il quale i dati grezzi si trasformano in conoscenza utilizzabile sulla quale agire. La tecnologia Intel® funziona in ogni fase della pipeline di dati per facilitare la raccolta e l'analisi dei dati da parte delle aziende, praticamente per qualsiasi scopo.

Per aziende e organizzazioni di ogni genere, la trasformazione dei dati in intelligenza attuabile può fare la differenza tra difficoltà e prosperità. L'ottimizzazione del valore delle informazioni richiede l'analisi dei dati: il processo mediante il quale i dati grezzi vengono analizzati per raggiungere le conclusioni.

Sebbene la maggior parte delle organizzazioni analizza una determinata mole di dati, l'analisi moderna consente un livello di comprensione e intuizione senza precedenti. Quanta strada ha fatto la tua azienda verso una cultura basata sui dati e guidata dall'analisi, e qual è il passo successivo?

Tutto inizia con la pipeline di dati.

Comprendere la pipeline di dati

La creazione di un approccio di analisi dei dati ben sviluppato è un processo evolutivo che richiede tempo e impegno. Per le organizzazioni che vogliono fare il passo successivo, è fondamentale comprendere la pipeline di dati e il ciclo di vita dei dati che ne fanno parte.

  • Acquisizione: raccolta dei dati
    La prima fase della pipeline di dati è l'acquisizione. Durante questa fase, i dati vengono raccolti da fonti e vengono trasferiti in un sistema dove è possibile archiviarli. I dati possono essere raccolti sotto forma di flusso continuo o come una serie di eventi discreti.

    Per la maggior parte dei dati non strutturati, l'IDC fa una stima che va dall'80% al 90%1, l'acquisizione rappresenta sia l'inizio che la fine del ciclo di vita dei dati. Queste informazioni, chiamate "dati scuri", vengono acquisite ma mai analizzate o utilizzate affinché possano avere un impatto sul resto dell'organizzazione.

    Oggi, una delle principali tendenze in termini di analisi avanzata dei dati inizia proprio nella fase di acquisizione. In questi casi, l'analisi in tempo reale dei dati in streaming avviene parallelamente al processo di acquisizione. Si tratta dell'edge analytics e richiede prestazioni elevate con un basso consumo di energia. L'edge analytics comprende spesso dispositivi e sensori IoT che raccolgono informazioni da dispositivi quali macchinari aziendali, illuminazione stradale, attrezzature agricole o altri articoli connessi.

  • Preparazione: elaborazione dei dati
    La fase successiva della pipeline di dati prepara i dati per l'uso e archivia informazioni in un sistema accessibile dagli utenti e dalle applicazioni. Al fine di ottimizzare la qualità dei dati, è necessario pulire e trasformare i dati in informazioni facilmente accessibili e recuperabili.

    In linea generale, le informazioni vengono preparate e archiviate in un database. Per la comprensione e l'analisi dei dati in vari formati e per finalità diverse vengono utilizzati diversi tipi di database. I sistemi di gestione di database relazionali SQL* quali SAP HANA* o Oracle DB*, gestiscono generalmente sistemi di dati strutturati. Tra essi figurano informazioni finanziarie, verifica di credenziali o tracciabilità degli ordini. I carchi di lavoro che prevedono dati non strutturati e l'analisi in tempo reale potrebbero servirsi di database NoSQL* come Cassandra e HBase.

    L'ottimizzazione di questa fase della pipeline di dati richiede prestazioni di elaborazione e memoria, nonché gestione dei dati per query più rapide. Essa richiede inoltre funzioni di scalabilità per soddisfare volumi di dati elevati. I dati possono essere archiviati e collocati per livelli in base all'urgenza e all'utilità, in modo tale che i dati più importanti possano essere accessibili con la massima velocità.

    Le tecnologie Intel® potenziano alcuni dei casi di utilizzo più importanti di storage e a uso intensivo di memoria di oggi. Grazie alle unità Intel® Optane™ a stato solido, Alibaba Cloud* è stata in grado di fornire 100 TB di capacità di storage per ciascuna istanza di POLARDB.

  • Analizzare: modellazione dei dati
    Nella fase successiva della pipeline di dati, vengono analizzati i dati archiviati e vengono creati algoritmi di modellazione. I dati possono essere analizzati tramite una piattaforma di analisi end-to-end come SAP, Oracle o SAS o elaborati su scala tramite strumenti come Apache Spark*.

    L'accelerazione e la riduzione dei costi relativi a questa fase della pipeline di dati rappresentano elementi fondamentali per un vantaggio competitivo. Le biblioteche e i toolkit sono in grado di ridurre i tempi e i costi di sviluppo. Allo stesso tempo, le ottimizzazioni hardware e software possono contribuire a ridurre i costi relativi a server e data center e migliorare al contempo i tempi di risposta.

    Tecnologie come l'analisi in memoria sono in grado di migliorare le funzionalità di analisi dei dati e rendere gli investimenti nell'analisi più economici. Tramite Intel, l'azienda chimica Evonik ha ottenuto riavvii 17 volte più veloci per le tabelle di dati SAP HANA.2

  • Azione: processo decisionale
    Una volta che i dati sono stati acquisiti, preparati e analizzati, essi sono pronti per essere attuati. La visualizzazione e il reporting dei dati contribuiscono a comunicare i risultati dell'analisi.

    Generalmente, si è resa necessaria l'interpretazione da parte di scienziati o analisti al fine di trasformare questi risultati in intelligenza aziendale più ampiamente attuabile. Tuttavia, le aziende hanno iniziato a utilizzare l'IA per automatizzare azioni quali l'invio di personale di manutenzione o la modifica della temperatura di una stanza, in base all'analisi.

Per una risorsa più approfondita sulla pipeline di dati e su come le organizzazioni possono evolvere le loro funzionalità di analisi, consultare il nostro e-book From Data to Insights: Maximizing Your Data Pipeline .

Quanta strada ha fatto la tua azienda verso una cultura basata sui dati e guidata dall'analisi, e qual è il passo successivo?

Le quattro tipologie di analisi dei dati

L'analisi dei dati può essere suddivisa in quattro tipologie di base: analisi descrittive, analisi diagnostiche, analisi predittive e analisi prescrittive. Si tratta di passi verso la maturità dell'analisi, nella quale ciascun passo accorcia le distanze tra le fasi di "analisi" e "azione" della pipeline di dati.

  • Analisi descrittiva
    L'analisi descrittiva viene utilizzata per riassumere e visualizzare i dati storici. In altre parole, riferisce alle organizzazioni eventi già accaduti.
    L'analisi descrittiva è la tipologia di analisi più semplice e può essere basilare come quella di un grafico che analizza le cifre di vendita dello scorso anno. Ogni iniziativa di analisi dipende da una solida base dell'analisi descrittiva. Molte aziende fanno ancora affidamento principalmente su questa forma di analisi che include dashboard, visualizzazioni dei dati e strumenti di report.

  • Analisi diagnostica
    Con la maturazione delle iniziative di analisi, le organizzazioni iniziano a porre domande più difficili sui loro dati storici. L'analisi diagnostica non esamina solo ciò che è accaduto, ma anche il perché. Per eseguire l'analisi diagnostica, gli analisti devono essere in grado di effettuare domande dettagliate al fine di identificarne tendenze e cause.
    Utilizzando l'analisi diagnostica, si possono scoprire nuove relazioni tra variabili: per un'azienda di abbigliamento sportivo, l'aumento delle cifre di vendita nel Midwest può avere un nesso con il bel tempo. L'analisi diagnostica confronta i dati con i modelli e opera al fine di spiegare i dati anomali o erratici.

  • Analisi predittiva
    Mentre le prime due tipologie di analisi esaminavano i dati storici, sia l'analisi predittiva che l'analisi prescrittiva si occupano del futuro. L'analisi predittiva crea una previsione di risultati probabili in base a tendenze identificate e a modelli statistici derivanti dai dati storici.
    La creazione di una strategia di analisi predittiva richiede la costruzione e la convalida di modelli volti a creare simulazioni ottimizzate, in modo tale che i responsabili delle decisioni aziendali possano ottenere i migliori risultati. L'apprendimento automatico è comunemente utilizzato per l'analisi predittiva e per i modelli di formazione su set di dati ad alta scalabilità allo scopo di generare previsioni più intelligenti.

  • Analisi prescrittiva
    Un'altra tipologia avanzata di analisi è quella prescrittiva. Con l'analisi prescrittiva, che richiede la migliore soluzione basata sull'analisi predittiva, l'evoluzione verso il vero processo decisionale basato sui dati è completa.
    L'analisi prescrittiva si basa principalmente sull'analisi di apprendimento automatico e sulle reti neurali. Tali carichi di lavoro fanno affidamento su caratteristiche di elaborazione e memoria ad alte prestazioni. Questa tipologia di analisi richiede una base solida che fa affidamento su altre tre tipologie di analisi e può essere eseguita solo da aziende dotate di una strategia di analisi altamente evoluta e che desidera impegnare risorse significative nell'iniziativa.

Casi di utilizzo dell'analisi dei dati

La tecnologia Intel® sta modificando le forme di analisi delle moderne organizzazioni aziendali. Con casi di utilizzo che spaziano tra diversi settori e a livello globale, Intel® lavora al fine di promuovere costantemente l'analisi, aiutando al contempo le aziende a ottimizzare le prestazioni e l'efficacia in termini di costi.

  • Produzione
    Per i produttori di automobili, il controllo qualità contribuisce a risparmiare denaro e a salvare vite. Presso la fabbrica automatizzata di Audi, gli analisti si sono serviti del campionamento per garantire la qualità della saldatura. Utilizzando l'analisi predittiva all'edge, basata sul software Industrial Edge Insights di Intel®, il produttore è in grado di controllare automaticamente ogni saldatura su ciascuna automobile, nonché di prevedere problemi di saldatura in base alle letture di sensori eseguite al momento della saldatura.

  • Assistenza sanitaria
    La formazione dell'IA per la lettura dei raggi X al torace consente a pazienti e fornitori di ottenere una diagnosi più rapida. Utilizzando i processori scalabili Intel® Xeon® per alimentare una rete neurale, l'organizzazione di ricerca SURF ha ridotto i tempi di formazione da un mese a sei ore, migliorando al contempo la precisione.

  • Telecomunicazioni
    Smartphone e Internet per dispositivi mobili hanno creato quantità di dati mobili senza precedenti. Al fine di migliorare le esperienze cliente, la società di telecomunicazioni Bharati Airtel ha implementato un'analisi avanzata di rete utilizzando processori Intel® Xeon® e SSD Intel® al fine di individuare e correggere più velocemente i problemi di rete.

Tecnologie Intel® per l'analisi

Grazie a un ampio ecosistema di tecnologie e partner volto ad aiutare le aziende a creare le soluzioni del domani, Intel® promuove l'analisi avanzata per le imprese di tutto il mondo. Dai data center alla periferia all'edge, Intel® opera in ciascun punto dell'ecosistema di analisi al fine di offrire valore e prestazioni di prim'ordine.

  • I processori scalabili Intel® Xeon® consentono di analizzare enormi quantità di dati a velocità rapide, siano essi nell'edge, nei data center o nel cloud.
  • La tecnologia Intel® Optane™ rappresenta un approccio rivoluzionario alla memoria e allo storage in grado di contribuire ad aggirare i colli di bottiglia relativi al modo in cui i dati vengono trasferiti e archiviati.
  • I dispositivi FPGA Intel® offrono un'accelerazione all'interno del data center al fine di migliorare i tempi di risposta.
  • Le soluzioni Intel® Select sono verificate al fine di garantire prestazioni ottimali, eliminando le incertezze e accelerando l'implementazione della soluzione.

Domande ricorrenti

L'analisi dei dati è il processo attraverso il quale le informazioni si trasformano da dati grezzi a intuizioni sulle quali l'azienda può agire.

L'analisi dei big data si serve di serie di dati ad alta scalabilità al fine di scoprire nuove relazioni e di comprendere meglio le grandi quantità di informazioni.

L'analisi avanzata non è una tecnologia specifica, né una serie di tecnologie. Si tratta di una classificazione per i casi di utilizzo e soluzioni che si avvalgono di tecnologie avanzate quali l'apprendimento automatico, l'analisi aumentata e le reti neurali.

L'analisi dei dati è utilizzata per produrre un'intelligenza aziendale in grado di aiutare le organizzazioni a comprendere gli eventi passati, a prevedere eventi futuri e a pianificare linee di azione.

Le quattro fasi della pipeline di dati sono l'acquisizione, la preparazione, l'analisi e l'azione.

Le analisi descrittiva e diagnostica fanno entrambe riferimento al passato. L'analisi descrittiva risponde alla domanda di cosa è accaduto, mentre l'analisi diagnostica ne esamina il motivo .

L'analisi descrittiva guarda al passato al fine di riferire ciò che è già accaduto ed è la base di tutte le altre tipologie di analisi. L'analisi prescrittiva fa delle raccomandazioni per azioni in base a dati esistenti e agli algoritmi predittivi.

Le analisi predittiva e prescrittiva generano entrambe informazioni sul futuro. L'analisi predittiva crea una previsione sugli eventi previsti e l'analisi prescrittiva raccomanda una linea di azione basata su tali previsioni.

L'analisi predittiva è utilizzata per anticipare meglio gli eventi futuri. L'analisi predittiva può identificare le esigenze di manutenzione prima di sviluppare o valutare l'impatto più probabile delle condizioni economiche sulle future previsioni di vendita.

Contenuti correlati

Maggiori informazioni sulle tecnologie Intel® per l'analisi.

Analisi dei dati

Scoprite in che modo l'analisi può aiutare le organizzazioni a fornire informazioni attendibili e attuabili e come evolvere la vostra strategia di analisi.

Ottenere il massimo dall'analisi

Analisi avanzata dei dati

Le aziende più intelligenti iniziano con l'analisi avanzata. Scoprite in che modo avanzare in un mercato basato sui dati con le tecnologie Intel®.

Favorire la strategia di analisi più intelligente

Analisi con apprendimento automatico

Ottenete informazioni più approfondite a velocità più rapide utilizzando l'apprendimento automatico e l'intelligenza artificiale per incrementare le iniziative di analisi.

Liberate tutto il vostro potenziale

Analisi predittiva

Utilizzate i dati per ottenere un vantaggio competitivo facendo previsioni attuabili sul futuro.

Maggiori informazioni sull'analisi predittiva

Avvisi ed esclusioni di responsabilità
Le tecnologie Intel potrebbero richiedere hardware abilitato, software specifico o l'attivazione di servizi. // Nessun prodotto o componente può essere totalmente sicuro. // Costi e risultati possono variare. // Intel non controlla né verifica dati di terze parti. È necessario consultare altre fonti per valutare la precisione.

Informazioni su prodotti e prestazioni

1"What Your Data Isn’t Telling You: Dark Data Presents Problems And Opportunities For Big Businesses", Forbes, giugno 2019, forbes.com/sites/marymeehan/2019/06/04/what-your-data-telling-you-dark-data-presents-problem-e-opportunities-per-big-big.#3086fe21484e.
2Carico di lavoro simulato SAP HANA* per l'edizione SAP BW per SAP HANA* Standard Application Benchmark Versione 2 al 30 maggio 2018. Il software e i carichi di lavoro utilizzati nei test delle prestazioni possono essere stati ottimizzati per le prestazioni solo su microprocessori Intel®. I test delle prestazioni, come SYSmark* e MobileMark*, sono calcolati utilizzando specifici sistemi computer, componenti, software, operazioni e funzioni. Qualsiasi modifica a uno di questi fattori può determinare risultati diversi. Gli acquirenti sono tenuti a consultare altre fonti di informazioni e test prestazionali per valutare appieno i prodotti che intendono acquistare, nonché le prestazioni di tali prodotti se abbinati ad altri prodotti. Per informazioni più complete, visitare il sito www.intel.it/benchmarks . I risultati prestazionali sono basati su test eseguiti nelle date indicate nelle configurazioni e potrebbero non riflettere tutti gli aggiornamenti di sicurezza pubblicamente disponibili. Consultare il backup per i dettagli sulla configurazione. Nessun prodotto o componente è totalmente sicuro. Configurazione di base con DRAM tradizionale: server Lenovo ThinkSystem SR950 con 8 processori di Intel® Xeon® Platinum 8176M (28 core, 165 W, 2,1 GHz). La memoria totale è composta da 48 RDIMM da 16 GB TruDDR4 2,666 MHz e 5 SSD hot-swap ThinkSystem 2,5" PM1633a, 3,84 TB, SAS 12 GB per lo storage SAP HANA*. Il sistema operativo è SUSE Linux Enterprise Server 12* SP3 e utilizza SAP HANA* 2.0 SPS 03 con un dataset di 6 TB. Tempo medio di avvio per tutti i dati eseguiti dopo il pre-caricamento della tabella per 10 iterazioni: 50 minuti. Nuova configurazione con una combinazione di DRAM e memoria persistente Intel® Optane™ DC: Intel Lightning Ridge SDP con processore 4x CXL QQ89 AO (24 core, 165 W, 2,20 GHz). La memoria totale è costituita da 24 DDR4 da 32 GB 2666 MHz e 24 AEP ES2 da 128 GB e 1 SSD Intel® DC serie S3710 da 800 GB, 3 SSD Intel® DC serie P4600 da 2 TB, 3 SSD Intel® DC serie S4600 da 1,9 TB. Versione BIOS WW33’18. Il sistema operativo è SUSE Linux*4 Enterprise Server 15 e utilizza SAP HANA* 2.0 SPS 03 (è stato applicato un kernel PTF specifico di SUSE) con un dataset di 1,3 TB. Tempo di avvio medio per il pre-caricamento di tabelle ottimizzate (miglioramento di 17 volte).