• Che cos’è l’Augmented Analytics

    Nel luglio 2017 in una ricerca pubblicata per Gartner veniva introdotto per la prima volta il concetto di Augmented Analytics. L’argomento suscitò subito interesse e diventò immediatamente un trend di impatto nel campo della Business Intelligence, tanto che un solo anno dopo Gartner pubblicò il report “Hype Cycle for Analytics and Business Intelligence”.

    Nella sua prima definizione il concetto di Augmented Analytics viene descritto come un nuovo approccio di analisi dei dati che sfrutta le tecnologie di Machine Learning e di linguaggio naturale (NLG), in modo da individuare automaticamente i risultati più rilevanti suggerire autonomamente le azioni concrete da intraprendere. Niente male come obiettivo…

    Un nuovo approccio

    In effetti, uno dei principali problemi attuali è dato dal fatto che i dati tendono a diventare sempre più numerosi e sempre più complessi. Spesso non si riesce ad integrarli velocemente anche a causa della loro estrema complessità. Il rischio di perdere informazioni diventa quindi molto alto, e proprio questa complessità non ci permette di esplorare tutte le possibili opportunità offerte dalle informazioni a nostra disposizione. Aumenta anche la probabilità di avere come risultati proprio quello che “cercavamo” e non quello che “potremmo trovare”.

    Aggiungiamo il fatto che, ad oggi, tutte le attività di estrazione e trasformazione dei dati resta ancora completamente manuale (area “Artisanal” della figura più avanti riportata) aumentando notevolmente le possibilità di errore. Inoltre reperire ad oggi un data scientist, una professione relativamente recente che richiede competenze in campo informatico, statistico ed economico, e per quale esistono ancora pochi studi, è davvero molto difficile.

    Pare naturale quindi che l’introduzione di strumenti di analisi in grado di interagire con l’essere umano nel suo linguaggio naturale e di individuare autonomamente i dati più significativi senza la mediazione degli analisti e senza l’intervento umano in generale, diventa una chiave fondamentale per il futuro della Business Intelligence.

    L’approccio Tradizionale

    Attualmente si approccia ai progetti tradizionali coinvolgendo diverse figure quali analisti, informatici, data scientist e manager, coinvolti nelle solite attività decisionali che porteranno poi alla richiesta finale. Seguono diverse attività di estrazione e pulizia dei dati effettuati da informatici o tecnici con specifiche competenze. Si cercherà di mettere insieme questi dati collegandoli tra loro e solo infine trasformandoli in informazioni quanto più sintetiche e “decisive”.

    Come possiamo facilmente immaginare i costi ed i tempi di un’attività del genere sono assolutamente notevoli.

    L’approccio Augmented Analytics

    Con questo nuovo approccio si tenta di accentrare tutte le procedure in un’unica soluzione, dalla raccolta dati all’elaborazione delle analisi, al monitoraggio dei risultati. Si utilizzano algoritmi di Machine Learning e Intelligenza Artificiale che automatizzano le procedure rendendo agevole l’analisi dei dati. Si analizzano automaticamente miliardi di combinazioni di dati trovandone automaticamente le correlazioni e individuando eventuali scenari predittivi.

    Il futuro dell’Augmented Analytics

    Secondo la slide (fonte Oracle Corporation), ci sono diversi livelli:

    Livello 0 – Artigiano: tutto è realizzato a mano, come nell’approccio classico. Il modello dati e la reportistica sono responsabilità dell’IT.

    Livello 1 – Self Service: la gestione dei dati è ancora in gran parte manuale, ma l’interazione umana con i dati sarà fatta col linguaggio naturale (Natural Language Query). Le visualizzazioni e i grafici ci saranno suggeriti in base ai dati che stiamo interrogando.

    Livello 2 – Deeper Insights: vengono visualizzate le prime fasi della gestione avanzata dei dati (fonti consigliate, join, suggerimenti di crowdsourcing, catalogazione intelligente) e la navigazione aumentata aiuta a scoprire le informazioni che altrimenti richiederebbero un forte sforzo umano.

    Livello 3 – Data Foundation: la gestione dei dati diventa aumentata, vengono individuate automaticamente correzioni e arricchimenti. Nuove viste e nuovi set di dati vengono aggiunti.

    Livello 4 – Collective Intelligence: il sistema apprende metriche e KPI che avvisano quando questi richiedono l’attenzione dell’utente. Si hanno sia KPI aziendali che KPI di sistema. Le intuizioni diventano pervasive, l’intento commerciale passa da un’idea a una realtà, si prevedono risultati, si raccomandano azioni, ma gli umani continuano ad agire.

    Livello 5 – Autonomous: tutto diventa realmente guidato dai dati, con le migliori azioni successive eseguite sulla base di previsioni, approfondimenti e intenti. Il sistema è il motore del cambiamento.

    A che punto siamo?

    Credo che per il momento ci siamo stabilizzati tra il terzo ed il quarto stadio, la gestione dei dati inizia ad essere realmente “augmented”, sta diventando sempre più semplice integrare e gestire una grossa mole di informazioni e si muovono i primi passi verso l’individuazione automatica dei KPI.

    Completare il quarto stadio e raggiungere definitivamente il quinto, “l’autonomous” totale, sarà la sfida dei prossimi anni. Il modo di concepire la Business Intelligence cambierà in maniera drastica, ma le sfide da affrontare sono sempre più belle. Siamo pronti?




    Did you like this article? Help me keep the blog alive with a little donation!






  • Analisi reinventate: decisioni basate sui dati

    I dati sono ovunque. Viene dal nostro ambiente, dal nostro business, anche da noi stessi. I dati ci collegano. Ma l’accesso ai dati da solo non è sufficiente. Inizia il percorso per comprendere i tuoi dati con informazioni dettagliate basate sull’apprendimento automatico.

    Read

  • LE 10 TENDENZE DI BUSINESS INTELLIGENCE DA GUARDARE NEL 2020

    Nel settore dell’analitica e nel mondo degli affari: business intelligence, dispositivi analitici e applicazioni di BI sono l’argomento principale discusso. La BI è più rapida e progressivamente precisa nelle relazioni; l’analisi dei dati è sempre più vigorosa e le previsioni sono sostanzialmente cambiate e sviluppate in modo massiccio. Un numero sempre crescente di aziende ha iniziato a valutare il valore di Business Insight (BI) in relazione al proprio processo decisionale. Negli ultimi due anni i sistemi BI hanno sperimentato vari progressi. Con la crescente natura sfaccettata dell’ambiente di business intelligence, la prova distintiva delle tendenze e dei miglioramenti del mercato è un fattore chiave nel potente processo decisionale. È progressivamente indispensabile utilizzare le innovazioni e le metodologie più recenti per adattarsi alla digitalizzazione e alla concorrenza del mercato. Diamo un’occhiata alle principali tendenze di BI che domineranno il 2020.

    https://www.analyticsinsight.net/top-10-business-intelligence-trends-to-watch-in-2020/

  • SQL Server: come spostare il database tempdb

    SQL ServerSQL Server non supporta lo spostamento del database TempDB tramite backup/ripristino o metodi di scollegamento del database. In questo articolo spiegherò i passaggi da seguire per spostare il database TempDB da un'unità all'altra in SQL Server. Tuttavia, per rendere effettive le modifiche è necessario riavviare il servizio SQL Server.However, for the changes to a effect you to effect you must restart SQL Server Service.

    Avviare SQL Server Management Studio ed eseguire la query seguente:

    USE master;
    andare

    Alter DATABASE tempdb
    FILE MODIFY (NOME : tempdev, NOMEFILE : 'C:'percorso'percorso'tempdb.mdf');
    andare

    Alter DATABASE tempdb
    MODIFY FILE (NOME : templog, FILENAME – 'T:'percorso'percorso'templog.ldf');
    andare

    Ricordati di sostituire yourpath con il tuo percorso preferito.

    Una volta eseguita la query, SQL Server un messaggio per ricordare di arrestare e riavviare l'istanza di SQL Server per rendere effettive le modifiche.

    Dopo il riavvio, verificare che le modifiche siano state completate:

    Usa master
    andare

    Selezionare
    nome AS [LogicalName]
    ,nome_fisico AS [Location]
    ,state_desc AS [Status]
    FROM sys.master_files
    WHERE database_id : DB_ID(N'tempdb');

    A questo punto, è possibile eliminare i vecchi file tempdb.

  • I report hanno esito negativo con il livello del grafico di drill logico-'a' non esiste Errore dopo l'aggiornamento alla 11.1.1.9.0

    SI APPLICA A:

    Business Intelligence Suite Enterprise Edition – Versione 11.1.1.9.0 e versioni successive
    Le informazioni contenute in questo documento si applicano a qualsiasi piattaforma.

    Sintomi

    Dopo un aggiornamento da 11.1.1.7.140715 a 11.1.1.9.0, alcuni rapporti – quelli basati sull'area dell'argomento ABC – ora non riescono e generano l'errore qui sotto.  È stato inoltre determinato che l'errore sarebbe stato determinato da un report appena creato con la colonna Customer > Customer No presentation.

    Errore
    Visualizza errore di visualizzazione
    Livello grafico di drill logico-'a': ''''' – non esiste. SQL: ''chiamata NQSGetLogicalDrillGraph('ABC','%',''''''''''''''''''''''''''
    Dettagli errore
    Codici di errore: K'DX4O6Q
    Posizione: saw.views.evc.activate, saw.subsystem.portal.pagesImpl, saw.subsystem.portal, saw.httpserver.processrequest, saw.rpc.server.responder, saw.rpc.server, saw.rpc.server.handleConnection, saw.rpc.server.dispatch, saw.threadpool.socketrpcserver, saw.threads

    Un controllo di coerenza globale del 11.1.1.9.0 RPD non ha restituito errori, anche se ci sono stati molti avvisi come il seguente riportato contro il modello di business ABC:-

    Modello di business ABC:
    [38100] Le tabelle logiche '"ABC"." Prestito"' e '"ABC"." Fact – Activity"' connesso tramite join logico '"Relationship_'

    causare

    Questo problema è stato causato da una configurazione "errata" / "non valida" nella gerarchia delle dimensioni.

    Nello strumento di amministrazione BI aprire il rpD e passare alla colonna ABC > Customer > Customer No presentation column … Oggetti correlati alla query > Colonna logica … vedere il livello totale sembra essere stato duplicato nella gerarchia di dimensioni Dim cliente:-

    soluzione

    In RPD > Livello BMM > Gerarchia delle dimensioni … eliminare il livello non valido/duplicato (Totale 1)

    Riferimenti

    NOTA:1946146.1 – Ottenere un errore durante l'aggiunta di una nuova vista all'analisi, errore: "Livello grafico di drill logico- …. non esiste "

  • [nQSError: 14025] Non esiste alcuna tabella dei fatti al livello di dettaglio richiesto

    SI APPLICA A:

    Business Intelligence Suite Enterprise Edition – Versione 11.1.1.9.170418 e versioni successive
    Le informazioni contenute in questo documento si applicano a qualsiasi piattaforma.

    Sintomi

    EMISSIONE CHIARIMENTO
    ============================

    Problema visto: dopo l'aggiornamento da OBIEE 10g a 11g il report genera il seguente errore:

    Stato: HY000. Codice: 10058. [NQODBC] [SQL_STATE: HY000] [nQSError: 10058] Si è verificato un errore generale. [nQSError: 43113] Messaggio restituito da OBIS. [nQSError: 43119] Query non riusci[nQSError: 14025]ta: non esiste alcuna tabella dei fatti al livello di dettaglio rich[,,[AGENCY.Agency]i[POPULATION.Population]esto: ,,,,,,,,,,,,,,,,,,,,,,,,,,,,,]. [nQSError: 14081] Potrebbe essere possibile valutare questa query se si rimuove uno dei seguenti riferimenti di colonna: AGENCY. Agenzia, POPULATION. Popolazione (HY000)

    Gli stessi rapporti funzionano bene in 10g.

    causare

    L'errore è stato causato a causa di una progettazione non corretta dei metadati in rpd. L'origine dei fatti "Caso" non è stata riconosciuta come origine dei fatti dal server obi a causa di join definiti in modo non corretto nel livello BMM. Il lato molti del join puntava alle tabelle delle dimensioni anziché alla tabella dei fatti e per questo motivo la tabella logica dei casi non è stata riconosciuta come origine dei fatti.

    Per le procedure consigliate per la progettazione rpd, le definizioni di join nel layer BMM devono essere definite correttamente tra le tabelle dei fatti e delle dimensioni.

    soluzione

    La soluzione consiste nel ricreare i join nel livello BMM e assicurarsi che il lato molti del join punti all'origine Fact.
    Una volta che questa modifica è stata eseguita e il rpd modificato è stato caricato, il rapporto non ha generato errori e visualizzato i risultati bene.

  • Data Scientist: chi è e cosa fa

    Ormai ne abbiamo sentito parlare un pò tutti: il Data Scientist, da qualche anno, è tra le figure prefessionali più ricercate. Chi è e cosa fa esattamente? Ecco alcune risposte che possiamo trovare sul web:

    Cosa fa il Data Scientist?

    Un po’ statistico, un po’ informatico, un po’ economista, ma anche esperto di marketing e appassionato di comunicazione. È il data scientist, il mestiere che già nel 2013 la Harvard Business Review definiva come la “professione più sexy del 21esimo secolo”. In Italia è una figura professionale richiesta? E come si diventa data scientist?

    Secondo Claudio Sartori, Direttore scientifico del Nuovo Master in Data Science di Bologna Business School in un’intervista riportata su sarce.it si tratta di una figura che “richiede competenze multidisciplinari, perché deve non solo selezionare, analizzare e interpretare una mole di dati sempre più ampia e complessa, ma anche trovare la modalità migliore per mettere le elaborazioni e i risultati ottenuti a disposizione della struttura per cui lavora, che sia un’azienda o una pubblica amministrazione“.

    Il data scientist deve come prima cosa mettere ordine nei dati, poi chiedersi dove vuole andare la sua organizzazione, quali sono le informazioni che possono essere utili per la sua strategia. Infine, deve saper fare ma anche saper comunicare, mettere a disposizione del management i risultati di ciò che ha fatto. Le analisi più sofisticate sono utili solo se vengono correttamente trasmesse a chi deve prendere le decisioni, quindi comprese e utilizzate per ottenere i risultati desiderati”. []

    In breve, il compito principale di un data scientist è quello di esplorare i dati, partendo da precise domande richieste del business. Si tratta di un vero e proprio investigatore e mette in campo tutta la sua creatività analitica. Armato di strumenti tecnologici e algoritmi di machine learning riesce ad esaminare e prevedere scientificamente correlazioni tra fenomeni che ad una prima analisi risultano invisibili. Il suo obiettivo è ottenere insights quanto più accurati per fornire al business una panoramica precisa del problema da risolvere.

    Chi è il Data Scientist?

    Si è provato a profilare il Data Scientist nella realtà aziendale italiana, i risultati sono stati riportati nel rapporto “Le nuove professionalità e competenze per la gestione dei Big Data”, elaborato dagli Osservatori Digital Innovation del Politecnico di Milano:

    Lavora all’interno della divisione IT, di una funzione aziendale ad hoc o all’interno di una delle funzioni preesistenti. È un laureato, in prevalenza magistrale, che ha seguito spesso corsi di formazione in statistica e computer science. Ha un background di competenze focalizzate soprattutto su Machine LearningAnalytics e Knowledge Deployment. E guadagna in media circa 67mila euro l’anno, con un bonus che si attesta generalmente sul 10% della retribuzione.

    Risulta evidente che è fondamentale una decisa eterogeneità di competenze, dal business alla programmazione passando per la tecnologia e soprattutto per il trio Machine Learning, Analytics e Knowledge Deployment. Dal punto di vista formativo, vanta un percorso di studi concluso nella maggioranza dei casi (50%) con una laurea magistrale (ingegneri, economia e informatica vanno per la maggiore) e corredato da corsi di specializzazione (statistica, computer science e management i più scelti).

    Il Data Scientist in Italia

    Il Data Scientist è oggi presente in 3 aziende su 10, ma il numero di specialisti impiegati a tempo pieno sta crescendo a un ritmo annuale del 57%. Segno di una sensibilità aziendale in aumento rispetto alle nuove sfide legate al boom dei Big Data.

    Secondo i dati della Technology and IT Salary Guide di Robert Half per il 2018, lo stipendio medio di un data scientist può variare, in base all’esperienza, trai 100mila e i 168mila dollari all’anno.

    A chi serve un Data Scientist?

    Ogni settore ha un proprio patrimonio di dati da analizzare. Le aziende hanno necessità di analizzare i propri dati per prendere decisioni su efficienza, inventario, errori di produzione, fedeltà dei clienti e così via. Nell’ambito e-commerce riconoscere le tendenze per migliorare la proposta al cliente, nel settire finanziario i dati delle transazioni sono patrimonio fondamentale, ma anche nella Pubblica Amministrazione si può monitorare la soddisfazione generale dei cittadini. Sanità, comunicazione e social networking sono altri settori in cui le necessità sono evidenti.

    Anche Il Sole 24 Ore riporta che in Italia meno di una grande azienda italiana su tre si è accorta delle necessità di aver al proprio interno un Data Scientist. Tra le PMI Italiane, solo il 34% di queste a un budget dedicato all’Analytics.

    Conclusioni

    Ci si riferisce a questa figura come un professionista in grado di spaziare tra competenze tecniche, informatiche, economiche e statistiche. Si tratta di una sorta di evoluzione dalla figura che si occupa di Business Intelligence alla figura del Data Scientist. Mentre nel primo caso tendenzialmente si raccolgono richieste dal business per poi restituire in output dei numeri, nel secondo caso è il Data Scientist che “propone soluzioni” partendo da un input per lo più generico del business. Raccoglie in autonomia le informazioni e ne analizza le correlazioni, creando algoritmi nuovi e applicando tecniche di Machine Learning.

     

    Fonti

    https://www.miriade.it/data-science/
    http://www.sarce.it/tutti-vogliono-data-scientist-un-mestiere-non-si-improvvisa/
    https://www.kdnuggets.com/2018/02/2018-predictions-analytics-data-science-hiring-market.html
    https://towardsdatascience.com/what-are-the-skills-needed-to-become-a-data-scientist-in-2018-d037012f1db2
    https://www.bigdata4innovation.it/data-science/data-scientist/big-data-cose-cosa-data-scientist/
    https://www.cwi.it/cio/data-scientist-chi-e-cosa-fa-e-quanto-guadagna_42108239

     

  • I primi 30 anni del Data Warehouse

    Era il febbraio 1998 quando un articolo fu pubblicato sull'IBM System Journal, Volume 27, Numero 1:

    "Un'architettura per un business e un sistema informativo"

    L'articolo è stato pubblicato da B. A. Devlin e P. T. Murphy e aveva il seguente astratto:

    L'ambiente di elaborazione delle transazioni in cui le aziende mantengono i loro database operativi era l'obiettivo originale per l'informatizzazione ed è ora ben compreso. D'altra parte, l'accesso alle informazioni aziendali su larga scala da parte di un utente finale per la creazione di report e l'analisi dei dati è relativamente nuovo. All'interno di IBM, l'informatizzazione dei sistemi informativi sta progredendo, trainata dalle esigenze aziendali e dalla disponibilità di strumenti migliorati per l'accesso ai dati aziendali. È ormai evidente che è necessaria un'architettura per mettere insieme i vari filoni di attività del sistema informativo all'interno dell'azienda. IBM Europa, Medio Oriente e Africa (E/ME/A) ha adottato un'architettura chiamata E/ME/A Business Information System (EBIS) come direzione strategica per i sistemi informativi. EBIS propone un magazzino integrato di dati aziendali basato saldamente nell'ambiente di database relazionale. L'accesso degli utenti finali a questo magazzino è semplificato da un set coerente di strumenti forniti da un'interfaccia utente finale e supportati da una directory di dati aziendali che descrive le informazioni disponibili in termini di utenti. Questo documento descrive lo sfondo e i componenti dell'architettura di EBIS.

    Il Dr. Barry Devlin ha definito la prima architettura di data warehouse nel 1985 ed è tra le principali autorità al mondo su BI, big data e oltre. Il suo libro del 2013, Business unIntelligence, offre una nuova architettura per l'uso e la gestione moderna delle informazioni.

    30 anni.jpg

    Circa il 30o anniversario di Data Warehouse, Devlin ha pubblicato un post su TDWI:

    Data Warehousing: trent'anni fa e ancora offrendo valore

    Quest'anno ricorre il trentesimo compleanno del data warehouse. Era il lontano 1986 quando io e i miei colleghi di IBM Europe abbiamo definito la prima architettura per uso interno nella gestione delle vendite e della consegna di macchine esotiche come i mainframe System/370 e i minicomputer System/38. L'architettura è stata successivamente descritta nell'IBM Systems Journal nel 1988.

    Questa tecnologia, così come i PC all'avanguardia che eseguono DOS 3.3 su macchine basate su Intel 80286 con dischi di dimensioni fino a 20 MB, mostra quanto il mondo è cambiato nel periodo intermedio. Gli smartphone di oggi sono più potenti dei mainframe di quell'epoca, eppure l'architettura del data warehouse è cambiata molto poco. L'architettura illustrata nella figura seguente, datata dalla metà degli anni '90, è funzionalmente equivalente a quella definita 10 anni prima e rimane la base per molti progetti di data warehouse oggi.

    Trent'anni fa, Devlin ha già identificato le basi del data warehousing di oggi, come:

    Gli utenti possono ora concentrarsi sull'uso delle informazioni piuttosto che su come ottenerle.

    Dopo trent'anni, siamo riusciti in questa impresa? Che ne pensi?

    Per leggere l'articolo completo dall'IMB System Journal, scaricalo dal seguente link:

    Un'architettura per un business e un sistema informativo – Devlin

    Ecco il libro Devlin sulla Business Intelligence:


     

  • Prevedere le malattie cardiache con la visualizzazione dei dati OraclePredict Heart Disease with Oracle Data Visualization

    Un post interessante è stato pubblicato ieri sul blog Oracle Analytics da Joseph Kuttikat, spiega come gli strumenti di Machine Learning possono essere utilizzati per analizzare i dati medici e come questi strumenti possono essere utilizzati per estrarre informazioni importanti per la salute e la prevenzione.

    I dati analizzati riguardano casi di malattie cardiache (tra cui malattia coronarica, ipertensione, e ictus).

    Le malattie cardiache rappresentano circa 1 di ogni 3 decessi negli Stati Uniti, ovvero quasi 801.000 decessi in un anno, secondo l'American Heart Association, La malattia cardiovascolare è la principale causa globale di morte, con oltre 17,3 milioni di decessi all'anno nel 2013 , un numero che dovrebbe crescere fino a superare i 23,6 milioni entro il 2030.

    Infatti, è stato usato un metodo costituito dal training di un modello usando i valori noti effettivi di una colonna, per stimare il valore della colonna per i casi sconosciuti. Questo metodo rientra nel dominio di Supervised Machine Learning. Oracle Data Visualization è dotato di algoritmi integrati per eseguire tali multi-classificazione supervisionata e altri. Gli utenti possono scegliere uno qualsiasi di questi algoritmi in base alle esigenze. Ecco uno snapshot che mostra l'elenco degli algoritmi incorporati in Oracle Data Visualization che possono eseguire questa classificazione multipla, come illustrato nel grafico seguente:Here is a snapshot showing list of inbuilt algorithms in Oracle Data Visualization that can perform this multi-classification, as seen in the graphic below:

    heart1.jpg

    Utilizzando questi metodi, anche uno strumento di visualizzazione dei dati semplice da usare può aiutare a rispondere a domande complesse e arrivare al cuore della questione.

    cuore2

    Nel video dimostrativo che segue Oracle mostra come oracle Data Visualization e gli algoritmi di apprendimento automatico vengono applicati sui dati sanitari dei pazienti per prevedere la prospettiva di malattie cardiache.

    Il processo mostrato nel video qui sotto può essere riassunto come segue:

    • Ottenere i dati dei pazienti noti per avere malattie cardiache. Questo set di dati contiene informazioni relative a malattie cardiache come la glicemia, il colesterolo e altre informazioni mediche
    • Creare un modello di rete neurale a più classificazioni usando tali datiCreate a multi-classification neural net model using that data
    • Utilizzare questo modello per prevedere la probabilità di malattie cardiache in altri individui per i quali conosciamo la loro storia medica o informazioni mediche

    L'esempio di plug-in di apprendimento automatico visualizzato nel video può essere scaricato da Oracle Analytics Store. Il nome del progetto è Esempio progetto DV: Previsione delle malattie cardiache

    Fonte: Blog di Oracle Analytics