Il glossario dell'applied intelligence

Alimentiamo la conoscenza dell’intelligenza artificiale, degli analytics e dell’automazione
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

A

Abductive Reasoning – Ragionamento abduttivo: inferenza logica che, partendo da un'osservazione, cerca di darne la spiegazione più probabile e meno complessa. A differenza del ragionamento deduttivo, quello abduttivo perviene a una conclusione plausibile senza però verificarla in alcun modo. Il ragionamento abduttivo trova largo impiego nello sviluppo dei sistemi di apprendimento automatico (machine learning).

Accuracy – Accuratezza: parametro di qualità utilizzato nei task di classificazione, che misura la proporzione dei risultati correttamente identificati (veri positivi + veri negativi) rispetto all'intera popolazione dei casi di test. Cfr. precisione, copertura, recall.

Action Model learning: talvolta abbreviato in “action learning”, è una branca del machine learning finalizzata a creare e modificare la conoscenza di un agente software sugli effetti e le precondizioni delle azioni che possono essere eseguite nel suo ambiente.

Activation Function – Funzione di attivazione: in una rete neurale, la formula o il calcolo eseguito da ciascun nodo per determinare il proprio output. La scelta della funzione di attivazione è fondamentale per rendere l'intero sistema differenziabile, requisito essenziale per l'utilizzo dell'algoritmo di retropropagazione selezionato. La funzione sigmoide o rettificatore (o ReLU, dall'inglese Rectified Linear Unit) sono tra le funzioni di attivazione più diffuse.

Adagrad (Adaptive Gradient Descent): procedura che utilizza la conoscenza della geometria dei dati ricavata da precedenti iterazioni per eseguire l'apprendimento attraverso ottimizzazione basata sul metodo della discesa del gradiente. Rispetto ad altri metodi stocastici di discesa del gradiente migliora la velocità di convergenza con dati sparsi. (I metodi stocastici standard di discesa del gradiente si allineano per lo più a una procedura preimpostata che non tiene conto delle caratteristiche dei dati osservate nelle precedenti iterazioni di addestramento del modello).

Ad Targeting – Targeting degli annunci: sofisticato metodo di advertising con cui gli inserzionisti indirizzano i loro annunci online agli utenti più ricettivi alle loro offerte. Grazie a intelligenza artificiale e machine learning, il targeting degli annunci seleziona rapidamente i segmenti di pubblico ideali, ad esempio acquirenti in-market o segmenti di pubblico personalizzati, e invia loro annunci che hanno maggiori probabilità di generare una risposta positiva.

Affine Layer – Strato affine: in una rete neurale, uno strato in cui tutti i nodi si connettono ai nodi contenuti nello strato successivo. Gli strati affini sono un tratto comune sia alle reti neurali convoluzionali che alle reti neurali ricorrenti.

AI Adoption – Adozione dell'IA: l'adozione dell'intelligenza artificiale (IA) nelle varie industrie e settori. Il successo nell'adozione dell'IA nel processo aziendale di un'organizzazione dipenderà dalla capacità di individuare il caso d'uso corretto, dalla presenza di una cultura dei dati e dalla capacità di scalare la soluzione.

AI Bias vs Human Bias – Bias dell'IA e bias umano: Come l'uomo, anche l'intelligenza artificiale (IA) è incline alla distorsione, non perché prenda decisioni in base a motivazioni illogiche, ma perché l'errore umano può essere latente nel processo di apprendimento automatico, dalla fase di creazione dell'algoritmo fino all'interpretazione dei dati e alle successive interazioni.

AI Winter – Inverni della IA: espressione che indica periodi caratterizzati da scarso interesse e tagli agli investimenti nel settore di ricerca dell'intelligenza artificiale (IA). Causati da insuccessi, critiche o disillusioni derivanti da eccesso di aspettative. Questi periodi di solito si alternano a fasi di grande fermento.

Alan Turing Institute: fondato nel 2015, è l'istituto nazionale britannico per il data science e l'intelligenza artificiale (IA). L'Istituto prende il nome dal matematico britannico, criptoanalista e pioniere del computing Alan Turing, da molti considerato il padre dell'IA.

AlexNet: la prima rete di deep learning per visione artificiale ad aver utilizzato le GPU per addestrare il modello. Creata nel 2012, Alexnet è stata una pietra miliare, che ha migliorato l'accuratezza dei sistemi di quasi il 100% rispetto allo status quo.1

Algorithmic Learning Theory – Teoria dell'apprendimento algoritmico: una branca della teoria dell'apprendimento computazionale che, a differenza di quella dell'apprendimento statistico, fornisce un approccio non-probabilistico ai limiti dell'apprendimento. Questo framework è particolarmente adatto a scenari nei quali i dati in input non sono considerati come provenienti da un campione casuale, ma indipendenti, per esempio nell'apprendimento di una lingua.

Algoritmi: un insieme di istruzioni impostate dall'uomo e date da eseguire ai programmi informatici. Grazie al machine learning, l'intelligenza artificiale può regolare gli algoritmi, dando modo ai programmi di adattare le istruzioni alle loro necessità e di ottimizzarsi continuamente in base a quello che apprendono. Gli algoritmi di analisi predittiva, per esempio, con opportuni meccanismi di tuning, analizzando più dati e/o più recenti possono incrementare le performance e adattarsi ai cambiamenti nei dati.

AlphaGo®: un'intelligenza artificiale sviluppata da DeepMind® Technologies di Google. Nel 2015, AlphaGo DeepMind® è stato il primo programma informatico a battere un giocatore professionista in carne e ossa a una sfida di “Go”, un gioco da tavolo molto complesso. Nel 2017 il programma è riuscito a battere anche il campione mondiale di “Go”.

AlphaGo Zero®: seconda versione, ancora più potente, di AlphaGo®, sviluppata da DeepMind® Technologies. A differenza del suo predecessore, che si è allenato con giocatori umani, sia amatoriali che professionisti, AlphaGo Zero® lo ha fatto sfidando se stesso. In questo modo è riuscito a superare rapidamente i livelli di abilità umani, battendo AlphaGo® con un punteggio di 100 a 0.

Analogical reasoning – Ragionamento analogico: processo cognitivo che, mettendo a confronto le somiglianze tra due concetti, due sistemi o due oggetti, permette di trasferire la conoscenza da un concetto, sistema o oggetto, all'altro. Ne è un valido esempio la scoperta dell'elettromagnetismo di James Clerk Maxwell: confrontando le somiglianze tra i precedenti lavori sui campi magnetici ed elettrici e le equazioni usate per calcolare il flusso dei liquidi, il fisico scozzese riuscì a spiegare il comportamento delle linee di forza magnetiche.

Analytics: Disciplina che si occupa di individuare, interpretare e comunicare modelli rilevanti in set di dati. L'analytics analizza i dati per produrre insigth applicando formule statistiche, programmazione informatica e ricerca operativa, ed è particolarmente utile in aree caratterizzate da grandi quantità di informazioni registrate. Obiettivo di questo esercizio è quello di guidare il processo decisionale tenendo conto del contesto aziendale. Il flusso analitico comprende analisi descrittiva, analisi diagnostica, analisi predittiva e misure prescrittive.

Anything-as-a-Service/Everything-as-a-Service (XaaS): L'espressione, traducibile in italiano con “tutto-come-servizio” e abbreviata nell'acronimo XaaS, indica un modello di cloud computing che comprende l'intera gamma di servizi e applicazioni a cui gli utenti possono accedere in modalità on-demand su Internet senza dover acquistare o installare on-premise alcun hardware, software o sistema di sicurezza. Nato come Software-as-a-Service (SaaS), il modello si è poi espanso fino a includere un'intera gamma di servizi: Infrastructure-as-a-Service, Platform-as-a-Service, Storage-as-a-Service, Desktop-as-a-Service, Disaster-Recovery-as-a-Service e i nascenti Marketing-as-a-Service e Healthcare-as-a-Service.

API: acronimo di Application Programming Interface, le API sono interfacce di programmazione che, consentendo la comunicazione e la condivisione dei dati tra le applicazioni, semplificano lo sviluppo dei programmi informatici, fornendo tutti i componenti che vengono poi assemblati dallo sviluppatore.

Applied Intelligence – Intelligenza Applicata: l'applicazione combinata di tecnologie di IA, analisi dei dati (cfr. Analytics), automazione e ingegno umano che Accenture utilizza per aiutare i suoi clienti a risolvere complessi problemi aziendali, e che consente di offrire insight intelligenti in modo rapido e scalabile, promuovendo l'innovazione e producendo nuovi risultati per le imprese a livello globale.

Applied Intelligence Platform (AIP): L'AIP, o piattaforma di intelligenza applicata, è una soluzione di Analytics-as-a-Service (AaaS) basata su cloud che ha l'obiettivo di dare alle organizzazioni un vantaggio competitivo attraverso soluzioni data-driven per problematiche di settore. La tecnologia e gli strumenti dell'Applied Intelligence Platform, evoluzione di Accenture Insights Platform, forniscono una soluzione semplice, preconfigurata e a prova di futuro che permette ai clienti di ricavare insight azionabili e ottenere risultati di business in modo rapido e con investimenti iniziali minimi.

Apriori Algorithm - Algoritmo Apriori: procedura di data mining che serve a estrarre dai dati regole associative che individuano pattern di correlazione in forma di eventi. Nel settore della vendita al dettaglio, ad esempio, l'algoritrmo Apriori permette di effettuare un'analisi del “carrello” per identificare, ad esempio, l’associazione nell’acquisto di latte e biscotti.

ARIMA Models - Modelli ARIMA: classe di metodi statistici per la previsione delle serie temporali. ARIMA sta per Auto Regressive Integrated Moving Average (modello “autoregressivo integrato a media mobile”).

Artificial Intelligence (AI) – Intelligenza Artificiale (IA): termine generico usato per descrivere l'insieme delle tecnologie che consentono a una macchina di percepire, comprendere, agire e apprendere. La nascita dell'intelligenza artificiale risale agli anni '40 e '50 del secolo scorso, quando scienziati e matematici cominciarono a pensare a come usare un dispositivo meccanico per imitare il processo umano della deduzione matematica.

Attention Mechanisms – Meccanismi di attenzione: il termine si riferisce alla capacità di concentrarsi su specifiche parti di un'immagine. I meccanismi di attenzione delle reti neurali vengono utilizzati già da tempo nel riconoscimento delle immagini, e ormai sempre più anche nell'elaborazione del linguaggio naturale, poiché aiutano le reti ad apprendere dagli input e a fare previsioni.

Augmented Reality (AR) – Realtà Aumentata (RA): tecnologia che sovrappone le immagini generate al computer alla visualizzazione di un ambiente reale allo scopo di arricchire la percezione visiva di chi guarda e la sua interazione con quell'ambiente. Oggi le app di realtà aumentata, dai filtri dei social media a giochi come Pokémon Go®, alle procedure chirurgiche, sono in rapida espansione. La realtà aumentata si pone a metà strada tra il mondo reale e quello virtuale.

Autoencoder: un tipo di rete neurale artificiale che viene utilizzata per l'apprendimento non supervisionato di una codifica efficiente. L'autoencoder viene addestrato a comprimere i dati tramite codifica e poi a decomprimerli fino a farli coincidere il più possibile con i dati originali.

Automazione: tecnologia in cui le procedure o i processi vengono eseguiti con il minimo intervento umano. Le macchine possono essere configurare sulla base di un insieme esplicito di regole o algoritmi. Ne è un esempio la Robotic Process Automation (RPA), o automazione robotica dei processi, che viene ampiamente utilizzata per gestire attività transazionali di routine.

Autonomic Computing – Computing autonomo: in un sistema, la capacità di gestione adattativa autonoma (cioè senza input dell'utente) delle proprie risorse per funzioni di calcolo distribuito di alto livello.

Autonomous Electric Vehicles – Veicoli elettrici a guida autonoma: veicoli elettrici che si muovono grazie a intelligenza artificiale e sensori e GPS e non hanno bisogno di conducente.

B

Backpropagation: abbreviazione di “backward propagation of errors”, ovvero “retropropagazione dell'errore”. Nelle reti neurali convoluzionali è una tecnica per addestrare le reti in base a un risultato desiderato noto per uno specifico caso campione.

Backpropagation Algorithm – Algoritmo di retropropagazione: formulato da Paul Werbos nel 1974, è stato in seguito riscoperto da altri, incluso Geoff Hinton, nell'addestramento dei modelli di reti neurali. Gli algoritmi di retropropagazione propagano l’errore all'indietro, dallo strato di output a quello di input, e lavorano con gli algoritmi di ottimizzazione, come quello di discesa del gradiente, per risolvere il problema del 'credit assignment' attraverso la minimizzazione della funzione di costo, regolando il peso di ciascun neurone in base all'impatto che esso ha sull'errore complessivo.

Backward Chaining Rules – Concatenazione all'indietro: metodo per cui le macchine procedono all'indietro rispetto all'obiettivo o risultato desiderato, per determinare se esistono dati o prove che lo supportano.

Bayesian Network – Rete bayesiana: modello che rappresenta e calcola le relazioni probabilistiche tra un insieme di variabili casuali e un dominio incerto mediante un grafo orientato aciclico.

Behavioral Analytics – Analisi comportamentale: un tipo di analisi che utilizza i dati sui comportamenti delle persone per capirne le intenzioni e prevederne le azioni. La mole di dati sui consumatori prodotta da piattaforme di e-commerce, giochi, applicazioni web e mobili e Internet of Things alimenta gli algoritmi dell'analisi comportamentale predittiva, che consentono agli addetti al marketing di indirizzare le offerte giuste al microsegmento giusto nel momento giusto.

Bias Variance Tradeoff – Tradeoff bias-varianza: proprietà dei modelli predittivi tale per cui i modelli con un bias (limitata capacità di apprendere dai segnali reali del set di dati di addestramento) basso presentano una varianza (sensibilità alle specificità del set di dati di addestramento) più elevata nella stima dei parametri su campioni di dati e viceversa.

Big Data: termine usato per indicare grandi volumi di dati che le tradizionali applicazioni di elaborazione dati non sono in grado di gestire. Le tecnologie dei big data includono virtualizzazione dei dati, strumenti di gestione e integrazione dei dati (come EMR® e Hadoop®) e strumenti di ricerca e scoperta della conoscenza.

Big Data Analytics: l'analitica dei big data esamina grandi volumi di dati di varia natura (detti, appunto, big data) per individuare pattern, trend, correlazioni e altre informazioni utili a ricavare insight che le organizzazioni possono sfruttare per migliorare i processi decisionali. Big Data Analytics è l'applicazione di scienza e ingegneria del problem solving laddove la natura, le dimensioni e la conformazione dei dati rendono difficile, se non impossibile, l'utilizzo degli strumenti di analisi tradizionali.

Big Data Visualization – Visualizzazione dei big data: una serie di tecniche che agevolano la comprensione dei pattern presenti nei big data presentandoli attraverso immagini o rappresentazioni grafiche. Gli strumenti di visualizzazione dei big data includono grafici tradizionali e a torta, mappe di calore, modelli 3D e dendrogrammi.

Biometric Recognition – Riconoscimento biometrico: sistema informatico in grado di identificare le persone in base a una o più caratteristiche fisiologiche e comportamentali, come le impronte digitali, l'iride, la voce o la gestualità. La tecnologia si serve di algoritmi che, analizzando gli input di dati provenienti da un determinato soggetto, ne ricostruiscono e riconoscono l'identità.

Black Box – Scatola nera: metafora usata per descrivere la nostra incapacità di capire il funzionamento delle tecnologie, e degli algoritmi in particolare. Mentre siamo in grado di comprendere i risultati dell'intelligenza artificiale (IA) in termini di raccomandazioni, decisioni e così via, i processi che portano a tali risultati sono troppo complicati perché li si possa capire. Le preoccupazioni in merito alla scatola nera dell'IA riguardano soprattutto la sua apparente mancanza di senso di responsabilità, l'eventuale presenza di bias nascosti, e l'impossibilità di avere una visione del tutto chiara di cosa guidi le sue decisioni.

BLEU: acronimo di Bilingual Evaluation Understudy, è un metodo di valutazione standard dei sistemi di traduzione automatica, basato sul confronto con un output umano.

Boltzmann Machines – Macchine di Boltzmann: un modello di rete neurale ispirato al processo fisico della termodinamica e alla meccanica statistica. Introdotte indipendentemente da Terry Sejnoski e Geoffery Hinton, le macchine di Boltzmann sono poco pratiche da addestrare, perciò se ne utilizza una versione semplificata, chiamata macchina di Boltzmann ristretta.

Boosting: termine che indica un metodo per ridurre bias e varianza nell'apprendimento supervisionato, e per convertire gli algoritmi del machine learning da weak a strong learner.

Bot: qualsiasi programma o script che esegua script o task automatizzati.

Business Analytics: locuzione che indica l'insieme di competenze, tecnologie, metodi statistici e approcci data-driven che si usa per esplorare e analizzare le prestazioni precedenti di un'azienda al fine di ottenere nuove conoscenze che possano supportare la pianificazione aziendale. Visualizzazione dei dati, reportistica di Business Intelligence e piattaforme di big data sono alcuni esempi degli strumenti di Business Analytics.

Business Intelligence (BI): l'insieme di tecnologie, applicazioni e pratiche usate per la raccolta, l'integrazione, l'analisi e la presentazione dei dati aziendali allo scopo di migliorare il processo decisionale. L'impiego dell'intelligenza artificiale (IA) in ambito di big data e Business Intelligence è già molto diffuso, con aziende che usano algoritmi di machine learning per identificare trend ed estrarre insight da grosse moli di dati in modo da poter prendere le decisioni più rapidamente, o in tempo reale. Esempi pratici di queste soluzioni sono le dashboard, la reportistica e gli strumenti di rilevamento dei dati su data warehouse o cloud.

C

Capsule Network – Rete neurale capsulare: un sistema di apprendimento automatico progettato per imitare le organizzazioni neurali biologiche. In una rete capsulare, le reti neurali artificiali vengono create stratificando gli strati neurali, che vengono spesso usati per modellare meglio le relazioni spaziali gerarchiche.

CAP Theorem – Teorema CAP: presentato inizialmente da Eric Brewer come una congettura, il teorema sostiene che, in caso di partizione, i grandi sistemi distribuiti che gestiscono dati devono trovare un trade-off tra disponibilità e consistenza dei dati. Questo è un vincolo importante di cui gli ingegneri devono tenere conto quando progettano i moderni sistemi di big data.

Case-based Reasoning – Ragionamento basato su casi: processo che cerca di risolvere i problemi nuovi applicando soluzioni già trovate in passato per problemi simili. Gli algoritmi di ragionamento basato su casi si possono usare sia per l'analisi di regressione che per quella di classificazione.

Categorical Variable – Variabile categoriale: una variabile o funzione dei dati che può assumere un elenco fisso di etichette (categorie).

Causation - Causalità: si può dedurre che si verifichi quando il valore di una variabile è influenzato in modo significativo dall'evento o dal valore di un'altra variabile, anche se in alcuni casi potrebbe non essere corretto in quanto la presenza di correlazione non implica causalità.

Central Processing Unit (CPU): l'unità centrale di elaborazione, o processore centrale, di ogni computer, che esegue gran parte dei processi di elaborazione dati interpretando le istruzioni dei programmi. La CPU controlla le istruzioni e il flusso di dati da e verso le altre componenti del computer, e dipende da un chipset collocato sulla scheda a circuito stampato principale, nota anche come scheda madre.

Channel – Canale: termine che indica le varie piattaforme che offrono un canale chatbot per comunicare con gli utenti, come Facebook Messenger®, Viber™, WhatsApp™ e Skype™.

Chatbot: programma di intelligenza artificiale che simula le interazioni umane attraverso frasi utente precalcolate e/o segnali audio o basati su testo. Più complessi dei programmi speech-to-text, i chatbot comunicano con le persone utilizzando sia il testo (text chatbot) che la voce (voicebot). I text chatbot si usano da prima dei voicebot, che sono in grado di sostenere una conversazione verbale, comprendere il linguaggio e dare risposte. Esempi di chatbot sono gli assistenti personali e applicazioni come il banking online o i pop-up interattivi di testo nei siti web.

Chinese Room Argument – Argomento della stanza cinese: un famoso argomento filosofico di John Searle, in cui si afferma che nessun sistema artificiale è capace di vera comprensione o intelligenza; e che, di conseguenza, l'IA forte è irrealizzabile. Searle dimostra l'argomento con un esperimento mentale: un uomo che non sa una parola di cinese, chiuso in una stanza, riesce a elaborare un testo in cinese che gli viene passato attraverso una botola servendosi soltanto di un libro di regole della lingua cinese. Eppure questo non significa che l'uomo capisca il cinese. Allo stesso modo agirebbe una IA, senza vera comprensione.

Chomsky Hierarchy – Gerarchia di Chomsky: organizzazione dei modelli o delle grammatiche computazionali descritta da Noam Chomsky nel 1956. Questa gerarchia organizzativa parte dalle grammatiche regolari di tipo 3, le più semplici, che sono il motore di molti algoritmi di pattern machine, e arriva fino a quelle più potenti di tipo 0, le grammatiche ricorsivamente enumerabili, che ogni macchina di Turing è in grado di riconoscere.

Classifier – Classificatore: un tipo di algoritmo (ad esempio il KNN e l'SVM) che si usa per risolvere problemi di classificazione dei dati. Gli algoritmi di machine learning, in particolare quelli di deep learning, funzionano bene in molti task di classificazione, soprattutto in quelli di classificazione cognitiva, come il riconoscimento di un oggetto in un'immagine.

Cloud: abbreviazione di cloud computing, è un termine che descrive una rete di server remoti che archivia, gestisce ed elabora i dati su Internet eliminando la necessità di avere un server locale o un personal computer. La tecnologia del cloud computing si è sviluppata rapidamente. Amazon™, Google™ e Microsoft™, ad esempio, hanno incorporato nei rispettivi servizi cloud - AWS®, Google Cloud® e Azure® - funzionalità come il riconoscimento facciale delle foto online e la traduzione automatica del linguaggio parlato. La prossima fase dell'evoluzione del cloud sarà la creazione di piattaforme basate su IA utilizzabili da qualunque tipo di azienda, indipendentemente dalle dimensioni o dal livello tecnologico. Molte soluzioni Platform-as-a-Service (PaaS) hanno già iniziato a incorporare funzionalità di IA. Nel panorama attuale delle tecnologie IA del cloud si distinguono due categorie principali: piattaforme cloud di machine learning e servizi cloud di IA.

Clustering: tecnica di apprendimento automatico non supervisionato volta a individuare strutture in insiemi di dati non strutturati. Gli algoritmi di clustering servono a raggruppare insiemi di oggetti in classi di oggetti simili e sono molto utilizzati nell'analisi delle immagini, nel recupero delle informazioni e nella bioinformatica.

Clustering Analysis - Analisi di cluster: un tipo di apprendimento automatico non supervisionato che si usa nell'analisi dei dati esplorativi per trovare pattern o raggruppamenti nascosti in set di dati. Utilizzando metriche come la distanza euclidea, i cluster raggruppano i punti dati simili.

CNTK: framework e toolkit per il deep learning di Microsoft™, che adesso si chiama Microsoft Cognitive® Toolkit.

Cognitive Automation – Automazione cognitiva: l'impiego di software intelligenti per elaborare grandi quantità di informazioni. Ciò che distingue l'automazione cognitiva dall'automazione robotica dei processi (o RPA) tradizionale è l'uso dell'intelligenza artificiale.

Cognitive Computing – Calcolo cognitivo: sistema di piattaforme che, combinando l'intelligenza artificiale con gli altri aspetti del ciclo cognitivo – percezione, ragionamento e ottimizzazione delle decisioni – riesce ad avvicinarsi alle dinamiche cognitive umane. Include tecnologie come il machine learning, il natural language processing (NLP), o elaborazione del linguaggio naturale, e la visione artificiale.

Cognitive Robotic Process Automation (RPA) – RPA cognitiva: l'RPA cognitiva di Accenture sfrutta tecnologie di intelligenza artificiale come machine learning e natural language processing (NLP) per aumentare le funzionalità dell'RPA e migliorare la customer experience incorporando task non strutturati nell'automazione dei processi.

Cognitive Science – Scienza cognitiva: lo studio interdisciplinare della mente e dei suoi processi basato su filosofia, psicologia, linguistica, antropologia e neuroscienze. Insieme all'intelligenza artificiale studia come simulare i sistemi mentali umani nelle macchine.

Collaborative Filtering – Filtraggio collaborativo: tecnica largamente usata nei sistemi di raccomandazione di prodotti o contenuti, che studia i dati di comportamento degli utenti con caratteristiche di acquisto o di consumo simili. Si differenzia dal filtraggio dei contenuti, che utilizza come driver principale delle raccomandazioni il profilo del contenuto.

Computational Learning Theory – Teoria dell'apprendimento computazionale: ambito di ricerca dell'intelligenza artificiale che si occupa dei vari aspetti della progettazione e costruzione dell'apprendimento automatico e ne analizza la natura computazionale. Tra le teorie fondative, quella Vapnik-Charvonenkis (VC), dalle solide basi statistiche, e il modello Probably Approximately Correct (PAC) di Leslie Valiant, basato sostanzialmente sulla complessità computazionale.

Computer Vision – Visione artificiale: un campo dell'intelligenza artificiale che utilizza gli algoritmi di visione artificiale per imitare il modo in cui la vista umana acquisisce, elabora, analizza e comprende le informazioni visive. La visione artificiale usa i dati visivi del mondo reale per produrre informazioni numeriche o simboliche volte a supportare decisioni o a intraprendere altre azioni.

Conditional Probability - Probabilità condizionata: la probabilità del verificarsi di un evento a condizione che se ne sia verificato un altro.

Confusion Matrix - Matrice di confusione: tabella delle risposte corrette ed errate, rispetto alle risposte note, di un modello di classificazione spesso usata per descrivere le prestazioni di un modello.

Continuous Learning – Apprendimento continuo: il processo per cui un algoritmo di apprendimento automatico o apprendimento continuo, elaborando dati e/o ricevendo input aggiuntivi, migliora nel tempo.

Continuous Variable - Variabile continua: una variabile che può assumere qualsiasi valore compreso tra i valori minimi e massimi di un dato campione.

Conventional Software – Software convenzionale: espressione con cui si indicano software o applicazioni che eseguono compiti specifici, ad esempio la suite di software Microsoft Office®.

Conversational AI – IA conversazionale: un tipo di intelligenza artificiale (IA) addestrata per interpretare il linguaggio (colloquiale) umano e comunicare con le persone. Dotata di funzionalità avanzate di natural language processing (NLP), l'IA conversazionale è una logica che crea conversazioni virtuali. Un esempio di applicazione è dato dai dispositivi a comando vocale presenti oggi sul mercato.

Conversational UI – Interfaccia utente conversazionale: piattaforma che consente a un utente di comunicare con un computer che simula una conversazione umana. Il natural language processing (NLP) permette a un sistema conversazionale un'interazione che tiene conto dei sentimenti dell'utente e del contesto della conversazione.

Convolutional neural network (CNN) – Rete neurale convoluzionale (CNN): un tipo di rete neurale in grado di identificare le immagini e dare loro un senso che viene utilizzata per la classificazione delle immagini (per addestrare ad esempio le macchine a distinguere le immagini dei cani da quelle dei gatti). Tra gli esempi d'uso quotidiano di questo tipo di rete, le raccomandazioni di acquisto di Amazon™ e il motore di ricerca di Instagram™.

Correlation - Correlazione: in statistica indica la relazione tra due variabili tali per cui a ciascun valore della prima corrisponde un valore della seconda. Il coefficiente di correlazione permette di misurare la forza e direzione della correlazione.

Covariance - Covarianza: in statistica misura di quanto due variabili varino assieme ovvero di quanto esse siano dipendenti.

Credit Assignment Problem - Problema del credit assignment: espressione che indica in modo generico il problema dell’assegnazione dei pesi o task ai singoli componenti di un sistema multi-componente. Nelle reti neurali, ad esempio, durante una previsione, l'algoritmo di apprendimento deve capire come attribuire l'impatto di ciascun neurone ai risultati dell'intero sistema.

CUDA®: Acronimo di Computer Unified Device Architecture®, è una libreria di interfacce utilizzata per programmare e lavorare con le GPU Nvidia™. Molti framework di deep learning sono integrati con le librerie CUDA®.

Cybernetics – Cibernetica: secondo la definizione di Norbert Wiener, è lo studio dei sistemi di regolazione o controllo. Molto influenzata dal lavoro di Ross Ashby e di altri teorici dei sistemi, la cibernetica ha avuto un'influenza significativa nello sviluppo dei sistemi intelligenti, specialmente nel campo della robotica.

D

Dark data – Dati oscuri: noti anche come “dati opachi”, sono tutti quei dati che normalmente non vengono utilizzati - in molti casi neppure immagazzinati - e che perciò non interagiscono con i dati regolari. In genere si tratta di dati digitali generati da dispositivi di rete, registri di sistema, ma anche da e-mail o da altre fonti non strutturate, che si accumulano negli strati intermedi dei sistemi operativi di ogni azienda. Spesso le aziende non si rendono nemmeno conto dei preziosi insight racchiusi in questa mole di informazioni non strutturate, non sfruttate e/o non etichettate, che include anche i dati dei file di registro dei server e i dati di geolocalizzazione mobile.

Data – Dati: un insieme di variabili quantitative o qualitative. Un romanzo, un film o un piano dei conti sono tutti esempi di dati. L'intelligenza artificiale (IA) ha bisogno di dati per addestrarsi, apprendere e agire, e quanto più avrà accesso a informazioni accurate, tanto maggiori saranno le sue probabilità di successo.

Data aggregation – Aggregazione di dati: la raccolta di dati da più fonti a fini reportistici o di analisi. I metodi di aggregazione dei dati includono tra i più noti media, minimo, mediana, massimo, varianza e deviazione standard.

Data Analysis – Analisi dei dati: processo di ispezione, pulizia, trasformazione e modellazione dei dati che serve per individuare informazioni utili a supportare i processi decisionali. Tra i metodi di analisi dei dati più diffusi il data mining, una tecnica predittiva utilizzata per la modellazione e la scoperta della conoscenza, e la business intelligence, che si basa sull'aggregazione ed è focalizzata sulle informazioni aziendali.

Data Analytics – Analitica dei dati: processo end-to-end che prevede la pulizia, l'ispezione e la modellazione dei dati allo scopo di trovare informazioni utili e azionabili a supporto del processo decisionale. In un contesto B2C, tale processo comprende tecniche qualitative e quantitative utilizzate per ricavare insight su comportamenti, tendenze e modelli di acquisto.

Data Efficient Learning: la capacità di apprendere domini di task complessi senza dover ricorrere a enormi quantità di dati. Benché il deep learning supervisionato sia in grado di affrontare il problema dell'apprendimento da set di dati più grandi, in molti esempi reali la quantità di training data (dati di addestramento) disponibili non è sufficiente per utilizzare tali sistemi.

Data Mining: processo attraverso cui i dati vengono raccolti, aggregati in base al tipo e ordinati per individuare modelli e prevedere i trend futuri. Una società di e-commerce, ad esempio, userà il data mining per analizzare i dati dei clienti e suggerire prodotti ad esempio attraverso la finestra “i clienti che hanno acquistato questo articolo hanno anche acquistato...”. Tanagra, R e Weka (una suite di algoritmi di machine learning per il data mining) sono tre esempi di tool di data mining.

Data Science – Scienza dei dati: disciplina che unisce sistemi e processi statistici a informatica e scienza dell'informazione per estrapolare insight attraverso l'analisi strutturata e/o non strutturata dei dati. Uno degli ambiti applicativi più comuni della scienza dei dati (nell’ambito di AI e machine learning) è lo sviluppo degli strumenti predittivi.

Dataset – Set di dati: insieme di punti dati individuali ma correlati che un computer può elaborare come una singola unità. I set di dati vengono definiti “big data” quando hanno volumi talmente grandi da superare la capacità di gestione delle applicazioni di elaborazione dati tradizionali.

Decision Model – Modello decisionale: un insieme di regole utilizzate per comprendere e gestire la logica che muove le decisioni aziendali. Implica l'applicazione di sofisticati algoritmi a grandi volumi di dati, e si può utilizzare per raccomandare una linea d'azione e prevederne gli esiti.

Decision Tree – Albero decisionale: modello grafico con struttura ad albero come quella dei diagrammi di flusso, utilizzato per mappare le decisioni e le loro possibili conseguenze. L'albero decisionale si usa molto per gli algoritmi di classificazione e regressione nell’ambito dell’apprendimento automatico.

Deductive Reasoning – Ragionamento deduttivo: processo razionale che fa derivare una conclusione da un insieme iniziale di assiomi e premesse, e che si sviluppa secondo fasi e calcoli logici prestabiliti e concordati.

Deep learning – Apprendimento profondo: metodologia di apprendimento automatico per cui un sistema riconosce i pattern presenti nei dati attraverso l'apprendimento automatico di una gerarchia di feature o caratteristiche, e che si differenzia dagli approcci del machine learning, che si basano sostanzialmente su processi di feature engineering effettuati dall'uomo prima che il modello sia in grado di apprendere la relazione tra le caratteristiche. Generalmente nel deep learning i dati vengono processati tramite una successione “profonda” dei livelli di attivazione. Ogni livello crea una rappresentazione dei dati, e i livelli successivi utilizzano le feature del livello precedente per creare rappresentazioni più complesse. L'output del livello finale viene mappato su una categoria di appartenenza dei dati. L'obiettivo di un algoritmo di deep learning è far sì che questa mappatura finale sia corretta. Per comprendere la differenza tra deep learning e machine learning, immaginate un bambino che impara a riconoscere un oggetto, ad esempio una palla. Il genitore del bambino confermerà o negherà se un determinato oggetto è una palla, e più andrà avanti il processo, più aumenterà nel bambino la consapevolezza di cosa sia una palla. Senza saperlo, genitore e bambino stanno chiarendo e perfezionando costantemente un'astrazione complessa (il concetto di palla). Gli algoritmi del deep learning fanno praticamente lo stesso. All'inizio, al programma vengono forniti i training data, ad esempio immagini che sono state etichettate con meta tag. L'algoritmo utilizza queste informazioni per costruire una capacità predittiva sempre più accurata. Gli approcci del machine learning superficiale si basano su una notevole quantità di processi di feature engineering eseguiti dall'uomo prima che il modello sia in grado di apprendere le relazioni tra caratteristiche; nel deep learning, invece, il sistema acquisisce le caratteristiche e le loro relazioni simultaneamente.

Deep Neural Networks – Reti neurali profonde: qualsiasi architettura di reti neurali che abbia più livelli nascosti di neuroni artificiali (nodi). Tali architetture consentono ai modelli di apprendere le interrelazioni multigerarchiche, quindi profonde, delle caratteristiche presenti nei dati. Un esempio sono le reti neurali profonde del motore di raccomandazione di YouTube™, attualmente uno dei motori di raccomandazione più avanzati.

Defense Advanced Research Projects Agency (DARPA™): agenzia indipendente governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie per uso militare, DARPA™ risponde direttamente ai più alti ranghi del Dipartimento della Difesa ed è sempre stata all'avanguardia nello sviluppo di tecnologie che ormai sono parte integrante della nostra vita, come Internet o l'intelligenza artificiale.

Descriptive Analytics – Analisi descrittiva: un tipo di analisi dei dati storici volta a quantificare cosa è successo, come nel caso dei report aziendali che forniscono una prospettiva storica sulle prestazioni. L'analisi predittiva invece individua pattern e trend negli eventi passati e li applica per capire cosa potrebbe accadere in futuro.

Design Thinking: una metodologia sviluppata per trovare soluzioni pratiche e creative ai problemi attraverso un approccio simile a quello adottato dai designer. Le strategie di design thinking si sono dimostrate estremamente efficaci nel settore dell'innovazione, perché permettono alle organizzazioni di sviluppare il pensiero creativo.

Digital Assistant – Assistente digitale: un sistema di intelligenza artificiale in grado di comprendere i comandi vocali ed eseguire vari task, fornendo ad esempio un servizio di assistenza clienti. Ad esempio Alexa®, l'assistente digitale di Amazon, può rispondere a una vasta gamma di richieste, tra cui controllare il meteo o chiamare un taxi.

Digital Transformation – Trasformazione digitale: locuzione che indica il graduale processo di digitalizzazione delle imprese, che lega sempre più strettamente le loro possibilità di successo all'IT e permette di risolvere con le tecnologie digitali le sfide tradizionali della realtà aziendale.

Dimension Reduction - Riduzione di dimensionalità: processo di machine learning per cui il numero di variabili predittive viene ridotto. Il processo può essere diviso in selezione delle variabili e proiezione delle variabili, nel primo caso alcune variabili vengono escluse applicando tecniche differenti, nel secondo vengono create nuove variabili a partire dagli input riducendone il numero.

Dropout Regularization - Regolarizzazione Dropout: nel processo di creazione di un modello di deep learning, si riferisce a una riduzione casuale temporanea del numero di neuroni connessi per rimuovere il loro contributo in fase di taratura. Questo processo in maniera molto efficiente permette di ridurre l'overfitting (o sovrallenamento) nel confronto dei dati di training.

Dynamic Programming – Programmazione dinamica: tecnica per dividere un problema di ottimizzazione in sotto-problemi più semplici e memorizzare la soluzione di ogni sotto-problema in modo da risolverlo una volta sola. Tra gli esempi di programmazione dinamica l'induzione a ritroso, i modelli a reticolo per l'interazione proteine-DNA e molti algoritmi di stringa.

E

Ecosystem – Ecosistema: in ambito tecnologico l'ecosistema è una piattaforma di prodotti definita da componenti core realizzati dall'azienda proprietaria e integrata da applicazioni periferiche, servizi e dati di altre organizzazioni. Uno dei vantaggi principali degli ecosistemi è che forniscono soluzioni superiori a quelle offerte dallo sviluppatore della piattaforma. In tal senso, possono risolvere i problemi tecnici di un settore ma anche aprire nuove opportunità di crescita.

Enhanced Interaction: iper-personalizzazione e cura delle informazioni in tempo reale possono offrire a clienti e utenti esperienze superiori, migliorando customer acquisition, customer retention e customer satisfaction in generale. Un framework di interazione migliorata stabilisce in che modo un'organizzazione può sfruttare la tecnologia per raggiungere tali risultati.

Enhanced Judgment: utilizza l'intelligenza artificiale per aumentare l'intelligenza umana, migliorando la qualità e l'efficacia del processo decisionale umano allo scopo di ottenere prestazioni migliori. Ha ambiti applicativi che vanno dalla diagnosi del cancro al design delle automobili.

Ensemble Methods - Metodi ensemble: processi di machine learning in cui vengono estratti modelli multipli per ottenere una capacità predittiva migliore rispetto a quella prodotta da algoritmi singoli.

Expert Systems (Inference) – Sistemi esperti (inferenza): sistemi informatici che emulano le capacità decisionali degli esperti umani. In questi sistemi l'inferenza applica regole di logica a una base di conoscenza per dedurre nuove conoscenze.

F

Facial Recognition – Riconoscimento facciale: tecnologia in grado di identificare o verificare l'identità di una persona da un'immagine digitale o da un frame video. Il software estrae i tratti somatici del viso e li classifica confrontando l'immagine con i volti presenti in un database.

Feature or Predictor - Feature o Predittore: la variabile misurabile che si usa per prevedere un risultato per un modello di machine learning. Partendo da dati biometrici di un individuo come l'altezza e il genere, si può per esempio prevedere il peso di quell'individuo, in questo caso i dati biometrici costituiscono le feature.

First Order Logic - Logica del primo ordine (o dei predicati): linguaggio formale di rappresentazione degli enunciati delle relazioni e del ragionamento logico. La logica del primo ordine perché le affermazioni logiche consentono variabili quantificate (i sistemi logici più semplici come la logica booleana o la logica preposizionale non ammettono variabili). Per espressioni logiche più complesse, i sistemi logici di ordine superiore consentono predicati o funzioni come argomenti.

Fisherian Statistics - Statistica fisheriana: sviluppata da Sir Ronald Fisher e detta anche inferenza fiduciale, è la base fondativa della statistica inferenziale e si contrappone ad altre scuole inferenziali moderne come la frequentista o la bayesiana. Nella statistica fisheriana l'inferenza contempla sia la probabilità che la possibilità, mentre gli approcci frequentista e bayesiano la circoscrivono alla sola probabilità.

Fisherian Formal Concept Analysis - Analisi fisheriana: metodo matematico formale per estrarre ontologie concettuali gerarchiche dai dati. I suoi ambiti applicativi includono data mining, knowledge management (gestione della conoscenza) e machine learning.

Forward Chaining Rules – Concatenazione in avanti: metodo per cui un sistema esperto, partendo da un problema, opera “in avanti” per trovare una soluzione. Utilizzando un sistema basato su regole, la concatenazione in avanti obbliga l'intelligenza artificiale ad applicare determinate clausole “se” fino a quando non viene raggiunto l'obiettivo.

FPGA: acronimo di Field Programmable Gate Array (array di gate programmabile su campo), è un'unità di calcolo specializzata programmabile per eseguire rapidamente determinati task.

Frequentist Statistics – Statistica frequentista: metodo di inferenza statistica che pone l'enfasi sulla proporzione di un determinato campione di dati. Nell'approccio frequentista le probabilità sono discusse mediante un esperimento casuale ben definito.

Fully Connected Networks – Reti completamente connesse: reti multilivello nelle quali tutti i nodi sono interconnessi. Ne è un esempio la macchina di Boltzmann generica.

Fuzzy Logic – Logica Fuzzy: detta anche “logica sfumata”, è un sistema logico in cui la distinzione tra verità e valori falsi non è binaria ma multi-valore, e permette perciò un'espressione delle affermazioni logiche più ricca. Inventata da Lotfi Zadeh, si usa per la progettazione di sistemi esperti.

G

Gain and Lift Charts – Grafico lift o cumulative gain: un tipo di grafico usato dai data scientist per misurare le prestazioni dei modelli, calcolate rispetto a un processo casuale o in assenza del modello predittivo.

Game Theory – Teoria dei giochi: modello matematico applicabile a svariate aree di studio – economia, biologia, internet and network design – che analizza il comportamento di più individui che interagiscono tra loro, come nei giochi, e gli esiti delle loro decisioni, che possono essere giochi a somma zero (dove la vincita di un giocatore significa la perdita di un altro) o giochi a somma non nulla. A gettare le basi matematiche di questa teoria è stato John Von Neuman, uno dei padri dell'informatica. In seguito John Nash e altri l'hanno ampliata sviluppando il concetto dei giochi non cooperativi.

Gated Recurrent Unit: una tipologia di rete neurale ricorrente (RNN), più precisamente una versione semplificata della tipologia LSTM (Long Short-Term Memory), molto usata nel linguaggio di modellazione oppure nei dati sequenziali o di serie temporali. Come la LSTM, la rete GRU consente il flusso di controllo delle informazioni nelle singole celle (unità) dell'architettura di rete neurale, cosa che rende l'addestramento dei modelli molto più trattabile.

Gaussian Distribution – Distribuzione gaussiana: detta anche distribuzione normale o curva a campana, è una distribuzione di probabilità continua definita da due parametri, la media μ e la deviazione standard s.

Generative Adversarial Networks – Reti antagoniste generative: coppia di modelli (modello generativo e modello discriminante) addestrati separatamente con algoritmi di deep learning. Il modello discriminante viene addestrato con a partire dai candidati prodotti dal modello generativo a distinguere tra dati reali e dati artificiali. La capacità di rilevare e riprodurre le variazioni in un set di dati può essere utilizzata per la comprensione del rischio e la recovery in ambito sanitario e farmacologico.

General AI – IA generale: una forma di intelligenza artificiale che si può usare per eseguire un'ampia gamma di task attuabili dall'uomo in svariati ambienti.

General Purpose Technology (GPT) – Tecnologia general purpose: l'importanza delle tecnologie general purpose risiede nell'impatto complessivo che hanno sulla società e nella vasta gamma di innovazioni complementari che supportano. Ad oggi le più significative sono probabilmente l'elettricità, Internet e l'informatica. L'intelligenza artificiale è un altro importante punto di svolta nello sviluppo di questo tipo di tecnologie.

Genetic Algorithm – Algoritmo genetico: per algoritmo genetico si intende una classe di tecniche di ottimizzazione ispirate al principio dell'evoluzione biologica, in cui i modelli migliori subiscono un processo di “controllo della popolazione” attraverso un ciclo metodico di fitness, selezione, mutazione e crossover. Gli algoritmi genetici costituiscono un sottoinsieme degli algoritmi evolutivi.

Genetic Programming – Programmazione genetica: un sottoinsieme di intelligenza artificiale nel quale i programmi sono codificati come insiemi di geni che vengono regolati mediante algoritmi evolutivi. In tal modo la programmazione genetica segue i principi darwiniani della selezione naturale: il programma calcola quali sono le soluzioni più forti e le fa progredire, scartando le opzioni più deboli.

Genomic Analysis – Analisi genomica: le tecnologie di analisi genomica vengono usate per identificare, misurare o confrontare caratteristiche genomiche quali sequenza del DNA, variazione di struttura, espressione genica, o annotazione degli elementi regolatori e funzionali su scala genomica.

Gesture recognition – Riconoscimento gestuale: il modo in cui un dispositivo informatico interpreta un determinato gesto o movimento umano. Questa tecnologia è in grado di riconoscere movimenti o caratteristiche da qualsiasi gesto o condizione fisica del corpo.

Gradient Descent - Discesa del gradiente: algoritmo iterativo di ottimizzazione per la ricerca del minimo di una funzione. Il processo prevede la ricerca di un minimo locale attraverso passi proporzionali al negativo del gradiente in uno specifico punto della funzione.

Graphics Processing Unit (GPU) - Unità di elaborazione grafica: un circuito elettronico specializzato (chip) progettato per eseguire calcoli a velocità molto elevata. Impiegate principalmente per la visualizzazione di immagini, le architetture di GPU si trovano in una vasta gamma di prodotti, dai telefoni cellulari ai personal computer, alle workstation, alle console di gioco.

Ground Truth: processo, effettuato di norma attraverso osservazione diretta (ex: evidenza empirica), per misurare il livello di accuratezza di un set di training data nel dimostrare o confutare un'ipotesi di ricerca. Le auto a guida autonoma, ad esempio, utilizzano ground truth data per addestrare l'intelligenza artificiale a un'adeguata verifica delle scene stradali.

H

Heuristic Search Techniques – Tecniche di ricerca euristica: metodi pratici per la risoluzione dei problemi che restringono la ricerca di soluzioni ottimali scartando le opzioni errate. Nel campo dell'intelligenza artificiale, le tecniche di ricerca euristica classificano/valutano le alternative negli algoritmi di ricerca a ogni ramo decisionale utilizzando le informazioni disponibili per decidere quale ramo seguire.

Human-in-the-loop (HITL): espressione che indica l'integrazione dell'uomo nei processi di apprendimento automatico allo scopo di ottimizzare gli output e incrementare l'accuracy. La tecnica è generalmente riconosciuta come best practice del machine learning: un esempio di applicazione è dato dall'algoritmo di riconoscimento fotografico di Facebook, che invita gli utenti a confermare l'identità di un soggetto fotografico quando non ha abbastanza confidence.

Hyper Parameters - Iperparametri: parametri che regolano gli algoritmi di intelligenza artificiale assumendo valori predefiniti durante le fasi di taratura.

Hyper Parameters Tuning - Tuning degli iperparametri: processo di assegnazione di valori ottimizzati agli iperparametri con metodi come la ricerca su griglia basata sulla ricerca di un minimo di una funzione di perdita predefinita.

I

Image Analytics – Analisi delle immagini: estrazione e analisi delle informazioni da dati in forma di immagine tramite elaborazione digitale delle immagini. Oltre a identificare i volti per stabilire età, sesso e sentiment, gli algoritmi di analisi delle immagini sono anche in grado di riconoscere contemporaneamente diverse feature (loghi, oggetti, scene, ecc.). Due esempi piuttosto semplici di applicazione sono rappresentati dall'utilizzo dei codici a barre e dei codici QR. Tra le applicazioni più complesse, invece, il riconoscimento facciale e l'analisi della posizione e del movimento.

Image Recognition – Riconoscimento delle immagini: tecnologia in grado di identificare oggetti, luoghi, persone, scrittura e azioni presenti nelle immagini utilizzando la visione artificiale in combinazione con fotocamere, metodi statistici e intelligenza artificiale.

Image Search – Ricerca per immagini: l'uso di strumenti di ricerca di dati specializzati per trovare immagini. Google™ Image Search e Microsoft Photos® sono due esempi di motori di ricerca di immagini: entrambi forniscono agli utenti immagini che corrispondono alle loro query (basate su parole chiave, collegamenti, oppure altre immagini).

Inductive Reasoning – Ragionamento induttivo: un procedimento in cui si utilizzano prove e set di dati come premesse per giungere ad una conclusione specifica. Date le evidenze fornite la conclusione potrebbe essere probabile, ma non è certa.

Information Distance – Distanza informativa: una metrica per misurare la similarità tra due oggetti finiti. È utilizzata in molti algoritmi, ad esempio, nel clustering non supervisionato, per trovare i raggruppamenti di oggetti simili. [Vedi anche distanza di Levenshtein].

Information Retrieval – Recupero delle informazioni: un campo dell'informatica che si occupa di strumenti, processi e capability volti a estrarre, ordinare e organizzare informazioni rilevanti da fonti disparate, al fine di colmare un’esigenza informativa.

Information Theory - Teoria dell'informazione: un campo che studia la quantificazione matematica, la trasmissione e la codifica dell'informazione. È una delle basi del design informatico moderno, ad esempio nei modelli noisy channel e/o nella compressione dei dati memorizzati.

Innovation Diffusion – Diffusione dell'innovazione: la diffusione dell'intelligenza artificiale (IA) avrà un effetto moltiplicatore sulla crescita economica. Prendiamo il caso dell'auto senza conducente: l'enorme mole di dati generata dai sistemi di IA delle auto senza conducente darà ad altri attori l'opportunità di sviluppare nuovi servizi e prodotti. Nel settore delle assicurazioni, ad esempio, ci saranno nuove categorie di rischio da coprire e nuovi servizi data-enebled da offrire ai clienti che potranno generare nuovi flussi di entrate. E se ne potrà trarre vantaggio anche sul piano urbanistico, magari creando nuovi servizi di riscossione dei pedaggi stradali. Si può avere un impatto simile anche con altre tecnologie IA, e creare crescita in moltissimi settori adiacenti.

Intelligent Automation – Automazione intelligente: locuzione che indica una soluzione di automazione potenziata con capacità cognitive che consentono a programmi e macchine di apprendere, interpretare e rispondere. Lo stato dell'arte di questa tecnologia, già da tempo applicata nei sistemi di cruise control degli autoveicoli, è quello dell'auto a guida autonoma.

Intelligent Enterprise Strategy: approccio di gestione che applica tecnologia e nuovi paradigmi di servizio per migliorare le prestazioni aziendali.

Intelligent Products – Prodotti intelligenti: prodotti in grado di comunicare tra loro e con l'uomo su una rete globale come Internet. Esempi di tali prodotti nell'ambito dell'intelligenza artificiale sono Amazon Alexa®, i veicoli autonomi e i contatori intelligenti di energia.

Intelligent System – Sistema Intelligente: una macchina integrata con un computer connesso a Internet che ha la capacità di raccogliere e analizzare dati e comunicare con altri sistemi. È un sistema artificiale intelligente in grado di pensare e apprendere autonomamente e di adattarsi ai dati correnti.

Internet of Things (IoT) – Internet delle cose: espressione con cui si indica una rete in continua espansione di apparecchiature di rilevamento come sensori, telecamere e altri dispositivi connessi tra loro tramite Internet e in grado di comunicare e scambiarsi informazioni.

Interpretable AI: un framework che fornisce a chi non è esperto di scienza dei dati un metodo rigoroso di interpretazione dei modelli di machine learning, che va oltre metriche di qualità e misurazioni statistiche.

J

Julia Programming Language - Linguaggio di programmazione Julia: un linguaggio di programmazione multi-paradigma progettato per l'analisi numerica. Sempre più adottato nel campo dell'apprendimento automatico, riunisce programmazione funzionale, programmazione orientata agli oggetti e dynamic type casting.

K

K-fold Cross Validation - Convalida incrociata: procedura con cui, durante la taratura di un modello di machine learning, i dati per l’ddestramento vengono suddivisi in diversi sottoinsiemi; a ogni passaggio si esclude un sottoinsieme e lo si utilizza per convalidare il modello generato. Per validare il modello in termini di performance si ricorre ad una combinazione (media) delle misure di adattamento per fornire una stima delle performance più accurata.

K-Means Clustering - Algoritmo K-Means: algoritmo di clustering utilizzato nel machine learning per raggruppare dati non etichettati mediante l'assegnazione di punti dati ai cluster in base alla loro prossimità a un centroide.

K-Nearest Neighbors: algoritmo di machine learning in cui tutti i training case vengono memorizzati e i nuovi training case vengono raggruppati secondo la loro prossimità/similarità con quelli precedentemente classificati in base a una misura di similarità.

Knowledge Representation – Rappresentazione della conoscenza: branca dell'intelligenza artificiale che si occupa di rappresentare le informazioni della sfera reale in modo da renderle fruibili da un sistema informatico che le utilizzerà per risolvere compiti complessi, come effettuare diagnosi mediche o conversare in un linguaggio naturale. La rappresentazione della conoscenza nell'intelligenza artificiale descrive “le cose” come modelli di soluzioni. Tra i metodi di modellizzazione della conoscenza vi sono i linguaggi formali, come la logica del primo ordine, e la vettorizzazione dei dati, che permette la correlazione delle caratteristiche.

Knowledge-Based Systems – Sistemi basati sulla conoscenza: programmi per calcolatore in grado di trarre inferenze da un bagaglio di conoscenze precedenti per risolvere problemi complessi. La classificazione degli oggetti su Internet può essere un esempio attuale di questo tipo di programmi. In questo caso d'uso la base di conoscenza è molto ampia e include dati non strutturati, rendendo estremamente difficile il task di trovare un modello di dati specifico.

L

Levenshtein Distance - Distanza di Levenshtein: misura che esprime la similarità tra due parole o stringhe attraverso il numero minimo di modifiche che occorre apportare ai caratteri per trasformare una parola nell'altra.

Linear Algebra - Algebra lineare: branca della matematica che consente la manipolazione di equazioni lineari. Come linguaggio per esprimere e manipolare i dati, è un prerequisito fondamentale per comprendere l'apprendimento automatico.

Linear Regression – Regressione lineare: area dell'apprendimento automatico supervisionato che utilizza una funzione lineare per comprendere la relazione tra una variabile dipendente scalare e una o più variabili esplicative.

Logic Programming – Programmazione logica: uno stile di programmazione in cui l'esecuzione si basa su affermazioni di logica formale, come ad esempio la logica del primo ordine, detta anche dei predicati. Il linguaggio di programmazione logica per eccellenza è Prolog.

Longitudinal Study - Studio longitudinale: studio sperimentale osservazionale in cui i soggetti vengono esaminati ripetutamente per un lungo periodo di tempo, spesso per molti anni o decenni.

M

Machine Intelligence – Intelligenza delle macchine: locuzione che descrive le capacità di autoapprendimento ottenute da un computer grazie all'impiego di tecnologie di intelligenza artificiale, machine learning e deep learning.

Machine Learning: un tipo di intelligenza artificiale che consente ai sistemi di apprendere modelli dai dati, e di migliorarli, poi, attraverso l'esperienza. Quello del machine learning è un campo interdisciplinare che abbraccia teoria dell'informazione, teoria del controllo, statistica e informatica. Raccogliendo e classificando le informazioni, attraverso il machine learning è possibile migliorare le capacità di identificare tipi e forme di dati con poche o nessuna regola hard coded. Attraverso il riconoscimento di modelli, ad esempio, aumenterà l’accuratezza nell'identificazione di determinati oggetti o immagini.

Machine Perception – Percezione automatica: la capacità di un sistema di ricevere e interpretare dati provenienti dall'ambiente circostante con meccanismi simili a quelli della percezione sensoriale umana. In genere questa capacità si ottiene tramite hardware collegato.

Machine Translation – Traduzione automatica: traduzione di testo o parlato da una lingua all'altra eseguita da un computer. Ci sono due tipi di traduzione automatica: quella svolta dai sistemi basati sulla conoscenza, che attinge a dizionari, grammatiche e strumenti simili; e la traduzione automatica statistica, che ricava significati dall'analisi deep learning di testi bilingui.

Machine Vision – Visione automatica: ispezione e analisi automatizzata di immagini mediante sensori ottici. Applicazioni in campo industriale possono essere sistemi di guida robot, sistemi di ispezione automatica, monitoraggio di sicurezza e valutazione dei danni.

Mainframe: sistema utilizzato dalle grandi aziende per l'esecuzione di una serie di task di elaborazione dati che possono includere analisi statistiche, funzioni ERP e transazioni finanziarie. Negli anni '60 e '70 i mainframe venivano associati prevalentemente a IBM™, che all'epoca dominava il mercato. Restano comunque una risorsa chiave per molte grandi organizzazioni ed è probabile che lo saranno ancora per molti anni a venire.

Map and Reduce: procedura utilizzata per i set di big data, che mappa blocchi di dati per eseguire operazioni di filtraggio/classificazione prima di ridurre i dati aggiungendo un'operazione di riepilogo.

Max-Pooling: nelle reti neurali convoluzionali, il max-pooling è una tecnica con cui i cluster di neuroni di uno strato vengono combinati in un singolo neurone nello strato successivo scegliendo il valore massimo del cluster.

Memetics - Memetica: disciplina antropologica che si occupa dello studio delle idee (o memi) in chiave evoluzionistica darwiniana. In base a questo approccio la diffusione delle idee nelle culture è molto simile al modo di diffondersi dei geni, e imita l'evoluzione genetica anche nel ciclo vitale dei memi e nel modo in cui essi si combinano, mutano o si replicano in altri memi.

Minimum Description Length (MDL) - Minima lunghezza di descrizione: formalizzazione del principio del Rasoio di Occam che si usa per trovare il miglior modello (o descrizione) per rappresentare gli aspetti principali dei dati. La MDL presuppone che la rappresentazione più semplice e compatta dei dati sia la migliore e più probabile descrizione.

Minimum Viable Product – Prodotto minimo praticabile: tecnica di sviluppo molto usata dalle startup che permette di lanciare rapidamente nuovi prodotti o siti Web, valutarne la fattibilità e apportarvi rapidamente modifiche. Il set finale delle funzionalità verrà sviluppato solo dopo aver preso in considerazione il feedback dei primi utenti. Un esempio di prodotto minimo praticabile è la prima piattaforma di Groupon™, sviluppata con tecnologie di terze parti.

MNIST (Modified National Institute of Standards and Technology database): un noto dataset di cifre scritte a mano, utilizzato spesso nei benchmark di riconoscimento delle immagini. È usato spesso come esempio non banale di task di classificazione.

Mobile: termine che indica la modalità di accesso tramite smartphone o altri dispositivi mobili a Internet, e all'intera gamma di prodotti online (servizi, chiamate vocali, applicazioni, informazioni e contenuti). Il mobile è spesso inteso come un settore di mercato a sé stante.

Modello: una rappresentazione o simulazione di fenomeni del mondo reale. Esistono vari tipi di modelli: iconici, analogici, analitici. Nell'apprendimento automatico i modelli analitici vengono prodotti attraverso il processo di esecuzione di un algoritmo di apprendimento in relazione a un insieme di dati.

Model Training – Addestramento del modello: è il modo in cui l'intelligenza artificiale (IA) viene addestrata a svolgere i suoi compiti, e per molti versi è simile al processo di training del personale umano. Per garantire che le azioni e le decisioni dell'IA non svantaggino involontariamente una categoria di persone, i training data (o dati di addestramento) devono essere imparziali e completi. Una caratteristica fondamentale dell'IA responsabile è la capacità di dimostrare in che modo è stata addestrata.

Model Workflow – Modello di workflow: task all'interno di un flusso di lavoro che si possono mappare e analizzare per apportare modifiche positive al flusso di lavoro mediante tecniche di business process modeling (BPM) o modellazione dei processi aziendali.

Monte Carlo Method - Metodo Monte Carlo: metodo statistico che trae un risultato numerico a partire da campioni casuali generati attraverso simulazioni. Usato per la risoluzione di problemi in aree come l'ottimizzazione e le distribuzioni probabilistiche.

MxNet: framework open source di deep learning supportato da fornitori di servizi cloud come AWS® e Microsoft Azure®.

N

Named Entity Recognition (NER) – Riconoscimento di entità nominate: un task del natural language processing (NLP) il cui obiettivo è identificare automaticamente quali parole sono nomi propri (di singole persone, luoghi, società, marchi, ecc.). In quest'area il deep learning ha raggiunto grossi traguardi.

Narrow AI – IA ristretta: applicazione dell'intelligenza artificiale in cui il modello è ottimizzato per eseguire un numero limitato di task. Un esempio concreto può essere quello di un bot a cui vengono assegnati task di routine che necessitano di accuratezza e rapidità di esecuzione, come il recupero delle informazioni da un database di conoscenza.

Natural Language Processing (NLP) – Elaborazione del linguaggio naturale: campo dell'informatica finalizzato a comprendere o generare linguaggi umani, sia in forma di testo che di parlato. Il NLP ha due sottocampi di ricerca: Natural Language Understanding (NLU) e Natural Language Generation (NLG).

Natural Language Understanding (NLU) – Comprensione della lingua naturale: sottocampo di ricerca del NLP finalizzato alla costruzione di macchine che abbiano una capacità di comprensione della lettura tale da permettere all'uomo di comunicare con loro in modo naturale e di ricevere risposte appropriate. Tra le applicazioni commerciali più interessanti i sistemi di classificazione automatica di testi, come quelli che indirizzano le e-mail al settore appropriato per la gestione in base al contenuto, e quelli in grado di leggere e comprendere pienamente gli articoli di giornale.

Neural Networks – Reti neurali: una forma molto avanzata di sistema informatico. Le reti neurali del machine learning consistono in un insieme di “nodi” interconnessi che imitano il funzionamento della rete di neuroni del cervello biologico. Tra le applicazioni più comuni vi sono il riconoscimento ottico dei caratteri e il riconoscimento facciale.

Neural Turing Machine – Macchina neurale Turing: modello che combina il pattern-matching delle architetture di reti neurali con la programmazione e la memoria delle macchine di Turing.

Neuromorphic chip – Chip neuromorfo: un tipo di processore progettato per comportarsi come una rete neurale riproducendo in modo semplificato il funzionamento dei neuroni e delle sinapsi del cervello umano. Questa tecnologia promette di dare, in futuro, una grande accelerazione allo sviluppo delle applicazioni di intelligenza artificiale (IA) ed è ideale per task basati su analisi, come il rilevamento dei dati, la memoria associativa e il calcolo cognitivo. Nel 2017 Intel ha presentato “Loihi”, un prototipo di chip neuromorfo che imita le funzioni cerebrali imparando dai dati che ricava dall'ambiente circostante.2

O

Object detection – Rilevamento oggetti: task di segmentazione dell'immagine finalizzato a identificare uno o più oggetti del mondo reale in un'immagine o video digitale e localizzarli all'interno dell'immagine. I progressi nel deep learning hanno permesso di adottare questa tecnologia in diverse aree. È applicata ai sistemi di navigazione dei veicoli autonomi, al monitoraggio della folla tramite video analisi, e al controllo di qualità nei processi di produzione.

Open source platform – Piattaforma open source: qualsiasi programma il cui codice sorgente sia reso disponibile per l'uso o la modifica da parte di altri utenti o sviluppatori. Solitamente una piattaforma open source viene sviluppata come collaborazione pubblica e resa disponibile gratuitamente. Un esempio di piattaforma open source di intelligenza artificiale è TensorFlow® di Google. Esistono vari modelli di licenza per l'open source, che impongono alle organizzazioni che adottano queste piattaforme di far proliferare gli standard aperti. Linux è uno dei grandi successi del movimento open source.

Optical Character Recognition – Riconoscimento ottico dei caratteri: converte le immagini di testo digitato, scritto a mano o stampato in testo codificato digitalmente. Le fonti possono essere un documento scansionato, la foto di un documento, la foto di una scena, oppure un testo sovrapposto a un'immagine. Il riconoscimento ottico dei caratteri di Google™, ad esempio, è in grado di rilevare e convertire più di 248 lingue.

Oversegmentation – Oversegmentazione: processo per cui gli oggetti che vengono segmentati dalle immagini sono a loro volta suddivisi in frammenti separati. Lo scopo dell'oversegmentazione non è quello di segmentare un'immagine in oggetti distinguibili di alto livello, ma in regioni più piccole dette “super pixel” che sono approssimativamente uniformi per colore e texture. Nell'oversegmentazione si usa molto come linguaggio di programmazione Python.

P

P-Value - Valore P: valore associato al metodo statistico per misurare il livello di significatività in una verifica di ipotesi. In genere un valore p inferiore a 0,05 indica che l’ipotesi nulla (o ipotesi da testare) debba essere rifiutata, uno superiore a 0,05 indica che l’ipotesi nulla possa essere accettata.

Part of Speech Tagging - Tagging grammaticale: procedura di natural language processing (NLP) che attribuisce a ciascuna parola una determinata categoria grammaticale in base al contesto.

Perplexity - Perplessità: un indicatore dell'efficacia con cui un modello probabilistico può predire un campione nel contesto della misurazione statistica delle informazioni. BLEU, ad esempio, è un valore di perplessità per modelli di traduzione linguistica che misura la capacità del modello di tradurre da una lingua all'altra.

Personality Insights: insight ricavati dall'analisi di testi digitali non strutturati (email, post sui social media, ecc.) utilizzati per evidenziaretratti di personalità, bisogni e principi.

Predicate Calculus - Calcolo del predicato: sistema di logica formale che nelle sue affermazioni può fare uso di variabili quantificate. In base a questo sistema, detto logica del primo ordine o dei predicati, la frase 'tutti gli unicorni sono belli' può essere espressa così: 'per tutti X, tale che X è unicorno, X è bello'. Un altro tipo di quantificatore potrebbe essere 'Accenture è un'azienda'. Queste affermazioni non si potrebbero esprimere in logica preposizionale (booleana).

Predictive Analytics – Analisi predittiva: la pratica che utilizza dati storici per prevedere i risultati futuri. Combinando modelli matematici (o “algoritmi predittivi”) con dati storici, l'analisi predittiva calcola la probabilità con cui può accadere un evento. L'analisi predittiva basata su machine learning veniva utilizzata da tempo ', ma fino a poco tempo fa le mancavano tre funzioni che sono d'importanza cruciale per generare un vero valore di marketing: scalabilità, velocità e applicabilità.

Predictive Search – Ricerca predittiva: funzione che, basandosi sulla frequenza delle ricerche, riesce a prevedere la query di ricerca di un utente mentre viene digitata, fornendo un menu a tendina di suggerimenti che cambia man mano che l'utente aggiunge parole alla query. Google™ ha introdotto nella ricerca predittiva anche la funzione di completamento automatico, che aiuta gli utenti a cercare e ottenere risultati più rapidamente, ed è stata ulteriormente sviluppata in Google Now®, che, basandosi sulle abitudini di ricerca, dà agli utenti le informazioni di cui probabilmente hanno bisogno.

Predictive Systems – Sistemi predittivi: tra le applicazioni più adottate del machine learning, i sistemi predittivi utilizzano tecnologie intelligenti che permettono ad esempio ai siti commerciali di visualizzare i prodotti che hanno più probabilità di piacere ai clienti. Usando l'apprendimento automatico per tracciare le interazioni e apprendere preferenze e comportamenti d'acquisto, lo store personalizza con raccomandazioni mirate le visite successive del cliente.

Predictor - Predittore: termine che indica una variabile osservata che, essendo correlata a un'altra variabile, può essere utilizzata per prevederne il valore attraverso un modello di IA.

Prepositional Logic - Logica preposizionale: detta anche logica booleana, è la logica degli enunciati dichiarativi con valore di verità. In questa logica non è possibile avere variabili per definire previsioni o quantificare entità.

Principal Component Analysis - Analisi delle componenti principali: tecnica utilizzata nel machine learning, con l’obiettivo di ridurre il numero di predittori. Ossservando la varianza spiegata si riduce il numero di predittori utilizzati pur mantenendo la maggior parte delle informazioni.

Pruning – Criterio di potatura: in presenza di alberi decisionaliprocesso di pulizia per eliminare le soluzioni indesiderate. Rendendo il modello più semplice la potatura limita il numero di decisioni che possono essere prese dalle macchine Permettendo però di ottenere algoritmi più robusti e generalizzabili, ovvero meno proni ad adattarsi ai dati di training.

Python™: linguaggio di programmazione di alto livello molto utilizzato nell'apprendimento automatico. Con Python™ è possibile programmare un'IA in poche linee di codice, grazie a librerie di manipolazione del dato e intelligenza artificiale come a NumPy®, Pandas® e Scikit-learn®. Python™ viene utilizzato spesso per il clustering e la “modellazione predittiva”, oltre che per l'apprendimento di concetti e funzioni.

PyTorch: libreria open-source basata su Python che si usa per eseguire task come l'elaborazione del linguaggio naturale.

Q

Quantum computing – Calcolo quantistico: settore emergente delle scienze informatiche che utilizza la meccanica quantistica come sistema di elaborazione delle informazioni. Come per le tradizionali scienze dell'informazione, questo campo include sia lo studio teorico dell'informatica quantistica che lo sviluppo fisico di sistemi che ne sfruttano le potenzialità.

R

Recommendation Systems - Sistemi di raccomandazione: una sottoclasse di sistema di filtraggio delle informazioni che cerca di prevedere la “valutazione” o “preferenza” che un utente darebbe a un prodotto. Nel machine learning i sistemi di raccomandazione monitorano e apprendono le scelte e il comportamento degli utenti allo scopo di fornire suggerimenti pertinenti. Un esempio è il sistema di suggerimento personalizzato di nuovi contenuti di Netflix™.

Recurrent Neural Network (RNN) – Rete neurale ricorrente: un tipo di rete neurale artificiale utilizzato per comprendere le informazioni sequenziali e prevedere le probabilità di follow-on. Le reti neurali ricorrenti sono molto usate nell'elaborazione del linguaggio naturale, con applicazioni nella modellazione del linguaggio e nel riconoscimento vocale.

Regression – Regressione: algoritmi che si usano per analizzare una serie di dati che consistono in una variabile dipendente e una o più variabili indipendenti. Tra le numerose aree di utilizzo vi sono la modellizzazione della risposta ai farmaci, applicazioni marketing (es: modelli di propensione) e le previsioni immobiliari e finanziarie.

Regression SVM – Regressione SVM: benché impiegate principalmente per analisi di classificazione, le macchine a vettori di supporto (o SVM, dall'inglese Support-Vector Machines) possono servire anche per ordinare i dati utilizzati nell'analisi di regressione (modellando le relazioni tra variabili di risposta e variabili predittive). I modelli prodotti dalla regressione vettoriale di supporto utilizzano solo un sottoinsieme di dati di addestramento poiché la loro funzione di costo ignora tutti i dati di addestramento vicini alla previsione del modello.

Reinforcement Learning – Apprendimento per rinforzo: un tipo di machine learning basato su un algoritmo che cerca di adattarsi all’ambiente, dove l'apprendimento avviene attraverso un ciclo di feedback di “ricompense” opportunamente distribuite. Per comprenderne il principio di funzionamento si può immaginere che quando gli viene fornito un set di dati, l'algoritmo tratta l'ambiente come un gioco, e ogni volta che esegue un'azione gli viene detto se ha vinto o ha perso. Questo gli permette di crearsi una memoria sia delle “mosse” giuste che di quelle sbagliate. AlphaGo® e AlphaZero® di DeepMind sono due buoni esempi delle potenzialità dell'apprendimento per rinforzo.

ReLU: acronimo che sta per Rectified Linear Unit (unità lineare rettificata), una funzione di attivazione non lineare utilizzata nelle reti neurali, molto simile alla funzione sigmoide e/o alla funzione Tanh. Recentement la funzione di attivazione ReLU è stata riconosciuta come la funzione di attivazione più utilizzata nel campo della deep neural network poiché aiuta a risolvere il problema della scomparsa/esplosione del gradiente.

Representation Learning - Apprendimento Rappresentativo: classe di metodi di machine learning in cui le feature vengono apprese automaticamente da un algoritmo. Il deep learning è una forma di apprendimento rappresentativo.

Residual Network (Resnet) - Rete residua: un'architettura avanzata di rete neurale di deep learning, sviluppata da Microsoft nel 20153, che è diventata l'architettura di molti modelli di riconoscimento delle immagini. I modelli ResNet molto profondi (> 50 strati) possono essere addestrati a svolgere molti task complessi. Prima che venissero sviluppate le ResNet l'aggiunta di più strati generalmente non determinava un miglioramento dei modelli.

Responsible AI – IA responsabile: un'importante capability emergente per le organizzazioni, che punta a rendere i sistemi di intelligenza artificiale più trasparenti, affidabili e interpretabili, per poter affrontare in modo sistematico le questioni etiche e di conformità alla legge. L'IA responsible di Accenture è in prima linea nella leadership di pensiero, e lavora per costruire l'infrastruttura, i processi e le competenze necessari per aiutare i nostri clienti a maturare.

Restricted Boltzmann Machines (RBM) - Macchine di Boltzmann ristrette: forme primitive di reti neurali stocastiche a due strati che generalmente vengono impilate per formare reti più grandi. Apprezzate come componente chiave dei migliori progetti presentati al Netflix Prize per lo sviluppo di un motore di raccomandazione per film avanzato.4

Robotic process automation (RPA) – Automazione robotica dei processi: tecnologia che permette, attraverso un software o un “robot”, di acquisire e interpretare gli applicativi esistenti per elaborare transazioni, manipolare dati, generare risposte e comunicare con altri sistemi digitali. Nel settore finanziario l'automazione robotica dei processi possono gestire molti task e processi ripetitivi, ad esempio l'elaborazione delle richieste di prestito.

Root Mean Square Error - Scarto quadratico medio: la radice quadrata della media del quadrato dello scarto tra il valore modellato e il valore effettivo osservato; è spesso usato come cifra di merito per giudicare la qualità di un modello di machine learning.

Rules-based Algorithms – Algoritmi basati su regole: questi algoritmi sfruttano una serie di istruzioni ‘if-then’ che utilizzano un insieme di asserzioni da cui vengono create regole che stabiliscono come agire in base a tali asserzioni. Gli algoritmi basati su regole consentono processi decisionali intelligenti e ripetibili. Sono anche usati per immagazzinare e manipolare la conoscenza.

S

Scale - Scalabilità: capacità di un sistema di aumentare o diminuire di scala in funzione delle necessità.Con l'intelligenza artificiale è possibile creare modelli capaci di gestire enormi quantità di dati, fornendo prestazioni predittive in tempo reale ineguagliabili e insight molto più accurati e perciò preziosi dal punto di vista decisionale.

Semantic segmentation – Segmentazione semantica: forma complessa di segmentazione dell'immagine che raggruppa le parti di un'immagine appartenenti allo stesso oggetto e le etichetta scegliendo tra centinaia di categorie. Questa capacità permette di abilitare numerose applicazioni.

Signal Processing – Elaborazione dei segnali: tecnica per campionare e modificare i segnali allo scopo di migliorarli, attuata attraverso vari processi e algoritmi, come la Trasformata di Fourier o il Filtro di Kalman.

Smart Apps – App intelligenti: programmi software progettati per eseguire determinate funzioni direttamente per l'utente o, in alcuni casi, per un'altra applicazione. Tra i vari esempi, Siri® di Apple, Alexa® di Amazon, i veicoli a guida autonoma e i droni senza equipaggio.

Smart Machines – Macchine intelligenti: le tecnologie smart machine abilitano i dispositivi tramite tecnologie di calcolo machine-to-machine e/o cognitive come l'intelligenza artificiale, il machine learning e il deep learning. Le macchine intelligenti sono in grado di ragionare, risolvere problemi, prendere decisioni e intraprendere azioni.

Smart Personalization – Personalizzazione intelligente: tecnologia che, tramite algoritmi intelligenti e un determinato bagaglio di conoscenze (posizione, dati demografici, device behavior e comportamenti pregressi) è in grado di fornire informazioni, offerte ed esperienze personalizzate. Ne è un esempio Google News®, un motore di ricerca intelligente che personalizza la ricerca in base agli interessi degli utenti.

Soft Robotics (robotic process automation/RPA) – Automazione leggera (automazione robotica dei processi/RPA): espressione che si riferisce all'impiego di software con funzionalità di intelligenza artificiale e machine learning per l'automazione di task ripetitivi e voluminosi e processi ordinari (come assistenza clienti, operazioni di calcolo e manutenzione registri) senza dover trasformare i sistemi IT esistenti.

Software: l'insieme di programmi e altre informazioni operative utilizzato da un computer.

Speech Analytics – Analisi conversazioni: processo che, tramite l'analisi delle fonti vocali come le chiamate registrate dei clienti, ricava insight che permettono di migliorare la comunicazione e le future interazioni con la clientela. È un metodo ampiamente utilizzato nei call center, dove permette di raccogliere informazioni su customer satisfaction, tasso di abbandono, rendimento degli agenti ed efficacia delle campagne.

Speed & Application – Velocità e applicazione: L'Intelligenza Artificiale (IA) è in grado di svolgere in pochi attimi lavori che a noi richiederebbero anni, e di fornirci, attraverso la creazione di modelli predittivi, supporto in tempo quasi reale nei processi decisionali. Nella ricerca, ad esempio, di un prodotto online, un'IA di marketing è in grado di elaborare le informazioni (passate e presenti) dell'utente e pubblicare un annuncio pertinente ancora prima che si sia caricata la home page del sito. In assenza di intelligenza artificiale, un modello predittivo non sarebbe in grado di gestire così tanti dati in così poco tempo e non sarebbe in grado di agire da solo. Combinata con l'intelligenza artificiale, invece, l'analisi predittiva diventa più veloce, più intelligente e più azionabile.

Statistical Machine Translation – Traduzione automatica statistica: processo di traduzione di documenti che analizza statisticamente un corpus di testi bilingue ed estrae modelli utente. Il vantaggio più significativo di questo metodo rispetto a un approccio basato su regole è l'uso efficiente delle risorse sia umane che di dati.

STEM: Acronimo di “science, technology, engineering, and mathematics”, STEM indica l'approccio integrato applicato alle materie scientifiche, che sono salite alla ribalta in quanto aree di studio essenziali per supportare lo sviluppo di imprese tecnologiche. Politici e altri leader hanno espresso un po' ovunque il timore che gli studenti non siano abbastanza preparati a lavorare nei settori di carriera attualmente in espansione e hanno messo in atto politiche e programmi per incoraggiare una maggiore diffusione delle materie STEM.

Strong AI – IA forte: l'idea che un programma per computer sia in grado di funzionare in modo simile alla mente umana in termini di percezione, convinzioni ed altre capacità cognitive associate all'essere umano.

Structured Data – Dati strutturati: un insieme di informazioni con un alto grado di organizzazione, che possono essere coerentemente incluse in un database relazionale ed esaminate rapidamente tramite algoritmi di ricerca elementari e/o altre operazioni di ricerca.. I dati strutturati generati da macchine sono in aumento e includono i dati sensoriali e quelli finanziari.

Supervised Learning – Apprendimento supervisionato: tipologia di machine learning in cui un algoritmo prende un set di dati etichettati (cioè dati che sono stati organizzati e descritti), ne deduce le caratteristiche chiave di ciascuna etichetta e impara a riconoscerle in nuovi set di dati. Addestrando ad esempio a un algoritmo con una serie di immagini etichettate di gatti, lui imparerà a riconoscere i gatti e a identificarli in immagini che non ha mai visto.

Support Vector Machines (SVM) – Macchine a vettori di supporto: algoritmi di apprendimento automatico supervisionato utilizzati per l'analisi di regressione e di classificazione. In quest'ultima casistica rientrano categorizzazione dei testi, classificazione delle immagini e riconoscimento della grafia.

T

Temporal Difference Learning Method - Apprendimento della differenza temporale: sistema di apprendimento per rinforzo progettato per prevedere valori futuri per un sistema sconosciuto parziale. Inventato da Rich Sutton, è stato utilizzato con successo in molte aree di apprendimento delle strategie di gioco. Un noto esempio di applicazione è il programma TD-backgammon, che è stato il primo sistema artificiale in grado di giocare a backgammon a livello esperto.

TensorFlow®: una suite di strumenti open source per applicazioni di deep learning sviluppata da Google™. Torch e Theano sono prodotti simili.

Tensor Processing Unit (TPU): Come la GPU, la TPU è un processore proprietario per IA progettato da Google™. Ma a differenza delle GPU, le TPU sono studiate per eseguire un volume elevato di calcoli a bassa precisione, che consentono l'implementazione di modelli IA con consumi energetici decisamente ridotti.

Thompson Sampling - Campionamento di Thompson: nota anche come campionamento posteriore, è un euristica sviluppata da William Thompson negli anni '30 del secolo scorso. Nel 2012 ha suscitato notevole interesse dimostrandosi efficace nella scelta della strategia ottimale.

Training Data: dati di addestramento, sono i dati utilizzati per addestrare un algoritmo di apprendimento automatico. Nel machine learning di solito i dati sono suddivisi in tre insiemi: dati di addestramento, di convalida e di test. In generale, più accurati e completi sono i dati di addestramento, migliore sarà la prestazione dell'algoritmo.

Transfer Learning: tecnica di machine learning per cui un algoritmo che ha imparato a svolgere un task, ad esempio a riconoscere le auto, sarà in grado di sfruttare la conoscenza acquisita quando dovrà apprendere un task diverso ma correlato, ad esempio distinguere i cani. TensorFlow®, sviluppato da Google™, è un esempio di tecnologia abilitata al transfer learning.

Transparency – Trasparenza: l'intelligenza artificiale (IA) deve essere trasparente sia nelle azioni che compie, che nelle decisioni che prende. Perché ciò avvenga è necessario un sistema che documenti in che modo arriva a prendere le sue decisioni. Trasparenza vuol dire anche che devono esserci strutture di governance adatte a monitorare l'IA e, se necessario, a ottimizzarne il processo decisionale.

Tuning: per poter implementare su larga scala i modelli di intelligenza artificiale è necessario sottoporli al tuning, un processo generalmente non intuitivo che richiede molto tempo, e in cui si ricercano i valori ottimali dei parametri (detti iperparametri) che possono incidere notevolmente sulla precisione del modello.

Turing Test – Test di Turing: ideato da Alan Turing, è detto anche “gioco dell'imitazione”, e consente di stabilire se una macchina è intelligente. Durante il test viene chiesto a un valutatore di giudicare la conversazione tra una macchina progettata per fornire risposte umane e un essere umano. La macchina supera il test se il valutatore non è in grado di distinguere tra i due. Sin dalla sua ideazione, il test è sempre stato un pilastro teorico dell'IA.

U

Unsupervised Learning – Apprendimento non supervisionato: un tipo di machine learning in cui l'algoritmo non ha bisogno di dati con etichette predefinite, perché li classifica esaminandone somiglianze o anomalie e raggruppandoli di conseguenza. Un algoritmo di apprendimento non supervisionato può esaminare un gran numero di immagini non etichettate di cani e gatti e dividerle in gruppi diversi in base alle somiglianze senza però sapere che in un gruppo ci sono immagini di “gatti” e nell'altro immagini di “cani”.

Unstructured Data – Dati non strutturati: informazioni che non hanno un modello di dati predefinito o non sono organizzate in modo predefinito. I dati non strutturati possono anche non essere testuali (immagini JPEG e file MP3), e includono e-mail, video, foto, file audio, documenti di elaborazione testi, presentazioni e pagine web. Oggi strumenti di analisi dei dati non strutturati come il natural language processing, l'analisi delle conversazioni e l'analisi video consentono alle macchine di interpretare gli enormi volumi di dati non strutturati a cui hanno accesso le organizzazioni.

Utterance – Frase: qualsiasi input di un utente umano a un chatbot o altro sistema di IA conversazionale. Le frasi possono essere sia scritte che parlate. Per capire cosa fare, un chatbot deve comprendere l'intento dell'enunciato. La frase “Voglio richiedere un prestito” solleciterà ad esempio un chatbot bancario a rispondere con informazioni e processi pertinenti.

V

Verification – Verifica: procedura di programmazione che serve a verificare se un algoritmo sta producendo l'output corretto (in base ai parametri definiti).

Video Analytics – Analisi video: tecnologia che analizza automaticamente le immagini video con algoritmi di deep learning allo scopo di rilevare e determinare eventi temporali e spaziali. È utilizzata in molti settori (intrattenimento, sicurezza, assistenza sanitaria, vendita al dettaglio e trasporti).

Virtual Agent – Agente virtuale: sistema di intelligenza artificiale che fornisce un'interfaccia utente simile a quella umana. Gli agenti virtuali sono in grado di tenere una conversazione, rispondere in modo intelligente alle domande e annuire mentre parlano.

Virtual Reality – Realtà virtuale: realtà di ambienti immersivi 3-D creata da software e hardware interattivi. Le applicazioni di realtà virtuale creano esperienze molto coinvolgenti, che non solo vengono viste, ma anche vissute dall'utente tramite un visore (HMD): indossandolo, l'utente si trova immerso in un ambiente virtuale 3D a dimensioni naturali che infrange le barriere imposte dallo schermo del televisore o del computer. Ad aumentare la sensazione di realtà, dispositivi palmari interattivi, come i motion tracker, che rispondono ai movimenti fisici compiuti dall'utente.

Visual Search – Ricerca visiva: ricerca che utilizza come query di ricerca online un'immagine invece che testo. Il motore di ricerca visiva di eBay™, ad esempio, utilizza visione artificiale e tecnologie di deep learning per confrontare le immagini che caricano gli acquirenti per trovare i prodotti in vendita sul sito. La ricerca visiva avanzata è in grado di identificare il contenuto di una foto: nel caso di un ristorante, ad esempio, può fornire informazioni supplementari come il numero di telefono e gli orari di apertura.

W

Weak AI – IA debole: nota anche come IA ristretta, è un'applicazione di intelligenza artificiale (IA) in cui il modello è stato ottimizzato per eseguire un numero limitato di task. È applicabile a tutte le attività di routine che richiedono precisione e velocità di esecuzione, ad esempio il recupero delle informazioni da un database di conoscenze, e che possono essere assegnate a un bot.

Wearable Technology – Tecnologia indossabile: dispositivi elettronici intelligenti e indossabili progettati per migliorare le attività quotidiane. Raccogliendo dati e trasmettendoli tramite un'app allo smartphone dell'utente, sono ad esempio in grado di dare all'utente un feedback in tempo reale sulle sue prestazioni sportive o sul suo stato di salute, oltre che consigli personalizzati per migliorarle. Fitbits™, Apple Watch® e Samsung Gear Fit 2 Pro® sono tre esempi di questa tecnologia applicata al settore sportivo.

Web 2.0: espressione coniata nel 2004 per descrivere la seconda fase di sviluppo del World Wide Web, caratterizzata dall'evoluzione delle pagine, che da oggetti statici si sono trasformate in pagine con contenuti dinamici, interattivi e user-generated, e dall'enorme sviluppo dei social media. Altre caratteristiche del Web 2.0 sono il banking online e l'accesso all'e-mail in remoto.

Word2Vec: modello ideato da Tomas Mikolov che impara a rappresentare (incorporare) le parole in uno spazio vettoriale. Le parole 'Re' e 'Regina', per esempio, vengono localizzate in modo simile a 'Uomo' e 'Donna', e rappresentate in forma di calcolo algebrico semplice come 'Re - uomo + donna = Regina'. Questi modelli di incorporamento linguistico possono servire a migliorare molti task di elaborazione del linguaggio naturale, ad esempio l'analisi del sentiment.

X

XGboost: nota implementazione dell'algoritmo degli alberi di gradient-boosting. divenuta popolare dopo essere stata utilizzata con successo in molte hackathon di machine learning, come quelle di Kaggle, oggi Xgboost è l'algoritmo tra i più usati per i problemi di classificazione.

Z

Zero-Shot Learning: la capacità di un modello di apprendere da informazioni o esempi sui quali non è stato addestrato.


Fonti

[1] Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton. ImageNet Classification with Deep Convolutional Neural Networks. Curran Associates Inc., 2012. https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

[2] Intel Newsroom, “Intel’s new self-learning chip promises to accelerate artificial intelligence ,“ 25 settembre 2017. https://newsroom.intel.com/editorials/intels-new-self-learning-chip-promises-accelerate-artificial-intelligence/#gs.S5PVQJkT

[3] Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun. Deep Residual Learning for Image Recognition. Microsoft Research, 2015. https://arxiv.org/pdf/1512.03385.pdf

[4] Andreas Toscher, Michael Jahrer. The BigChaos Solution to the Netflix Grand Prize. AT&T Labs – Research, 2009. https://www.netflixprize.com/assets/GrandPrize2009_BPC_BigChaos.pdf

This document is produced by consultants at Accenture as general guidance. It is not intended to provide specific advice on your circumstances. If you require advice or further details on any matters referred to, please contact your Accenture representative.

This document makes descriptive reference to trademarks that may be owned by others. The use of such trademarks herein is not an assertion of ownership of such trademarks by Accenture and is not intended to represent or imply the existence of an association between Accenture and the lawful owners of such trademarks.

Copyright © 2018 Accenture. All rights reserved. Accenture, its logo, and High Performance. Delivered. are trademarks of Accenture.