AI trend nel 2021 – Il mercato dell’intelligenza artificiale ha registrato un record in equity funding di 33 miliardi di dollari nel corso del 2020.
Le organizzazioni sono alla ricerca di best practice per la raccolta e l’archiviazione dei big data, per lo di sviluppo di modelli di intelligenza artificiale, per il monitoraggio della performance e l’automazione dei processi.
Un interessante report pubblicato da CBInsights passa in rassegna la gestione dei dati a livello enterprise, con particolare focus sul settore AI, sull’automazione in ambito IT e Operations e sulle soluzioni “no-code”, che rendono lo sviluppo dei modelli AI accessibile a tutti i livelli di business.
Ad esempio, il settore delle AIOPS, applicativi che utilizzano il machine learning per automatizzare l’IT e le funzioni DevOps, ha registrato un considerevole aumento di capitalizzazione, a scapito di un trend in lieve decrescita nel numero di deal, passando dai 433 milioni di dollari del 2019 a 620 milioni di dollari nel 2020.
Il decollo delle soluzioni senza codice
AI trend nel 20121 – Tra i settori in maggior crescita, le piattaforme AI “no code”, come crafter.ai, che rendono accessibile lo sviluppo di applicazioni di intelligenza artificiale ai profili di business management. Le soluzioni “senza codice” mettono i team di business, senza risorse IT e senza esperienza di data engineering, nelle condizioni di integrare applicazioni di machine learning all’interno dei flussi aziendali, di automatizzare il processo dei dati, ridurre i tempi e i costi di sviluppo e ridurre il gap delle competenze in ambito machine learning.
“La pandemia da Covid-19 ha accelerato il bisogno di sviluppare soluzioni no-code, applicazioni low-code e flussi, in ore o giorni e non in settimane o mesi”
Satya Nadella, Microsoft CEO
Dal 2017 al 2020 le big tech come Google, Apple, Microsoft e Amazon hanno introdotto soluzioni di no code AI per lo sviluppo di applicazioni di computer vision, esperimenti di machine learning in-browser, classificazione di immagini, sviluppo di modelli, applicativi di business intelligence, scelta automatica degli algoritmi.
Stream Processing
Un altro settore di successo è rappresentato dal mercato dello streaming analytics che si prevede raggiunga un valore di 52 miliardi di dollari nel 2027.
Con l’aumento delle sorgenti di dati in tempo reale, in particolare con la proliferazione dell’Internet of Things, i metodi tradizionali di archiviazione e analisi dati potrebbero risolversi in una perdita di opportunità per le aziende che vogliono oggi analisi istantanee da utilizzare nel proprio decision making. Per questo cresce l’interesse nelle tecnologie di stream processing dove i dati sono visti come flussi di eventi, costantemente generati.
Lo stream processing potenzia le applicazioni AI nella capacità di risposta in tempo reale e si basa sull’utilizzo del machine learning.
Analisi di dati non strutturati
Il numero alternativo di sorgenti di dati è notevolmente aumentato e include oggi sensori IoT, immagini, post sui social media e video di sorveglianza.
Circa l’80% di questi big data non è strutturato, ciò significa che non ha un formato predefinito, rendendone più difficile la ricerca. Grazie all’AI le aziende possono oggi accedere e indagare i dati non strutturati, e in particolare assistiamo a una crescita nel numero di brevetti legati all’ambito dei dati non strutturati, come trascrizioni audio, video analytics, immagini geospaziali e document analysis.
Modelli Transformer-based
Nell’ambito del Natural Language Processing assistiamo allo sviluppo dei modelli “Transformer-based”. Si tratta di un nuovo modello di comprensione del linguaggio naturale, chiamato Transformer, introdotto da Google già nel 2017, in grado di comprendere il contesto delle parole e le relazioni tra le frasi analizzando grandi quantitativi di testo, rivoluzionando l’ambito delle traduzioni, delle comprensioni della lettura, del gaming e della sentiment analysis.
Nel 2020, Facebook ha reso disponibile in open-sourcing il modello di traduzione multilingua M2M-100: in grado di tradurre fino a 100 lingue, senza centrare la comprensione sull’inglese e basato su un dataset di 7,5 miliardi di frasi.
Data Governance and explainable AI
Un aspetto fondamentale per le aziende che utilizzano l’AI sono le politiche di data governance, considerate alla base dell’eticità dell’intelligenza artificiale. Definire protocolli per l’acquisizione, la gestione e l’uso dei dati è un aspetto cruciale dello sviluppo di soluzioni AI etiche e della prevenzione della presenza di bias cognitivi negli algoritmi. Una forte governance è il fondamento della “comprensibilità” dell’AI, con cui si intende un sistema di intelligenza artificiale che produca risultati comprensibili lato umano.
Le aziende potrebbero non essere consapevoli di cosa un algoritmo stia “vedendo” in fase di input di dati o perchè arrivi a una certa conclusione .Per esempio, nei prestiti, dove i consumatori sono protetti contro la discriminazione, le banche devono avere visibilità del funzionamento intrinseco degli algoritmi. Per adeguarsi a regolamentazioni come GDPR e CCPA, le aziende devono focalizzarsi su aspetti come l’explainability, il bias monitoring e politiche di governance.
La rilevanza del settore è dimostrata dall’impennata dell’attenzione dei media sui temi dell’AI explainability, che ha raggiunto il picco massimo nel 2020.
Fonte:
https://www.cbinsights.com/reports/CB-Insights_AI-Trends-2021.pdf
Potrebbe anche interessarti: