Intelligenza artificiale oggi: cos'è l'hype e cosa è reale?

Prendi una rivista, scorri i blog tecnologici o semplicemente chatta con i tuoi colleghi a una conferenza di settore. Noterai presto che quasi tutto ciò che esce dal mondo della tecnologia sembra avere qualche elemento di intelligenza artificiale o apprendimento automatico. Il modo in cui viene discussa l'intelligenza artificiale, inizia a suonare quasi come una propaganda. Ecco l'unica vera tecnologia in grado di risolvere tutte le tue esigenze! L'intelligenza artificiale è qui per salvarci tutti!

Sebbene sia vero che possiamo fare cose incredibili con le tecniche basate sull'intelligenza artificiale, generalmente non incarniamo il pieno significato del termine "intelligenza". L'intelligenza implica un sistema con il quale gli esseri umani possono avere una conversazione creativa, un sistema che ha idee e che può svilupparne di nuove. In questione è la terminologia. L '"intelligenza artificiale" oggi descrive comunemente l'implementazione di alcuni aspetti delle capacità umane, come il riconoscimento di oggetti o del parlato, ma certamente non l'intero potenziale dell'intelligenza umana.

Quindi l '"intelligenza artificiale" probabilmente non è il modo migliore per descrivere la "nuova" tecnologia di apprendimento automatico che stiamo utilizzando oggi, ma quel treno ha lasciato la stazione. In ogni caso, mentre l'apprendimento automatico non è ancora sinonimo di intelligenza artificiale, è certamente diventato più potente, più capace e più facile da usare. L'intelligenza artificiale, che significa reti neurali o apprendimento profondo e apprendimento automatico "classico", sta finalmente per diventare una parte standard del kit di strumenti di analisi.

Ora che siamo entrati nella rivoluzione (o meglio nell'evoluzione) dell'intelligenza artificiale, è importante guardare come è stato cooptato il concetto di intelligenza artificiale, perché e cosa significherà in futuro. Approfondiamo per indagare sul perché l'intelligenza artificiale, anche una sua versione leggermente fraintesa, ha attirato l'attuale livello di attenzione.

La promessa dell'IA: perché adesso?

Nell'attuale ciclo di hype, l'intelligenza artificiale o l'apprendimento automatico sono spesso rappresentati come tecnologie relativamente nuove che sono improvvisamente maturate, passando solo di recente dalla fase concettuale all'integrazione nelle applicazioni. È opinione generale che la creazione di prodotti di machine learning autonomi sia avvenuta solo negli ultimi anni. In realtà, gli importanti sviluppi nell'intelligenza artificiale non sono nuovi. L'intelligenza artificiale di oggi è una continuazione dei progressi raggiunti negli ultimi due decenni. Il cambiamento, le ragioni per cui stiamo assistendo all'intelligenza artificiale apparire in così tanti altri posti, non riguarda tanto le tecnologie AI stesse, ma le tecnologie che le circondano, ovvero la generazione di dati e la potenza di elaborazione.

Non ti annoierò citando quanti zettabyte di dati memorizzeremo presto (quanti zeri ha comunque uno zettabyte?). Sappiamo tutti che la nostra capacità di generare e raccogliere dati sta crescendo in modo fenomenale. Allo stesso tempo, abbiamo assistito a un aumento sbalorditivo della potenza di calcolo disponibile. Il passaggio da processori single-core a multi-core, nonché lo sviluppo e l'adozione di unità di elaborazione grafica generiche (GPGPU) forniscono potenza sufficiente per il deep learning. Non abbiamo nemmeno più bisogno di gestire il calcolo internamente. Possiamo semplicemente affittare la potenza di elaborazione da qualche parte nel cloud.

Con così tanti dati e molte risorse di calcolo, i data scientist sono finalmente in grado di utilizzare i metodi sviluppati negli ultimi decenni su una scala completamente diversa. Negli anni '90, ci sono voluti giorni per addestrare una rete neurale a riconoscere numeri su decine di migliaia di esempi con cifre scritte a mano. Oggi, possiamo addestrare una rete neurale molto più complessa (cioè "profonda") su decine di milioni di immagini per riconoscere animali, volti e altri oggetti complessi. E possiamo implementare modelli di deep learning per automatizzare attività e decisioni nelle applicazioni aziendali tradizionali, come il rilevamento e la previsione della maturità della produzione o l'instradamento delle chiamate in arrivo.

Questo può sembrare sospettosamente come costruire una vera intelligenza, ma è importante notare che al di sotto di questi sistemi, stiamo semplicemente regolando i parametri di una dipendenza matematica, sebbene piuttosto complessa. I metodi di intelligenza artificiale non sono efficaci per acquisire "nuove" conoscenze; imparano solo da ciò che viene loro presentato. In altre parole, l'intelligenza artificiale non fa domande sul "perché". I sistemi non funzionano come i bambini che interrogano costantemente i loro genitori mentre cercano di capire il mondo che li circonda. Il sistema sa solo cosa è stato alimentato. Non riconoscerà nulla di cui non fosse stato informato in precedenza.

In altri scenari di machine learning "classici", è importante conoscere i nostri dati e avere un'idea di come vogliamo che il sistema trovi i modelli. Ad esempio, sappiamo che l'anno di nascita non è un fatto utile per i nostri clienti, a meno che non convertiamo questo numero nell'età del cliente. Conosciamo anche l'effetto della stagionalità. Non dovremmo aspettarci un sistema per apprendere i modelli di acquisto della moda indipendentemente dalla stagione. Inoltre, potremmo voler iniettare alcune altre cose nel sistema per imparare oltre a ciò che già sa. A differenza del deep learning, questo tipo di machine learning, che le aziende utilizzano da decenni, è progredito più a un ritmo costante.

I recenti progressi nell'intelligenza artificiale sono avvenuti principalmente in aree in cui i data scientist sono in grado di imitare le capacità di riconoscimento umano, come il riconoscimento di oggetti in immagini o parole in segnali acustici. Imparare a riconoscere schemi in segnali complessi, come flussi audio o immagini, è estremamente potente, abbastanza potente che molte persone si chiedono perché non stiamo utilizzando tecniche di apprendimento profondo ovunque. 

La promessa dell'IA: e adesso?

La leadership organizzativa potrebbe chiedersi quando dovrebbero usare l'intelligenza artificiale. Ebbene, la ricerca basata sull'intelligenza artificiale ha compiuto enormi progressi quando si tratta di reti neurali che risolvono problemi legati all'imitazione di ciò che gli esseri umani fanno bene (il riconoscimento degli oggetti e il riconoscimento vocale sono i due esempi più importanti). Ogni volta che ci si chiede: "Cos'è una buona rappresentazione di un oggetto?" e non riesci a trovare una risposta, può valere la pena provare un modello di apprendimento profondo. Tuttavia, quando i data scientist sono in grado di costruire una rappresentazione di oggetti semanticamente ricca, i metodi classici di apprendimento automatico sono probabilmente una scelta migliore (e sì, vale la pena investire un po 'di seria riflessione nel cercare di trovare una buona rappresentazione degli oggetti).

Alla fine, si vuole semplicemente provare diverse tecniche all'interno della stessa piattaforma e non essere limitati dalla scelta dei metodi di qualche fornitore di software o dall'incapacità di mettersi al passo con i progressi attuali nel campo. Questo è il motivo per cui le piattaforme open source sono leader in questo mercato; consentono ai professionisti di combinare le attuali tecnologie all'avanguardia con i più recenti sviluppi all'avanguardia.

Andando avanti, man mano che i team si allineano nei loro obiettivi e metodi per utilizzare l'apprendimento automatico per raggiungerli, il deep learning diventerà parte della cassetta degli attrezzi di ogni data scientist. Per molte attività, l'aggiunta di metodi di apprendimento profondo al mix fornirà un grande valore. Pensaci. Saremo in grado di includere il riconoscimento degli oggetti in un sistema, utilizzando un sistema di intelligenza artificiale pre-addestrato. Saremo in grado di incorporare componenti esistenti di riconoscimento vocale o vocale perché qualcun altro ha avuto il problema di raccogliere e annotare dati sufficienti. Ma alla fine, ci renderemo conto che il deep learning, proprio come il classico machine learning precedente, è in realtà solo un altro strumento da utilizzare quando ha senso.

La promessa dell'IA: cosa succederà?

Uno dei blocchi stradali che affioreranno, proprio come accadde due decenni fa, è l'estrema difficoltà che si incontra quando si cerca di capire cosa hanno imparato i sistemi di intelligenza artificiale e come escogitano le loro previsioni. Questo potrebbe non essere fondamentale quando si tratta di prevedere se un cliente può o meno apprezzare un particolare prodotto. Ma sorgeranno problemi quando si tratta di spiegare perché un sistema che interagisce con gli esseri umani si è comportato in modo inaspettato. Gli esseri umani sono disposti ad accettare il "fallimento umano": non ci aspettiamo che gli esseri umani siano perfetti. Ma non accetteremo il fallimento da un sistema di intelligenza artificiale, soprattutto se non possiamo spiegare perché ha fallito (e correggerlo).

Man mano che acquisiremo familiarità con il deep learning, ci renderemo conto, proprio come abbiamo fatto per il machine learning due decenni fa, che nonostante la complessità del sistema e il volume di dati su cui è stato addestrato, la comprensione dei modelli è impossibile senza la conoscenza del dominio. Il riconoscimento vocale umano funziona altrettanto bene perché spesso possiamo riempire un buco conoscendo il contesto della conversazione corrente.

I sistemi di intelligenza artificiale di oggi non hanno una comprensione così profonda. Quello che vediamo ora è un'intelligenza superficiale, la capacità di imitare le capacità di riconoscimento umano isolate e talvolta superare gli umani in quei compiti isolati. Addestrare un sistema su miliardi di esempi è solo questione di avere i dati e avere accesso a risorse di elaborazione sufficienti, non più un problema.

È probabile che l'utilità dell'intelligenza artificiale alla fine cadrà da qualche parte al di sotto della propaganda "salva il mondo". Forse tutto ciò che otterremo sarà uno strumento incredibile che i praticanti utilizzeranno per svolgere il proprio lavoro più velocemente e meglio.

Michael Berthold è CEO e co-fondatore di KNIME, una società di analisi dei dati open source. Ha più di 25 anni di esperienza nella scienza dei dati, lavorando nel mondo accademico, più recentemente come professore ordinario presso la Konstanz University (Germania) e in precedenza presso l'Università della California (Berkeley) e Carnegie Mellon, e nell'industria presso il Neural Network Group di Intel, Utopia e Tripos. Michael ha pubblicato molto su analisi dei dati, apprendimento automatico e intelligenza artificiale. Segui Michael su  Twitter , LinkedIn e il blog KNIME .   

-

Il New Tech Forum offre un luogo per esplorare e discutere la tecnologia aziendale emergente in profondità e ampiezza senza precedenti. La selezione è soggettiva, in base alla nostra scelta delle tecnologie che riteniamo importanti e di maggiore interesse per i lettori. non accetta materiale di marketing per la pubblicazione e si riserva il diritto di modificare tutti i contenuti forniti. Invia tutte le richieste a  [email protected] .