Buon venerdì a tutti — Futuro Lento entra in doppia cifra!
Io sono un po’ allergico alle ricorrenze programmate, ve lo confesso, quindi non ho voluto pianificare alcunché per questo primo piccolo traguardo. È un numero come un altro.
Non nascondo però che sono contento di essere arrivato qui con il vostro feedback, che sino ad ora è stato tendenzialmente più che positivo.
Vi invito a scrivermi sempre in risposta ai post, via email o su Instagram. Mi piace condividere le riflessioni con voi, ma non vorrei che tutta l’operazione si trasformasse mai in un monologo: per carità, che noia.
Spero che questo e tutti i prossimi numeri continuino ad essere interessanti. È quello il grande obiettivo che mi sono prefissato, e proverò a raggiungerlo di volta in volta, ogni settimana.
Per eventuali festeggiamenti, magari, ci risentiamo al numero 99…
Uno strumento per la mente
Quando si parla di storia del computer, si è soliti raccontarla attraverso una serie di oggetti: dall'abaco ai mainframe, passando per i proto-dispositivi della Seconda Guerra Mondiale e i mezzi più sofisticati degli anni successivi. È altresì vero che la stessa storia può essere raccontata da un altro punto di vista, quello delle idee, in un viaggio che parte dalla logica aristotelica e arriva fino alla logica matematica.
In questa versione, una delle figure più influenti è quella di Claude Shannon. Ingegnere elettronico e matematico del '900, insieme al celeberrimo Alan Turing può considerarsi a tutti gli effetti uno degli inventori del computer; se non da un punto di vista strettamente pratico, sicuramente da uno teorico e concettuale.
In un suo influente scritto, Shannon ebbe l'illuminazione di distinguere e poi accomunare l'aspetto logico e quello fisico di un’ipotetica macchina, associando la logica booleana del primo (tale per cui esistono solo due valori: "vero" e "falso") ai circuiti elettrici, che analogamente possono essere solo aperti o chiusi. Il logico e il fisico, visti come parti di un tutto, sono i due building block che definiscono quello che noi oggi chiamiamo computer. Un’intuizione brillante, rivelatasi monumentale.
Questo non vuol dire che, a propria insaputa, sia stato Aristotele ad inventare il calcolatore, né che l'idea di Shannon — che pure si basava su secoli di storia della logica — abbia visto subito la luce. Ma è attraverso il loro pensiero che si sono gettate le basi. Con il successivo arrivo del transistor e poi la Legge di Moore, negli ultimi cent'anni abbiamo assistito ad un'accelerazione esponenziale dell'applicazione di tale logica (con i computer); o, in altri termini, della velocità con cui le macchine hanno imparato a "pensare".
Oggi siamo al culmine di (una prima parte di) quel percorso, e ci preoccupiamo molto proprio del pensiero: il termine "intelligenza artificiale" (AI) sembra apparire ovunque, gettando benzina sul fuoco dell'idea che i computer non solo stiano imparando a pensare, ma che essendo molto più efficienti dell'uomo non potranno far altro che produrre risultati dalla portata incalcolabile: leggiamo che "cambieranno il mondo", "ci ruberanno il lavoro", talvolta persino che “si ribelleranno” e “ci metteranno fuori gioco".
Ogni volta che leggo queste frasi non riesco a non mettermi le mani nei capelli, dacché il fondo di verità che indubbiamente sottende alcuni dei cambiamenti a cui dovremo far fronte è banalizzato in espressioni assolutistiche (e spesso catastrofiste) che, prese come tali, non possono che dare un'idea distorta di quello che è invece un mondo complesso, eterogeneo e ancora largamente in divenire.
Il primo problema è uno di definizione. Spesso, le frasi che sentiamo fanno inconsciamente riferimento alla cosiddetta "intelligenza artificiale generale" (AGI, artificial general intelligence), ossia una ipotetica entità artificiale in grado di ragionare e riflettere elasticamente su una moltitudine di temi, alla stregua della mente umana. Siamo, molto probabilmente, svariati decenni lontani anche solo da una forma rudimentale di AGI con tali caratteristiche (è peraltro ingenuo pensare alla AI come un qualcosa di concreto, monolitico, in mano ad una o poche aziende). Quella che sta prendendo piede oggi è un'intelligenza artificiale "debole", costruita principalmente per l'ottimizzazione in campi limitati e verticali.
A volte in realtà questo uso è esso stesso improprio, poiché ciò che oggi potremmo definire "AI" domani potrebbe semplicemente essere "tecnologia" — un po' come quello che non ci si riusciva a spiegare in passato apparteneva alla magia o alla religione, e che la scienza ha poi aiutato a chiarire. È infatti sorprendente l'atteggiamento quasi fideistico che alcuni soggetti hanno nei confronti della AI, come se fosse qualcosa di imperscrutabile e messianico, calato dal cielo e capace con un interruttore di mettere ogni cosa sottosopra all’improvviso, nel bene o nel male.
Non è così. Tecnologia, dunque; non fede.
La storia della tecnologia stessa, del resto, è la storia dell'umanità: dal fuoco alla ruota giù giù fino ai computer, una delle cose che ci distingue dagli altri animali è il saper razionalizzare il mondo attorno a noi e plasmarlo in forme non naturali, attraverso vari strumenti. Il computer, nella sua accezione più generale, è una di queste ultime invenzioni. A tal proposito, trovo particolarmente calzante una celebre descrizione di Steve Jobs, che parlò del computer come di una "bicicletta per la mente".
Disse il fondatore di Apple:
Credo che una delle cose che ci separa dai primati sia il fatto che noi (umani) siamo costruttori di strumenti.
Ho letto uno studio che misura l’efficienza della locomozione fra varie specie sul pianeta. È il condor a usar il minor ammontare di energia per spostarsi di un chilometro.
Gli esseri umani, invece, fanno una figura piuttosto scialba, arrivando nella parte bassa della classifica. Non una gran bella dimostrazione nel tentativo di incoronarsi dinnanzi alle altre creature.
Poi però qualcuno a Scientific American ha avuto la geniale idea di testare l’efficienza del movimento di un essere umano su una bicicletta. E l’uomo in bicicletta, in classifica, sbaraglia il condor.
Per me il computer è un po’ quello. Il più straordinario strumento che siamo riusciti ad inventare; l’equivalente di una bicicletta per la mente.
Laddove la rivoluzione industriale ha permesso di delegare alle macchine alcune attività fisiche che erano prima svolte dagli umani, la rivoluzione informatica applica il medesimo passaggio di consegne per le attività mentali.
È stata appunto la logica aristotelica ad aver fornito a scienziati e filosofi i mezzi per costruire il percorso mentale che, applicando la logica matematica, avrebbe portato al computer. La storia della tecnologia, invece, è un percorso ancora più grande, di cui il computer è solo una piccola — sebbene importantissima — parte.
Dove però ambedue si fermano, in un certo senso, è al limite della mente umana. La creatività non ha confini, è vero, ma alcuni tipi di operazioni sono fuori dalla nostra portata — vuoi per mancanza di tempo materiale, vuoi per eccessiva complessità intrinseca. Ed è in questo che l'intelligenza artificiale, anche la più debole, segna un ulteriore, significativo passaggio.
Machine learning: dati, automazione, e tanti stagisti
Gli strumenti progettati dagli uomini nel corso della storia sono nati con l'esplicita funzione di risolvere un problema ben definito in partenza, spesso facilitando o automatizzando alcuni meccanismi per ridurre i tempi ed aumentare l'efficienza dei processi. È più facile arare un terreno con gli appositi attrezzi che non con le braccia dateci da madre natura, così come un'automobile può percorrere in scioltezza distanze impraticabili anche per le gambe più allenate. Per progettare detti strumenti (e invero tutti gli altri), è necessario avere un definito set di istruzioni da eseguire in un determinato ordine per giungere al risultato finale.
Ma cosa accade quando non è più l'uomo a scrivere quegli algoritmi — a dare un ordine al processo — bensì la macchina stessa? Ecco che il limite della mente umana, anche in sella alla sua bicicletta, viene superato. Pur con della supervisione iniziale, la macchina inizia ad assorbire dati e imparare. È l'apprendimento automatico della macchina: o, appunto, machine learning (ML), la sottobranca dell’intelligenza artificiale di cui ci occupiamo.
Come detto siamo ancora agli albori, ed è dunque corretto pensare a questa macchina che apprende più come ad un bambino che non a un adulto. Ciò vuol dire programmi relativamente rudimentali e semplici, proni ad errori, e soprattutto legati strettamente al loro specifico campo di azione. Ma i campi di azione sono tanti, tantissimi: è il motivo per cui di AI (o, a ben leggere, di machine learning) si parla ovunque. Si tratta di una delle tecnologie che, come la realtà aumentata di cui abbiamo parlato la scorsa settimana, scandirà gli anni '20 del secolo tanto in tecnologia quanto nelle altre industrie.
Dicevamo: cosa accade quando è la macchina ad operare in autonomia? Una delle risposte è che i computer iniziano a dare un senso ai dati di cui sono nutriti, trovando dei pattern ricorrenti che prima soltanto un essere umano (con esperienza e/o pazienza) avrebbe potuto rintracciare; o in alcuni tipi di applicazione, come accennato sopra, andando ben oltre le capacità di una persona.
In entrambi i casi, l'automatizzazione e i dati sono i due concetti chiave.
L'automatizzazione è un problema che affrontiamo già da tempo — negli anni '30 si pensava che nel futuro ci sarebbero stati dei robot umanoidi (intelligenti!) in grado, fra le altre cose, di lavare i piatti e i vestiti. Quei robot non sono mai arrivati, ma sono nate le lavatrici e le lavastoviglie. Si tratta di macchine intelligenti, di AI? No, probabilmente neanche nella loro area specifica: nessuna delle due, per dire, comprende cosa siano l'acqua o il detergente1, e i due elettrodomestici sono distinti perché non si possono mettere i vestiti nella lavapiatti (se qualcuno ha evidenza contraria si faccia avanti: voglio ascoltare la vostra testimonianza).
Alla stessa maniera, un algoritmo di ML studiato per riconoscere cellule cancerogene non funzionerà per creare canzoni dal nulla, e i dati utilissimi ad un’azienda che vuole ottimizzare le emissioni di CO2 dei propri stabilimenti non serviranno a nulla a BMW nel tentativo di costruire una macchina self-driving. I dati con cui gli algoritmi sono alimentati non sono fungibili, e hanno valore solo nel proprio dominio (uno dei motivi per cui chi blatera di Google/Facebook/Amazon/la Cina che "ha tutti i dati!" non sa cosa dice).
La combinazione di una mole mastodontica di dati e un processo automatizzato per analizzarli in scala suona un po' come avere al proprio soldo un milione di stagisti. O, alternativamente, uno stagista molto, molto veloce: i task affidatigli non sono particolarmente complessi, ma sarebbero spesso ingestibili (su scala) per degli umani: nessuno ha un milione di intern a disposizione. Il machine learning, però, è quello stagista molto molto (inumanamente) veloce — sempre, ricordiamolo, nel suo limitato raggio d’azione. Non stiamo automatizzando un esperto.
Il problema diventa dunque capire quali sono le domande giuste; che dati dare in pasto alla macchina, e che risultati aspettarsi. Due esempi potenziali a caso.
Un'azienda che si occupa di tessuti potrebbe farli passare sotto l'occhio attento di una fotocamera che, attraverso il ML, analizza il materiale alla ricerca di un difetto specifico e lo identifica. Una piccola boutique, invece, potrebbe utilizzare un tool (costruito da terzi) che guarda il contenuto dei commenti o delle email per identificare quali sono i clienti “arrabbiati” analizzando il linguaggio.
Poi mi viene in mente la startup Descript, che ha creato un video editor in grado di riconoscere il segnale audio di una clip in entrata, tradurlo in testo, e permettere di cancellare le parole sul testo stesso per tagliare lo spezzone di video corrispondente (anziché sfoltire la traccia).
In tutti e tre i casi, gli algoritmi imparano progressivamente ad identificare i dati, automatizzano un processo, e producono risultati che, entro certi limiti, solo una persona a cui viene appositamente assegnato quel compito potrebbe raggiungere. Muovendosi su scala (migliaia di metri di tessuto e di email/commenti da una parte, migliaia di ore di audio dall’altra) tali compiti diventano esclusiva delle macchine. (Per inciso: quei dati la Cina non li ha, e Facebook nemmeno.)
Qui siamo già a un livello di applicazione più alto, con uno scopo e un’utilità pratica. C’è un beneficio tangibile: l’ottimizzazione di un processo nei primi due casi, un’intera azienda nel terzo. Il machine learning “utile” è già in forte espansione, ma al momento siamo prevalentemente inondati da frizzanti idee di software senza una reale meta.
Il sito thispersondoesnotexist.com, ad esempio, è basato su un algoritmo di ML a cui sono state fatte analizzare milioni di fotografie: la macchina le ha scandagliate, ha trovato dei pattern (la forma del naso, degli occhi, delle orecchie, etc.), e ha reso possibile creare facce dalle sembianze umane di persone che non esistono. Per gli amanti della typography, un esperimento di Ideo ha mappato automaticamente centinaia di font per catalogarli in base alla loro somiglianza. Il FreddieMeter di Google vi fa cantare al posto del frontman dei Queen per farvi capire la distanza abissale che separa la vostra voce dalla sua. E, sempre restando sulla musica, questo canale YouTube ha un video live in cui un algoritmo di ML genera automaticamente del piacevolissimo death metal 24/7.
È tutto affascinante — ci sono dozzine e dozzine di esempi — ma puramente dimostrativo. Il passo successivo sarà capire quali di questi esperimenti potranno condurre a risvolti pratici in futuro, comprendere quali sono i reali problemi da risolvere (come nei tre casi sopra) e designare in che modo il machine learning può intervenire; in pratica, stabilire cosa far fare agli stagisti e perché.
Strato abilitante, futuro ignoto
Per almeno una buona decina d'anni, il machine learning ci aiuterà nel trovare pattern e rispondere a domande conosciute, dandoci le risposte che sappiamo di non avere ed efficientando enormemente alcuni processi. Ma presto diventerà un substrato invisibile di tutte le applicazioni software (e anche hardware) che ci circondano, tanto comune quanto lo sono oggi i database o gli smartphone2. Lo daremo per scontato — e forse, in molti casi, smetteremo di parlare di "intelligenza artificiale".
La parte più disruptive, infatti, arriverà quando le macchine inizieranno a costruire autonomamente su quei dati, e darci informazioni che non sappiamo di non avere. Un terzo livello, se vogliamo; quello che sì, nel lungo termine, renderà l’intelligenza artificiale protagonista di una rivoluzione epocale.
Lo smartphone da nuova tecnologia è diventato in tempi brevi sia una commodity (una cosa che hanno tutti) sia una piattaforma (una superficie su cui tutti possono costruire), e ha permesso che un’idea come Instagram potesse spiccare il volo — e, nel frattempo, ha reinventato il modo stesso in cui pensiamo alla fotografia. Il machine learning seguirà una strada simile, configurandosi come uno strato abilitante più che una tecnologia a sé.
Ma quale sarà l’Instagram (o l’Uber, o l’Airbnb, o il Clubhouse) del machine learning? Rimanendo in tema: cosa succede quando quella stessa fotocamera passa dall’essere il semplice sensore con cui scattiamo foto all’occhio con cui il telefono vede? Quali altri campi sufficientemente ristretti ci sono in cui il ML può lavorare su quantità spaventose di dati e imparare cose che a noi sfuggirebbero o non verrebbero in mente affatto?
Diceva il pensatore americano Henry Ward Beecher che “la filosofia di un secolo è il buonsenso di quello successivo”. Se è quasi certo che l’intelligenza artificiale cambierà il mondo che conosciamo — anche con implicazioni sul lavoro, con alcune mansioni automatizzate che rimpiazzeranno la manovalanza umana — è ancora del tutto da scoprire come ciò avverrà, e quante nuove sovrastrutture e applicazioni (e lavori!) nasceranno.
Forse alcune saranno terrificanti, e bisognerà tenere le macchine sotto controllo. Sarà una sfida complessa tanto sul piano tecnologico quanto su quello sociale e legale. Ci vorrà del tempo prima di arrivare a maturazione. Ma, in potenza, siamo alle porte di un universo di innovazione e opportunità, la cui entità è ancora interamente da esplorare e inventare. Speriamo il buonsenso prevalga.
Futuro Lesto:
Restiamo sull’argomento. Prima che l’analisi di oggi sfociasse nel testo qua sopra, la notizia da cui ero partito riguarda Photoshop, che ha appena introdotto un meraviglioso nuovo tool chiamato “Super Resolution”. Il nome non lascia molto spazio all’interpretazione, ma almeno non mente: si tratta di uno strumento che usa un algoritmo di ML per analizzare una fotografia e crearne una copia enormemente più dettagliata, con il quadruplo dei pixel. Da una parte, può essere utile per chiunque voglia dare nuova linfa vitale a vecchi scatti sgranati. Per i fotografi, invece, è una manna dal cielo, soprattutto per chi intende stampare su grandi formati. I risultati, neanche a dirlo, sono strabilianti. Ma ora, da qui, in che direzione andiamo?
Uno dei problemi della corsa forsennata della tecnologia è il digital divide accennato sul numero nove. Un divario che può presentarsi in tante forme: fra queste, lo abbiamo appena detto, le intenzioni di un’azienda e il contesto socio-legale in cui opera. Uber, la cui idea ha tanti motivi per essere lodata, si è spesso rivelata essere una pessima compagnia sotto il profilo del management, tanto in casa quanto all’estero. Al centro delle polemiche, per anni, è stato il modo in cui tratta gli autisti, inquadrati più come lavoratori a cottimo che non come impiegati regolari. Ora però, nel Regno Unito, ha preso una bella batosta: una sconfitta in tribunale obbligherà Uber a convertire i suoi 77.000 driver in veri e propri dipendenti, mettendo a contratto i vari benefici che ciò comporta. Una vittoria di giustizia sociale in un ambito dove c’è ancora tanto da fare — ma purtroppo, anche in questo caso, non senza problemi.
Instagram fa un passo avanti e tre dietro: sull’app principale, per prevenire incontri spiacevoli, non sarà più possibile per un adulto mandare un messaggio privato ad un minorenne, a meno che questi non lo segua. Un’ottima mossa, se non fosse che una fuga di notizie pare aver confermato che il social sia anche al lavoro su una versione dell’app progettata appositamente per ragazzini (bambini?) dai 13 anni in giù. Al di là dei commenti di natura etica, che preferisco lasciare a voi, mi piacerebbe una visita guidata nei cavilli legali dell’operazione.
I mean, what could possibly go wrong?Fortunatamente, Facebook ha anche qualcosa da mostrare per redimersi. I suoi Reality Labs, già protagonisti la scorsa settimana, hanno rilasciato un altro studio sull’interazione che potremmo avere nel futuro con gli oggetti virtuali che apparirebbero attraverso gli occhiali di realtà aumentata. La prima risposta convincente pare essere una sorta di bracciale, in grado di riconoscere ed interpretare i segnali elettrici che arrivano dal cervello. Il dispositivo godrebbe di enorme precisione nel calcolare la posizione e il movimento delle nostre dita, facendoci operare le interfacce senza uno schermo di mezzo. La lettura è consigliatissima, e dentro ci sono un paio di video succosi e qualche stuzzicante proposta di applicazione (su tutte una tastiera virtuale). Facebook potrebbe essere regolamentata fino all’oblio prima che una tecnologia del genere diventi un prodotto per le masse, ma ho pochi dubbi sul fatto che questo sia il futuro.
Se foste i fratelli Russo, registi del (secondo) film più redditizio della storia del cinema, per quale intellectual property vorreste girare un trailer? Ma Fortnite, naturalmente.
Si può fare un’analogia con Amazon qui: se voi compraste un forno, una cui seconda unità probabilmente non vi serverebbe, Amazon vi consiglierebbe comunque altri forni nei suggerimenti — questo perché l’algoritmo di Amazon non sa cosa sia una forno, e quindi continuerebbe a fare proposte in base ad oggetti simili.
Qui si parla di S-curve: la prima serie viaggia dai mainframe ai PC, passando per internet, lo smartphone, e probabilmente la realtà aumentata. In parallelo, ne esiste un’altra che segue il percorso database → client-sever → open source → SaaS → cloud, e mi sembra più opportuno collocare il machine learning in questa seconda — nessuno “possiede” il machine learning, mentre si può dire che i PC fossero di Microsoft e gli smartphone saldamente nelle mani di Google ed Apple. Il discorso, però, è il medesimo: si tratta di pezzi dell’infrastruttura che, diventando strumenti in mano a gruppi di persone sempre più vasti, sbloccano alcune possibilità creative che vanno spesso al di là di ogni più rosea aspettativa. E noi non sappiamo neanche bene cosa aspettarci dall’AI!