Filosofo, accademico e una delle voci più autorevoli al mondo sul tema dell’intelligenza artificiale, Luciano Floridi studia da anni l’impatto delle tecnologie digitali sulla società, sull’etica e sul modo in cui prendiamo decisioni. Attualmente è John K. Castle Professor in the Practice of Cognitive Science e direttore fondatore del Digital Ethics Center all’Università di Yale. I suoi studi sono un punto di riferimento globale per governi, aziende e istituzioni. Lo abbiamo intervistato per capire cosa significhi davvero vivere nell’era dell’innovazione, quando l’intelligenza artificiale non è più solo uno strumento, ma un ambiente.
L’intelligenza artificiale non è più solo qualcosa che usiamo, ma qualcosa in cui viviamo. Cosa cambia per l’uomo quando la tecnologia inizia a influenzare il contesto delle nostre scelte prima ancora delle scelte stesse?
Facciamo un passo indietro e chiediamoci chi disegna l’ambiente decisionale entro cui ci muoviamo. Immaginiamo una video call con due sfondi diversi: ognuno comunica qualcosa, manda segnali, suggerisce chi siamo o chi vogliamo apparire.
Ora allarghiamo lo sguardo: quei “fondali” sono le realtà digitali in cui operiamo ogni giorno. Qualcuno li progetta, con intenzioni che non sono necessariamente manipolatorie, ma che inevitabilmente orientano: mettono in evidenza certe opzioni e ne nascondono altre.
È vero, l’individuo mantiene una capacità di scelta. Ma, come si dice in Scozia, chi paga il pifferaio sceglie la musica…E aggiungo io come si balla (ride). Chi paga e sviluppa l’intelligenza artificiale ne decide il funzionamento e, di conseguenza, influenza anche le nostre decisioni, scelte, e preferenze.
Oggi l’AI produce immagini e video sempre più credibili. Dai meme alle modelle virtuali seguite come persone reali: stiamo perdendo i riferimenti o stiamo entrando in una nuova forma di realtà?
Ci sono alcuni punti fondamentali da chiarire. Prima di tutto, questa non è una rottura totale: è l’esplosione di un trend che esiste da sempre. La modella, per esempio, è sempre stata in parte “finta”: un modello ideale, irraggiungibile, quasi platonico. È sempre stata una figura irreale. La differenza oggi è che non dobbiamo più cercare quel modello nel mondo reale: lo costruiamo direttamente noi.
Fino a ieri avevamo esseri umani che trattavamo come avatar. Oggi abbiamo avatar che trattiamo come esseri umani. Ma la logica di fondo era già lì. Il vero problema non è tanto la quantità di immagini artificiali — che è enorme e produce rumore — ma la mancanza di strumenti per distinguere. Il rumore soffoca il segnale. Se avessimo un “radar” efficace, potremmo individuarlo comunque.
Il punto è questo: non è necessario bloccare il “noise”, ma migliorare il radar. Se so cosa cercare, il segnale emerge. Se non ho strumenti critici, una valanga di contenuti artificiali cancella ogni riferimento. E poi c’è un altro tema, ancora più interessante: non è detto che scegliere l’artificiale sia sempre un errore. Ma questa è un’altra questione.
Capita sempre più spesso di vedere persone seguire modelle o modelli chiaramente irreali. È possibile che molti non se ne accorgano?
Credo che ormai non sia più questo il punto centrale. Certo, c’è chi non capisce — succede, fa parte dell’umanità. Ma la cosa davvero interessante sono quelli che lo sanno benissimo. L’intelligenza artificiale ha qualcosa di rassicurante. La sua natura artificiale crea una distanza emotiva: so che non è reale, ed è proprio questo che mi protegge. Posso alzare l’asticella, provare a imitare quel modello. E se non ci riesco, ho una giustificazione pronta: non è reale. Così la pressione sociale si allenta.
Questo ricorda molto Her, il film di Spike Jonze, dove il protagonista (Joaquin Phoenix) si innamora di un’entità artificiale che risponde sempre nel modo giusto.
Esatto. E soprattutto non richiede alcuno sforzo di adattamento. Non mi chiede di cambiare, di incontrarla, di mettermi in discussione. Non pretende nulla. È una direzione che stiamo prendendo sempre di più, e non va sottovalutata. Educarsi a gestire tutto questo non sarà semplice.
In realtà questi dialoghi con le macchine esistono da decenni.
Assolutamente. I primi esperimenti risalgono agli anni Sessanta, con un famoso programma chiamato ELIZA. C’erano già persone che cercavano relazioni con ELIZA, un semplice software di poco più di 400 linee di codice. La tecnologia cambia, ma certi bisogni umani sono costanti.
L’intelligenza artificiale moltiplica le possibilità, mentre il lusso crea valore limitandole. È una contraddizione o una nuova forma di esclusività?
L’esclusività come fonte di valore è un punto centrale. Ma credo che l’AI non debba intervenire sul prodotto in sé. Come faccio ad avere diecimila giacche “esclusive”? (ride)
La vera opportunità è nel processo. In una ricerca fatta con Audi, mi fecero notare che non esistono due Audi identiche: ogni auto è leggermente personalizzata. Questo oggi è ancora più facile con l’AI ma non basta più.
Nel mondo della moda il passo successivo è il contatto con il processo e con la sua fonte. Non compro solo l’abito, ma l’esperienza del processo che lo ha generato. Se potessi comprare una giacca e, insieme, incontrare chi l’ha disegnata, per me avrebbe un valore enorme.
La moda è ancora molto legata all’ultimo anello della catena, all’oggetto. Solo da poco ha scoperto lo storytelling. Ma il vero fulcro rimane il tempo — limitato — del creatore. Ed è lì che nasce l’unicità dell’incontro.
Lei parla spesso di responsabilità umana nell’uso dell’intelligenza artificiale. In un settore come la moda, chi dovrebbe essere il vero responsabile: il creativo, il brand o chi progetta gli algoritmi?
Tutti, ma in modo diverso. Ciascuno è coinvolto, tutti hanno le loro responsabilità, ma la responsabilità primaria è del brand. È quest’ultimo che decide la strategia su come integrare l’AI, con quali valori e con quali limiti.
Sostenibilità, inclusività, diversity: l’AI può renderle reali o rischia di trasformarle in semplice narrazione?
Entrambe le cose. Può spingere in una direzione o nell’altra. Oggi, paradossalmente, chi lavora davvero su questi temi spesso lo fa controcorrente — e questo dà ancora più valore alle scelte autentiche. L’AI può diventare un radar anche qui: lungo la filiera produttiva individua dettagli che l’occhio umano fatica a cogliere.
Un consiglio al mondo della moda, diviso tra entusiasmo e paura?
Il rischio maggiore è adottare l’AI senza cambiare i processi per integrarla. Non posso fare la stessa torta e aggiungere l’AI come zucchero a velo sopra. Serve cambiare la ricetta. L’intelligenza artificiale è strutturale: va integrata ripensando i processi dall’interno. Per farlo bisogna conoscerli in modo profondissimo, altrimenti non si sa dove intervenire.
Nasceranno nuove professioni?
Tantissime. Serviranno proprio a questo: cambiare i processi. Perché se un’azienda non capisce che il mondo sta evolvendo rapidamente, semplicemente…chiude.
