Da persona che è tornata a usare servizi di intelligenza artificiale quotidianamente, cerco di avere un approccio critico, seppur aperto alla sperimentazione e all’innovazione. AI Snake Oil è segnalato come uno dei libri più interessanti del 2024, quindi ho provato ad analizzarlo con NotebookLM per vedere cosa contiene.

Risultato un po’ deludente, non senza spunti, a volerli trovare.
Di cosa parla AI Snake Oil?
Temi Principali
Il Problema della Generalizzazione dell’IA:
- L’espressione “intelligenza artificiale” è un termine ombrello che copre tecnologie molto diverse (paragonabile all’uso della parola “veicolo” per auto, bici, navicelle spaziali).
- È fondamentale distinguere tra i vari tipi di IA, come l’IA generativa (es. ChatGPT, Dall-E) e l’IA predittiva (utilizzata, ad esempio, in ambito giudiziario o finanziario).
- Citazione: “Artificial intelligence, AI for short, is an umbrella term for a set of loosely related technologies. ChatGPT has little in common with, say, software that banks use to evaluate loan applicants.”
L’Hype e la “IA Ciarlatanesca”:
- Il libro definisce la “IA ciarlatanesca” come una tecnologia iper-venduta, che promette risultati irrealistici o che non funziona come pubblicizzato.
- L’hype è alimentato da narrazioni mediatiche sensazionalistiche, da figure pubbliche e dalle aziende stesse.
- Esiste un “vortice dell’hype” che rende difficile valutare in modo critico le affermazioni sull’IA.
Critica dell’IA Predittiva:
- L’IA predittiva, usata per prendere decisioni basate su previsioni sul futuro, è spesso inaffidabile e può perpetuare pregiudizi esistenti.
- Citazione: “We will make the argument that predictive AI not only does not work today but will likely never work, because of the inherent difficulties in predicting human behavior.”
- Esempi nel sistema giudiziario: strumenti di valutazione del rischio di recidiva, come COMPAS, possono essere inaccurati e discriminatori.
- La previsione in ambito sociale è intrinsecamente difficile a causa della complessità delle dinamiche umane e sociali e del ruolo della fortuna.
- La “profezia che si autoavvera” e gli effetti di “vantaggio cumulativo” possono distorcere le previsioni.
- L’accuratezza delle previsioni va giudicata tenendo conto del contesto e della specifica applicazione (non è possibile confrontare la previsione meteorologica con quella delle vendite).
L’IA Generativa e i Suoi Limiti:
- L’IA generativa, pur essendo impressionante, non possiede una vera comprensione del mondo o una “coscienza”.
- I chatbot, come ChatGPT, funzionano auto-completando frasi in modo statisticamente plausibile, non capendo realmente il significato.
- Questi modelli sono stati allenati tramite grandi dataset, spesso presi dal web, inclusi testi e immagini preesistenti, sollevando questioni sui diritti d’autore e sulla proprietà intellettuale.
- Il costo computazionale dell’IA generativa è enorme.
Il Concetto di “Scala di Generalità”:
- La “scala di generalità” descrive lo sviluppo storico dei computer, da macchine specializzate a strumenti sempre più flessibili e programmabili.
- L’IA attuale, benché molto potente, si trova ancora su un gradino intermedio di questa scala.
Contenuto della Moderazione e Censura nelle Piattaforme Online:
- La moderazione dei contenuti è complessa e difficile, con decisioni che dipendono da contesti culturali e dinamiche sociali specifiche.
- Le piattaforme online hanno difficoltà ad applicare policy uniformi e a bilanciare la libertà di espressione con la protezione da contenuti dannosi.
- L’automazione tramite IA non sempre è efficace nella moderazione, e può portare a errori di classificazione.
- Esistono modelli alternativi di moderazione dei contenuti, come quelli utilizzati su Reddit o Mastodon, ma anche essi presentano delle sfide.
- Citazione: “The decentralization of moderation combined with the unification of content results in an inescapable tension: a server has no recourse against users who violate its policies if they are on another server— except to block that server outright.”
Rischi Esistenziali e “IA Ribelle”:
- Gli autori criticano la narrazione dell’IA come minaccia esistenziale per l’umanità, evidenziando che sono le persone ad usare e potenziare la tecnologia.
- Rilevano che non è l’”intelligenza” dell’IA in sé a renderla pericolosa, ma la sua capacità di amplificare le capacità umane, il “potere”.
- Il concetto dell’IA come “paperclip maximizer” è un esperimento mentale astratto e poco realistico.
Il Ruolo delle Istituzioni e la Necessità di Regolamentazione:
- L’IA ciarlatanesca è attraente per istituzioni “rotte” che cercano soluzioni facili a problemi complessi.
- La regolamentazione dell’IA è necessaria, ma non è una panacea. Occorre trovare un equilibrio tra innovazione e protezione sociale.
- L’approccio migliore è la collaborazione tra istituzioni pubbliche, aziende e società civile.
- L’obiettivo è trovare strategie e politiche che siano facili da capire, anche per soggetti non esperti, e che incorporino obiettivi morali oltre che economici.
- Citazione: “We can aim to find strategies or policies that achieve modest efficiency gains while being simple enough to understand—both for decision-makers and decision subjects.”
Il Futuro del Lavoro e l’IA:
- L’IA avrà un impatto significativo sul mondo del lavoro, ma è importante non cadere nell’allarmismo.
- L’attenzione deve spostarsi dal lavoro perso a quello nuovo che verrà creato e a come migliorare le condizioni lavorative per tutti.
L’Impatto dell’IA sulle Nuove Generazioni:
- Il libro esplora come sarà crescere con l’IA e le sue possibili implicazioni per i bambini e i giovani.
- L’importanza di educare le nuove generazioni a un uso consapevole e critico della tecnologia.
Conclusioni
“AI Snake Oil” è un libro che invita a una riflessione critica sull’intelligenza artificiale, mettendo in guardia contro l’hype e le false promesse. Gli autori forniscono gli strumenti concettuali per valutare in modo più consapevole le affermazioni e per navigare le complesse questioni etiche e sociali che l’IA solleva. Il libro incoraggia anche l’azione e l’impegno nel plasmare lo sviluppo dell’IA in modo responsabile e benefico per la società.
Panoramica generale, selezione del personale con IA, moderazione di contenuti con IA, IA predittiva in altri ambiti business. Temi che non mi appassionano. Non sono il lettore di questo libro.
Consigli pratici sull’approccio all’IA
Qui il libro offre molti spunti utili da adottare subito. Buon senso applicato:
Le fonti forniscono diversi consigli utili relativi all’intelligenza artificiale (IA), che possono essere raggruppati in categorie per una migliore comprensione:
Consigli per l’utilizzo dell’IA:
- Scetticismo: È fondamentale approcciare le notizie sull’IA con scetticismo e prestare attenzione ai dettagli che spesso vengono tralasciati. Bisogna essere consapevoli dell’esistenza di “AI snake oil”, ovvero IA che non funziona o non può funzionare, e sviluppare un occhio critico per identificarla.
- Vocabolario: Acquisire un vocabolario essenziale per distinguere tra diversi tipi di IA, come IA generativa e predittiva, è cruciale per comprendere le loro capacità e limitazioni.
- Uso pratico: Le fonti suggeriscono che i chatbot possono essere utili per compiti come l’assistenza alla ricerca, la formattazione di citazioni e la comprensione di documenti complessi. Tuttavia, è necessario esercizio per evitare i loro “tranelli”.
- Cautela nell’utilizzo di chatbot: È necessario essere consapevoli dei potenziali usi impropri dei chatbot, soprattutto in contesti dove l’accuratezza non è prioritaria. Ad esempio, la facilità con cui si possono creare libri generati dall’IA può portare alla diffusione di contenuti di bassa qualità.
- Formazione e pratica: L’uso efficace dei chatbot richiede sforzo e pratica per evitare le loro insidie.
Consigli per valutare le affermazioni sull’IA:
- Verificabilità: Valutare se le affermazioni sull’IA sono facilmente verificabili e chi può verificarle. Ad esempio, le affermazioni sulla precisione del riconoscimento vocale possono essere verificate direttamente dall’utente.
- Raccolta dati: Riconoscere l’importanza della raccolta di nuovi dati specifici per un compito, piuttosto che fare affidamento su dati esistenti. Questo concetto è ampiamente riconosciuto in medicina e in altri campi dove l’IA viene utilizzata per le decisioni automatizzate.
- Comprendere i limiti: È necessario essere consapevoli dei limiti dell’IA, soprattutto quando si tratta di prevedere il comportamento umano, e riconoscere che questa non è una scienza esatta.
- Controllare le fonti: Essere consapevoli che alcuni articoli di stampa sull’IA sono scritti da persone che non sono esperti e che possono fornire informazioni fuorvianti.
Consigli per un approccio etico all’IA:
- Responsabilità: Pensare alle proprie responsabilità e alle opportunità di cambiamento in relazione alle implicazioni dannose degli strumenti di IA.
- Pensiero sistemico: Considerare i problemi della moderazione dei contenuti come problemi sistemici che richiedono riforme istituzionali e non solo decisioni individuali.
- Riconoscere i pregiudizi: Essere consapevoli che gli algoritmi di IA possono riflettere i pregiudizi presenti nei dati su cui vengono addestrati. È fondamentale analizzare criticamente come le decisioni basate sull’IA possono portare a disparità.
- Trasparenza: Promuovere la trasparenza nell’uso degli algoritmi di IA, soprattutto in contesti dove le decisioni hanno un impatto significativo sulla vita delle persone.
Consigli per navigare l’hype dell’IA:
- Hype: Essere cauti con l’hype dell’IA, in quanto molti prodotti pubblicizzati come IA sono in realtà “fumo negli occhi”.
- Criti-hype: Essere consapevoli del “criti-hype”, ovvero la tendenza a generare clamore sia a favore che contro le nuove tecnologie, perché può essere dannoso per lo sviluppo di una comprensione concreta dei benefici e dei rischi dell’IA .
- Illusioni: Essere consapevoli che le illusioni sono facili da creare e possono rendere difficile la comprensione delle limitazioni dell’IA .
- Ciclo dell’hype: Comprendere che l’IA, come altre tecnologie, segue un ciclo dell’hype con un picco di aspettative gonfiate, seguito da una disillusione e, infine, da una comprensione più realistica.
- Non tutto è IA: Essere consapevoli che l’etichetta “IA” spesso viene appiccicata a cose che non sono realmente IA, e che ci sono altri fattori in gioco, come il marketing o l’uso storico della tecnologia.
In sintesi, le fonti consigliano di affrontare l’IA con scetticismo, consapevolezza e responsabilità. È necessario sviluppare un occhio critico per identificare le “AI snake oil”, comprendere i limiti e le potenzialità della tecnologia, e promuovere un approccio etico e trasparente al suo sviluppo e utilizzo. L’azione collettiva è fondamentale per garantire che l’IA sia utilizzata a beneficio di tutti.
Regolamente l’IA. Come?
Tema di forte attualità, non senza dubbi e perplessità. C’è da dire però che gli autori sono interni al business dell’IA, quindi non proprio oggettivi nel valutare questo aspetto.
Le fonti forniscono diverse prospettive sulla regolamentazione dell’IA, evidenziando sia la sua necessità sia le sue limitazioni.
Necessità di regolamentazione:
- Protezione del pubblico: La regolamentazione è vista come uno strumento cruciale per proteggere il pubblico dai potenziali danni dell’IA, come la discriminazione automatizzata, la disinformazione e l’uso improprio della sorveglianza.
- Gestione del comportamento: La regolamentazione è definita come le regole create da un’autorità governativa per gestire il comportamento di individui e organizzazioni.
- Sicurezza e innovazione: La regolamentazione può garantire che le aziende abbiano lo spazio per innovare in modo sicuro.
- Responsabilità: La regolamentazione può aiutare a rendere le piattaforme più responsabili delle loro politiche di moderazione dei contenuti e delle decisioni prese dagli algoritmi di IA.
- Trasparenza: Le leggi come il Digital Services Act (DSA) dell’UE richiedono maggiore trasparenza sugli strumenti di moderazione automatizzata dei contenuti.
- Diversi approcci: Diversi paesi e giurisdizioni stanno adottando approcci differenti alla regolamentazione dell’IA, come gli Stati Uniti con un approccio verticale e l’UE con un approccio orizzontale. Questi approcci variati permettono di capire cosa funziona e cosa no, e di sviluppare principi migliori per la regolamentazione.
Limitazioni della regolamentazione:
- Cattura normativa: Esiste il rischio che le aziende influenzino le normative a proprio vantaggio, un fenomeno noto come “cattura normativa”. Ad esempio, Facebook ha chiesto di essere regolamentata, ma ha stabilito requisiti che già soddisfaceva, al fine di spingere i concorrenti ad adeguarsi, senza cambiare la propria struttura.
- Regolamentazione eccessiva: Una regolamentazione eccessiva può frenare l’innovazione e ridurre la concorrenza, concentrando il potere nelle mani di poche aziende.
- Difficoltà di applicazione: L’applicazione delle normative può essere difficile, soprattutto in uno spazio in rapida evoluzione come quello dell’IA.
- Mancanza di risorse: Gli enti regolatori possono mancare di risorse e finanziamenti per operare in modo indipendente dalle aziende che regolamentano.
- Regolamentazione come sintomo, non problema: Secondo Evelyn Douek, la moderazione dei contenuti dovrebbe essere vista attraverso la lente del “pensiero sistemico”, che si concentra non sulle singole decisioni ma sui processi difettosi che le producono. Le decisioni individuali errate fatte con l’IA non sono tanto il problema quanto un sintomo di problemi strutturali sottostanti.
Altri punti importanti:
- Azione collettiva: L’azione collettiva è più efficace della resistenza individuale. Ciò può avvenire attraverso la difesa della regolamentazione e la scelta di aziende con pratiche etiche.
- Necessità di principi: Le leggi non riguardano solo i dettagli tecnici, ma anche i principi. Il Primo Emendamento della Costituzione degli Stati Uniti, ad esempio, garantisce la libertà di parola ed è ancora utilizzato come principio guida per affrontare problemi come la censura online.
- Fondi per la regolamentazione: È necessario un aumento dei fondi per le agenzie di regolamentazione per tenere il passo con l’innovazione dell’IA.
- Interessi dei governi: I governi possono influenzare le politiche delle piattaforme attraverso la minaccia di regolamentazione o di essere banditi. Più importante è un mercato per un’azienda, più l’azienda si preoccupa di mantenere il governo soddisfatto, il che può portare alla censura.
In conclusione, la regolamentazione dell’IA è un argomento complesso con sia vantaggi che svantaggi. Le fonti suggeriscono che non esiste una soluzione semplice e che un approccio cauto, etico e ben finanziato è necessario per affrontare le sfide poste dall’IA.
In definitiva l’uso di NotebookLM si rivela efficace nell’estrarre valore da testi che hanno contenuti pratici, senza perdersi in narrazioni più funzionali a intrattenere che a informare.
Sarà interessante vedere come cambieranno i libri con la diffusione di massa di questa tecnologia, che non ne incentiva la lettura vera e propria.
Tempi eccitanti.
Lascia un commento