Capire cos’è l’Intelligenza Artificiale e quali effetti ha sulla nostra vita è un tema che affrontiamo quasi ogni settimana. Nella diretta di venerdì 13 marzo ci siamo tornate con la seconda intervista di un nuovo format di cui vi avevamo dato anticipazione, “Perché ce l’AI”: un ospite in diretta, professionista del settore, ci racconta come il mondo culturale si sta formando all’utilizzo virtuoso di questi strumenti. Ospite in studio in diretta è stato Alessandro Saracino, Program manager Innovazione didattica e tecnologica e responsabile scientifico Golinelli LiVE, Live Virtual Experience, una piattaforma educativa in realtà virtuale per docenti di scienze della vita (discipline che studiano gli organismi viventi – esseri umani, animali, piante e microrganismi – e i meccanismi della vita) e settore manifatturiero. 

Abbiamo solleticato le competenze puntuali di Saracino in tema di funzionamento di LLM – Large Language Model – e della loro applicazione nel mondo culturale e non solo attraverso due spunti, l’articolo di Luca Avigo su Lucy sulla Cultura, Il futuro dell’arte sono le mostre immersive? Speriamo di no, e il post sul suo profilo LinkedIn di Andrea Colamedici, Il corso di AI che vi serve è un corso di filosofia.

Commenta Saracino sulle mostre immersive che “me ne sono occupato anche un po’ da designer: mi rendo conto che hanno avuto degli sviluppi molto spostati sul marketing, quindi sul rendere instagrammabile qualsiasi esperienza culturale perché ti porta visitatori.
Credo che abbiamo a disposizione strumenti in realtà molto potenti per arrivare anche sull’aspetto di stimolazione cognitiva, non solo emotiva, dell’utente (…) È un compito difficile, quello di stupire e veicolare qualcosa, creare interesse, creare contenuto, perché spesso, quando siamo molto eccitati, molto emotivamente presi, l’aspetto cognitivo, diciamo, va un po’ in soffitta e al tempo stesso se siamo invece troppo cognitivamente stimolati, quindi c’è un po’ una parte, diciamo, proprio di acquisizione di contenuto, ci annoiamo facilmente. Bisogna allora trovare un po’ quel bilanciamento, che si chiama proprio flow, quel punto intermedio che guida l’utente ad essere attento, stimolato, non annoiato ma nemmeno troppo affaticato dalla comprensione di quello che sta succedendo.

(…) L’intelligenza artificiale allo stato attuale perché, come discutevamo anche un po’ fuori onda, stare dietro a quello che succede nel mondo dell’IA è un lavoro giorno per giorno, ora per ora ormai; comunque, diciamo che in questo momento ci stiamo avvicinando a delle intelligenze multimodali, cioè che riescono un pochettino a elaborare input ed output simili a quelli che fa la mente di una persona. Questo obiettivo, non si sa se e quando sarà raggiunto, si chiama Artificial General Intelligence. Non si sa se ci arriveremo e come ci arriveremo, però quelle che abbiamo ora producono immagini, capiscono il mondo circostante, capiscono i testi. E capiscono il linguaggio naturale che è quello che parliamo tra noi esseri umani: non solo lo capiscono, lo elaborano e lo producono anche. Quindi questo è un aspetto molto importante. Nelle mostre ti aiuta perché hai la possibilità di far entrare questi grossi sistemi che hanno molta conoscenza e che non si stancano mai ad assistere, per esempio, il visitatore dandogli una guida che può essere anche multimodale, ovvero può essere testuale, può essere contestuale, può essere adeguata al bisogno specifico del singolo utente. Per esempio adesso ci sono audioguide personalizzate generative, quindi vuol dire che l’utente, per esempio con una breve intervista, riesce a dare qualche informazione che poi serve al sistema per generare un audioguida in tempo reale che va vicino al suo bisogno; quindi se sono un bambino, ho bisogno di un’audioguida che stimoli più il canale dell’immaginazione”.

Rispetto a quanto scritto dal filosofo Andrea Colamedici, e che abbiamo letto in diretta, ovvero che saper usare l’IA “significa anzitutto, saper formulare una domanda per bene. Significa riconoscere quando una risposta è generica e avere la capacità di pretenderne una migliore. Significa distinguere un argomento solido, ben fatto, da uno che suona bene e basta. Significa insistere su una distinzione concettuale quando la macchina la appiattisce, e accorgersi di quando c’è qualcosa di utile e quando c’è solo il riflesso della propria ignoranza laccato d’oro. Significa, in una parola, pensare” Alessandro Saracino si è trovato sostanzialmente d’accordo e ci ha ricordato due bias fondamentali dell’IA: “Non faccio il futurologo, però possiamo immaginare che in futuro non ci saranno scenari in cui l’AI non entrerà un po’ dappertutto e quindi sono d’accordo che vadano coltivate quelle “AI skills” che hanno a che fare con tutto il filone di conoscenza tecnica: che cos’è l’ AI e come si governa; è anche necessario lo sviluppo di una certa quantità di pensiero critico e di cultura sufficiente a contrastare quelli che sono i comportamenti, diciamo, inevitabili delle IA, le allucinazioni, cioè quando l’ IA ti dice una cosa che in realtà si è inventato, e la sicofantia, ovvero la tendenza di questi modelli ad ad essere d’accordo con le convinzioni, i pregiudizi o le premesse errate dell’utente. Le IA sono fatte per compiacerci perché sono dei sistemi assistivi. Questa cosa però forse l’hanno presa un po’ troppo alla lettera. Quindi, quando non sanno una cosa e tu insisti che la vuoi sapere, te la dicono anche se non è vera e non lo ammettono. Non ti dicono “Sì, io ho sparato una fesseria qualsiasi solo per compiacerti”. È questo il problema, è la ragione per cui la nostra capacità critica e culturale deve saper prendere il prodotto AI come un prodotto comunque da revisionare, sempre, anche per compiti molto semplici.

Per questo noi di Fondazione Golinelli puntiamo molto sulla formazione dei ragazzi e delle ragazze a manovrare questi strumenti. Se li conosciamo bene, se sappiamo come funzionano, come si addestra un AI, quali sono i bias, che cosa è un bilanciamento, un atteggiamento neutrale dell’AI, faremo delle AI migliori, sempre più neutrali, sempre più bilanciate, sempre più strumentali e non sostitutive”.

Infine abbiamo approfondito il cambiamento che sta avvenendo nella professione del programmatore con l’arrivo del vibe coding, un metodo di sviluppo software che integra in modo significativo l’uso di Large Language Model (LLM) per la generazione di codice. Il termine “vibe coding”, che significa codifica assistita dall’IA, è stato coniato da Andrej Karpathy, co-fondatore di OpenAI, in un post su X del febbraio 2025. “Il vibe coding è un nuovo trend, chiamiamolo così, forse un po’ tecnico, ma che sta diventando molto pop, e che consiste nell’usare sostanzialmente sistemi di intelligenza artificiale per aiutarsi o addirittura per far fare tutta la parte di scrittura del codice quando devi fare software. Tutte le app, i siti web, qualsiasi prodotto informatico che usiamo ha  alla base del codice. Questo codice allo stato attuale, quindi marzo 2026, riusciamo a generarlo sempre di più con AI che interagiscono, tramite i prompt, con il programmatore che diventa una figura più creativa che tecnica. E questa trasformazione sta riguardando sia l’industria sia l’individuo.

Ci sono produttori, per esempio, di smartphone che stanno integrando sistemi di vibe coding per creare delle app on demand, cioè tu non scarichi un’app dallo store ma chiedi al tuo sistema, parlandoci come se parlassi con un amico, “mi faresti un’app che mi può controllare i treni in Austria, perché andrò in Austria e ho bisogno di un sistema che mi guidi un pochettino a muovermi all’interno del paese”.

Questa cosa sta già succedendo, sta diventando sempre più veloce, sempre più importante nell’industria, sul lavoro, e finalmente rende anche democratica la possibilità, finora detenuta un po’ dai tecnici, di produrre software, che è una cosa bellissima, è un’esperienza creativa e finalmente sta diventando a disposizione di tutti”.

MUSICA

Cult News è un’agenda settimanale non solo culturale ma anche musicale: oltre ai brani in continuità con le tematiche che tocchiamo, nella seconda parte della diretta vi proponiamo l’ascolto di album in uscita e vi ricordiamo interessanti concerti, rassegne e festival a cui partecipare.

Tappa al Covo il 14 marzo dei Bee Bee Sea che nel 2025 hanno pubblicato il loro ultimo album “Stanzini can be allright”. La recensione di Francesco Giordano su Impatto Sonoro.

“Proprio nel grottesco delle voci attraverso cui il duo esplicita la propria visione risiede il cuore del tutto, ovvero mostrare lo schifo della contemporaneità, il suo deragliamento, la sua insostenibilità, l’impossibilità del distinguere cosa sia vero da sia falso mentre tutto intorno il mondo brucia”. La recensione di Stefano Pifferi su sentireascoltare del settimo album Bologna Violenta uscito il 26 febbraio 2026, “Oblomovismo”.

“Embraced for a second as we die” di Amanda Bergman recensito da Gianfranco Marmoro su Onda Rock.

Chiude come di consueto la nostra rubrica musicale un articolo ben fatto sul mondo della musica: questa settimana vi segnaliamo “Marshall, un programma di sostegno per i live club indipendenti”, pubblicato su MusicBiz.Rockol.

Info utili

🎶 Per riascoltare la playlist della puntata, vai sulla pagina Tidal di Cult News.

🎧 Per riascoltare la puntata della diretta di venerdì 06 marzo vai sulla pagina Spreaker di Cult News.

Cult news è l’agenda culturale e musicale ideata e condotta da Flavia Montecchi con Anna Cesari, in diretta ogni venerdì dalle 10:30 alle 11:30 su Radio Città Fujiko.

Seguici, commenta e suggerisci il profilo IG Cult News!