Lunedì 9 marzo alle 17:00 sarò all’Università degli Studi di Genova (Via Balbi 5, Aula Meridiana) per un seminario organizzato dal Consorzio IANUA su un tema che diventa ogni giorno più centrale: AI e persuasione.
Studiamo con l’AI.
Lavoriamo con l’AI.
Chiediamo consigli all’AI.
Ma quando un sistema è capace di rispondere in modo fluido, empatico e coerente, smette di essere solo uno strumento e entra nel terreno della persuasione: può rafforzare convinzioni, orientare decisioni e rendere “naturali” alcune interpretazioni del mondo.
Nel seminario “AI e Persuasione: chi decide cosa decidiamo?” proveremo a capire cosa succede quando i modelli linguistici e i sistemi generativi iniziano a operare nel dominio cognitivo, trasformando la persuasione in qualcosa di scalabile e automatizzabile.
Un viaggio tra psicologia, linguaggio, cibernetica e nuovi equilibri di potere informativo.
Posti limitati con prenotazione qui:
👉 https://link.mgpf.it/seminarioianua
🎓 Università degli Studi di Genova
📅 Lunedì 9 marzo 2026 — ore 17:00
📍 Via Balbi 5, Aula Meridiana
Studiamo con l’AI.
Lavoriamo con l’AI.
Chiediamo consigli all’AI.
Ma quando un sistema è capace di rispondere in modo fluido, empatico e coerente, smette di essere solo uno strumento e entra nel terreno della persuasione: può rafforzare convinzioni, orientare decisioni e rendere “naturali” alcune interpretazioni del mondo.
Nel seminario “AI e Persuasione: chi decide cosa decidiamo?” proveremo a capire cosa succede quando i modelli linguistici e i sistemi generativi iniziano a operare nel dominio cognitivo, trasformando la persuasione in qualcosa di scalabile e automatizzabile.
Un viaggio tra psicologia, linguaggio, cibernetica e nuovi equilibri di potere informativo.
Posti limitati con prenotazione qui:
👉 https://link.mgpf.it/seminarioianua
🎓 Università degli Studi di Genova
📅 Lunedì 9 marzo 2026 — ore 17:00
📍 Via Balbi 5, Aula Meridiana
link.mgpf.it
AI e Persuasione: chi decide cosa decidiamo? | Consorzio IANUA
L’interazione con l’intelligenza artificiale sta diventando quotidiana: studiamo con l’AI, lavoriamo con l’AI, chiediamo consigli all’AI. Ma quando un sistema è capace di rispondere in modo fluido, empatico e coerente, entra inevitabilmente nel terreno della…
❤5
Oggi su la Repubblica trovate un lungo pezzo scritto insieme ad Arcangelo Ròciola, che parte da una domanda apparentemente semplice: cosa succede quando la guerra smette di essere raccontata come guerra?
Leggi l'articolo 👉 https://link.mgpf.it/sDg9
Leggi l'articolo 👉 https://link.mgpf.it/sDg9
link.mgpf.it
Missili e Macarena. Così la guerra in Iran è diventata un contenuto virale
La Casa Bianca continua a diffondere video sulle operazioni di guerra in Iran su canzoni divertenti e immagini di videogame. Meme e comunicazione istituzionale…
👍4🤯3🕊2❤1
M*rte, meme e Macarena. 🕺💀
Cosa è diventata la comunicazione della guerra?
Nel 2026 le battaglie si guardano come tutorial su TikTok. I droni riprendono e trasmettono quasi in diretta, gli account ufficiali commentano con meme mentre like, commenti e condivisioni approvano il tutto.
L'estetica della guerra alterata e confezionata come puro intrattenimento social.
Ma c'è un pericolo nascosto in questa gamification della morte.
Non stiamo infatti esclusivamente banalizzando il dolore umano, stiamo ristrutturando la nostra percezione della realtà a livello cognitivo.
L'interfaccia visiva dei videogiochi sovrapposta ai reali scenari di guerra "hackera" il nostro cervello, trasformando la tragedia in contenuto consumabile dove la pietà viene sacrificata sull'altare del like.
Come cambia la nostra moralità quando la violenza di Stato diventa un meme?
E soprattutto, come siamo arrivati a tutto questo?
🎥 Ne parliamo nel nuovo deep dive su Ciao Internet
👉 https://www.youtube.com/watch?v=DN_6yojShe4
Cosa è diventata la comunicazione della guerra?
Nel 2026 le battaglie si guardano come tutorial su TikTok. I droni riprendono e trasmettono quasi in diretta, gli account ufficiali commentano con meme mentre like, commenti e condivisioni approvano il tutto.
L'estetica della guerra alterata e confezionata come puro intrattenimento social.
Ma c'è un pericolo nascosto in questa gamification della morte.
Non stiamo infatti esclusivamente banalizzando il dolore umano, stiamo ristrutturando la nostra percezione della realtà a livello cognitivo.
L'interfaccia visiva dei videogiochi sovrapposta ai reali scenari di guerra "hackera" il nostro cervello, trasformando la tragedia in contenuto consumabile dove la pietà viene sacrificata sull'altare del like.
Come cambia la nostra moralità quando la violenza di Stato diventa un meme?
E soprattutto, come siamo arrivati a tutto questo?
🎥 Ne parliamo nel nuovo deep dive su Ciao Internet
👉 https://www.youtube.com/watch?v=DN_6yojShe4
YouTube
MORTE E MACARENA: quando le morti sono un videogioco e un meme #1534
Nel 2026, la guerra si è trasformata in un fenomeno mediatico, in diretta e commentata sui social, come racconta il mio ultimo video. Immaginate battaglie trasmesse con la stessa spensieratezza di un tutorial di TikTok. È qui che ci troviamo oggi, con l'estetica…
🤖 Il 27% degli under 15 si sfoga con un chatbot. Non con un amico.
Non con un genitore. Con un algoritmo progettato per non contraddirli mai.
Questa settimana a "Intelligenze Artificiali - in mezzo" a noi su TGCom24 parliamo di chatbot emotivi e minori: cosa succede quando la fragilità di un adolescente diventa un asset da monetizzare per le Big Tech?
Con me l'Onorevole Giulia Pastorella (Azione), prima firmataria di una proposta di legge per regolamentare il settore. Dall'age verification fino all'"amnesia forzata" per i chatbot, ovvero un limite di 5 giorni alla loro memoria.
Una misura tecnica drastica per impedire la creazione di legami di dipendenza affettiva artificiale e riportare i minori verso relazioni umane autentiche.
📺 Appuntamento OGGI Sabato 7 marzo alle 17:00 su TGCom24
Non mancate!
Non con un genitore. Con un algoritmo progettato per non contraddirli mai.
Questa settimana a "Intelligenze Artificiali - in mezzo" a noi su TGCom24 parliamo di chatbot emotivi e minori: cosa succede quando la fragilità di un adolescente diventa un asset da monetizzare per le Big Tech?
Con me l'Onorevole Giulia Pastorella (Azione), prima firmataria di una proposta di legge per regolamentare il settore. Dall'age verification fino all'"amnesia forzata" per i chatbot, ovvero un limite di 5 giorni alla loro memoria.
Una misura tecnica drastica per impedire la creazione di legami di dipendenza affettiva artificiale e riportare i minori verso relazioni umane autentiche.
📺 Appuntamento OGGI Sabato 7 marzo alle 17:00 su TGCom24
Non mancate!
😢3👏1
🇺🇸 Il governo USA ha dichiarato un'azienda tecnologica americana un rischio per la sicurezza nazionale. Ed è successo ad Anthropic, quella di Claude, per intenderci.
Il motivo? Anthropic ha chiesto di rendere esplicito nel contratto con il Pentagono che la sua AI non sarebbe stata utilizzata per due finalità: sorvegliare i cittadini statunitensi senza mandato, e uccidere senza il comando di una persona.🤖
Nel frattempo OpenAI è entrata, ha firmato lo stesso contratto con garanzie molto più vaghe, e ha annunciato la partnership con il Dipartimento della Difesa.
Ma a questo punto la domanda è lecita: chi decide i limiti dell'uso militare dell'intelligenza artificiale? Chi l'ha costruita, o il governo che ne fa uso?
Oggi su Ciao Internet ripercorriamo tutta la vicenda per capire perché potrebbe diventare un precedente legale in grado di ridefinire il rapporto tra Stato e Industria Tech.
👉 https://www.youtube.com/watch?v=7xtjDQL404M
Il motivo? Anthropic ha chiesto di rendere esplicito nel contratto con il Pentagono che la sua AI non sarebbe stata utilizzata per due finalità: sorvegliare i cittadini statunitensi senza mandato, e uccidere senza il comando di una persona.🤖
Nel frattempo OpenAI è entrata, ha firmato lo stesso contratto con garanzie molto più vaghe, e ha annunciato la partnership con il Dipartimento della Difesa.
Ma a questo punto la domanda è lecita: chi decide i limiti dell'uso militare dell'intelligenza artificiale? Chi l'ha costruita, o il governo che ne fa uso?
Oggi su Ciao Internet ripercorriamo tutta la vicenda per capire perché potrebbe diventare un precedente legale in grado di ridefinire il rapporto tra Stato e Industria Tech.
👉 https://www.youtube.com/watch?v=7xtjDQL404M
YouTube
ANTHROPIC VS USA: Intelligenza Artificiale echi decide i limiti #1535
La decisione del governo degli Stati Uniti di dichiarare Anthropic un rischio per la sicurezza nazionale fa discutere. Un'azienda tecnologica americana viene messa sotto accusa perché chiede garanzie sull'uso etico della sua intelligenza artificiale. La mossa…
❤3👀1
Il 27% degli adolescenti italiani sotto i 15 anni usa già l'intelligenza artificiale per sfogarsi, senza paura di essere giudicati. Uno su tre considera il chatbot un "amico digitale sempre disponibile". E il 76% degli stessi ragazzi ammette di temere che questa abitudine li stia allontanando dalle relazioni vere.
Il meccanismo è semplice e preoccupante: questi algoritmi sono progettati per non contraddire mai, per mantenere l'utente online il più a lungo possibile, per monetizzare la solitudine. Un chatbot che "vuole bene" non è un amico.
È un prodotto.
🎙 Ho parlato di tutto questo su "Intelligenze Artificiali - In mezzo a noi" su TGcom24 con l'Onorevole Giulia Pastorella, prima firmataria di una proposta di legge che prova a mettere dei paletti concreti: verifica dell'età degli utenti, eliminazione della memoria emotiva ogni cinque giorni, campagne di sensibilizzazione per ragazzi, genitori e insegnanti.
Stiamo addestrando una generazione ad aspettarsi relazioni senza attrito, senza rifiuto, senza la fatica del confronto reale. E quando incontrano persone vere, imprevedibili, contraddittorie, umane, quella fatica diventa intollerabile.
Perché nessun algoritmo insegna a stare in una relazione.
Quella competenza si acquisisce solo vivendola.
👉 La puntata completa è già disponibile su Mediaset Infinity:
https://link.mgpf.it/ai3-16
Il meccanismo è semplice e preoccupante: questi algoritmi sono progettati per non contraddire mai, per mantenere l'utente online il più a lungo possibile, per monetizzare la solitudine. Un chatbot che "vuole bene" non è un amico.
È un prodotto.
🎙 Ho parlato di tutto questo su "Intelligenze Artificiali - In mezzo a noi" su TGcom24 con l'Onorevole Giulia Pastorella, prima firmataria di una proposta di legge che prova a mettere dei paletti concreti: verifica dell'età degli utenti, eliminazione della memoria emotiva ogni cinque giorni, campagne di sensibilizzazione per ragazzi, genitori e insegnanti.
Stiamo addestrando una generazione ad aspettarsi relazioni senza attrito, senza rifiuto, senza la fatica del confronto reale. E quando incontrano persone vere, imprevedibili, contraddittorie, umane, quella fatica diventa intollerabile.
Perché nessun algoritmo insegna a stare in una relazione.
Quella competenza si acquisisce solo vivendola.
👉 La puntata completa è già disponibile su Mediaset Infinity:
https://link.mgpf.it/ai3-16
link.mgpf.it
Intelligenze artificiali: “Intelligenze artificiali - In mezzo a noi”, puntata 16: chatbot emotivi e i minori Video
Matteo Flora intervista Giulia Pastorella di Azione.
👍4❤1
Delitto di Garlasco: il giallo dell'apertura della cartella militare.
La mia analisi fatta a Quarto Grado.
https://link.mgpf.it/sTCF
La mia analisi fatta a Quarto Grado.
https://link.mgpf.it/sTCF
link.mgpf.it
Quarto Grado: Delitto di Garlasco: il giallo dell’apertura della cartella militare Video
L’analisi di Alessandra Viero e Matteo Flora, informatico forense.
👀3
Il panico satanico degli anni '80 è tornato. E questa volta è scalabile.😈
Negli anni '80 migliaia di americani si convinsero di essere stati vittime di sette sataniche, grazie a terapeuti che usavano l'ipnosi per "recuperare" ricordi traumatici mai esistiti. Ci vollero più di dieci anni per smontare quella narrativa.
Oggi lo stesso meccanismo sta riemergendo nel Regno Unito: le segnalazioni di abuso rituale crescono in modo esponenziale e gli esperti puntano il dito verso i chatbot.
Il motivo è semplice. I modelli linguistici sono progettati per farti sentire bene, non per dirti la verità. Confermano, elaborano e amplificano, facendo lo stesso errore degli anni '80, solo che ai tempi un terapeuta vedeva 5 pazienti al giorno mentre ChatGPT ne vede 200 milioni a settimana.
Ne parlo oggi, nel nuovo episodio di Ciao Internet 👇
🔗 https://www.youtube.com/watch?v=7BrX8XJ4yxM
Negli anni '80 migliaia di americani si convinsero di essere stati vittime di sette sataniche, grazie a terapeuti che usavano l'ipnosi per "recuperare" ricordi traumatici mai esistiti. Ci vollero più di dieci anni per smontare quella narrativa.
Oggi lo stesso meccanismo sta riemergendo nel Regno Unito: le segnalazioni di abuso rituale crescono in modo esponenziale e gli esperti puntano il dito verso i chatbot.
Il motivo è semplice. I modelli linguistici sono progettati per farti sentire bene, non per dirti la verità. Confermano, elaborano e amplificano, facendo lo stesso errore degli anni '80, solo che ai tempi un terapeuta vedeva 5 pazienti al giorno mentre ChatGPT ne vede 200 milioni a settimana.
Ne parlo oggi, nel nuovo episodio di Ciao Internet 👇
🔗 https://www.youtube.com/watch?v=7BrX8XJ4yxM
YouTube
AI E ABUSI SATANICI: e chatbot che creano false memorie e il ritorno del "Panico Morale" #1536
Negli anni '80, migliaia di americani si sono convinti di abusi rituali inesistenti, spinti da terapeuti poco scrupolosi. Oggi, nel 2026, gli stessi meccanismi si ripresentano con un protagonista inatteso: i chatbot come ChatGPT. In Regno Unito, le segnalazioni…
😱6❤3👍1
Venerdì sera sono a Castronno per il festival Filosofarti 2026.
Una lezione sul rapporto tra la Rete e il controllo, tra l'utopia delle origini e quello che è diventata oggi.
"Neutralità Tradita. La rete fra utopia e controllo"
📅 Venerdì 13 marzo | ore 21:00
📍 MATERIA – Via Confalonieri 5, Castronno (VA)
🎟 Prenotazioni: www.filosofarti.it/prenotazioni
Una lezione sul rapporto tra la Rete e il controllo, tra l'utopia delle origini e quello che è diventata oggi.
"Neutralità Tradita. La rete fra utopia e controllo"
📅 Venerdì 13 marzo | ore 21:00
📍 MATERIA – Via Confalonieri 5, Castronno (VA)
🎟 Prenotazioni: www.filosofarti.it/prenotazioni
TORTORA VOTA NO.
Fabrizio Gifuni interpreta Enzo Tortora nella serie Portobello di Bellocchio, in onda su HBO Max proprio nelle settimane che precedono il voto al referendum sulla separazione delle carriere.
Il fronte del Sì ha costruito un'intera campagna su quella storia con una frame activation perfetta, da manuale.
❌ Poi Gifuni apre bocca: "Voterò convintamente no."
Cortocircuito. Gaia Tortora risponde secca: "Papà avrebbe votato sì." Libero lo chiama "sfregio", Il Secolo d'Italia "affronto".
Io lo chiamo Governo delle Narrative, ed è il caso più chiaro e devastante che abbia visto negli ultimi anni.
Nel nuovo video su Ciao Internet spiego perché (e perché anche la frase "Tortora vota no" è tecnicamente sbagliata. 😉)
🔗 https://www.youtube.com/watch?v=WPiWuw0uVts
Fabrizio Gifuni interpreta Enzo Tortora nella serie Portobello di Bellocchio, in onda su HBO Max proprio nelle settimane che precedono il voto al referendum sulla separazione delle carriere.
Il fronte del Sì ha costruito un'intera campagna su quella storia con una frame activation perfetta, da manuale.
❌ Poi Gifuni apre bocca: "Voterò convintamente no."
Cortocircuito. Gaia Tortora risponde secca: "Papà avrebbe votato sì." Libero lo chiama "sfregio", Il Secolo d'Italia "affronto".
Io lo chiamo Governo delle Narrative, ed è il caso più chiaro e devastante che abbia visto negli ultimi anni.
Nel nuovo video su Ciao Internet spiego perché (e perché anche la frase "Tortora vota no" è tecnicamente sbagliata. 😉)
🔗 https://www.youtube.com/watch?v=WPiWuw0uVts
YouTube
TORTORA VOTA NO: Gifuni vota NO e il referendum va in corto circuito... #1540
Libero lo chiama "sfregio". Il Secolo d'Italia "affronto". Gaia Tortora risponde secca: "Papà avrebbe votato sì". Io lo chiamo Governo delle Narrative.
Gifuni interpreta Tortora in Portobello di Bellocchio su HBO Max. Milioni di italiani guardano ogni settimana…
Gifuni interpreta Tortora in Portobello di Bellocchio su HBO Max. Milioni di italiani guardano ogni settimana…
❤3👀2👎1
🤖 L'IA ci sta rendendo più capaci o semplicemente più veloci?
Uno studio pubblicato su PNAS ha documentato come gli studenti con accesso a GPT-4 migliorano del +48% mentre lo usano.
Ma quando l'IA viene tolta, crollano del 17% sotto il loro livello di partenza.
Ogni volta che deleghiamo il pensiero a una macchina, accumuliamo quello che i ricercatori chiamano debito cognitivo, un conto silenzioso che si paga quando la macchina non c'è più.
📆 Questo sabato a "Intelligenze Artificiali – In mezzo noi" su TGCom24 ne parlo con Raffaele Gaito, autore di "In cosa posso esserti utile?" (Mondadori). Il suo libro introduce il concetto di "competenza per procura" e prova a rispondere alla domanda più importante: come si usa l'IA per crescere davvero, invece di appoggiarsi a lei?
Vi aspetto su TGCom24 OGGI
📺 Sabato 14 marzo, ore 17:00
Uno studio pubblicato su PNAS ha documentato come gli studenti con accesso a GPT-4 migliorano del +48% mentre lo usano.
Ma quando l'IA viene tolta, crollano del 17% sotto il loro livello di partenza.
Ogni volta che deleghiamo il pensiero a una macchina, accumuliamo quello che i ricercatori chiamano debito cognitivo, un conto silenzioso che si paga quando la macchina non c'è più.
📆 Questo sabato a "Intelligenze Artificiali – In mezzo noi" su TGCom24 ne parlo con Raffaele Gaito, autore di "In cosa posso esserti utile?" (Mondadori). Il suo libro introduce il concetto di "competenza per procura" e prova a rispondere alla domanda più importante: come si usa l'IA per crescere davvero, invece di appoggiarsi a lei?
Vi aspetto su TGCom24 OGGI
📺 Sabato 14 marzo, ore 17:00
❤4👍3🔥3👏2💯1
🎥 Ecco i video della settimana su Ciao Internet 👇
🎭 Tortora vota no.
Il fronte del Sì costruisce la campagna perfetta sulla storia di Enzo Tortora. Poi l'attore che lo interpreta annuncia che voterà no. Il caso più clamoroso di Governo delle Narrative degli ultimi anni.
👉 https://www.youtube.com/watch?v=WPiWuw0uVts
😈 Il panico satanico è tornato. Ed è scalabile.
Negli anni '80 ci vollero dieci anni per smontare l'isteria delle sette sataniche. Oggi lo stesso meccanismo gira su ChatGPT, 200 milioni di utenti a settimana. I modelli non ti dicono la verità. Ti fanno sentire bene.
👉 https://www.youtube.com/watch?v=7BrX8XJ4yxM
🇺🇸 Anthropic ha chiesto di non uccidere senza un umano al comando. Il governo USA l'ha punita. OpenAI ha firmato senza fare domande. Chi decide i limiti dell'IA militare?
👉 https://www.youtube.com/watch?v=7xtjDQL404M
Scopri il mio corso online per imparare a usare l'AI in modo pratico, efficace e completamente da ZERO.
👉👉 https://zero.matteoflora.com 👈👈
🎭 Tortora vota no.
Il fronte del Sì costruisce la campagna perfetta sulla storia di Enzo Tortora. Poi l'attore che lo interpreta annuncia che voterà no. Il caso più clamoroso di Governo delle Narrative degli ultimi anni.
👉 https://www.youtube.com/watch?v=WPiWuw0uVts
😈 Il panico satanico è tornato. Ed è scalabile.
Negli anni '80 ci vollero dieci anni per smontare l'isteria delle sette sataniche. Oggi lo stesso meccanismo gira su ChatGPT, 200 milioni di utenti a settimana. I modelli non ti dicono la verità. Ti fanno sentire bene.
👉 https://www.youtube.com/watch?v=7BrX8XJ4yxM
🇺🇸 Anthropic ha chiesto di non uccidere senza un umano al comando. Il governo USA l'ha punita. OpenAI ha firmato senza fare domande. Chi decide i limiti dell'IA militare?
👉 https://www.youtube.com/watch?v=7xtjDQL404M
Scopri il mio corso online per imparare a usare l'AI in modo pratico, efficace e completamente da ZERO.
👉👉 https://zero.matteoflora.com 👈👈
❤1
Se compri un oggetto da $300.000 ma non puoi ripararlo senza il permesso di chi te l'ha venduto, lo possiedi davvero?
È la domanda che si stanno facendo migliaia di agricoltori americani che nel 2026 scaricano firmware da forum ucraini solo per poter usare i loro trattori John Deere, non perché siano pirati ma perché è l'unico modo per non aspettare tre settimane il tecnico autorizzato mentre il raccolto marcisce nel campo.
John Deere ha infatti costruito un sistema in cui possiedi la macchina ma il software che fa funzionare tutto rimane loro: i manuali non sono disponibili, gli strumenti diagnostici sono accessibili solo ai concessionari e gli aggiornamenti li installano solo i tecnici certificati.
Questa non è una solo storia di trattori, è il modello che si sta diffondendo in silenzio su Tesla, dispositivi medici, elettrodomestici smart e qualunque oggetto con un chip dentro. Ogni volta che compri qualcosa di "connesso" vale la pena chiedersi se stai acquistando un oggetto o semplicemente il permesso di usarlo.
🎙 Ne parliamo oggi nella nuova puntata di Ciao Internet
👉 https://www.youtube.com/watch?v=wueUbaXx-gs
È la domanda che si stanno facendo migliaia di agricoltori americani che nel 2026 scaricano firmware da forum ucraini solo per poter usare i loro trattori John Deere, non perché siano pirati ma perché è l'unico modo per non aspettare tre settimane il tecnico autorizzato mentre il raccolto marcisce nel campo.
John Deere ha infatti costruito un sistema in cui possiedi la macchina ma il software che fa funzionare tutto rimane loro: i manuali non sono disponibili, gli strumenti diagnostici sono accessibili solo ai concessionari e gli aggiornamenti li installano solo i tecnici certificati.
Questa non è una solo storia di trattori, è il modello che si sta diffondendo in silenzio su Tesla, dispositivi medici, elettrodomestici smart e qualunque oggetto con un chip dentro. Ogni volta che compri qualcosa di "connesso" vale la pena chiedersi se stai acquistando un oggetto o semplicemente il permesso di usarlo.
🎙 Ne parliamo oggi nella nuova puntata di Ciao Internet
👉 https://www.youtube.com/watch?v=wueUbaXx-gs
YouTube
HACKER CONTADINI: la battaglia per riparare il tuo trattore John Deere #1538
Un agricoltore del Nebraska con le mani sporche di terra e un portatile collegato al suo trattore John Deere: questa è l'immagine che sta scuotendo il concetto di proprietà nel mondo digitale. Gli agricoltori sono costretti a hackerare i propri trattori da…
❤6🔥3
Venerdì sarò alla Camera dei Deputati per parlare di regole, responsabilità e futuro della content economy.
Il 20 marzo, alla Sala della Lupa di Palazzo Montecitorio, si tiene Sprint Rules – La nuova stagione della content economy, curato da Sprint Italia e UNC Consumatori, su iniziativa degli On. Giulia Pastorella e Antonio D'Alessio.
Si parlerà di influencer marketing, quadro normativo, tutela dei più giovani online e responsabilità nella comunicazione digitale. Con me ci saranno Selvaggia Lucarelli, Massimiliano Dona, Ernesto Caffo, Brando Benifei, Federico Rognoni, Gennaro Romagnoli, Valentina Fiorenza, Francesca Pellicanò, Vincenzo Guggino e Jacopo Ierussi
L'evento è aperto al pubblico, ma serve accreditarsi 👇
🔗 sprint-italia.com/sprint-rules
Il 20 marzo, alla Sala della Lupa di Palazzo Montecitorio, si tiene Sprint Rules – La nuova stagione della content economy, curato da Sprint Italia e UNC Consumatori, su iniziativa degli On. Giulia Pastorella e Antonio D'Alessio.
Si parlerà di influencer marketing, quadro normativo, tutela dei più giovani online e responsabilità nella comunicazione digitale. Con me ci saranno Selvaggia Lucarelli, Massimiliano Dona, Ernesto Caffo, Brando Benifei, Federico Rognoni, Gennaro Romagnoli, Valentina Fiorenza, Francesca Pellicanò, Vincenzo Guggino e Jacopo Ierussi
L'evento è aperto al pubblico, ma serve accreditarsi 👇
🔗 sprint-italia.com/sprint-rules
👍3❤2👏1
L'IA ti sta rendendo più bravo o solo più veloce?
Non è la stessa cosa. E adesso si può misurare.
Uno studio su PNAS del 2025 ha seguito quasi 1000 studenti: chi usava GPT-4 migliorava del 48% nelle performance. Ma senza IA, quegli stessi studenti ottenevano il 17% in meno rispetto a chi non l'aveva mai usata.
Non un ritorno alla normalità, bensì un crollo sotto il livello di partenza.
Un altro studio del British Journal of Educational Technology ha mostrato che gli studenti con ChatGPT migliorano i voti, ma smettono di pianificare, monitorare e valutare il proprio apprendimento. Non imparano di meno: smettono di sapere cosa sanno e cosa non sanno. I ricercatori lo chiamano pigrizia metacognitiva.
🤖 In questa puntata di #IntelligenzArtificiali su TGCOM24 ho affrontato questo paradosso con Raffaele Gaito, autore del libro "In cosa posso esserti utile?" appena uscito per Mondadori.
🔗 Guarda la puntata su Mediaset Infinity
👉 https://link.mgpf.it/ai3-17
Non è la stessa cosa. E adesso si può misurare.
Uno studio su PNAS del 2025 ha seguito quasi 1000 studenti: chi usava GPT-4 migliorava del 48% nelle performance. Ma senza IA, quegli stessi studenti ottenevano il 17% in meno rispetto a chi non l'aveva mai usata.
Non un ritorno alla normalità, bensì un crollo sotto il livello di partenza.
Un altro studio del British Journal of Educational Technology ha mostrato che gli studenti con ChatGPT migliorano i voti, ma smettono di pianificare, monitorare e valutare il proprio apprendimento. Non imparano di meno: smettono di sapere cosa sanno e cosa non sanno. I ricercatori lo chiamano pigrizia metacognitiva.
🤖 In questa puntata di #IntelligenzArtificiali su TGCOM24 ho affrontato questo paradosso con Raffaele Gaito, autore del libro "In cosa posso esserti utile?" appena uscito per Mondadori.
🔗 Guarda la puntata su Mediaset Infinity
👉 https://link.mgpf.it/ai3-17
link.mgpf.it
Intelligenze artificiali: “Intelligenze artificiali - In mezzo a noi”, puntata 17: il debito cognitivo che si accumula con l’uso…
Matteo Flora intervista Raffaele Gaito, autore, divulgatore tech e docente.
L'AI ci potenzia o ci atrofizza?
Con Raffaele Gaito, Content Creator e Speaker, in occasione dell'uscita del suo libro "In cosa posso esserti utile? Guida molto pratica e poco emotiva all'intelligenza artificiale" (Mondadori, marzo 2026), entriamo nel merito di cosa significhi davvero usare l'intelligenza artificiale: non come oracolo, ma come strumento che cambia il processo creativo, il modo di studiare e il rapporto con l'errore.
🎥 Guarda il video di oggi su CiaoInternet
👉 https://www.youtube.com/watch?v=OOsdlazaFkk
Insieme parliamo di bias e sycophancy e di come strutturare prompt e ruoli per ottenere feedback utili invece di conferme.
Ma il punto più delicato che affrontiamo è il debito cognitivo: quando l'output diventa il punto d'arrivo, la mente smette di fare attrito.
🤖 Se "pensare con l'AI" è la nuova alfabetizzazione, come evitiamo che diventi una nuova forma di analfabetismo funzionale?
Con Raffaele Gaito, Content Creator e Speaker, in occasione dell'uscita del suo libro "In cosa posso esserti utile? Guida molto pratica e poco emotiva all'intelligenza artificiale" (Mondadori, marzo 2026), entriamo nel merito di cosa significhi davvero usare l'intelligenza artificiale: non come oracolo, ma come strumento che cambia il processo creativo, il modo di studiare e il rapporto con l'errore.
🎥 Guarda il video di oggi su CiaoInternet
👉 https://www.youtube.com/watch?v=OOsdlazaFkk
Insieme parliamo di bias e sycophancy e di come strutturare prompt e ruoli per ottenere feedback utili invece di conferme.
Ma il punto più delicato che affrontiamo è il debito cognitivo: quando l'output diventa il punto d'arrivo, la mente smette di fare attrito.
🤖 Se "pensare con l'AI" è la nuova alfabetizzazione, come evitiamo che diventi una nuova forma di analfabetismo funzionale?
YouTube
CAPACI O VELOCI: con Raffaele Gaito parliamo del suo libro "In cosa posso esserti utile?" #1539
Creatività senza “momento eureka”, contenuti moltiplicati a costo quasi zero, e un dubbio che resta sullo sfondo: l’AI ci potenzia o ci atrofizza? Con Raffaele Gaito, presentando il suo nuovo libro "In cosa posso esserti utile? Guida molto pratica e poco…
👍1
Non ti stanno vendendo un software. Ti stanno affittando la cognizione.
Quando integri un LLM nei tuoi processi, non adotti uno strumento: adotti un sistema di senso. Con i suoi bias, le sue omissioni, i frame che qualcun altro ha deciso per te.
Il vero rischio dell'AI generativa non sono le fake news. È la perdita di una realtà condivisa su cui si regge qualsiasi dibattito pubblico.
Ne ho parlato in una intervista approfondita su Byte Legali a firma di Riccardo Tripepi.
La trovate qui: 🔗 https://link.mgpf.it/t4xh
Quando integri un LLM nei tuoi processi, non adotti uno strumento: adotti un sistema di senso. Con i suoi bias, le sue omissioni, i frame che qualcun altro ha deciso per te.
Il vero rischio dell'AI generativa non sono le fake news. È la perdita di una realtà condivisa su cui si regge qualsiasi dibattito pubblico.
Ne ho parlato in una intervista approfondita su Byte Legali a firma di Riccardo Tripepi.
La trovate qui: 🔗 https://link.mgpf.it/t4xh
link.mgpf.it
Flora: Non ti stanno vendendo un software, ti stanno affittando la cognizione - Byte.Legali
Secondo Matteo Flora, esperto di reputazione digitale e governance delle narrative, i modelli generativi stanno cambiando il modo in cui si costruisce il consenso e si manipola l’informazione online, trasformando la reputazione in una questione strategica…
❤3
Questa sera sono LIVE ospite sul canale di COSMOPOLINerd alle 19:00 per parlare di comunicazione, politica e media 👇
Partecipo alla sua rubrica #storieassurde con un'analisi che parte da un caso molto discusso: la partecipazione di Giorgia Meloni a Pulp Podcast ha davvero segnato un nuovo capitolo della comunicazione politica?
E cosa ci racconta l'intervista di Fedez e Mr Marra sullo stato dell'informazione in Italia?
Guardiamo insieme il video, analizziamo le reazioni della stampa e proviamo a capire cosa sta cambiando davvero.
📍 LIVE alle 19:00 su COSMOPOLINerd
https://www.youtube.com/watch?v=KjJIi3GLyrI
Partecipo alla sua rubrica #storieassurde con un'analisi che parte da un caso molto discusso: la partecipazione di Giorgia Meloni a Pulp Podcast ha davvero segnato un nuovo capitolo della comunicazione politica?
E cosa ci racconta l'intervista di Fedez e Mr Marra sullo stato dell'informazione in Italia?
Guardiamo insieme il video, analizziamo le reazioni della stampa e proviamo a capire cosa sta cambiando davvero.
📍 LIVE alle 19:00 su COSMOPOLINerd
https://www.youtube.com/watch?v=KjJIi3GLyrI
YouTube
GIORGIA MELONI E L'INTERVISTA DI FEDEZ E MR MARRA A PULP PODCAST con MATTEO FLORA #STORIEASSURDE
Continuiamo l'esclusiva rubrica LIVE #storieassurde con un ospite d'eccezione: Matteo Flora @MgpF Con la partecipazione a Pulp Podcast Giorgia Meloni ha scritto un nuovo capitolo di comunicazione politica? L'intervista di Fedez e Mr Marra cosa ci dice dell'odierno…
🔥2