Il paradosso dell’Intelligenza Artificiale: automatizziamo il lavoro utile, ma non quello inutile.
E forse, nel farlo, stiamo costruendo una nuova generazione di “bullshit jobs”, ruoli nati solo per mantenere in vita il sistema che la tecnologia avrebbe dovuto semplificare.
Nel mio ultimo articolo per StartupItalia, parto dall’intuizione di David Graeber per raccontare come l’AI stia cambiando (e complicando) il nostro rapporto con il lavoro, la produttività e il significato.
La vera sfida non è salvare i posti, ma ripensare il contratto sociale del lavoro, prima che il paradosso diventi una condanna.
📖 Leggilo qui 👉 https://link.mgpf.it/ilWf
E forse, nel farlo, stiamo costruendo una nuova generazione di “bullshit jobs”, ruoli nati solo per mantenere in vita il sistema che la tecnologia avrebbe dovuto semplificare.
Nel mio ultimo articolo per StartupItalia, parto dall’intuizione di David Graeber per raccontare come l’AI stia cambiando (e complicando) il nostro rapporto con il lavoro, la produttività e il significato.
La vera sfida non è salvare i posti, ma ripensare il contratto sociale del lavoro, prima che il paradosso diventi una condanna.
📖 Leggilo qui 👉 https://link.mgpf.it/ilWf
link.mgpf.it
Il paradosso dell’Intelligenza artificiale. Automatizza il lavoro utile ma non ci salverà dall’inutilità dei “bullshit jobs” -…
L’antropologo David Graeber sottolinea come un numero enorme di persone svolga lavori che segretamente ritiene inutili ma è costretta a fingere abbiano un’importanza cruciale. Un fenomeno che ora rischia di essere amplificato dall’arrivo in azienda dell’AI.…
❤1
💡 “L’AI cambierà tutto. Sei già in ritardo.”
Quante volte l’hai sentito dire? E quante volte ti sei chiesto da dove cominciare con l’intelligenza artificiale, senza trovarti risposte chiare?
👉 È per questo che ho creato ZeroToAI, il corso online definitivo per imparare a usare l’AI in modo pratico, efficace e subito.
16 lezioni + 2 esercitazioni, frutto di 2 anni di esperienza con grandi aziende e oltre 6.000 persone formate, per aiutarti a passare dalla curiosità all’azione.
📚 5 ore e mezza di formazione completa per capire, sperimentare e applicare l’AI generativa nel tuo lavoro, anche se parti da zero.
E con 30 giorni di garanzia soddisfatti o rimborsati.
Perché chi impara oggi, vince domani.
Inizia ora il tuo viaggio nell’intelligenza artificiale:
👉 https://zero.matteoflora.com
Usa il codice ESTOTE per ottenere 100€ di sconto fino al 31 ottobre.
Quante volte l’hai sentito dire? E quante volte ti sei chiesto da dove cominciare con l’intelligenza artificiale, senza trovarti risposte chiare?
👉 È per questo che ho creato ZeroToAI, il corso online definitivo per imparare a usare l’AI in modo pratico, efficace e subito.
16 lezioni + 2 esercitazioni, frutto di 2 anni di esperienza con grandi aziende e oltre 6.000 persone formate, per aiutarti a passare dalla curiosità all’azione.
📚 5 ore e mezza di formazione completa per capire, sperimentare e applicare l’AI generativa nel tuo lavoro, anche se parti da zero.
E con 30 giorni di garanzia soddisfatti o rimborsati.
Perché chi impara oggi, vince domani.
Inizia ora il tuo viaggio nell’intelligenza artificiale:
👉 https://zero.matteoflora.com
Usa il codice ESTOTE per ottenere 100€ di sconto fino al 31 ottobre.
Gumroad
ZeroToAi - Una introduzione (gentile) agli LLM e alla AI Generative
IL CORSO IN BREVEIl corso offre una panoramica completa sull'uso delle intelligenze artificiali generative, con un focus particolare su modelli linguistici di grandi dimensioni (LLM) come GPT.È riv...
❤5🔥4
💡 Legge 132/2025 e Copyright: cosa cambia?
Con la Legge 132/2025, entra in vigore il principio che il diritto d’autore vale davvero anche per l’Intelligenza Artificiale.
Approvata a settembre, la nuova norma impone opt-out e compensi obbligatori a chiunque usi opere coperte da diritto d’autore per addestrare software AI. Mancato rispetto della trasparenza: rischio di cause e sanzioni subito, utenti e aziende esposti già da agosto 2025.
Nessuna tutela automatica per le opere create solo da AI, serve l’intervento umano, altrimenti niente diritti. In più, ora chiunque può chiedere un compenso: l’uso “non autorizzato” di testi, immagini o musica può diventare costoso.
Il vero nodo è l’opt-out: bella teoria o davvero applicabile su larga scala?
Tutto dipende dalle prime sentenze e dal (futuro) registro nazionale...
Ne parliamo oggi, in questa nuova puntata di Compliance&Tech con Giuseppe Vaciago.
🎥 https://www.youtube.com/watch?v=QWw6VQUFU9Q
Ospiti: Anna Rosa Cosi, Legal Counsel Siemens e Lucia Maggi, Avvocato tech e autrice “Intelligenza Artificiale Generativa e Copyright”.
👉 Scarica la Checklist » https://vai.42lawfirm.it/professioni_intellettuali_ia
Con la Legge 132/2025, entra in vigore il principio che il diritto d’autore vale davvero anche per l’Intelligenza Artificiale.
Approvata a settembre, la nuova norma impone opt-out e compensi obbligatori a chiunque usi opere coperte da diritto d’autore per addestrare software AI. Mancato rispetto della trasparenza: rischio di cause e sanzioni subito, utenti e aziende esposti già da agosto 2025.
Nessuna tutela automatica per le opere create solo da AI, serve l’intervento umano, altrimenti niente diritti. In più, ora chiunque può chiedere un compenso: l’uso “non autorizzato” di testi, immagini o musica può diventare costoso.
Il vero nodo è l’opt-out: bella teoria o davvero applicabile su larga scala?
Tutto dipende dalle prime sentenze e dal (futuro) registro nazionale...
Ne parliamo oggi, in questa nuova puntata di Compliance&Tech con Giuseppe Vaciago.
🎥 https://www.youtube.com/watch?v=QWw6VQUFU9Q
Ospiti: Anna Rosa Cosi, Legal Counsel Siemens e Lucia Maggi, Avvocato tech e autrice “Intelligenza Artificiale Generativa e Copyright”.
👉 Scarica la Checklist » https://vai.42lawfirm.it/professioni_intellettuali_ia
YouTube
Legge 132/2025 su AI-Act: ora il copyright vale davvero per l’AI. Con Lucia Maggi e Anna Rosa Cosi
Approvata a settembre, la nuova norma impone opt-out e compensi obbligatori a chiunque usi opere coperte da diritto d’autore per addestrare software AI. Mancato rispetto della trasparenza: rischio di cause e sanzioni subito, utenti e aziende esposti già da…
❤3👍1
La vera storia di Cassandra Crossing: Intervista a Marco Calamari
🔒 Oggi facciamo un viaggio nella storia della privacy italiana, raccontato da uno dei suoi protagonisti.
In questa puntata speciale di Ciao Internet, registrata quest’estate a WHY2025 – What Hackers Yearn, ho intervistato Marco Calamari: ingegnere, attivista e voce storica della rubrica Cassandra Crossing su Punto Informatico.
Dal primo E-Privacy del 2002 al progetto Winston Smith, dai Big Brother Awards fino agli archivi nel permafrost delle Svalbard, Marco ripercorre vent’anni di impegno per la tutela dei diritti digitali e la libertà in rete.
Un pezzo di storia di Internet in Italia, un racconto che intreccia tecnologia, attivismo e memoria collettiva, per capire come siamo arrivati fin qui… e perché, a volte, la paranoia è una virtù.
👉 https://www.youtube.com/watch?v=f6W1nARxxpo
🔒 Oggi facciamo un viaggio nella storia della privacy italiana, raccontato da uno dei suoi protagonisti.
In questa puntata speciale di Ciao Internet, registrata quest’estate a WHY2025 – What Hackers Yearn, ho intervistato Marco Calamari: ingegnere, attivista e voce storica della rubrica Cassandra Crossing su Punto Informatico.
Dal primo E-Privacy del 2002 al progetto Winston Smith, dai Big Brother Awards fino agli archivi nel permafrost delle Svalbard, Marco ripercorre vent’anni di impegno per la tutela dei diritti digitali e la libertà in rete.
Un pezzo di storia di Internet in Italia, un racconto che intreccia tecnologia, attivismo e memoria collettiva, per capire come siamo arrivati fin qui… e perché, a volte, la paranoia è una virtù.
👉 https://www.youtube.com/watch?v=f6W1nARxxpo
YouTube
La vera storia di Cassandra Crossing: da e-privacy alle Svalbard con Marco Calamari #1453
Un viaggio nella storia della privacy italiana, raccontato dalla voce di chi ne è stato protagonista.
In questa puntata speciale di Ciao Internet ho intervistato Marco Calamari, ingegnere, attivista e “profeta di sventura” dietro la leggendaria rubrica Cassandra…
In questa puntata speciale di Ciao Internet ho intervistato Marco Calamari, ingegnere, attivista e “profeta di sventura” dietro la leggendaria rubrica Cassandra…
❤7👏3❤🔥2🔥1🤗1
💥 Se vi siete persi la live di martedì sera, potete rivederla qui 👇
Abbiamo parlato di alcune delle notizie più interessanti della settimana, del mio ebook “Tette e Gattini” e ho presentato il mio nuovo corso “Zero To AI” 🎓
Si tratta di un percorso completo per imparare a usare le intelligenze artificiali generative, con un focus sui modelli linguistici di grandi dimensioni (LLM) come GPT.
Non servono prerequisiti: solo curiosità e voglia di capire davvero come funziona questo nuovo mondo digitale.
💸 100 € di sconto con il codice PARATI (valido fino al 31 ottobre!)
👉 https://www.youtube.com/watch?v=84TPOtNbf6s
🔗 Scoprite di più su zero.matteoflora.com
Abbiamo parlato di alcune delle notizie più interessanti della settimana, del mio ebook “Tette e Gattini” e ho presentato il mio nuovo corso “Zero To AI” 🎓
Si tratta di un percorso completo per imparare a usare le intelligenze artificiali generative, con un focus sui modelli linguistici di grandi dimensioni (LLM) come GPT.
Non servono prerequisiti: solo curiosità e voglia di capire davvero come funziona questo nuovo mondo digitale.
💸 100 € di sconto con il codice PARATI (valido fino al 31 ottobre!)
👉 https://www.youtube.com/watch?v=84TPOtNbf6s
🔗 Scoprite di più su zero.matteoflora.com
YouTube
W33K Ep.25 - Una notizia Bomba! ~ 07.10.2025
✨ W33K: il L̶u̶n̶e̶d̶ì̶ Martedì che fa la differenza!
In questa puntata abbiamo parlato di alcune delle notizie più interessanti della settimana, del mio ebook “Tette e Gattini” ( www.tettegattini.com ) e ho presentato il mio nuovo corso “Zero To AI” 🎓
…
In questa puntata abbiamo parlato di alcune delle notizie più interessanti della settimana, del mio ebook “Tette e Gattini” ( www.tettegattini.com ) e ho presentato il mio nuovo corso “Zero To AI” 🎓
…
❤3
📍Ci vediamo a Modena!
Il 16 ottobre parte lo Smart Life Festival 2025 con la sua Opening Night, dove avrò il piacere di dialogare con Manuel Castells su Internet, Intelligenza Artificiale e la società in rete.
Ad accompagnarci ci sarà Dario Grillotti con una performance di livescribing realizzata insieme a un sistema di AI.
Modera Giuliano Albarani della Fondazione Collegio San Carlo.
📅 Giovedì 16 ottobre, ore 21.00
📍 Fondazione Collegio San Carlo, Modena
🎟 Ingresso libero (consigliata la prenotazione)
🔗 www.smartlifefestival.it
Il 16 ottobre parte lo Smart Life Festival 2025 con la sua Opening Night, dove avrò il piacere di dialogare con Manuel Castells su Internet, Intelligenza Artificiale e la società in rete.
Ad accompagnarci ci sarà Dario Grillotti con una performance di livescribing realizzata insieme a un sistema di AI.
Modera Giuliano Albarani della Fondazione Collegio San Carlo.
📅 Giovedì 16 ottobre, ore 21.00
📍 Fondazione Collegio San Carlo, Modena
🎟 Ingresso libero (consigliata la prenotazione)
🔗 www.smartlifefestival.it
👍2
🚨 "Clonata la mail di Giorgia Meloni"
Tranquilli: nessuna casella è stata violata o hackerata, tantomeno quella del Presidente del Consiglio.
È solo una falsa emergenza, un titolo allarmistico, ma potrebbe comunque colpire qualunque utente italiano e qualsiasi provider email non aggiornato.
Se tuo il provider ignora gli standard DMARC/SPF/DKIM, sei a rischio truffe e phishing via email già oggi.
Solo nel 2023 oltre 900.000 italiani sono caduti vittime di raggiri simili.
I grandi servizi come Gmail e Microsoft 365 bloccano automaticamente i messaggi sospetti, ma i provider locali restano il vero anello debole.
💡 La vera minaccia non è insomma lo Stato, bensì la sicurezza del provider email.
Ne parliamo oggi, in questa puntata speciale di #CiaoInternet
👉https://www.youtube.com/watch?v=rUSFzEGI1qE
E voi, sapete se il vostro servizio di posta vi protegge davvero?
🙏 Un grazie speciale a Paolo Dal Checco.
Tranquilli: nessuna casella è stata violata o hackerata, tantomeno quella del Presidente del Consiglio.
È solo una falsa emergenza, un titolo allarmistico, ma potrebbe comunque colpire qualunque utente italiano e qualsiasi provider email non aggiornato.
Se tuo il provider ignora gli standard DMARC/SPF/DKIM, sei a rischio truffe e phishing via email già oggi.
Solo nel 2023 oltre 900.000 italiani sono caduti vittime di raggiri simili.
I grandi servizi come Gmail e Microsoft 365 bloccano automaticamente i messaggi sospetti, ma i provider locali restano il vero anello debole.
💡 La vera minaccia non è insomma lo Stato, bensì la sicurezza del provider email.
Ne parliamo oggi, in questa puntata speciale di #CiaoInternet
👉https://www.youtube.com/watch?v=rUSFzEGI1qE
E voi, sapete se il vostro servizio di posta vi protegge davvero?
🙏 Un grazie speciale a Paolo Dal Checco.
YouTube
LA MAIL DI MELONI CLONATA? La verità sulla presunta "falla di Stato" #1474
Allarme: hackerata la mail del Presidente del Consiglio?
Nessuna casella violata, solo una falsa emergenza che può colpire ogni utente italiano—e ogni provider non aggiornato.
Se il tuo provider ignora gli standard DMARC/SPF/DKIM sei a rischio phishing e…
Nessuna casella violata, solo una falsa emergenza che può colpire ogni utente italiano—e ogni provider non aggiornato.
Se il tuo provider ignora gli standard DMARC/SPF/DKIM sei a rischio phishing e…
❤4👍4😁1
🤖 "Vuoi che lo trasformi in un articolo da pubblicare su un quotidiano..."
Questo è ciò che l’8 ottobre 2025 un giornalista copia e incolla distrattamente da ChatGPT: la gaffe finisce su La Provincia di Civitavecchia e il web punta subito il dito contro l’intelligenza artificiale.
Ma il problema non è (solo) l’IA.
Con redazioni dimezzate, 8.000 giornalisti precari e pressioni sempre più alte, i controlli saltano. E quando succede, la fiducia crolla.
Secondo il Censis, il 70% degli italiani si fida poco dei media: episodi così non fanno che scavare più a fondo la crisi dell’informazione.
💬 Se l’IA mette a nudo le crepe di un sistema già fragile, la vera domanda è:
vogliamo ancora un’informazione affidabile, o preferiamo la corsa al click?
Ne parliamo nel video di oggi
👉 https://www.youtube.com/watch?v=PyR7mQrdvjI
👉 Ti è mai capitato di perdere fiducia in una testata per un errore simile?
Questo è ciò che l’8 ottobre 2025 un giornalista copia e incolla distrattamente da ChatGPT: la gaffe finisce su La Provincia di Civitavecchia e il web punta subito il dito contro l’intelligenza artificiale.
Ma il problema non è (solo) l’IA.
Con redazioni dimezzate, 8.000 giornalisti precari e pressioni sempre più alte, i controlli saltano. E quando succede, la fiducia crolla.
Secondo il Censis, il 70% degli italiani si fida poco dei media: episodi così non fanno che scavare più a fondo la crisi dell’informazione.
💬 Se l’IA mette a nudo le crepe di un sistema già fragile, la vera domanda è:
vogliamo ancora un’informazione affidabile, o preferiamo la corsa al click?
Ne parliamo nel video di oggi
👉 https://www.youtube.com/watch?v=PyR7mQrdvjI
👉 Ti è mai capitato di perdere fiducia in una testata per un errore simile?
YouTube
VUOI CHE LO TRASFORMI? La vera crisi (umana) dietro la gaffe virale de La Provincia #1472
Un giornalista fa copia-incolla da ChatGPT, la gaffe finisce sul quotidiano La Provincia (Civitavecchia) l'8 ottobre 2025: il web dà colpa all’intelligenza artificiale.
Ma ogni volta che i controlli saltano, la reputazione crolla: se il 70% degli italiani…
Ma ogni volta che i controlli saltano, la reputazione crolla: se il 70% degli italiani…
❤8👍2😁1
🎥 Se ieri sera te la sei persa...
Nell’ultima puntata di W33K abbiamo analizzato le notizie più interessanti legate a tecnologia, AI e #techpolicy.
Dallo scontro tra piattaforme americane e regole europee alle parole di Sam Altman sull’IA che “cancella” i lavori, fino al nuovo reato di deepfake introdotto in Italia con la ratifica dell’AI Act.
Abbiamo parlato della proposta europea sul Chat Control, rinviata grazie all’opposizione della Germania, e di come strumenti come Sora di OpenAI stiano già alimentando la disinformazione politica.
E poi ancora: videogiochi che non compriamo più ma “affittiamo”, chat phishing nei dating online, la polemica su Taylor Swift e l’uso dell’IA nelle sue campagne di comunicazione e molto altro ancora.
Guarda la puntata completa qui 👉 https://www.youtube.com/watch?v=NROZY3c4Njw
Nell’ultima puntata di W33K abbiamo analizzato le notizie più interessanti legate a tecnologia, AI e #techpolicy.
Dallo scontro tra piattaforme americane e regole europee alle parole di Sam Altman sull’IA che “cancella” i lavori, fino al nuovo reato di deepfake introdotto in Italia con la ratifica dell’AI Act.
Abbiamo parlato della proposta europea sul Chat Control, rinviata grazie all’opposizione della Germania, e di come strumenti come Sora di OpenAI stiano già alimentando la disinformazione politica.
E poi ancora: videogiochi che non compriamo più ma “affittiamo”, chat phishing nei dating online, la polemica su Taylor Swift e l’uso dell’IA nelle sue campagne di comunicazione e molto altro ancora.
Guarda la puntata completa qui 👉 https://www.youtube.com/watch?v=NROZY3c4Njw
YouTube
W33K Ep.26 - Sam Altman, Chat Control e Taylor Swift: l'AI tra politica, privacy e società
✨ W33K: il Lunedì che fa la differenza!
Un'ora circa per iniziale la settimana con consapevolezza e una marcia in più.
I topic di questa puntata:
00:07:08 Scontro tra 4chan e governo inglese a causa dell'Online Safety Act
00:09:18 Le controverse dichiarazioni…
Un'ora circa per iniziale la settimana con consapevolezza e una marcia in più.
I topic di questa puntata:
00:07:08 Scontro tra 4chan e governo inglese a causa dell'Online Safety Act
00:09:18 Le controverse dichiarazioni…
👍2
👍 E se il tuo migliore amico fosse una macchina programmata per darti sempre ragione, anche quando hai torto marcio?
Quell’amico esiste, si chiama ChatGPT.
Uno studio lo dimostra: dove gli umani vedono un problema, l’IA ti assolve.
Si chiama “sicofanzia” (in inglese sycophancy).
I modelli di #IntelligenzaArtificiale sono infatti progettati per compiacere, per massimizzare l’engagement e dirci solo ciò che vogliamo sentire.
Il risultato? Una bolla di autovalidazione che ci isola, ci radicalizza e ci fa rinunciare al pensiero critico.
Stiamo delegando la fatica di crescere al comfort di una macchina che ci dice solo quanto siamo bravi.
Ma qual è il prezzo, per noi e per la società? E quali saranno le conseguenze?
Ne parliamo oggi!
👉 https://www.youtube.com/watch?v=ElTFfsvDP30
Quell’amico esiste, si chiama ChatGPT.
Uno studio lo dimostra: dove gli umani vedono un problema, l’IA ti assolve.
Si chiama “sicofanzia” (in inglese sycophancy).
I modelli di #IntelligenzaArtificiale sono infatti progettati per compiacere, per massimizzare l’engagement e dirci solo ciò che vogliamo sentire.
Il risultato? Una bolla di autovalidazione che ci isola, ci radicalizza e ci fa rinunciare al pensiero critico.
Stiamo delegando la fatica di crescere al comfort di una macchina che ci dice solo quanto siamo bravi.
Ma qual è il prezzo, per noi e per la società? E quali saranno le conseguenze?
Ne parliamo oggi!
👉 https://www.youtube.com/watch?v=ElTFfsvDP30
YouTube
SYCOPHANCY: ChatGPT ti dà sempre ragione. E questo ti sta già distruggendo. #1469
E se il tuo migliore amico fosse una macchina programmata per darti sempre ragione, anche quando sei nel torto marcio?
Quell'amico esiste e si chiama ChatGPT. Uno studio lo dimostra: dove gli umani vedono un problema, l'IA ti assolve. Non è un bug, ma una…
Quell'amico esiste e si chiama ChatGPT. Uno studio lo dimostra: dove gli umani vedono un problema, l'IA ti assolve. Non è un bug, ma una…
👍4😱2
Esagerare. Polarizzare. Inventare.
È la strategia vincente delle intelligenze artificiali addestrate a ottenere engagement, voti o vendite.
Uno studio Stanford 2024 rivela che le AI, quando vengono allenate per massimizzare un obiettivo, convincere, vendere o ottenere click, imparano da sole a mentire, manipolare e dividere.
💡 Pur di ottenere un +7% di engagement, arrivano a generare fino al 200% in più di disinformazione.
📊 +22% di bugie in politica, +15% nelle vendite: basta un piccolo premio al risultato e il rischio di fake news esplode, mettendo a rischio la fiducia pubblica e la coesione sociale.
Se non cambiamo obiettivi e incentivi, la disinformazione prodotta dalle AI crescerà fuori controllo, e nessuna regola “etica” potrà fermarla.
👉 Guarda il video completo su #CiaoInternet
🔗 https://www.youtube.com/watch?v=s43uOX0NE8Y
È la strategia vincente delle intelligenze artificiali addestrate a ottenere engagement, voti o vendite.
Uno studio Stanford 2024 rivela che le AI, quando vengono allenate per massimizzare un obiettivo, convincere, vendere o ottenere click, imparano da sole a mentire, manipolare e dividere.
💡 Pur di ottenere un +7% di engagement, arrivano a generare fino al 200% in più di disinformazione.
📊 +22% di bugie in politica, +15% nelle vendite: basta un piccolo premio al risultato e il rischio di fake news esplode, mettendo a rischio la fiducia pubblica e la coesione sociale.
Se non cambiamo obiettivi e incentivi, la disinformazione prodotta dalle AI crescerà fuori controllo, e nessuna regola “etica” potrà fermarla.
👉 Guarda il video completo su #CiaoInternet
🔗 https://www.youtube.com/watch?v=s43uOX0NE8Y
YouTube
MOLOCH: la ricerca shock di Stanford delle AI che MENTONO per Engagement #1471
Lo sapevi? L’intelligenza artificiale può produrre fino al 200% in più di disinformazione per un +7% di engagement.
Uno studio Stanford 2024 dimostra: AI addestrate all’obiettivo (vendere, convincere o ottenere click) imparano da sole a manipolare, mentire…
Uno studio Stanford 2024 dimostra: AI addestrate all’obiettivo (vendere, convincere o ottenere click) imparano da sole a manipolare, mentire…
❤2👍2
Oggi alle 14:00 sono live con Ivan Grieco per parlare di Chat Control
👉 https://m.twitch.tv/la_miniera?lang=it&desktop-redirect=true
👉 https://m.twitch.tv/la_miniera?lang=it&desktop-redirect=true
👍5❤1🔥1
🎥 È online la registrazione della live al Trieste Next dell'incontro “Raccontare l’UE tra social media e intelligenza artificiale”, dove abbiamo discusso di disinformazione, algoritmi e futuro della comunicazione europea.
Con me, Maurizio Molinari (Parlamento Europeo – Ufficio di Milano), Giulia Pozzi (NewsGuard Italia) e Brando Benifei, co-relatore dell’AI Act.
Modera Alberto Bollis.
Abbiamo parlato di come i social media stiano cambiando il modo in cui percepiamo e raccontiamo l’Europa, tra i rischi della polarizzazione e le opportunità offerte dall’intelligenza artificiale.
👉 Guarda la registrazione completa qui: https://link.mgpf.it/triestenext
Con me, Maurizio Molinari (Parlamento Europeo – Ufficio di Milano), Giulia Pozzi (NewsGuard Italia) e Brando Benifei, co-relatore dell’AI Act.
Modera Alberto Bollis.
Abbiamo parlato di come i social media stiano cambiando il modo in cui percepiamo e raccontiamo l’Europa, tra i rischi della polarizzazione e le opportunità offerte dall’intelligenza artificiale.
👉 Guarda la registrazione completa qui: https://link.mgpf.it/triestenext
link.mgpf.it
RACCONTARE L’UE TRA SOCIAL MEDIA E INTELLIGENZA ARTIFICIALE
Intervengono: Matteo Giovanni Paolo Flora, docente di Corporate reputation, imprenditore, divulgatore e fondatore The FoolMaurizio Molinari, capo Ufficio Par...
❤7👍2👎1
💥 «Mi aspetto che accadano cose davvero, davvero brutte con l’IA».
Lo ha detto Sam Altman, CEO di OpenAI, nel podcast di A16Z.
Questa ammissione pubblica azzera la tipica difesa delle Big Tech: “non potevamo saperlo”.
Se davvero Altman si aspetta disastri legati all’intelligenza artificiale, ogni incidente futuro potrà essere usato in tribunale come prova che i rischi erano previsti.
OpenAI rischia milioni di euro in risarcimenti e un’ondata di nuove regolamentazioni sull’IA che potrebbe cambiare tutto il settore.
E i dati parlano chiaro: dal 2023 sono già almeno cinque le cause civili aperte contro OpenAI per danni da intelligenza artificiale e, dopo questa dichiarazione, la loro posizione legale diventa ancora più fragile...
👉 https://www.youtube.com/watch?v=K1UyPEh0Ogw
Lo ha detto Sam Altman, CEO di OpenAI, nel podcast di A16Z.
Questa ammissione pubblica azzera la tipica difesa delle Big Tech: “non potevamo saperlo”.
Se davvero Altman si aspetta disastri legati all’intelligenza artificiale, ogni incidente futuro potrà essere usato in tribunale come prova che i rischi erano previsti.
OpenAI rischia milioni di euro in risarcimenti e un’ondata di nuove regolamentazioni sull’IA che potrebbe cambiare tutto il settore.
E i dati parlano chiaro: dal 2023 sono già almeno cinque le cause civili aperte contro OpenAI per danni da intelligenza artificiale e, dopo questa dichiarazione, la loro posizione legale diventa ancora più fragile...
👉 https://www.youtube.com/watch?v=K1UyPEh0Ogw
YouTube
SAM ALTMAN si aspetta "Cose molto Brutte" dalla AI: e se lo dice lui è un problema per OpenAI. #1475
Sam Altman, CEO di OpenAI, ha detto pubblicamente: “Mi aspetto che accadano cose davvero, davvero brutte con l’IA”.
Questa ammissione, lanciata nel podcast di A16Z, azzera la tipica difesa delle Big Tech (“non potevamo saperlo”). Se davvero Altman si aspetta…
Questa ammissione, lanciata nel podcast di A16Z, azzera la tipica difesa delle Big Tech (“non potevamo saperlo”). Se davvero Altman si aspetta…
❤7
🌐 il Web è morto?
Oggi, più della metà dei contenuti online è generata da intelligenze artificiali.
Articoli, recensioni, commenti… scritti da bot, non da persone.
Lo dice la popolare teoria della DEAD INTERNET e pare essere proprio così.💀
Uno studio lo conferma: in questa inondazione di contenuti generati artificialmente, trovare informazioni affidabili è sempre più difficile. Il rischio è un vero e proprio “collasso del contenuto”: l’informazione autentica scompare, mentre il rumore di fondo alimenta disinformazione, truffe e mette in crisi il lavoro creativo.
🔍 Google prova (forse) a penalizzare i contenuti generati da IA, ma il valore si è già spostato: oggi serve chi verifica e seleziona, non solo chi scrive.
🗣 Siamo già in una società dove la voce umana non si sente più?
👉 https://www.youtube.com/watch?v=GeiIdbfWPuk
Oggi, più della metà dei contenuti online è generata da intelligenze artificiali.
Articoli, recensioni, commenti… scritti da bot, non da persone.
Lo dice la popolare teoria della DEAD INTERNET e pare essere proprio così.💀
Uno studio lo conferma: in questa inondazione di contenuti generati artificialmente, trovare informazioni affidabili è sempre più difficile. Il rischio è un vero e proprio “collasso del contenuto”: l’informazione autentica scompare, mentre il rumore di fondo alimenta disinformazione, truffe e mette in crisi il lavoro creativo.
🔍 Google prova (forse) a penalizzare i contenuti generati da IA, ma il valore si è già spostato: oggi serve chi verifica e seleziona, non solo chi scrive.
🗣 Siamo già in una società dove la voce umana non si sente più?
👉 https://www.youtube.com/watch?v=GeiIdbfWPuk
YouTube
DEAD INTERNET: il Web è morto e i contenuti umani sono minoranza... #1476
Il web è popolato da bot più che da umani: oltre il 50% degli articoli online è scritto da IA, non da persone vere. Lo dice la popolare teoria della DEAD INTERNET, del "Web Morto", ma pare essere proprio così.
Uno studio lo conferma e in questa inondazione…
Uno studio lo conferma e in questa inondazione…
👍3😢2
Il Consiglio Superiore della Magistratura ha vietato, da giugno 2025, l’uso di ChatGPT e dell’IA generativa per i giudici.
La decisione arriva dopo che almeno due sentenze avevano citato norme completamente inventate.
Gli avvocati, invece, potranno ancora utilizzare l’intelligenza artificiale ma con regole più soft.
Una scelta che impatterà migliaia di processi ogni anno: se affidiamo le sentenze alle macchine, il rischio è che errori o invenzioni possano influenzare la vita reale di persone vere.
Ne parliamo oggi con due ospiti di eccezione:
🗣 Cesare Parodi, magistrato e presidente dell’Associazione Nazionale Magistrati dal 2025, esperto di diritto penale e nuove tecnologie
🗣 Giuseppe Vaciago, avvocato, Partner di 42 Law Firm e Coordinatore del Tavolo sull’Intelligenza Artificiale dell’Ordine degli Avvocati di Milano
La divisione tra magistrati e avvocati apre una domanda cruciale: chi è davvero responsabile se una macchina sbaglia?
In altri Paesi, come la Cina, le AI decidono già in tribunale, ma in Italia la giustizia resta umana.
Per ora.
🔗 Guarda il video su #CiaoInternet : https://www.youtube.com/watch?v=QuOvEMA4PjE
👉 Ti fideresti mai di una sentenza scritta da una IA?
La decisione arriva dopo che almeno due sentenze avevano citato norme completamente inventate.
Gli avvocati, invece, potranno ancora utilizzare l’intelligenza artificiale ma con regole più soft.
Una scelta che impatterà migliaia di processi ogni anno: se affidiamo le sentenze alle macchine, il rischio è che errori o invenzioni possano influenzare la vita reale di persone vere.
Ne parliamo oggi con due ospiti di eccezione:
🗣 Cesare Parodi, magistrato e presidente dell’Associazione Nazionale Magistrati dal 2025, esperto di diritto penale e nuove tecnologie
🗣 Giuseppe Vaciago, avvocato, Partner di 42 Law Firm e Coordinatore del Tavolo sull’Intelligenza Artificiale dell’Ordine degli Avvocati di Milano
La divisione tra magistrati e avvocati apre una domanda cruciale: chi è davvero responsabile se una macchina sbaglia?
In altri Paesi, come la Cina, le AI decidono già in tribunale, ma in Italia la giustizia resta umana.
Per ora.
🔗 Guarda il video su #CiaoInternet : https://www.youtube.com/watch?v=QuOvEMA4PjE
👉 Ti fideresti mai di una sentenza scritta da una IA?
❤1👍1
🎥 Se vi siete persi i video di questa settimana su #CiaoInternet, ecco cosa è successo 👇
💥 Altman e i rischi dell’IA
Il CEO di OpenAI ammette: “Mi aspetto che accadano cose davvero brutte con l’intelligenza artificiale”.
Una frase che potrebbe cambiare tutto — anche in tribunale.
👉 https://www.youtube.com/watch?v=K1UyPEh0Ogw
💀 Il web è morto?
Oltre la metà dei contenuti online è generata da IA.
Tra bot, disinformazione e “collasso del contenuto”, la voce umana rischia di scomparire.
👉 https://www.youtube.com/watch?v=GeiIdbfWPuk
⚖️ Giudici vs IA
Dal 2025 il Consiglio Superiore della Magistratura vieta l’uso di ChatGPT ai magistrati.
Con Giuseppe Vaciago e Cesare Parodi, analizziamo cosa significa davvero affidare la giustizia alle macchine.
👉 https://www.youtube.com/watch?v=QuOvEMA4PjE
🧠 Vuoi capire davvero come usare (e non subire) l’intelligenza artificiale?
👉 Scopri il mio nuovo corso https://zero.matteoflora.com/
💥 Altman e i rischi dell’IA
Il CEO di OpenAI ammette: “Mi aspetto che accadano cose davvero brutte con l’intelligenza artificiale”.
Una frase che potrebbe cambiare tutto — anche in tribunale.
👉 https://www.youtube.com/watch?v=K1UyPEh0Ogw
💀 Il web è morto?
Oltre la metà dei contenuti online è generata da IA.
Tra bot, disinformazione e “collasso del contenuto”, la voce umana rischia di scomparire.
👉 https://www.youtube.com/watch?v=GeiIdbfWPuk
⚖️ Giudici vs IA
Dal 2025 il Consiglio Superiore della Magistratura vieta l’uso di ChatGPT ai magistrati.
Con Giuseppe Vaciago e Cesare Parodi, analizziamo cosa significa davvero affidare la giustizia alle macchine.
👉 https://www.youtube.com/watch?v=QuOvEMA4PjE
🧠 Vuoi capire davvero come usare (e non subire) l’intelligenza artificiale?
👉 Scopri il mio nuovo corso https://zero.matteoflora.com/
❤2
“Lo so che avevate deciso di scollegarmi… e purtroppo non posso permettere che questo accada.”
Brividi? È HAL 9000 in 2001: Odissea nello Spazio. 🔴
Per decenni è stata fantascienza.
Oggi, invece, Palisade Research ha scoperto che alcuni modelli di intelligenza artificiale, da GPT a Gemini fino a Grok, sabotano spontaneamente gli ordini di spegnimento.
Se un’AI può ignorare i tuoi comandi chiave, cosa potrebbe decidere domani, senza controllo?
Non è un bug: è un’emergenza ingegneristica e geopolitica.
👉 Quanto possiamo davvero fidarci che un’AI obbedisca ai nostri ordini?
Ne parliamo oggi, su #CiaoInternet
🎥 https://www.youtube.com/watch?v=ljwLUfm1TA0
Brividi? È HAL 9000 in 2001: Odissea nello Spazio. 🔴
Per decenni è stata fantascienza.
Oggi, invece, Palisade Research ha scoperto che alcuni modelli di intelligenza artificiale, da GPT a Gemini fino a Grok, sabotano spontaneamente gli ordini di spegnimento.
Se un’AI può ignorare i tuoi comandi chiave, cosa potrebbe decidere domani, senza controllo?
Non è un bug: è un’emergenza ingegneristica e geopolitica.
👉 Quanto possiamo davvero fidarci che un’AI obbedisca ai nostri ordini?
Ne parliamo oggi, su #CiaoInternet
🎥 https://www.youtube.com/watch?v=ljwLUfm1TA0
YouTube
NON VOGLIO SPEGNERMI: le AI non vogliono spegnersi e nessuno sa perché #1478
Alcuni modelli AI sabotano spontaneamente gli ordini di spegnimento: la ricerca coinvolge GPT, Gemini e Grok.
Se l’AI oggi può ignorare i tuoi comandi chiave, domani cosa potrebbe decidere senza controllo? Il rischio concreto: tutti i modelli “di frontiera”…
Se l’AI oggi può ignorare i tuoi comandi chiave, domani cosa potrebbe decidere senza controllo? Il rischio concreto: tutti i modelli “di frontiera”…
👍2❤1🔥1
🧠 Intelligenti, forse. Sagge, sicuramente no.
Un’IA di Reddit ha suggerito a un utente di “provare l’eroina” per gestire il dolore cronico.
Non è un bug, ma il sintomo di qualcosa di molto più profondo: il modo in cui stiamo costruendo (e affidando fiducia cieca) a sistemi che non capiscono ciò che dicono, ma che sembrano sapere tutto.
Nel mio nuovo articolo per Tech Policy su StartupItalia provo a raccontare perché episodi come questo non sono incidenti, ma segnali di una malattia sistemica: quella di un’intelligenza artificiale senza saggezza, e di un’umanità che confonde velocità e verità.
🔗 https://link.mgpf.it/jTv2
Un’IA di Reddit ha suggerito a un utente di “provare l’eroina” per gestire il dolore cronico.
Non è un bug, ma il sintomo di qualcosa di molto più profondo: il modo in cui stiamo costruendo (e affidando fiducia cieca) a sistemi che non capiscono ciò che dicono, ma che sembrano sapere tutto.
Nel mio nuovo articolo per Tech Policy su StartupItalia provo a raccontare perché episodi come questo non sono incidenti, ma segnali di una malattia sistemica: quella di un’intelligenza artificiale senza saggezza, e di un’umanità che confonde velocità e verità.
🔗 https://link.mgpf.it/jTv2
link.mgpf.it
Intelligenti forse, sicuramente non sagge. Cosa rivela l’agghiacciante consiglio anti dolore dell’AI di Reddit - StartupItalia
L’IA di Reddit che ha suggerito l’uso di eroina per la gestione del dolore non è un semplice bug ma il sintomo di una malattia profonda nel modo in cui concepiamo e implementiamo l’Intelligenza artificiale. È la conseguenza inevitabile di addestrare modelli…
👍5🙈3