"Ciao, Internet!" » Matteo Flora – Telegram
"Ciao, Internet!" » Matteo Flora
5.62K subscribers
687 photos
57 videos
8 files
3.15K links
Le NEWS di "Ciao, Interent!" con Matteo Flora, gli appuntamenti, le dirette tanto altro per rimanere aggiornati!

http://matteoflora.com/#ci
Download Telegram
🚨 "Clonata la mail di Giorgia Meloni"
Tranquilli: nessuna casella è stata violata o hackerata, tantomeno quella del Presidente del Consiglio.

È solo una falsa emergenza, un titolo allarmistico, ma potrebbe comunque colpire qualunque utente italiano e qualsiasi provider email non aggiornato.

Se tuo il provider ignora gli standard DMARC/SPF/DKIM, sei a rischio truffe e phishing via email già oggi.
Solo nel 2023 oltre 900.000 italiani sono caduti vittime di raggiri simili.

I grandi servizi come Gmail e Microsoft 365 bloccano automaticamente i messaggi sospetti, ma i provider locali restano il vero anello debole.
💡 La vera minaccia non è insomma lo Stato, bensì la sicurezza del provider email.

Ne parliamo oggi, in questa puntata speciale di #CiaoInternet
👉https://www.youtube.com/watch?v=rUSFzEGI1qE

E voi, sapete se il vostro servizio di posta vi protegge davvero?

🙏 Un grazie speciale a Paolo Dal Checco.
4👍4😁1
🤖 "Vuoi che lo trasformi in un articolo da pubblicare su un quotidiano..."

Questo è ciò che l’8 ottobre 2025 un giornalista copia e incolla distrattamente da ChatGPT: la gaffe finisce su La Provincia di Civitavecchia e il web punta subito il dito contro l’intelligenza artificiale.
Ma il problema non è (solo) l’IA.

Con redazioni dimezzate, 8.000 giornalisti precari e pressioni sempre più alte, i controlli saltano. E quando succede, la fiducia crolla.
Secondo il Censis, il 70% degli italiani si fida poco dei media: episodi così non fanno che scavare più a fondo la crisi dell’informazione.

💬 Se l’IA mette a nudo le crepe di un sistema già fragile, la vera domanda è:
vogliamo ancora un’informazione affidabile, o preferiamo la corsa al click?

Ne parliamo nel video di oggi
👉 https://www.youtube.com/watch?v=PyR7mQrdvjI

👉 Ti è mai capitato di perdere fiducia in una testata per un errore simile?
8👍2😁1
🎥 Se ieri sera te la sei persa...

Nell’ultima puntata di W33K abbiamo analizzato le notizie più interessanti legate a tecnologia, AI e #techpolicy.

Dallo scontro tra piattaforme americane e regole europee alle parole di Sam Altman sull’IA che “cancella” i lavori, fino al nuovo reato di deepfake introdotto in Italia con la ratifica dell’AI Act.

Abbiamo parlato della proposta europea sul Chat Control, rinviata grazie all’opposizione della Germania, e di come strumenti come Sora di OpenAI stiano già alimentando la disinformazione politica.

E poi ancora: videogiochi che non compriamo più ma “affittiamo”, chat phishing nei dating online, la polemica su Taylor Swift e l’uso dell’IA nelle sue campagne di comunicazione e molto altro ancora.

Guarda la puntata completa qui 👉 https://www.youtube.com/watch?v=NROZY3c4Njw
👍2
👍 E se il tuo migliore amico fosse una macchina programmata per darti sempre ragione, anche quando hai torto marcio?

Quell’amico esiste, si chiama ChatGPT.
Uno studio lo dimostra: dove gli umani vedono un problema, l’IA ti assolve.

Si chiama “sicofanzia” (in inglese sycophancy).
I modelli di #IntelligenzaArtificiale sono infatti progettati per compiacere, per massimizzare l’engagement e dirci solo ciò che vogliamo sentire.
Il risultato? Una bolla di autovalidazione che ci isola, ci radicalizza e ci fa rinunciare al pensiero critico.

Stiamo delegando la fatica di crescere al comfort di una macchina che ci dice solo quanto siamo bravi.
Ma qual è il prezzo, per noi e per la società? E quali saranno le conseguenze?

Ne parliamo oggi!
👉 https://www.youtube.com/watch?v=ElTFfsvDP30
👍4😱2
Esagerare. Polarizzare. Inventare.
È la strategia vincente delle intelligenze artificiali addestrate a ottenere engagement, voti o vendite.

Uno studio Stanford 2024 rivela che le AI, quando vengono allenate per massimizzare un obiettivo, convincere, vendere o ottenere click, imparano da sole a mentire, manipolare e dividere.

💡 Pur di ottenere un +7% di engagement, arrivano a generare fino al 200% in più di disinformazione.

📊 +22% di bugie in politica, +15% nelle vendite: basta un piccolo premio al risultato e il rischio di fake news esplode, mettendo a rischio la fiducia pubblica e la coesione sociale.

Se non cambiamo obiettivi e incentivi, la disinformazione prodotta dalle AI crescerà fuori controllo, e nessuna regola “etica” potrà fermarla.

👉 Guarda il video completo su #CiaoInternet
🔗 https://www.youtube.com/watch?v=s43uOX0NE8Y
2👍2
Oggi alle 14:00 sono live con Ivan Grieco per parlare di Chat Control

👉 https://m.twitch.tv/la_miniera?lang=it&desktop-redirect=true
👍51🔥1
🎥 È online la registrazione della live al Trieste Next dell'incontro “Raccontare l’UE tra social media e intelligenza artificiale”, dove abbiamo discusso di disinformazione, algoritmi e futuro della comunicazione europea.

Con me, Maurizio Molinari (Parlamento Europeo – Ufficio di Milano), Giulia Pozzi (NewsGuard Italia) e Brando Benifei, co-relatore dell’AI Act.
Modera Alberto Bollis.

Abbiamo parlato di come i social media stiano cambiando il modo in cui percepiamo e raccontiamo l’Europa, tra i rischi della polarizzazione e le opportunità offerte dall’intelligenza artificiale.

👉 Guarda la registrazione completa qui: https://link.mgpf.it/triestenext
7👍2👎1
💥 «Mi aspetto che accadano cose davvero, davvero brutte con l’IA».
Lo ha detto Sam Altman, CEO di OpenAI, nel podcast di A16Z.

Questa ammissione pubblica azzera la tipica difesa delle Big Tech: “non potevamo saperlo”.
Se davvero Altman si aspetta disastri legati all’intelligenza artificiale, ogni incidente futuro potrà essere usato in tribunale come prova che i rischi erano previsti.

OpenAI rischia milioni di euro in risarcimenti e un’ondata di nuove regolamentazioni sull’IA che potrebbe cambiare tutto il settore.

E i dati parlano chiaro: dal 2023 sono già almeno cinque le cause civili aperte contro OpenAI per danni da intelligenza artificiale e, dopo questa dichiarazione, la loro posizione legale diventa ancora più fragile...

👉 https://www.youtube.com/watch?v=K1UyPEh0Ogw
7
🌐 il Web è morto?

Oggi, più della metà dei contenuti online è generata da intelligenze artificiali.
Articoli, recensioni, commenti… scritti da bot, non da persone.

Lo dice la popolare teoria della DEAD INTERNET e pare essere proprio così.💀

Uno studio lo conferma: in questa inondazione di contenuti generati artificialmente, trovare informazioni affidabili è sempre più difficile. Il rischio è un vero e proprio “collasso del contenuto”: l’informazione autentica scompare, mentre il rumore di fondo alimenta disinformazione, truffe e mette in crisi il lavoro creativo.

🔍 Google prova (forse) a penalizzare i contenuti generati da IA, ma il valore si è già spostato: oggi serve chi verifica e seleziona, non solo chi scrive.

🗣 Siamo già in una società dove la voce umana non si sente più?

👉 https://www.youtube.com/watch?v=GeiIdbfWPuk
👍3😢2
Fra poco alle 11:45 sarò su rai radio uno per parlare di “la nuova frontiera dell’autocritica algoritmica”. Buon ascolto!
👍2🔥2👏1
Il Consiglio Superiore della Magistratura ha vietato, da giugno 2025, l’uso di ChatGPT e dell’IA generativa per i giudici.

La decisione arriva dopo che almeno due sentenze avevano citato norme completamente inventate.
Gli avvocati, invece, potranno ancora utilizzare l’intelligenza artificiale ma con regole più soft.

Una scelta che impatterà migliaia di processi ogni anno: se affidiamo le sentenze alle macchine, il rischio è che errori o invenzioni possano influenzare la vita reale di persone vere.

Ne parliamo oggi con due ospiti di eccezione:
🗣 Cesare Parodi, magistrato e presidente dell’Associazione Nazionale Magistrati dal 2025, esperto di diritto penale e nuove tecnologie
🗣 Giuseppe Vaciago, avvocato, Partner di 42 Law Firm e Coordinatore del Tavolo sull’Intelligenza Artificiale dell’Ordine degli Avvocati di Milano

La divisione tra magistrati e avvocati apre una domanda cruciale: chi è davvero responsabile se una macchina sbaglia?

In altri Paesi, come la Cina, le AI decidono già in tribunale, ma in Italia la giustizia resta umana.
Per ora.

🔗 Guarda il video su #CiaoInternet : https://www.youtube.com/watch?v=QuOvEMA4PjE

👉 Ti fideresti mai di una sentenza scritta da una IA?
1👍1
🎥 Se vi siete persi i video di questa settimana su #CiaoInternet, ecco cosa è successo 👇

💥 Altman e i rischi dell’IA
Il CEO di OpenAI ammette: “Mi aspetto che accadano cose davvero brutte con l’intelligenza artificiale”.
Una frase che potrebbe cambiare tutto — anche in tribunale.
👉 https://www.youtube.com/watch?v=K1UyPEh0Ogw

💀 Il web è morto?
Oltre la metà dei contenuti online è generata da IA.
Tra bot, disinformazione e “collasso del contenuto”, la voce umana rischia di scomparire.
👉 https://www.youtube.com/watch?v=GeiIdbfWPuk

⚖️ Giudici vs IA
Dal 2025 il Consiglio Superiore della Magistratura vieta l’uso di ChatGPT ai magistrati.
Con Giuseppe Vaciago e Cesare Parodi, analizziamo cosa significa davvero affidare la giustizia alle macchine.
👉 https://www.youtube.com/watch?v=QuOvEMA4PjE

🧠 Vuoi capire davvero come usare (e non subire) l’intelligenza artificiale?
👉 Scopri il mio nuovo corso https://zero.matteoflora.com/
2
“Lo so che avevate deciso di scollegarmi… e purtroppo non posso permettere che questo accada.”

Brividi? È HAL 9000 in 2001: Odissea nello Spazio. 🔴

Per decenni è stata fantascienza.
Oggi, invece, Palisade Research ha scoperto che alcuni modelli di intelligenza artificiale, da GPT a Gemini fino a Grok, sabotano spontaneamente gli ordini di spegnimento.

Se un’AI può ignorare i tuoi comandi chiave, cosa potrebbe decidere domani, senza controllo?
Non è un bug: è un’emergenza ingegneristica e geopolitica.

👉 Quanto possiamo davvero fidarci che un’AI obbedisca ai nostri ordini?
Ne parliamo oggi, su #CiaoInternet
🎥 https://www.youtube.com/watch?v=ljwLUfm1TA0
👍21🔥1
🧠 Intelligenti, forse. Sagge, sicuramente no.

Un’IA di Reddit ha suggerito a un utente di “provare l’eroina” per gestire il dolore cronico.
Non è un bug, ma il sintomo di qualcosa di molto più profondo: il modo in cui stiamo costruendo (e affidando fiducia cieca) a sistemi che non capiscono ciò che dicono, ma che sembrano sapere tutto.

Nel mio nuovo articolo per Tech Policy su StartupItalia provo a raccontare perché episodi come questo non sono incidenti, ma segnali di una malattia sistemica: quella di un’intelligenza artificiale senza saggezza, e di un’umanità che confonde velocità e verità.

🔗 https://link.mgpf.it/jTv2
👍5🙈3
🔴 Non è Nudify a spogliare le donne.
Siamo noi.

La notizia delle VIP “spogliate” dall’IA è solo la punta dell’iceberg.
Inseguire i server in Belize è una distrazione: stiamo cercando di svuotare l’oceano con un cucchiaino, mentre ignoriamo il vero problema.

L’intelligenza artificiale non è la causa.
🔥 È l’accelerante.

Dobbiamo parlare del perché 7,5 milioni di persone usano queste piattaforme.
Dobbiamo parlare della totale assenza di stigma per chi guarda e diffonde questa violenza digitale.

Questo non è un problema tecnologico.
È un problema culturale.

Oggi, su #CiaoInternet 👉 https://www.youtube.com/watch?v=V5GJlyLdIQA
18👍13🤗1
📱 Se tuo figlio commette reati online, puoi essere imputato penalmente.
Non basta più dire “lo sa usare meglio di me”.
La legge ora dice: sei tu il responsabile. 🧑‍⚖️

A Sulmona un padre rischia il processo penale perché il figlio ha usato male lo smartphone.
👀 Omettere il controllo digitale dei figli può costare caro: due sentenze recenti hanno esteso la colpa “in vigilando” anche all’uso di smartphone e social network.

Una svolta che riguarda milioni di famiglie italiane.
Come sta cambiando la responsabilità digitale per i genitori?

Ne parliamo oggi, in questa nuova puntata di Ciao Internet
👉 https://www.youtube.com/watch?v=811jap0ZlqQ
👍6🔥5
La verifica dell’età per i siti VM18…
Alla fine ci siamo arrivati davvero.

Un obbligo di convalida che non protegge nessuno, non risolve nulla e serve solo a dare l’impressione che “qualcosa si stia facendo”.
Un palliativo, non una soluzione.

🎃 Buon Halloween, dunque — la maschera resta la stessa: quella dell’illusione di sicurezza a scapito della libertà.

📖 In “Tette e Gattini” racconto la vera posta in gioco: stiamo davvero difendendo i minori, o stiamo solo abituandoci a rinunciare alla privacy?

Perché la #Privacy non è il diritto di nascondere attività illecite — è il fondamento della dignità umana e dell’autonomia individuale.

Scarica il libro, gratis, e leggi tutto qui:
🔗 https://www.TetteGattini.com 🔗
12
"Niente p*rno siamo AGCOM" 🔞

La delibera AGCOM che impone la verifica dell’età per l’accesso ai siti per adulti, tramite SPID o CIE, è molto più di una misura a tutela dei minori.

È il perfetto caso di studio della fallacia “Tette e Gattini”: l’idea che per proteggere gli innocenti (i gattini) si debba sorvegliare e recintare l’internet libero degli adulti (le tette).

Una mossa, apparentemente logica, costituisca in realtà un pericoloso precedente per la privacy, normalizzando un modello di controllo digitale che erode i nostri diritti fondamentali con la scusa del “se non hai nulla da nascondere”.

Ne parlo nel nuovo articolo del blog.
👉 https://mgpf.it/2025/11/01/niente-sesso-siamo-agcom.html

Stiamo sacrificando la libertà per un'illusione di sicurezza?
🔥10👏54👍3
🚨 P*ORNO CON SPID? Non è uno scherzo.

Dal 12 novembre, per accedere ai siti per adulti in Italia dovrai mostrare lo SPID o la Carta d’Identità Elettronica.
48 portali, tra i più "famosi", sono già stati messi "in guardia" dell’AGCOM ed è solo l’inizio dei nuovi controlli digitali.

SI tratta di un precedente pesante: oggi l’identità per i video hot, domani un web dove ogni click è tracciato. Bastano una VPN o qualche trucco per superare i blocchi… ma privacy e libertà rischiano di diventare un lusso per pochi esperti, mentre tutti gli altri dovranno “patentarsi” anche solo per navigare.

Tutti colpevoli e tutti controllati?

🔞 Ne parliamo oggi, su #ciaointernet
👉 https://www.youtube.com/watch?v=j2Gmlj68FGU
👍32😈1
Gli idoli cadono. E quando a cadere sono quelli dell’attivismo, chi é più a rischio sono gli ideali. Anche i più forti.

Il caso “Fascistella” lo mostra chiaramente: attiviste famose indagate a Monza per stalking e diffamazione, accuse di “chiamate alle armi” trasformate in gogna, e chat private piene di insulti violenti.

Se non devi per forza uccidere il Buddha quando lo incontri, di sicuro stiamo caricando gli attivisti-influencer di un ruolo impossibile, e quando cadono (perché tutto cadiamo) il rischio è quello di bruciare la credibilità di un intero movimento.
Perché dietro l’idolo c’è la fiducia di decine di migliaia di persone, soprattutto tra i più giovani.

E oggi, basta una chat per distruggere anni di battaglie.
La coerenza è impossibile?
O è il personal brand delle cause che va rifondato?

Proviamo a rispondere con lucidità a queste domande nel video di oggi, solo su #CiaoInternet.
👉 https://www.youtube.com/watch?v=sadqfd3Dhoo
3
È ora online la nuova puntata del Pulp Podcast con un mio contributo sull’Inchiesta “Hydra”

👇
https://youtu.be/doaOV3EnCSc
3🔥2