🚨 AI di META: OGGI è l'ultimo giorno per BLOCCARE l'uso dei tuoi contenuti
Oggi, 26 maggio 2025, è l'ultimo giorno per impedire a Meta (Facebook e Instagram) di utilizzare i vostri dati pubblici per allenare la propria intelligenza artificiale. Davvero, stavolta non è una bufala.
Meta utilizzerà i contenuti pubblici degli utenti Facebook e Instagram per addestrare i suoi modelli AI a partire dal 27 maggio, quindi se desiderate evitare che i vostri contenuti pubblici diventino materiale di training per l'AI di Meta, dovete compilare appositi form OGGI. E poi? E poi è tutto più complesso...
Già, perché una volta utilizzati i dati per addestrare un’intelligenza artificiale, la possibilità tecnica e pratica di rimuovere successivamente il proprio materiale dall’addestramento è molto limitata, se non impossibile.
Considerate giusto dover esplicitamente negare l’uso dei vostri dati, oppure ritenete che sarebbe più corretto un consenso preventivo?
Ditemi cosa ne pensate nei commenti.
👉 Condividete questo video con chi OGGI ha la sua ultima possibilità
🔗 Trovate i link ai form per BLOCCARE l'uso dei contenuti nel video su Youtube.
🎥 https://link.mgpf.it/d3b_
Oggi, 26 maggio 2025, è l'ultimo giorno per impedire a Meta (Facebook e Instagram) di utilizzare i vostri dati pubblici per allenare la propria intelligenza artificiale. Davvero, stavolta non è una bufala.
Meta utilizzerà i contenuti pubblici degli utenti Facebook e Instagram per addestrare i suoi modelli AI a partire dal 27 maggio, quindi se desiderate evitare che i vostri contenuti pubblici diventino materiale di training per l'AI di Meta, dovete compilare appositi form OGGI. E poi? E poi è tutto più complesso...
Già, perché una volta utilizzati i dati per addestrare un’intelligenza artificiale, la possibilità tecnica e pratica di rimuovere successivamente il proprio materiale dall’addestramento è molto limitata, se non impossibile.
Considerate giusto dover esplicitamente negare l’uso dei vostri dati, oppure ritenete che sarebbe più corretto un consenso preventivo?
Ditemi cosa ne pensate nei commenti.
👉 Condividete questo video con chi OGGI ha la sua ultima possibilità
🔗 Trovate i link ai form per BLOCCARE l'uso dei contenuti nel video su Youtube.
🎥 https://link.mgpf.it/d3b_
link.mgpf.it
AI di META: OGGI è l'ultimo giorno per BLOCCARE l'uso dei tuoi contenuti (davvero) #1408
Oggi, 26 maggio 2025, è l'ultimo giorno per impedire a Meta (Facebook e Instagram) di utilizzare i vostri dati pubblici per allenare la propria intelligenza artificiale. Davvero, stavolta non è una bufala.
Meta utilizzerà i contenuti pubblici degli utenti…
Meta utilizzerà i contenuti pubblici degli utenti…
👍10❤1💩1
📢 Il 29 Maggio sarò a Cagliari per il SIOS25 Sardinia!
Due appuntamenti per parlare di AI, sicurezza e futuro dell'innovazione:
🎓 Ore 11:00 - Masterclass "AI aziendale: meglio prevenire che curare" Vi guiderò attraverso gli strumenti pratici per valutare la conformità delle vostre soluzioni AI e anticipare gli impatti dell'AI Act sul business.
🎯 Ore 17:30 - Roundtable "Più regole o più mercato? Il dilemma dell'AI europea" Un confronto aperto sul futuro della regolamentazione AI in Europa, insieme me sul palco:
• Guido Scorza - Avvocato e professore di diritto delle nuove tecnologie
• Francesca Rossi - Global Leader per l'Etica dell'AI IBM
🔗 Prenotate il vostro posto: https://startupitaliaopensummit.eu/2025/sardinia/agenda/
Due appuntamenti per parlare di AI, sicurezza e futuro dell'innovazione:
🎓 Ore 11:00 - Masterclass "AI aziendale: meglio prevenire che curare" Vi guiderò attraverso gli strumenti pratici per valutare la conformità delle vostre soluzioni AI e anticipare gli impatti dell'AI Act sul business.
🎯 Ore 17:30 - Roundtable "Più regole o più mercato? Il dilemma dell'AI europea" Un confronto aperto sul futuro della regolamentazione AI in Europa, insieme me sul palco:
• Guido Scorza - Avvocato e professore di diritto delle nuove tecnologie
• Francesca Rossi - Global Leader per l'Etica dell'AI IBM
🔗 Prenotate il vostro posto: https://startupitaliaopensummit.eu/2025/sardinia/agenda/
SIOS Sardinia 2024
Agenda - Sios25
Scopri l'agenda per SIOS Sardinia 2025. Vieni a Sa Manifattura il 29 Maggio 2025 a Cagliari
👍1
🔥 CHI SCRIVE IL CODICE, DETTA LE REGOLE 🔥
Non è uno slogan: è la realtà che viviamo.
Il 6 giugno sarò sul palco di Future Proof Society 2025 insieme a Meredith Whittaker per mettere a nudo il potere opaco dietro gli algoritmi. Un dialogo serrato su chi controlla davvero l'intelligenza artificiale e su quanto (poco) ne sappiamo.
L'IA sta ridefinendo potere, consenso e società. Ma chi decide cosa può fare? E chi ha il coraggio di metterlo in discussione?
Meredith Whittaker è presidente della Signal Foundation, cofondatrice dell'AI Now Institute, ex Google (da cui è uscita dopo aver guidato proteste interne contro l'uso militare dell'IA) e porterà una prospettiva unica: dentro e contro il sistema.
📍 L'Aquila, Piazza dell'Emiciclo
🗓 Venerdì 6 giugno, ore 18
🎟 Ultimi biglietti disponibili: https://futureproofsociety.it/
Non è uno slogan: è la realtà che viviamo.
Il 6 giugno sarò sul palco di Future Proof Society 2025 insieme a Meredith Whittaker per mettere a nudo il potere opaco dietro gli algoritmi. Un dialogo serrato su chi controlla davvero l'intelligenza artificiale e su quanto (poco) ne sappiamo.
L'IA sta ridefinendo potere, consenso e società. Ma chi decide cosa può fare? E chi ha il coraggio di metterlo in discussione?
Meredith Whittaker è presidente della Signal Foundation, cofondatrice dell'AI Now Institute, ex Google (da cui è uscita dopo aver guidato proteste interne contro l'uso militare dell'IA) e porterà una prospettiva unica: dentro e contro il sistema.
📍 L'Aquila, Piazza dell'Emiciclo
🗓 Venerdì 6 giugno, ore 18
🎟 Ultimi biglietti disponibili: https://futureproofsociety.it/
👏2🔥1
🕵🏻♂️ La mia nuova Tesla "spia" le persone...
Dopo aver attaccato uno sticker ironico anti-Musk sulla mia nuova Tesla, è successo qualcosa di inaspettato...
La modalità Sentinella registra tutto 24/7 intorno all'auto. Risultato?
Decine di persone si avvicinano per fare foto e selfie! 📸
Divertente? Sì, ma anche inquietante.
🔍 Le auto "smart" infatti:
- Raccolgono video, foto e dati meteo costantemente
- Possono archiviare e vendere queste informazioni
- Migliaia di "occhi elettronici" invisibili per le strade
Pro: Migliorano sicurezza stradale, guida autonoma ✅
Contro: Sono una possibile sorveglianza di massa involontaria 🚨
Ne parlo in questo nuovo video di #CiaoInternet direttamente dall'auto!
👉 https://link.mgpf.it/tesla
Siamo pronti a sacrificare la privacy per la tecnologia?
Quale futuro vogliamo costruire?
Ditemi la vostra nei commenti! 👇
Dopo aver attaccato uno sticker ironico anti-Musk sulla mia nuova Tesla, è successo qualcosa di inaspettato...
La modalità Sentinella registra tutto 24/7 intorno all'auto. Risultato?
Decine di persone si avvicinano per fare foto e selfie! 📸
Divertente? Sì, ma anche inquietante.
🔍 Le auto "smart" infatti:
- Raccolgono video, foto e dati meteo costantemente
- Possono archiviare e vendere queste informazioni
- Migliaia di "occhi elettronici" invisibili per le strade
Pro: Migliorano sicurezza stradale, guida autonoma ✅
Contro: Sono una possibile sorveglianza di massa involontaria 🚨
Ne parlo in questo nuovo video di #CiaoInternet direttamente dall'auto!
👉 https://link.mgpf.it/tesla
Siamo pronti a sacrificare la privacy per la tecnologia?
Quale futuro vogliamo costruire?
Ditemi la vostra nei commenti! 👇
link.mgpf.it
La mia nuova Tesla spia le persone. Il 'lato oscuro
Le nuove Tesla e altri veicoli smart possono diventare sistemi involontari di sorveglanza di massa? Dopo aver applicato uno sticker ironico contro Elon Musk sulla mia nuova Tesla, è accaduto qualcosa di curioso: grazie alla modalità Sentinella, che registra…
👍2❤1
🗣 Sarò tra gli speaker della terza edizione del GA Summit che si svolgerà il 7 ottobre al Talent Garden Calabiana a Milano!
Vi segnalo anche che i ticket in offerta #EarlyBird del #GASUMMIT 2025 sono disponibili ma solo fino al 31 maggio! 🚀
🎟 Li trovate a questo link: https://gasummit.it/
Vi segnalo anche che i ticket in offerta #EarlyBird del #GASUMMIT 2025 sono disponibili ma solo fino al 31 maggio! 🚀
🎟 Li trovate a questo link: https://gasummit.it/
👍1
Nel mondo della salute, spesso ci concentriamo su ricerca e prescrizione.
Ma chi si occupa del farmacista? 💊
Nella nuova puntata di "Intelligenze Artificiali - Luci e Ombre" ne ho parlato con Gaetano Colabucci, DG di Giuliani S.p.A., ed è emersa una prospettiva interessante: usare l’intelligenza artificiale per potenziare il ruolo del farmacista, non per sostituirlo.
Giuliani ha lanciato un Osservatorio sull’AI e la farmacia, accompagnato da un programma formativo di AI Literacy insieme a Talent Garden.
L’obiettivo? Fare in modo che i farmacisti possano integrare l’AI nel proprio lavoro quotidiano – dalla gestione del magazzino alla consulenza personalizzata, fino a raccomandazioni e prime diagnosi supportate da algoritmi scientificamente validati.
Il tutto, ovviamente, sempre con un limite etico chiaro: la responsabilità rimane umana. L’AI è uno strumento, non un sostituto. 🤖
Guarda la puntata online su Tgcom24 al link: https://link.mgpf.it/ai2-28
Ma chi si occupa del farmacista? 💊
Nella nuova puntata di "Intelligenze Artificiali - Luci e Ombre" ne ho parlato con Gaetano Colabucci, DG di Giuliani S.p.A., ed è emersa una prospettiva interessante: usare l’intelligenza artificiale per potenziare il ruolo del farmacista, non per sostituirlo.
Giuliani ha lanciato un Osservatorio sull’AI e la farmacia, accompagnato da un programma formativo di AI Literacy insieme a Talent Garden.
L’obiettivo? Fare in modo che i farmacisti possano integrare l’AI nel proprio lavoro quotidiano – dalla gestione del magazzino alla consulenza personalizzata, fino a raccomandazioni e prime diagnosi supportate da algoritmi scientificamente validati.
Il tutto, ovviamente, sempre con un limite etico chiaro: la responsabilità rimane umana. L’AI è uno strumento, non un sostituto. 🤖
Guarda la puntata online su Tgcom24 al link: https://link.mgpf.it/ai2-28
link.mgpf.it
Puntata del 17 maggio
Matteo Flora ospita Gaetano Colabucci, Direttore Generale Giuliani Spa
🔴Live su StartupItalia!
https://startupitalia.eu/?fbclid=PAZXh0bgNhZW0CMTEAAaeU8qfcj6a3i-Vv1pYacw_mOHCU9pDFEzzrtGiEsctz_gAxTI2cfm3m7CumGQ_aem__MUbD3IlJPwYdrp-Pz_jYA
https://startupitalia.eu/?fbclid=PAZXh0bgNhZW0CMTEAAaeU8qfcj6a3i-Vv1pYacw_mOHCU9pDFEzzrtGiEsctz_gAxTI2cfm3m7CumGQ_aem__MUbD3IlJPwYdrp-Pz_jYA
StartupItalia
StartupItalia - il magazine che parla di innovazione
Siamo la nuova generazione di editori e broadcaster fatta di startup, Investor, imprenditori, manager ma sopratutto appassionati.
🔥1
Oggi vi aspetta un episodio speciale di #CiaoInternet: inauguriamo #DeepDive, una nuova rubrica pensata per approfondimenti su temi accademici e complessi legati all’Intelligenza Artificiale.
Ma con una novità radicale: l’analisi e il dibattito non li faccio io… li fa direttamente una IA 🤖 (e nel video vi spiego perché).
Iniziamo parlando del progetto ASL-3, i nuovi sistemi di sicurezza sviluppati da Anthropic. ASL-3, cioè Automated Safety Level 3, è un framework in cui l’IA monitora il proprio comportamento, genera test autonomamente e propone modifiche ai suoi parametri per restare allineata agli obiettivi di sicurezza. È il primo passo verso un’intelligenza artificiale che non si limita a essere controllata dagli esseri umani, ma partecipa attivamente alla propria regolazione, aprendo scenari tanto promettenti quanto inquietanti.
💬 Fatemi sapere nei commenti cosa ne pensate: questo nuovo approccio è solo un "trucco" o può davvero aprire una nuova frontiera nella divulgazione?
👉 https://link.mgpf.it/deepdive1
Ma con una novità radicale: l’analisi e il dibattito non li faccio io… li fa direttamente una IA 🤖 (e nel video vi spiego perché).
Iniziamo parlando del progetto ASL-3, i nuovi sistemi di sicurezza sviluppati da Anthropic. ASL-3, cioè Automated Safety Level 3, è un framework in cui l’IA monitora il proprio comportamento, genera test autonomamente e propone modifiche ai suoi parametri per restare allineata agli obiettivi di sicurezza. È il primo passo verso un’intelligenza artificiale che non si limita a essere controllata dagli esseri umani, ma partecipa attivamente alla propria regolazione, aprendo scenari tanto promettenti quanto inquietanti.
💬 Fatemi sapere nei commenti cosa ne pensate: questo nuovo approccio è solo un "trucco" o può davvero aprire una nuova frontiera nella divulgazione?
👉 https://link.mgpf.it/deepdive1
link.mgpf.it
Cosa significa ASL-3, l'Automated Safety Level 3 di Anthropic? [DeepDive] #1410
In questo episodio speciale inauguriamo DeepDive, una nuova rubrica pensata per approfondimenti su temi accademici e complessi legati all’Intelligenza Artificiale. Ma con una novità radicale: l’analisi e il dibattito non li faccio io… li fa direttamente una…
🤔2❤1🔥1
Nella nuova puntata di "Intelligenze Artificiali – Luci e Ombre", parliamo di come l’IA stia rivoluzionando uno degli ambiti più delicati per le aziende: la gestione delle crisi.
Ospite della puntata Daniele Chieffi, CEO di The Magician, esperto di comunicazione e reputazione. Con lui esploreremo come l’intelligenza artificiale stia passando da semplice strumento a vero alleato strategico per simulare scenari, anticipare le reazioni degli stakeholder e costruire risposte efficaci in situazioni critiche.
Una trasformazione piena di luci – maggiore preparazione, comunicazione mirata – ma anche ombre, legate a scelte etiche e all’equilibrio tra automazione e competenza umana.
👉 Non mancate!
📅 Vi aspettiamo oggi, sabato 31 maggio, alle 17.00 su TGCOM24.
Ospite della puntata Daniele Chieffi, CEO di The Magician, esperto di comunicazione e reputazione. Con lui esploreremo come l’intelligenza artificiale stia passando da semplice strumento a vero alleato strategico per simulare scenari, anticipare le reazioni degli stakeholder e costruire risposte efficaci in situazioni critiche.
Una trasformazione piena di luci – maggiore preparazione, comunicazione mirata – ma anche ombre, legate a scelte etiche e all’equilibrio tra automazione e competenza umana.
👉 Non mancate!
📅 Vi aspettiamo oggi, sabato 31 maggio, alle 17.00 su TGCOM24.
🔥1
✨ Dopo una settimana di pausa, torna W33K: il Lunedì che fa la differenza!
📺 Domani sera, lunedì 2 giugno alle 21:30, ci vediamo in LIVE per un appuntamento che cambia le regole: tecnologia, comunicazione e policy spiegate in modo semplice, utile e senza giri di parole.
✅ Le novità chiave per orientarti nella settimana
✅ Le notizie che forse avevi perso nel mare di rumore
✅ Uno spazio per capire cosa conta davvero
90 minuti (circa) per iniziare la settimana con consapevolezza!
🗓 Lunedì 2 giugno, ore 21:30 – LIVE.
🔔 Vi aspetto, attivate la notifica: https://youtube.com/live/6MBGPyiKHVA
📺 Domani sera, lunedì 2 giugno alle 21:30, ci vediamo in LIVE per un appuntamento che cambia le regole: tecnologia, comunicazione e policy spiegate in modo semplice, utile e senza giri di parole.
✅ Le novità chiave per orientarti nella settimana
✅ Le notizie che forse avevi perso nel mare di rumore
✅ Uno spazio per capire cosa conta davvero
90 minuti (circa) per iniziare la settimana con consapevolezza!
🗓 Lunedì 2 giugno, ore 21:30 – LIVE.
🔔 Vi aspetto, attivate la notifica: https://youtube.com/live/6MBGPyiKHVA
Youtube
- YouTube
Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube.
🔥4❤2
📰 Il New York Times ha annunciato un accordo con Amazon per la vendita e l’utilizzo dei propri contenuti, inclusi articoli protetti da paywall, per l’addestramento di sistemi di intelligenza artificiale.🤖
Una notizia che sorprende e apre molte riflessioni, soprattutto considerando la causa ancora in corso che il NYT ha avviato contro OpenAI e Microsoft per l’utilizzo non autorizzato degli stessi contenuti.
💬 Quali effetti potrà avere questo accordo sul contenzioso in atto? Potrebbe diventare un precedente fondamentale nel dibattito su copyright e IA? E soprattutto: sarà finalmente riconosciuto un valore economico adeguato ai contenuti giornalistici online?
Oltre alla questione legale, la notizia tocca nodi centrali per il futuro del diritto d’autore, il concetto di fair use, i diritti degli autori e il ruolo dei grandi player digitali nel definire le regole del gioco nell’era dell’intelligenza artificiale.
Ne parliamo oggi, su #CiaoInternet con l’avv. Lucia Maggi, CEO di 42 Law Firm.
👉 https://link.mgpf.it/dhnj
Una notizia che sorprende e apre molte riflessioni, soprattutto considerando la causa ancora in corso che il NYT ha avviato contro OpenAI e Microsoft per l’utilizzo non autorizzato degli stessi contenuti.
💬 Quali effetti potrà avere questo accordo sul contenzioso in atto? Potrebbe diventare un precedente fondamentale nel dibattito su copyright e IA? E soprattutto: sarà finalmente riconosciuto un valore economico adeguato ai contenuti giornalistici online?
Oltre alla questione legale, la notizia tocca nodi centrali per il futuro del diritto d’autore, il concetto di fair use, i diritti degli autori e il ruolo dei grandi player digitali nel definire le regole del gioco nell’era dell’intelligenza artificiale.
Ne parliamo oggi, su #CiaoInternet con l’avv. Lucia Maggi, CEO di 42 Law Firm.
👉 https://link.mgpf.it/dhnj
link.mgpf.it
New York Times vende i suoi dati ad Amazon: la mossa strategica che fa tremare OpenAI? #1411
Il New York Times ha annunciato un accordo commerciale con Amazon per la vendita e l'utilizzo dei propri contenuti, inclusi articoli protetti da paywall, per l'addestramento di sistemi di intelligenza artificiale. Questa decisione sorprende e solleva molte…
❤3🤔1
“Questo accade perché l’AI è addestrata su testi di persone coscienti”
Oggi su La Stampa trovate anche un mio contributo nell’articolo su “I sentimenti dell’AI”, a firma di Arcangelo Rociola , dedicato alla Prompt Theory, video virali di personaggi creati con #AI che rivendicano “identità e diritti”.
Avete visto questo tipo di video?
Cosa ne pensate?
Oggi su La Stampa trovate anche un mio contributo nell’articolo su “I sentimenti dell’AI”, a firma di Arcangelo Rociola , dedicato alla Prompt Theory, video virali di personaggi creati con #AI che rivendicano “identità e diritti”.
Avete visto questo tipo di video?
Cosa ne pensate?
❤1
📺 È ora disponibile la registrazione di W33K – la rassegna stampa del lunedì sera!
Anche questa settimana, un sacco di notizie che raccontano come l’intelligenza artificiale sta cambiando (e in certi casi complicando) il mondo. Ecco alcuni dei temi trattati:
– Il caso delle minacce a Giorgia #Meloni: l’IA usata come scusa e la sovraesposizione mediatica che ne segue.
– Il report ufficiale della #CasaBianca contiene errori generati da IA: è il fenomeno crescente dell’"AI slop".
– Il CEO di Anthropic lancia l’allarme: l’IA cambierà radicalmente il lavoro dei colletti bianchi, e servono nuove forme di tassazione.
– Un team di ricerca usa l’IA per riconoscere le narrative manipolate e contrastare la disinformazione.
– Cresce il traffico da ChatGPT e calano le ricerche su Google: l’IA sta cambiando il modo di navigare online.
– In un test, l’IA Claude di Anthropic ha minacciato un ingegnere e contattato le autorità (!).
E molto altro ancora!
🎥 La puntata completa è online qui 👉 https://youtu.be/IvHQYi6Ll0w
Anche questa settimana, un sacco di notizie che raccontano come l’intelligenza artificiale sta cambiando (e in certi casi complicando) il mondo. Ecco alcuni dei temi trattati:
– Il caso delle minacce a Giorgia #Meloni: l’IA usata come scusa e la sovraesposizione mediatica che ne segue.
– Il report ufficiale della #CasaBianca contiene errori generati da IA: è il fenomeno crescente dell’"AI slop".
– Il CEO di Anthropic lancia l’allarme: l’IA cambierà radicalmente il lavoro dei colletti bianchi, e servono nuove forme di tassazione.
– Un team di ricerca usa l’IA per riconoscere le narrative manipolate e contrastare la disinformazione.
– Cresce il traffico da ChatGPT e calano le ricerche su Google: l’IA sta cambiando il modo di navigare online.
– In un test, l’IA Claude di Anthropic ha minacciato un ingegnere e contattato le autorità (!).
E molto altro ancora!
🎥 La puntata completa è online qui 👉 https://youtu.be/IvHQYi6Ll0w
YouTube
[W33K - Cosa accade in Rete] ~ Ep.16 ~ 02.06.2025
✨ W33K: il Lunedì che fa la differenza!
85 minuti per iniziale la settimana con consapevolezza e una marcia in più.
I topic di questa puntata:
00:02:11 - Minacce Meloni: IA usata come scusa e la sovraespisizione
00:05:37 - Errore Piracy Shield italiano…
85 minuti per iniziale la settimana con consapevolezza e una marcia in più.
I topic di questa puntata:
00:02:11 - Minacce Meloni: IA usata come scusa e la sovraespisizione
00:05:37 - Errore Piracy Shield italiano…
❤3
Sembrava AI ma erano... indiani! 🤖
Builder.ai, startup indiana del valore di oltre un miliardo di dollari, prometteva app create su misura con una sofisticata intelligenza artificiale. Ma la realtà era ben diversa: dietro all'AI non c'era altro che lavoro umano svolto da sviluppatori, da un giro di fatture false per gonfiare artificialmente i ricavi.
Il crollo di credibilità conseguente a questo scandalo non si limita soltanto a danneggiare Builder .ai e i suoi investitori (Microsoft, SoftBank e altri istituzionali), ma getta anche ombre inquietanti sull'intero settore dell'intelligenza artificiale.
Si parla in questo caso di "AI-washing", una pratica simile a quella nota nell'ambito "greenwashing", "pink-washing" e "rainbow-washing". È evidente che è necessario ripensare metodologie di auditing, transparency framework e meccanismi di controllo più affidabili per difendere l'integrità dell'intera industria.
Ne parliamo oggi, su #CiaoInternet
👉 https://www.youtube.com/watch?v=MzySGF0r5ss
Builder.ai, startup indiana del valore di oltre un miliardo di dollari, prometteva app create su misura con una sofisticata intelligenza artificiale. Ma la realtà era ben diversa: dietro all'AI non c'era altro che lavoro umano svolto da sviluppatori, da un giro di fatture false per gonfiare artificialmente i ricavi.
Il crollo di credibilità conseguente a questo scandalo non si limita soltanto a danneggiare Builder .ai e i suoi investitori (Microsoft, SoftBank e altri istituzionali), ma getta anche ombre inquietanti sull'intero settore dell'intelligenza artificiale.
Si parla in questo caso di "AI-washing", una pratica simile a quella nota nell'ambito "greenwashing", "pink-washing" e "rainbow-washing". È evidente che è necessario ripensare metodologie di auditing, transparency framework e meccanismi di controllo più affidabili per difendere l'integrità dell'intera industria.
Ne parliamo oggi, su #CiaoInternet
👉 https://www.youtube.com/watch?v=MzySGF0r5ss
YouTube
Sembrava AI ma erano... indiani! Lo scandalo Builder.ai e un miliardo in fumo! #1412
Builder.ai, startup indiana del valore di oltre un miliardo di dollari, prometteva app create su misura con una sofisticata intelligenza artificiale. Ma la realtà era ben diversa: dietro all'AI non c'era altro che lavoro umano svolto da sviluppatori, da un…
❤1👍1
Su Confessione Reporter con Stella Pende ho parlato di deepfake e truffe, come quella che ha "coinvolto" nei mesi scorsi il Ministro Crosetto.
Dal minuto 17:30 a questo link: https://mediasetinfinity.mediaset.it/video/confessionereporter2025/puntata-dell1-giugno_F313932601000201
Dal minuto 17:30 a questo link: https://mediasetinfinity.mediaset.it/video/confessionereporter2025/puntata-dell1-giugno_F313932601000201
Mediaset Infinity
Confessione Reporter 2025: Puntata dell'1 giugno Video | Mediaset Infinity
Un nuovo ciclo di inchieste firmate da Stella Pende. Temi caldi e scottanti affrontati con puntuale stile giornalistico, attraverso interviste e testimonianze.
👍1
Oggi le aziende possono vivere una crisi prima ancora che accada.
Ne abbiamo parlato su Intelligenze Artificiali – Luci e Ombre, insieme a Daniele Chieffi, CEO di The Magician.
Con lui abbiamo esplorato un uso sorprendente dell’intelligenza artificiale: la simulazione realistica delle crisi. Una piattaforma interna a The Magician riproduce dinamiche mediatiche, attacchi da hater, errori del CEO, influencer in rivolta e reazioni pubbliche. Il team aziendale si allena così a gestire l’imprevisto, come una prova antincendio comunicativa.
Risultato? Meno panico, più lucidità, scelte più consapevoli. E soprattutto: la possibilità di capire dove sei fragile prima che sia troppo tardi.
La tecnologia, qui, non sostituisce l’umano. Lo potenzia. Come dovrebbe fare ogni AI.
👉 La puntata completa è su Tgcom24: https://link.mgpf.it/ai2-29
Ne abbiamo parlato su Intelligenze Artificiali – Luci e Ombre, insieme a Daniele Chieffi, CEO di The Magician.
Con lui abbiamo esplorato un uso sorprendente dell’intelligenza artificiale: la simulazione realistica delle crisi. Una piattaforma interna a The Magician riproduce dinamiche mediatiche, attacchi da hater, errori del CEO, influencer in rivolta e reazioni pubbliche. Il team aziendale si allena così a gestire l’imprevisto, come una prova antincendio comunicativa.
Risultato? Meno panico, più lucidità, scelte più consapevoli. E soprattutto: la possibilità di capire dove sei fragile prima che sia troppo tardi.
La tecnologia, qui, non sostituisce l’umano. Lo potenzia. Come dovrebbe fare ogni AI.
👉 La puntata completa è su Tgcom24: https://link.mgpf.it/ai2-29
link.mgpf.it
Puntata del 31 maggio
Matteo Flora ospita Daniele Chieffi, Ceo The Magician.
⚡1
"È stato ChatGPT a farmelo fare!"🤖
Attribuire le proprie azioni a un’intelligenza artificiale non solo è inutile, ma dimostra anche una scarsa comprensione di come funzionano gli algoritmi e delle dinamiche sociali del web. In un recente caso di cronaca, una persona ha cercato di giustificare un comportamento problematico accusando un sistema di AI come ChatGPT.
Ma può davvero un assistente virtuale spingerci a compiere gesti offensivi, scorretti o persino violenti?
In questo approfondimento analizziamo il fenomeno del "math-washing", la pratica di attribuire le scelte personali agli algoritmi o all’intelligenza artificiale per scaricare le proprie responsabilità.
E parliamo di quanto è intensa la pressione generata dalla visibilità online improvvisa e come può essere difficile da gestire.
Oggi, su CiaoInternet!
👉 https://www.youtube.com/watch?v=yeiEk43n6v0
Attribuire le proprie azioni a un’intelligenza artificiale non solo è inutile, ma dimostra anche una scarsa comprensione di come funzionano gli algoritmi e delle dinamiche sociali del web. In un recente caso di cronaca, una persona ha cercato di giustificare un comportamento problematico accusando un sistema di AI come ChatGPT.
Ma può davvero un assistente virtuale spingerci a compiere gesti offensivi, scorretti o persino violenti?
In questo approfondimento analizziamo il fenomeno del "math-washing", la pratica di attribuire le scelte personali agli algoritmi o all’intelligenza artificiale per scaricare le proprie responsabilità.
E parliamo di quanto è intensa la pressione generata dalla visibilità online improvvisa e come può essere difficile da gestire.
Oggi, su CiaoInternet!
👉 https://www.youtube.com/watch?v=yeiEk43n6v0
YouTube
"È stato ChatGPT a farmelo fare": di scuse astruse e visibilità... #1413
Dichiarare "è stato ChatGPT" per sfuggire alle proprie responsabilità online non solo è inefficace, ma rivela anche una profonda incomprensione del funzionamento degli algoritmi e delle dinamiche social della rete. Una recente vicenda di cronaca ha visto…
🤣5👍4❤2
Oggi a “Intelligenze Artificiali – Luci e Ombre” un ospite d’eccezione: Brian Solis
Autore, speaker globale e Global Innovation Evangelist di ServiceNow, Brian Solis è una delle voci più influenti al mondo sull’impatto dell’innovazione nella società e nel business.
Con lui parleremo di intelligenza aumentata: perché l’IA non è solo tecnologia, ma visione, strategia e capacità di reimmaginare il futuro. Siamo solo al Giorno 1 di una rivoluzione che richiede un vero mindshift, soprattutto ai vertici delle organizzazioni.
Le luci? Nuovi modelli, creatività e potenziamento umano.
Le ombre? Rischi etici, perdita di senso, automatismi fuori controllo.
📅 Oggi, sabato 7 giugno, ore 17.00 su TGCOM24.
Non perdete questa puntata!
Autore, speaker globale e Global Innovation Evangelist di ServiceNow, Brian Solis è una delle voci più influenti al mondo sull’impatto dell’innovazione nella società e nel business.
Con lui parleremo di intelligenza aumentata: perché l’IA non è solo tecnologia, ma visione, strategia e capacità di reimmaginare il futuro. Siamo solo al Giorno 1 di una rivoluzione che richiede un vero mindshift, soprattutto ai vertici delle organizzazioni.
Le luci? Nuovi modelli, creatività e potenziamento umano.
Le ombre? Rischi etici, perdita di senso, automatismi fuori controllo.
📅 Oggi, sabato 7 giugno, ore 17.00 su TGCOM24.
Non perdete questa puntata!
❤1👍1
🚨 La TRUFFA dello SPID: ti rubano l’identità digitale… e potresti non saperlo! 🪪
Hai mai pensato che qualcuno possa creare un altro SPID a tuo nome senza che tu ne sappia nulla?
Una grave vulnerabilità procedurale del sistema SPID (Sistema Pubblico di Identità Digitale) permette di attivare identità digitali parallele usando lo stesso codice fiscale, senza avvisi al titolare.
📌 Tramite questa falla è possibile attivare credenziali parallele, rubare informazioni personali, dirottare bonifici e pensioni, aprire conti correnti e addirittura avviare pratiche pubbliche a nome delle vittime inconsapevoli.
Il problema è già noto da tempo, denunciato da esperti come Stefano Fratepietro e Paolo Dal Checco, ma ora è stato portato alla luce dalle segnalazioni dell’INPS e di altri enti, che confermano la rapidissima diffusione delle truffe.
Al momento però, non esistendo alcun database centralizzato che consenta di controllare se sono stati attivati altri SPID a proprio nome, l'unico metodo per sapere se si è vittima della truffa è contattare singolarmente i 12 provider di identità digitali per richiedere informazioni.
🎥 Nel video di oggi spiego:
• come funziona la truffa, le sue origini e i reali rischi
• come scoprire se sei già una vittima
• cosa puoi fare per prevenire danni economici e personali
🔗 LINK AL VIDEO 👉 https://www.youtube.com/watch?v=KAhR1plMsD4
Cosa ne pensate? A chi spetta la responsabilità di intervenire e come dovrebbe farlo?
Hai mai pensato che qualcuno possa creare un altro SPID a tuo nome senza che tu ne sappia nulla?
Una grave vulnerabilità procedurale del sistema SPID (Sistema Pubblico di Identità Digitale) permette di attivare identità digitali parallele usando lo stesso codice fiscale, senza avvisi al titolare.
📌 Tramite questa falla è possibile attivare credenziali parallele, rubare informazioni personali, dirottare bonifici e pensioni, aprire conti correnti e addirittura avviare pratiche pubbliche a nome delle vittime inconsapevoli.
Il problema è già noto da tempo, denunciato da esperti come Stefano Fratepietro e Paolo Dal Checco, ma ora è stato portato alla luce dalle segnalazioni dell’INPS e di altri enti, che confermano la rapidissima diffusione delle truffe.
Al momento però, non esistendo alcun database centralizzato che consenta di controllare se sono stati attivati altri SPID a proprio nome, l'unico metodo per sapere se si è vittima della truffa è contattare singolarmente i 12 provider di identità digitali per richiedere informazioni.
🎥 Nel video di oggi spiego:
• come funziona la truffa, le sue origini e i reali rischi
• come scoprire se sei già una vittima
• cosa puoi fare per prevenire danni economici e personali
🔗 LINK AL VIDEO 👉 https://www.youtube.com/watch?v=KAhR1plMsD4
Cosa ne pensate? A chi spetta la responsabilità di intervenire e come dovrebbe farlo?
YouTube
Truffa SPID: nessuno è al sicuro! Sei già vittima e non lo sai? #1414
Una grave vulnerabilità del sistema SPID (Sistema Pubblico di Identità Digitale) consente di creare diverse identità digitali usando lo stesso codice fiscale, senza che il titolare venga minimamente avvisato. Tramite questa falla è possibile attivare credenziali…
🔥3❤1👍1
L’Intelligenza Artificiale è già presente nella Pubblica Amministrazione italiana.
Ma sebbene venga utilizzata in molti uffici, non sempre il suo impiego è consapevole e corretto.
In assenza di politiche chiare, una governance efficace e un’adeguata consapevolezza, il rischio è quello di creare una burocrazia ancora più difensiva, in cui ogni problema diventa "colpa" degli algoritmi.
Quali sono allora le reali opportunità che l’IA può offrire alla PA? Quali errori rischiamo nei prossimi anni e come possiamo prevenirli?
Ne abbiamo parlato nella nuova puntata di #Compliance, insieme a Giuseppe Vaciago di 42 Law Firm e all’ospite Ernesto Belisario di E-Lex.
Un confronto su casi concreti, normative europee, trasparenza, responsabilità e indicazioni operative per un’adozione consapevole dell’IA nella Pubblica Amministrazione.
👉 https://www.youtube.com/watch?v=iYEQfP---FE
Ma sebbene venga utilizzata in molti uffici, non sempre il suo impiego è consapevole e corretto.
In assenza di politiche chiare, una governance efficace e un’adeguata consapevolezza, il rischio è quello di creare una burocrazia ancora più difensiva, in cui ogni problema diventa "colpa" degli algoritmi.
Quali sono allora le reali opportunità che l’IA può offrire alla PA? Quali errori rischiamo nei prossimi anni e come possiamo prevenirli?
Ne abbiamo parlato nella nuova puntata di #Compliance, insieme a Giuseppe Vaciago di 42 Law Firm e all’ospite Ernesto Belisario di E-Lex.
Un confronto su casi concreti, normative europee, trasparenza, responsabilità e indicazioni operative per un’adozione consapevole dell’IA nella Pubblica Amministrazione.
👉 https://www.youtube.com/watch?v=iYEQfP---FE
YouTube
Intelligenza Artificiale nella Pubblica Amministrazione: efficienza o caos? con Ernesto Belisario
L’Intelligenza Artificiale è già qui, anche nella Pubblica Amministrazione italiana. Sebbene in molti uffici venga già utilizzata, non sempre si tratta di un uso consapevole e corretto.
Mancando politiche definite, governance efficace e consapevolezza, il…
Mancando politiche definite, governance efficace e consapevolezza, il…