Informa Pirata: informazione e notizie – Telegram
🟠 Novità: Guerre di Rete

📣 Guerre di Rete - Lavoro e automazione, chip e sorveglianza - il recap del mese
✏️ Un riassunto mensile delle nostre uscite.

👉 https://guerredirete.substack.com/p/guerre-di-rete-lavoro-e-automazione
I dati sui segreti generati dall'intelligenza artificiale: una realtà preoccupante

L'analisi di GitGuardian su circa 20.000 repository con utilizzo attivo di Copilot ha rivelato uno schema preoccupante: oltre 1.200 repository hanno rivelato almeno un segreto, pari al 6,4% del campione. Questa percentuale è superiore del 40% rispetto alla media di tutti i repository pubblici, che si attesta al 4,6%

Quando gli sviluppatori integrano gli assistenti AI nei loro flussi di lavoro, spesso:

Genera chiavi API direttamente nelle bozze del codice
Crea credenziali temporanee che non vengono mai ruotate
Distribuire identità macchina con autorizzazioni eccessive
Perdere traccia di quali sistemi di intelligenza artificiale hanno accesso a quali risorse

https://thehackernews.com/expert-insights/2025/04/the-new-frontier-of-security-risk-ai.html
👍1
L'intelligenza artificiale e il futuro delle forze dell'ordine: i rischi di un'applicazione perfetta di leggi imperfette

- Come armonizzare le complessità della regolamentazione globale dell'IA
- Shadow AI: il rischio nascosto del caos operativo
- Ho letto la legge sull'intelligenza artificiale dell'UE così non devi farlo tu: ecco 5 cose che devi sapere

Dai piccoli casi di evasione fiscale e violazioni delle normative ai reati più gravi, i nostri sistemi legali e di controllo delle leggi hanno sempre funzionato partendo dal presupposto che non tutte le infrazioni verranno scoperte e tanto meno punite.


https://www.techradar.com/pro/ai-and-the-future-of-law-enforcement-the-risks-of-perfectly-enforcing-imperfect-laws
Elon Musk finally meets the press and compares himself to Buddha –
May 2, 2025

ecco, malelingue!

elmo non ha un delirio di onnipotenza!

non si crede l’onnipotente.

al massimo assomiglia al Buddha.

Source: CNN Business
“Is Buddha needed for Buddhism?” he said, according to The Washington Post, when asked about who will lead DOGE in his absence. Musk has indicated he intends to step back


📢 @ilquinta
🤣1
TikTok è stata multata di 530 milioni di euro per aver violato le norme europee sulla privacy

L'azienda avrebbe inviato i dati degli utenti in Cina. La multa è stata stabilita dall’agenzia irlandese per la tutela dei dati, che si occupa di supervisionare il rispetto del GDPR, il vasto regolamento dell’Unione Europea sui dati digitali, da parte dell’azienda cinese, la cui sede europea si trova in Irlanda. L’agenzia ha anche ordinato a TikTok di sospendere l’invio di dati in Cina entro sei mesi.

https://www.ilpost.it/2025/05/02/tiktok-multa-irlanda-dati-cina/
Strategia di sicurezza "ProtectEU": un ulteriore passo verso un futuro distopico digitale

La Commissione europea ha presentato una strategia per la sicurezza interna che minerebbe i diritti digitali e persino aumenterebbe le minacce alla sicurezza. Analizziamo il significato di "ProtectEU" per la futura politica digitale dell'UE, inclusi crittografia, conservazione dei dati e sorveglianza delle frontiere.

https://edri.org/our-work/protecteu-security-strategy-a-step-further-towards-a-digital-dystopian-future/

Grazie a Maria Chiara Pievatolo per la segnalazione
IA, come le Big Tech indeboliscono il codice di buone pratiche europeo. L’inchiesta

Un’inchiesta di CEO e LobbyControl mette a nudo il ruolo crescente delle grandi aziende tecnologiche americane nella definizione del documento europeo sull’AI, riducendo drasticamente le garanzie per i diritti fondamentali, la privacy e la proprietà intellettuale.

Mentre l’Unione europea ha adottato ieri il nuovo Codice di Buone Pratiche per l’Intelligenza Artificiale di uso generale (GPAI, acronimo inglese per “Code of Practice on General Purpose AI”), un’inchiesta congiunta di Corporate Europe Observatory (CEO) e LobbyControl getta un’ombra inquietante sul processo di stesura: il ruolo dominante delle grandi aziende tecnologiche statunitensi.

https://www.key4biz.it/ai-come-le-big-tech-indeboliscono-il-codice-di-buone-pratiche-europeo-linchiesta/530192/
😡1
Tech e Privacy, la newsletter di Claudia Giulia Ferraùto

Le sfide tecnologiche si stanno intensificando e sollevano domande critiche che riguardano il nostro futuro. Questa settimana analizziamo temi che intrecciano tecnologia, geopolitica e società: l’ascesa della Cina come potenza STEM, la crisi di Tesla tra concorrenza e Trade War, le implicazioni del DOGE sulla privacy americana e il ruolo di NVIDIA in un mercato tecnologico sempre più competitivo.

https://claudiagiulia.substack.com/p/newsletter-tech-e-privacy-settimana
#NINAsec is out: la newsletter di oggi presenta un'analisi del leak di 42mila domini di #phishing messi a disposizione da FBI, con del codice che potrebbe servire per le vostre organizzazioni.

🚨 LabHost e JokerOTP: phishing industrializzato e OTP bypass
🛑 Go e Python sotto attacco: supply chain compromessa
👁️‍🗨️ Malware avanzati: GhostWeaver, Hannibal, Gremlin, TerraStealer
🔐 Attacco alla sicurezza su WordPress: malware camuffato da plugin
📡 AirBorne: vulnerabilità zero-click su Apple AirPlay
🧠 APT & Initial Access Brokers (IAB)
🎣 Phishing socialmente rilevante

https://ninasec.substack.com/p/security-weekly-28-2525
Forwarded from 📢 Etica Digitale
🇮🇳 Portatili Frankenstein: come in India si sta ridando vita ai vecchi dispositivi

Piccole officine in India hanno dato vita ai "portatili Frankenstein", portatili composti dalle parti riciclate di vecchi dispositivi. Il costo di un frankenstein si aggira attorno ai €100, 8 volte in meno rispetto al prezzo medio di un portatile nuovo: in India tale divario può far la differenza nel poter continuare a permettersi un corso di studi, senza contare che il riuso delle parti di dispositivi contribuisce a diminuire i rifiuti elettronici.

Le aziende che producono tali dispositivi, tuttavia, tentano in ogni modo di rendere i loro prodotti irriparabili, così da forzare l'acquisto dell'ultimo arrivato e complicare la vita a chi tenta di ripararli. L'uso di viti personalizzate e lo scarso accesso ai pezzi di ricambio sono alcune dellle strategie impiegate (abbiamo parlato del diritto alla riparazione qui).

Inoltre, per ottenere parti riciclate bisogna rovistare tra i rifiuti ed entrare in contatto con elementi come piombo, mercurio e cadmio, tossici per la salute. Se venissero impiegate protezioni adeguate questo non sarebbe un problema, ma in un Paese dove a rovistare sono anche minorenni, le protezioni non sono all'ordine del giorno. "Tossisco molto", ammette un diciottenne. "Ma che ci posso fare? Questo lavoro dà da mangiare alla mia famiglia".

https://www.theverge.com/tech/639126/india-frankenstein-laptops

#Notizia #Lavoro #Ecologia
@EticaDigitale
👍6🔥31🦄1
Forwarded from Ossessioni e contaminazioni (Francesco Mazzetta)
C’è un algoritmo che decide cosa può essere detto e cosa no. Non una persona, non un giornalista, non un moderatore preparato, ma una macchina senza volto, senza contesto, senza discernimento. È così che Meta ha riscritto le regole del dibattito pubblico: togliendo di mezzo la responsabilità umana e affidando il controllo delle informazioni a un’intelligenza artificiale incapace di distinguere tra verità e menzogna, tra notizia e pericolo, tra libertà e “contenuto non conforme”.

Il risultato è gravissimo: un potere privato, sottratto a ogni forma di controllo democratico, che censura, oscura, riduce al silenzio. E lo fa nel modo più pericoloso: senza dirlo, senza spiegarlo, senza assumersene la responsabilità.

Nel nome della “sicurezza informatica”, Facebook ha rimosso diversi post di Collettiva che raccontavano la realtà: una frase del Papa sulla pace, la cronaca di tre morti sul lavoro in Sicilia, l’annuncio di uno sciopero dei metalmeccanici. Nessuna violazione. Nessun contenuto d’odio. Solo informazione. Ma per l’algoritmo, evidentemente, raccontare il mondo com’è rappresenta un problema.

E allora interviene: cancella, nasconde, penalizza. In automatico. In silenzio. In assenza totale di trasparenza. La giustificazione, ogni volta, è la stessa: “errore tecnico”. Ma non è un errore. È il sintomo di un sistema costruito per disinnescare il conflitto, sterilizzare il dibattito, rendere il mondo uniforme, addomesticato, privo di domande scomode.

Il danno è profondo. Il prezzo lo paga la libertà di informazione. Lo paga la democrazia. Perché se un algoritmo può decidere quali voci possono circolare e quali no, se può oscurare contenuti senza dare conto a nessuno, allora non siamo più in uno spazio pubblico. Siamo in un recinto privato, dove la parola è concessa a condizione che non disturbi.

Collettiva è stata colpita duramente. Post cancellati, anche a distanza di mesi, contenuti oscurati, visibilità azzerata. Nessun preavviso, nessuna spiegazione. Solo una constatazione inquietante: se racconti il lavoro, se dai voce alle lotte sociali, se parli di diritti, l’algoritmo ti punisce.

E così la realtà viene espulsa dal dibattito. Il dissenso viene declassato a disturbo. L’informazione indipendente viene silenziata non con la forza, ma con un clic. Non da uno Stato autoritario, ma da una multinazionale senza volto.

Questa è la nuova frontiera della censura. Subdola, asettica, sistematica. E chi oggi non se ne accorge o minimizza, domani rischia di trovarsi nella stessa rete, privato del diritto di parola, della possibilità di informare, del potere di esistere nel discorso pubblico.
https://www.collettiva.it/copertine/diritti/e-lalgoritmo-bruttezza-sa744qj6
👍7
“Pay or ok”, il Garante avvia una consultazione pubblica

Il #GarantePrivacy ha avviato una consultazione pubblica volta a valutare la liceità del consenso per trattamenti di profilazione raccolto da diversi titolari, ed innanzitutto dagli editori di giornali, attraverso l’adozione del cosiddetto modello “pay or ok” (anche denominato “pay or consent” o “consent paywall” etc.).

https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10127405
👍1