Informa Pirata: informazione e notizie – Telegram
Strategia di sicurezza "ProtectEU": un ulteriore passo verso un futuro distopico digitale

La Commissione europea ha presentato una strategia per la sicurezza interna che minerebbe i diritti digitali e persino aumenterebbe le minacce alla sicurezza. Analizziamo il significato di "ProtectEU" per la futura politica digitale dell'UE, inclusi crittografia, conservazione dei dati e sorveglianza delle frontiere.

https://edri.org/our-work/protecteu-security-strategy-a-step-further-towards-a-digital-dystopian-future/

Grazie a Maria Chiara Pievatolo per la segnalazione
IA, come le Big Tech indeboliscono il codice di buone pratiche europeo. L’inchiesta

Un’inchiesta di CEO e LobbyControl mette a nudo il ruolo crescente delle grandi aziende tecnologiche americane nella definizione del documento europeo sull’AI, riducendo drasticamente le garanzie per i diritti fondamentali, la privacy e la proprietà intellettuale.

Mentre l’Unione europea ha adottato ieri il nuovo Codice di Buone Pratiche per l’Intelligenza Artificiale di uso generale (GPAI, acronimo inglese per “Code of Practice on General Purpose AI”), un’inchiesta congiunta di Corporate Europe Observatory (CEO) e LobbyControl getta un’ombra inquietante sul processo di stesura: il ruolo dominante delle grandi aziende tecnologiche statunitensi.

https://www.key4biz.it/ai-come-le-big-tech-indeboliscono-il-codice-di-buone-pratiche-europeo-linchiesta/530192/
😡1
Tech e Privacy, la newsletter di Claudia Giulia Ferraùto

Le sfide tecnologiche si stanno intensificando e sollevano domande critiche che riguardano il nostro futuro. Questa settimana analizziamo temi che intrecciano tecnologia, geopolitica e società: l’ascesa della Cina come potenza STEM, la crisi di Tesla tra concorrenza e Trade War, le implicazioni del DOGE sulla privacy americana e il ruolo di NVIDIA in un mercato tecnologico sempre più competitivo.

https://claudiagiulia.substack.com/p/newsletter-tech-e-privacy-settimana
#NINAsec is out: la newsletter di oggi presenta un'analisi del leak di 42mila domini di #phishing messi a disposizione da FBI, con del codice che potrebbe servire per le vostre organizzazioni.

🚨 LabHost e JokerOTP: phishing industrializzato e OTP bypass
🛑 Go e Python sotto attacco: supply chain compromessa
👁️‍🗨️ Malware avanzati: GhostWeaver, Hannibal, Gremlin, TerraStealer
🔐 Attacco alla sicurezza su WordPress: malware camuffato da plugin
📡 AirBorne: vulnerabilità zero-click su Apple AirPlay
🧠 APT & Initial Access Brokers (IAB)
🎣 Phishing socialmente rilevante

https://ninasec.substack.com/p/security-weekly-28-2525
Forwarded from 📢 Etica Digitale
🇮🇳 Portatili Frankenstein: come in India si sta ridando vita ai vecchi dispositivi

Piccole officine in India hanno dato vita ai "portatili Frankenstein", portatili composti dalle parti riciclate di vecchi dispositivi. Il costo di un frankenstein si aggira attorno ai €100, 8 volte in meno rispetto al prezzo medio di un portatile nuovo: in India tale divario può far la differenza nel poter continuare a permettersi un corso di studi, senza contare che il riuso delle parti di dispositivi contribuisce a diminuire i rifiuti elettronici.

Le aziende che producono tali dispositivi, tuttavia, tentano in ogni modo di rendere i loro prodotti irriparabili, così da forzare l'acquisto dell'ultimo arrivato e complicare la vita a chi tenta di ripararli. L'uso di viti personalizzate e lo scarso accesso ai pezzi di ricambio sono alcune dellle strategie impiegate (abbiamo parlato del diritto alla riparazione qui).

Inoltre, per ottenere parti riciclate bisogna rovistare tra i rifiuti ed entrare in contatto con elementi come piombo, mercurio e cadmio, tossici per la salute. Se venissero impiegate protezioni adeguate questo non sarebbe un problema, ma in un Paese dove a rovistare sono anche minorenni, le protezioni non sono all'ordine del giorno. "Tossisco molto", ammette un diciottenne. "Ma che ci posso fare? Questo lavoro dà da mangiare alla mia famiglia".

https://www.theverge.com/tech/639126/india-frankenstein-laptops

#Notizia #Lavoro #Ecologia
@EticaDigitale
👍6🔥31🦄1
Forwarded from Ossessioni e contaminazioni (Francesco Mazzetta)
C’è un algoritmo che decide cosa può essere detto e cosa no. Non una persona, non un giornalista, non un moderatore preparato, ma una macchina senza volto, senza contesto, senza discernimento. È così che Meta ha riscritto le regole del dibattito pubblico: togliendo di mezzo la responsabilità umana e affidando il controllo delle informazioni a un’intelligenza artificiale incapace di distinguere tra verità e menzogna, tra notizia e pericolo, tra libertà e “contenuto non conforme”.

Il risultato è gravissimo: un potere privato, sottratto a ogni forma di controllo democratico, che censura, oscura, riduce al silenzio. E lo fa nel modo più pericoloso: senza dirlo, senza spiegarlo, senza assumersene la responsabilità.

Nel nome della “sicurezza informatica”, Facebook ha rimosso diversi post di Collettiva che raccontavano la realtà: una frase del Papa sulla pace, la cronaca di tre morti sul lavoro in Sicilia, l’annuncio di uno sciopero dei metalmeccanici. Nessuna violazione. Nessun contenuto d’odio. Solo informazione. Ma per l’algoritmo, evidentemente, raccontare il mondo com’è rappresenta un problema.

E allora interviene: cancella, nasconde, penalizza. In automatico. In silenzio. In assenza totale di trasparenza. La giustificazione, ogni volta, è la stessa: “errore tecnico”. Ma non è un errore. È il sintomo di un sistema costruito per disinnescare il conflitto, sterilizzare il dibattito, rendere il mondo uniforme, addomesticato, privo di domande scomode.

Il danno è profondo. Il prezzo lo paga la libertà di informazione. Lo paga la democrazia. Perché se un algoritmo può decidere quali voci possono circolare e quali no, se può oscurare contenuti senza dare conto a nessuno, allora non siamo più in uno spazio pubblico. Siamo in un recinto privato, dove la parola è concessa a condizione che non disturbi.

Collettiva è stata colpita duramente. Post cancellati, anche a distanza di mesi, contenuti oscurati, visibilità azzerata. Nessun preavviso, nessuna spiegazione. Solo una constatazione inquietante: se racconti il lavoro, se dai voce alle lotte sociali, se parli di diritti, l’algoritmo ti punisce.

E così la realtà viene espulsa dal dibattito. Il dissenso viene declassato a disturbo. L’informazione indipendente viene silenziata non con la forza, ma con un clic. Non da uno Stato autoritario, ma da una multinazionale senza volto.

Questa è la nuova frontiera della censura. Subdola, asettica, sistematica. E chi oggi non se ne accorge o minimizza, domani rischia di trovarsi nella stessa rete, privato del diritto di parola, della possibilità di informare, del potere di esistere nel discorso pubblico.
https://www.collettiva.it/copertine/diritti/e-lalgoritmo-bruttezza-sa744qj6
👍7
“Pay or ok”, il Garante avvia una consultazione pubblica

Il #GarantePrivacy ha avviato una consultazione pubblica volta a valutare la liceità del consenso per trattamenti di profilazione raccolto da diversi titolari, ed innanzitutto dagli editori di giornali, attraverso l’adozione del cosiddetto modello “pay or ok” (anche denominato “pay or consent” o “consent paywall” etc.).

https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10127405
👍1
Forwarded from Feddit
Privacy e selezione del personale: qualche consiglio per recruiter (e uno per i candidati)
https://feddit.it/post/17254644

Il nuovo post di macfranc è su feddit.it/c/privacypride

Privacy e selezione del personale: qualche consiglio per recruiter (e uno per i candidati)

ℹ️ il processo di selezione è un’attività di trattamento di dati personali, quindi i candidati vanno informati correttamente a riguardo

👉 oltre al CV, sono oggetto di trattamento anche le note di colloquio e eventuali informazioni raccolte

☝️ nella sezione “lavora con noi” e nell’annuncio, l’informativa deve sempre essere inserita

🚫 è vietato raccogliere informazioni su “fatti non rilevanti ai fini della valutazione dell’attitudine professionale del lavoratore” (*)

🔜 nel caso della ricezione di candidature spontanee, l’informativa può essere differita al primo contatto utile successivo

👎 non serve chiedere il consenso, anche perché è invalido in quanto non libero (dato che condiziona la partecipazione al processo di selezione)

👍 la base giuridica corretta è l’applicazione di misure precontrattuali su [...]
👍1
A Rovereto un incontro su come cambiare sistema operativo sia meglio che cambiare PC: "Non cambiare PC, passa a Linux invece"

Serata a tema che si terrà martedì 13 maggio 2025, dalle ore 18.00 alle ore 19.30, presso lo Sportello Linux di Rovereto

https://www.linuxtrent.it/non-cambiare-pc-passa-a-linux-invece/

Grazie a Marco per la segnalazione
5
Il giudice ha affermato che Meta ha utilizzato illegalmente i libri per costruire la sua intelligenza artificiale

Meta è nei guai legali con autori come Sarah Silverman e Ta-Nehisi Coates per una disputa sul copyright.
Gli strumenti AI di Meta, avrebbero usato illegalmente opere prese da "shadow libraries" come LibGen per sviluppare AI generativa. Meta non nega l’uso delle opere, ma si difende invocando il "fair use". Ma ci si chiede: danneggia le vendite dei libri? Ecco che, infatti, il giudice Vince Chhabria ha torchiato gli avvocati, puntando sull’impatto economico per gli autori.

Il caso Kadrey v. Meta potrebbe fare scuola per future battaglie legali su copyright e AI generativa.



https://www.wired.com/story/meta-lawsuit-copyright-hearing-artificial-intelligence/
I suggerimenti dell'intelligenza artificiale rendono la scrittura più generica e occidentale

Gli assistenti di scrittura AI spopolano, ma uno studio della Cornell rivela che producono testi generici, svantaggiando gli utenti del Sud globale. Ad esempio, questi strumenti hanno reso lo stile di scrittura di indiani e americani più simile, a scapito dell’originalità indiana. Gli indiani, poi, ci guadagnano meno in produttività rispetto agli americani, perché devono correggere spesso i suggerimenti dell’AI, che stereotipa la cultura indiana, tralascia dettagli culturali, insomma il risultato sugli utenti è che descrivono le loro stesse tradizioni con un filtro occidentale.
Questo trend, ribattezzato “AI colonialism”, nasce perché le aziende tech trascurano aspetti linguistici e culturali.

https://news.cornell.edu/stories/2025/04/ai-suggestions-make-writing-more-generic-western
"Assurdità pericolose": libri sull'ADHD scritti da intelligenza artificiale in vendita su Amazon

Amazon è sotto accusa per la vendita di libri sull’ADHD, apparentemente scritti da chatbot, che offrono consigli fuorvianti o pericolosi.

Analisi hanno dato un punteggio di 100% di rilevamento AI, confermando la loro origine artificiale. È abbastanza vero che l’AI generativa può produrre contenuti dannosi, ad esempio su sostanze tossiche o linee guida sanitarie, e l’assenza di regolamentazioni favorisce la diffusione di disinformazione.

Richard Wordsworth, dopo aver acquistato un libro sull’ADHD, ha denunciato informazioni errate e contenuti pericolosi. Le critiche puntano al modello di business di Amazon, che prioritizza le vendite senza verificare l’affidabilità dei contenuti. Al momento, non esiste una legge che obblighi a etichettare i libri generati da AI.


https://www.theguardian.com/technology/2025/may/04/dangerous-nonsense-ai-authored-books-about-adhd-for-sale-on-amazon
😡4
Un appello alle aziende che si occupano di intelligenza artificiale

Le big tech non capiscono perché l’AI faccia storcere il naso a tanti. Un sondaggio di Jetbrains rivela che le preoccupazioni etiche vengono spesso ignorate.
C'entra poco la singolarità, i robot ribelli, o la questione lavorativa, ma si teme l’impatto sulle industrie creative.
I veri problemi sembrano essere comportamenti antisociali abilitati dall’AI, come disinformazione, pornografia non consensuale, campagne inautentiche e la sostituzione di interi settori senza alternative di reddito.

I cambiamenti negli incentivi spingono comportamenti discutibili, e certi fan dell’AI mostrano un disprezzo preoccupante per l’umanità. Altro tasto dolente: la privacy, specie nelle app di messaggistica criptate.

https://soatok.blog/2025/05/04/tech-companies-apparently-do-not-understand-why-we-dislike-ai/
ProtectEU: strategia europea di sicurezza interna. Comunicazione al Parlamento Europeo, al Consigliò, al Comitato economico e sociale europeo e al comitato delle regioni

La Commissione intende:
·presentare una tabella di marcia che definisca il percorso da seguire per l'accesso legittimo ed effettivo ai dati nelle attività di contrasto nel 2025;
·preparare se del caso una valutazione d'impatto nel 2025 al fine di aggiornare le norme sulla conservazione dei dati a livello dell'UE;
·presentare una tabella di marcia tecnologica sulla cifratura per individuare e valutare soluzioni tecnologiche che consentano alle autorità di contrasto di accedere legalmente ai dati nel 2026;
·lavorare all'istituzione di un gruppo ad alto livello per rafforzare la cooperazione operativa nell'attività di contrasto;
·creare un campus per la ricerca e l'innovazione nel settore della sicurezza presso il Centro comune di ricerca nel 2026.


https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52025PC0148
“Ma tanto basta la VPN.”
Se lo pensi, non hai capito nulla.

La Francia introdurrà l’autenticazione obbligatoria per accedere ai siti p*rnografici.
L’Italia seguirà a breve, con AGCOM pronta ad agire.

🗣 E molti rispondono con estrema leggerezza: “Userò una VPN o Tor.”

Ma questo approccio, tecnicamente semplicistico, ignora completamente la vera pericolosità della misura: la normalizzazione di meccanismi coercitivi di controllo, che partono dai siti pornografici per poi essere estesi nel tempo a tutti quei servizi come VPN, DNS e Tor.

Questo porta, passo dopo passo, alla cancellazione degli strumenti che tutelano l’anonimato e la libertà digitale, mentre si costruiscono enormi database governativi con dati personali estremamente sensibili: preferenze sessuali, opinioni politiche, convinzioni religiose.

Non si tratta dunque solo di trovare una soluzione tecnica al blocco del p*rno, ma di difendere il principio stesso di una rete libera come diritto digitale fondamentale.

👉 Guarda il video https://link.mgpf.it/YBCj
👍82
Elon Musk’s Grok AI Will ‘Remove Her Clothes’ In Public, On X
May 7, 2025

L’Intrepido, 45 anni dopo

(questa e’ per i piu’ anziani tra noi…)

Source: 404 media
Elon Musk’s Grok, an AI chatbot that people can interact with via X, is being used to undress photos women are posting to the social media platform, as first flagged t0 404 Media by Kolina Koltai,


📢 @ilquinta