I tuoi dati. La tua scelta.

Se accetti solo i cookie necessari, raccogliamo informazioni sul tuo dispositivo e comportamento d'uso sul nostro sito web tramite cookie e tecnologie simili. Questi permettono, ad esempio, un login sicuro e funzioni di base come il carrello.

Se accetti tutti i cookie, ci permetti di utilizzare questi dati per mostrarti offerte personalizzate, migliorare il nostro negozio e visualizzare pubblicità mirata sul nostro e su altri siti web o app. A tal fine, determinati dati possono essere trasmessi anche a terze parti e partner pubblicitari.

Shutterstock/Foto per tutto
Retroscena

Anthropic sfrutta la sua buona reputazione: Claude porta con sé uno spyware?

Debora Pape
22/4/2026
Traduzione: Rebecca Vassella

Anthropic, azienda specializzata nell'intelligenza artificiale nota per i suoi rigorosi principi etici, è oggetto di aspre critiche dopo che un esperto di protezione dei dati ha scoperto un potenziale spyware nell'app desktop Claude.

L'azienda statunitense Anthropic, che ha sviluppato il modello di IA Claude, si impegna a fondo per essere percepita come un'azienda responsabile e con dei principi. Solo quest'anno, Anthropic ha fatto più volte notizia con decisioni e dichiarazioni critiche nei confronti dell'intelligenza artificiale, rafforzando così la reputazione dell'azienda come «quella buona». Ma ora il consulente per la protezione dei dati Alexander Hanff ha fatto una scoperta che getta una luce diversa su Anthropic.

In un post sul blog Hanff racconta di aver scoperto per caso sul suo MacBook un file installato insieme all'app desktop Claude. Il file potrebbe consentire ad Anthropic di accedere a dati sensibili e di acquisire diritti sul suo sistema – e lui non avrebbe né acconsentito all'installazione, né ne era a conoscenza. Hanff definisce tale comportamento come spyware e parla di una possibile backdoor illegale.

Un software ponte consente a Claude di agire senza autorizzazione

Si tratta di un file «Native Messaging Manifest», ovvero un bridge software (o software ponte), che può consentire all'estensione del browser «Claude for Chrome» di avviare il programma di aiuto eseguibile «chrome-native-host» al di fuori del browser. Questo utilizza gli stessi privilegi dell'utente che ha effettuato l'accesso.

Per impostazione predefinita, il ponte è inattivo. Tuttavia, è preconfigurato in modo tale da potersi attivare in qualsiasi momento non appena si verificano i presupposti definiti. A quel punto, grazie al programma eseguito, Claude acquisisce ampie capacità di agente: l'IA può accedere ai siti web a cui l'utente è registrato, estrarre dati dai siti web e salvarli in locale, registrare immagini GIF animate delle interazioni dell'utente nel browser ed eseguire flussi di lavoro su più siti web – senza che l'utente abbia espressamente acconsentito al meccanismo sottostante.

La comunicazione tra il browser e «chrome-native-host» avviene tramite i flussi di dati standard. Non compare nelle normali finestre di dialogo di macOS. Il file installato senza autorizzazione è stato firmato digitalmente da Anthropic e verificato tramite il processo di certificazione di Apple. Ciò significa che ha superato il controllo di sicurezza automatizzato di Apple.

Sono interessati solo i browser basati su Chromium

L'app Claude salva il file nelle directory dell'applicazione di sette browser basati su Chromium: Google Chrome, Microsoft Edge, Vivaldi, Brave, Arc, Chromium e Opera. E non è tutto: questi browser non devono necessariamente essere installati sul sistema. L'app creerà automaticamente le directory necessarie. Se in futuro l'utente dovesse installare uno di questi browser, ci sarà già il software ponte per Claude.

I browser che non sono basati su Chromium non sono interessati, come Firefox e Safari. Hanff ha svolto la sua ricerca utilizzando esclusivamente sistemi Mac. Non specifica se siano interessati anche i computer Windows.

Secondo Hanff, il bridge software viola la normativa sulla protezione dei dati, in particolare la direttiva e-Privacy, e potrebbe costituire un reato penale. Altri esperti di protezione dei dati ne dubitano, ma confermano le scoperte di Hanff. Anthropic non ha ancora rilasciato alcuna dichiarazione al riguardo.

Quali potrebbero essere le ragioni?

Le backdoor e lo spyware sono in netto contrasto con l'immagine di Anthropic. In realtà, l'azienda non ha alcun interesse a mettere a repentaglio la propria reputazione. Il fatto di aver «inserito» il file che funge da ponte è probabilmente dovuto più che altro a negligenza o a una mancanza di comunicazione.

Anthropic potrebbe aver preparato le funzionalità relative agli agenti previste per il futuro, dimenticandosi però di chiedere il consenso degli utenti. È probabile che si ricorra a un «opt-in» in un secondo momento. È possibile che i team di sviluppo e di protezione dei dati di Anthropic non si siano consultati o non a sufficienza. Il problema di questo programma non risiede nelle possibilità che offre, bensì nella mancanza di trasparenza. La procedura corretta sarebbe quella di chiedere prima il consenso dell'utente e poi installare il software.

È anche possibile che il meccanismo fosse inizialmente destinato solo alle versioni di prova interne (build) e che sia stato mantenuto per errore nel rilascio ufficiale. Inoltre, i team di sviluppo statunitensi tendono spesso a sottovalutare i rigorosi standard di protezione dei dati dell'UE, per i quali un'installazione anticipata di questo tipo senza consenso costituisce un vero e proprio problema.

Che tipo di azienda è Anthropic?

Anthropic è stata fondata nel 2021 da ex dipendenti di OpenAI, la società che ha creato ChatGPT. Avevano lasciato OpenAI perché l'azienda stava assumendo una direzione troppo commerciale e gestiva i rischi con troppa leggerezza. Anthropic dovrebbe rappresentare un'alternativa e mettere in primo piano l'IA come strumento utile e innocuo, in grado di migliorare il mondo. Le notizie delle ultime settimane aiutano Anthropic a rafforzare l'immagine di un'azienda responsabile e con dei principi, che non prende le proprie decisioni in base a considerazioni di natura finanziaria come fanno alcuni concorrenti.

  • Novità e trend

    Niente più chat AI senza pubblicità: ChatGPT ora mostra annunci pubblicitari negli USA

    di Debora Pape

A gennaio, il CEO di Anthropic, Dario Amodei, ha messo in guardia sul suo blog dai pericoli dell'IA. A febbraio Anthropic è stata protagonista di una controversia mediatica con il governo statunitense, dopo aver rifiutato una collaborazione esclusiva con le forze armate. Il motivo: l'IA potrebbe essere utilizzata per la sorveglianza di massa e per attacchi militari automatici. Secondo l'argomentazione di Anthropic, l'IA non sarebbe pronta a questo. L'offerta è stata quindi aggiudicata al concorrente OpenAI.

Anche pochi giorni fa Anthropic ha suscitato scalpore, poiché l'azienda non intende rendere pubblica la sua IA di nuova concezione, Claude Mythos: a quanto pare, Mythos è in grado di individuare vulnerabilità pericolose nei sistemi IT con estrema affidabilità. Per gli esperti di sicurezza è una cosa positiva, ma nelle mani sbagliate Mythos è uno strumento pericoloso. Come dimostrano le ultime notizie, Anthropic non è in grado di garantire al 100% chi avrà accesso a Mythos.

Immagine di copertina: Shutterstock/Foto per tutto

A 62 persone piace questo articolo


User Avatar
User Avatar

Si sente a casa sia davanti al PC da gaming che sull'amaca in giardino. È affascinata dall'Impero Romano, dalle navi container e dai libri di fantascienza, tra le altre cose. Fiuta soprattutto le ultime notizie dal settore IT e smart gadget.


Retroscena

Curiosità dal mondo dei prodotti, uno sguardo dietro le quinte dei produttori e ritratti di persone interessanti.

Visualizza tutti

Potrebbero interessarti anche questi articoli

  • Retroscena

    Un nuovo modello IA mette a rischio la sicurezza informatica e allo stesso tempo la rafforza

    di David Lee

  • Retroscena

    Come OpenClaw sta cambiano (e scuotendo) il mondo dell'IA

    di Luca Fontana

  • Retroscena

    Digital Omnibus: l'UE vuole riorganizzare le leggi sul digitale

    di Florian Bodoky

23 commenti

Avatar
later