Intelligenza artificiale: Accordo tra Apple e OpenAI per integrare ChatGPT su Siri
26 Giugno 2024
Accordo tra Apple e OpenAI ma potenziali rischi e impatto sulla Sicurezza dell’iPhone
L’integrazione di ChatGPT su Siri e le sue implicazioni per la sicurezza dell’iPhone. Dubbi sulla protezione dei dati e le misure adottate da Apple per limitare i rischi.
Newsfood.com/Nutrimente, Milano, 26 giugno 2024
L’accordo tra Apple e OpenAI per integrare ChatGPT su Siri potrebbe avere implicazioni significative sulla sicurezza dell’iPhone. Secondo Kevin Reed, CISO di Acronis, leader globale nella cyber protection, le preoccupazioni principali riguardano le potenziali fughe di dati verso OpenAI, nonostante Apple abbia annunciato misure per proteggere la privacy degli utenti.

Il documento di Apple sul cloud computing privato (PCC) sottolinea un impegno per garantire la privacy dei dati, ma manca di trasparenza riguardo al modello di minaccia adottato. Questo solleva dubbi sulla capacità di Apple di affrontare tutte le potenziali minacce, come evidenziato dalla critica mancanza di chiarezza riguardo all’attestazione remota dell’integrità dei nodi PCC.
Apple ha implementato strategie come l’uso di server proxy per nascondere l’IP degli utenti e l’approccio “N su M” per la distribuzione dei servizi PCC, ma la possibilità di monitorare il traffico attraverso un osservatore di rete rimane un potenziale punto debole.
Il tentativo di Apple di garantire la verificabilità pubblica del software PCC è lodabile, ma resta da vedere come sarà implementato nella pratica e se sarà sufficiente a prevenire violazioni della privacy degli utenti. Inoltre, l’architettura basata su nodi PCC potrebbe aprire nuove vulnerabilità di sicurezza, aumentando il rischio di attacchi informatici.
Il pericolo è che, sebbene Apple abbia adottato misure avanzate per proteggere la sicurezza dei dati, queste potrebbero essere soggette a tentativi di sfruttamento da parte di cybercriminali. È essenziale un monitoraggio costante e un miglioramento continuo delle misure di sicurezza per affrontare le sfide emergenti nel panorama della sicurezza informatica.
Per ulteriori informazioni sull’accordo tra Apple e OpenAI, si consiglia di vedere aggiornamenti sul sito ufficiale di Apple – sicurezza dell’iPhone- per scoprire le ultime notizie sulla protezione dei dati.
A seguire il Comunicato Stampa ufficiale di Acronis:
Accordo ChatGPT di Apple: cosa comporta per la sicurezza dell’iPhone?
Milano, 26 giugno 2024 –
“Non credo che l’accordo avrà un impatto sulla sicurezza dell’iPhone. Da quello che sembra, alcune delle richieste di Siri saranno inviate a OpenAI e i risultati saranno forniti agli utenti. C’è il rischio però di fughe involontarie di dati verso OpenAI perché potrebbe non essere chiaro agli utenti se le loro richieste vengono elaborate da Apple o meno.
Ma è troppo presto per dirlo, perché il prodotto non è ancora stato rilasciato e non è chiaro quali saranno le protezioni della privacy e quanto saranno efficaci”, dichiara Kevin Reed, CISO (Chief Information Security Officer) di Acronis, leader globale nella cyber protection.L’aspetto più preoccupante è il cloud computing privato di Apple .
Come spiega il documento di Apple sul cloud computing privato (PCC), l’azienda si è impegnata a fondo per garantire la privacy dei dati nell’ambito di un determinato modello di minaccia. Purtroppo, Apple non dichiara esplicitamente quale sia il suo modello di minaccia, ma si limita a citarne alcuni parametri (ad esempio, l’accesso fisico ai server in esecuzione è una minaccia affrontata). Ciò impedisce ai ricercatori di valutare se Apple affronta o meno determinate minacce come parte del modello.Ad esempio, Apple afferma che gli iPhone criptano la richiesta LLM e i parametri di inferenza utilizzando la chiave pubblica di un nodo di elaborazione specifico e che non vi è alcun bilanciatore di carico intermedio che decifri la richiesta prima di passarla al nodo medesimo. Tuttavia, non è chiaro se un cliente possa eseguire un’attestazione remota dell’integrità del nodo e se tale attestazione possa essere verificabile. Per risolvere il problema dell’accessibilità dei dati, Apple utilizza un approccio di scoperta dei servizi “N su M” per i nodi PPC, con una distribuzione casuale verificabile delle scelte offerte. Inoltre, nasconde l’IP dell’utente ai nodi PCC utilizzando una forma di server proxy che preserva la privacy.
Si tratta di un approccio eccellente; tuttavia la conclusione che l’aggressore non sarebbe in grado di abbinare l’utente alla richiesta non sembra tenere conto dell’esistenza di un osservatore di rete in grado di monitorare il traffico prima e dopo il server proxy. Anche in questo caso, indicando chiaramente quali minacce fanno parte del relativo modello, Apple potrebbe rendere più trasparente e più facile per i ricercatori indipendenti comprendere i rischi connessi.
Apple cerca di affrontare il rischio di spedire una versione modificata del software PCC, che violerebbe la privacy dell’utente, consentendo che sia verificabile pubblicamente la creazione del software. Si tratta sicuramente di una mossa sorprendente, ma a questo punto non sono chiari i dettagli su come verrà implementata e se le garanzie fornite saranno sufficienti. Potrebbe essere problematico anche dal punto di vista della sicurezza e, dato che i nodi PCC sono essenzialmente macchine per l’esecuzione di codice da remoto, ciò potrebbe aprire nuove vie di sfruttamento.
Inoltre, considerata l’architettura a tutela della privacy che Apple sostiene di aver costruito, sarà difficile per loro bloccare i tentativi di attacco. Nel complesso, Apple si è sicuramente impegnata molto e le sue protezioni sembrano essere all’avanguardia, Tuttavia queste protezioni saranno anche un obiettivo primario per molti cybercriminali.
Newsfood.com
Nutrimento & nutriMENTE
Accordo ChatGPT – Apple, Impatto sulla Sicurezza iPhone, Cloud Computing Privato Apple, Accordo Apple OpenAI, Intelligenza Artificiale





