Apple ha aggiornato le linee guida dell’App Store per richiedere agli sviluppatori di rivelare esplicitamente qualsiasi condivisione di dati personali con terze parti, compresi quelli che li utilizzano per addestrare modelli di intelligenza artificiale (AI). Il cambiamento, annunciato la scorsa settimana, segna la prima guida formale dell’azienda sull’utilizzo dei dati AI all’interno del suo ecosistema.
Trasparenza obbligatoria e consenso dell’utente
Le linee guida aggiornate ora impongono che le app ottengano l’autorizzazione esplicita dell’utente prima di condividere dati personali con sistemi di intelligenza artificiale di terze parti. Gli sviluppatori devono indicare chiaramente nelle loro politiche sulla privacy esattamente come verranno utilizzati i dati degli utenti, anche per scopi di formazione sull’intelligenza artificiale. Apple si riserva il diritto di rifiutare qualsiasi app che non rispetti questi nuovi requisiti.
Approccio cauto di Apple all’intelligenza artificiale
Questa mossa riflette l’approccio storicamente cauto di Apple nei confronti dello sviluppo dell’intelligenza artificiale. Sotto la guida del CEO Tim Cook, l’azienda è stata lenta nell’integrare le funzionalità di intelligenza artificiale nei suoi prodotti, spesso preferendo il termine “apprendimento automatico” a “intelligenza artificiale”. Questo posizionamento deliberato suggerisce una riluttanza ad abbracciare pienamente la rapida espansione dell’intelligenza artificiale osservata in altre aziende tecnologiche.
Pressioni legali e preoccupazioni relative alla sottrazione di dati
L’aggiornamento arriva in un contesto di crescente controllo legale sul modo in cui le aziende di intelligenza artificiale ottengono i dati per addestrare i loro modelli. La Silicon Valley si trova ad affrontare sfide crescenti sulla legalità dell’utilizzo dei dati disponibili al pubblico, compreso il materiale protetto da copyright, senza un consenso esplicito. La stessa Apple sta attualmente affrontando azioni legali secondo cui ha utilizzato in modo improprio dati provenienti da “librerie ombra” (contenuti piratati) per addestrare i suoi sistemi di intelligenza artificiale.
Battaglie legali a livello di settore
Il panorama legale sta diventando sempre più ostile per le aziende di intelligenza artificiale che fanno affidamento su dati recuperati. Anthropic, un altro gigante dell’intelligenza artificiale, a settembre ha risolto una causa collettiva da 1,5 miliardi di dollari per pratiche simili di data scraping. Anche Ziff Davis, la società madre di Mashable, ha intentato una causa contro OpenAI ad aprile, sostenendo la violazione del copyright nei suoi processi di formazione sull’intelligenza artificiale.
Posizione di Apple nel dibattito più ampio
Restringendo le regole dell’App Store, Apple si posiziona come protettrice della privacy degli utenti nell’era dell’intelligenza artificiale. Mentre secondo quanto riferito la società sta integrando Google Gemini per alimentare Siri, le sue nuove linee guida segnalano un impegno per la trasparenza e il consenso degli utenti. L’aggiornamento sottolinea la crescente tensione tra l’innovazione dell’intelligenza artificiale e la privacy dei dati, costringendo gli sviluppatori a navigare in un ambiente più regolamentato.
Guardando avanti
È probabile che la mossa stabilisca un nuovo standard per gli sviluppatori di app, costringendoli a dare priorità al consenso degli utenti e alla trasparenza dei dati. Solleva inoltre interrogativi sul futuro della formazione sull’intelligenza artificiale, poiché le aziende devono affrontare crescenti pressioni legali ed etiche per ottenere dati in modo responsabile. La posizione di Apple potrebbe influenzare altri giganti della tecnologia ad adottare misure simili, rimodellando potenzialmente il panorama dell’intelligenza artificiale negli anni a venire



















































