La decisione del Garante della privacy italiano di limitare ChatGPT, il più noto tra i software di intelligenza artificiale relazionale, in grado di simulare ed elaborare le conversazioni umane, ha alimento ulteriormente anche in Italia il dibattito sulle possibili conseguenze dello sviluppo di uno strumento affascinate ma al tempo stesso guardato con diffidenza, per la possibilità che possa sostituire molte delle attività umane.
Lo stop da parte del Garante non è avvenuto però per motivi filosofici o per un rischio immediato legato alla natura dello strumento, ma per “raccolta illecita di dati personali” e “assenza di sistemi per la verifica dell’età dei minori”.
Il caso è legato a una perdita di dati riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati, che ha spinto il Garante a disporre una limitazione provvisoria al trattamento dei dati, fino a quando ChatGPT non rispetterà la disciplina italiana sulla privacy, inserendo ad esempio un’informativa agli utenti e un filtro per la verifica dell’età degli utenti. Viene contestata anche “l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali”, allo scopo impostare gli algoritmi della piattaforma.
OpenAI, dovrà sanare la situazione entro il 19 di aprile rischia una sanzione fino a 20 milioni di euro, o fino al quattro per cento del fatturato globale annuo.
La perplessità sui sistemi d’intelligenza artificiale, e in particolare su ChatGPT, è però ben più vasta, e riguarda le possibili implicazioni dell’intelligenza artificiale, una critica che giunge anche da settori del mondo dell’innovazione e della tecnologia, e che va dalla richiesta di regole certe per lo sviluppo, fino alla richiesta di bloccare tutto per evitare che la cosa sfugga al controllo, venga usata per scopi militari, o che crei milioni di disoccupati.
È la posizione di oltre mille fra ricercatori e manager, fra i quali anche lo stesso Elon Musk, che in una lettera riportata dal Financial Times hanno chiesto una “pausa” di sei mesi nello sviluppo dei sistemi di intelligenza artificiale per fermare quella che definiscono una “corsa fuori controllo dei laboratori per l’intelligenza artificiale a sviluppare e dispiegare potenti menti digitali che nessuno, neanche i creatori, possono capire, prevedere e controllare” e che possono comportare “gravi rischi per la società e l’umanità”.
Alessandro Martegani