Commenti

L’IA generativa è sotto crescente controllo

OpenAI ha presentato la nuova chat GPT-4 il 17 marzo 2023.  Il rilascio di ChatGPT 4 (un algoritmo di deep learning in grado di generare risposte conversazionali a livello umano), ha creato un’ondata di interesse per l’IA generativa, cioè la possibilità  di creare contenuti originali in risposta a domande o richieste degli utenti.

Ma anche un’ondata di discussioni e opinioni varie sulle potenziali conseguenze e rischi della creazione di un’intelligenza artificiale auto-migliorante che potrebbe superare l’intelligenza umana.

Nel marzo u.s. il Future of Life Institute ha suscitato scalpore nella comunità dell’intelligenza artificiale (AI) rilasciando una lettera aperta che chiedeva un’interruzione di sei mesi nello sviluppo di modelli di intelligenza artificiale generativa per consentire uno studio più approfondito dei rischi.

In una lettera, firmata da 50 scienziati GenAI, si delineavano i rischi della creazione di IA superintelligenti, che potrebbero potenzialmente rappresentare una minaccia esistenziale per l’umanità. La lettera ha sollevato preoccupazioni sulla possibilità che i sistemi di intelligenza artificiale vengano utilizzati per scopi dannosi, tra cui guerra informatica, manipolazione finanziaria e ingegneria sociale.

In aprile 2023, OpenAi ha sospeso l’accesso al servizio ChatGpt in Italia, dopo lo stop del Garante della privacy per raccolta illecita dei dati degli utenti (successivamente  reso ancora disponibile dopo aver raggiunto un’intesa con il Garante per la Privacy sui punti più critici).

Lo creatore stesso  di ChatGPT OpenAI, in un articolo apparso nel maggio u.s. sul “The Telegraph”,  ha avvertito che l’intelligenza artificiale sovrumana (AI) che rappresenta un “rischio esistenziale” per l’umanità potrebbe diventare realtà in soli dieci anni

Recentemente, in un articolo apparso sul NewYork Times, viene riportato che un gruppo di leader del settore (OpenAI, Google DeepMind, Anthropic  ed altri A.I. labs, ha segnalato che la tecnologia di intelligenza artificiale che stavano costruendo potrebbe un giorno rappresentare una minaccia esistenziale per l’umanità e dovrebbe essere considerata un rischio sociale alla pari delle pandemie e delle guerre nucleari.

Tutte queste discussioni alla fine sottolineano che l’attenzione dovrebbe essere posta sulla costruzione di sistemi di intelligenza artificiale trasparenti, responsabili ed etici che siano affidabili e anche l’importanza di quadri normativi che garantiscano lo sviluppo sicuro ed etico dell’IA. Nel complesso, la discussione ha fornito preziose informazioni sul futuro dello sviluppo dell’IA e sulla necessità di creare un modello di riferimento per lo sviluppo dell’IA e la necessità di costruire un’IA responsabile.

Un argomento interessante da tenere sotto controllo.

 

 

Lascia un commento