Elon Musk (fra i fondatori di OpenAI, l’azienda che ha sviluppato la famosa chatGpt) e un gruppo di oltre mille esperti e ricercatori chiedono una moratoria per fermare l’addestramento delle intelligenze artificiali avanzate come ChatGPT. In una lettera aperta pubblicata online si chiede infatti una pausa di almeno sei mesi per sviluppare protocolli di sicurezza condivisi e valutare gli effetti potenzialmente catastrofici di queste tecnologie sulla società e sull’economia. Nei giorni scorsi anche in questo sito abbiamo diffusamente parlando delle novità introdotte in ChatGpt-4 e del nuovo strumento di Microsoft Bing per generare immagini attraverso l’intelligenza artificiale. Abbiamo anche parlato dei potenziali effetti collaterali di questa tecnologia quando abbiamo commentato la fotografia (fake) di Papa Francesco con il piumino. Ora anche gli esperti si interrogano sulle conseguenze dell’IA ed Elon Musk, insieme ad esperti e ricercatori, chiedono una moratoria di sei mesi sull’intelligenza artificiale.
Elon Musk e mille ricercatori lanciano l’allarme: prendiamoci una pausa dall’intelligenza artificiale per valutarne i rischi
Elon Musk, l’imprenditore visionario, patròn di Tesla e SpaceX, insieme a oltre mille esperti e ricercatori provenienti da tutto il mondo, ha firmato una lettera aperta in cui si chiede una moratoria di sei mesi sull’addestramento delle intelligenze artificiali avanzate come ChatGPT. Secondo gli autori dell’appello, queste tecnologie potrebbero portare a sconvolgimenti epocali nell’economia, nella politica e nella società, causando problemi di sicurezza e mettendo a rischio la stessa democrazia.
Potrebbe interessarti anche
Elon Musk e molti esperti e ricercatori chiedono una moratoria sull’intelligenza artificiale di almeno sei mesi
Sono numerosi gli esperti e imprenditori che si sono uniti a Elon Musk per chiedere una moratoria sull’intelligenza artificiale. Tra i firmatari dell’appello troviamo accademici e professionisti di tutto il mondo, tra cui Domenico Talia, docente di Ingegneria Informatica all’Università della Calabria.
Ma perché Elon Musk, che come detto di openAI è fondatore, chiede una moratoria sull’intelligenza artificiale? Stando ai firmatari dell’appello l’innovazione nel campo dell’intelligenza artificiale e del machine learning sta progredendo troppo rapidamente con conseguenze potenzialmente disastrose per l’economia e la politica a livello globale. I sei mesi di moratoria chiesti dall’appello dovrebbero essere utilizzati per sviluppare protocolli di sicurezza e sistemi di governance dell’intelligenza artificiale, al fine di garantire che queste tecnologie siano più sicure, accurate e affidabili.
La lettera evidenzia l’urgenza di porre un freno allo sviluppo di GPT-4, il modello di OpenAI lanciato a metà marzo poiché potrebbe portare “grandi rischi per l’umanità”. I firmatari sottolineano l’importanza di concentrarsi sulla sicurezza e sulla creazione di standard etici per l’utilizzo di intelligenze artificiali generative. Tra i rischi elencati nella lettera, si trovano la disinformazione, la manipolazione di elezioni, l’abuso di dati sensibili e il potenziale utilizzo di AI per scopi criminali o terroristici.
Commissioni indipendenti di valutazione e controllo che monitorino l’intelligenza artificiale
Gli esperti chiedono inoltre che vengano istituite commissioni indipendenti di valutazione e controllo, con il compito di monitorare e supervisionare lo sviluppo e l’implementazione di queste tecnologie. Queste commissioni dovrebbero essere composte da rappresentanti di governi, industrie, accademici e organizzazioni non governative, per garantire una visione completa e imparziale delle potenziali minacce e benefici delle AI generative.
I sostenitori delle IA: “I benefici in molti campi, fra cui quello medico, sono maggiori dei rischi”
Come sempre accade ci sono anche coloro che invece sostengono la tesi opposta: i sostenitori delle intelligenze artificiali generative sostengono che le potenzialità di queste tecnologie sono enormi e potrebbero apportare benefici significativi in molti settori, tra cui la medicina, l’istruzione, la ricerca scientifica e l’energia. I firmatari dell’appello tuttavia ribadiscono che tali benefici devono essere bilanciati con la necessità di garantire la sicurezza e l’integrità dei sistemi in cui operano queste AI.
Sarà interessante osservare come governi e aziende risponderanno a questa richiesta di moratoria e se adotteranno misure adeguate per affrontare i rischi associati alle intelligenze artificiali generative. È fondamentale che venga trovato un equilibrio tra l’innovazione tecnologica e la sicurezza, per garantire che queste nuove tecnologie possano essere utilizzate in modo responsabile e per il bene dell’umanità.
Inoltre, l’educazione e la sensibilizzazione del pubblico riguardo ai possibili rischi e benefici delle AI generative sono essenziali per formare un’opinione pubblica informata e per facilitare un dibattito aperto e costruttivo. Solo attraverso una comprensione adeguata delle implicazioni di queste tecnologie, la società sarà in grado di prendere decisioni informate sul loro utilizzo e sulla regolamentazione necessaria.
L’appello degli esperti sottolinea l’importanza di affrontare i rischi associati alle intelligenze artificiali generative e di sviluppare standard etici per il loro utilizzo. La creazione di commissioni indipendenti di valutazione e controllo e l’implementazione di una moratoria temporanea sull’uso di queste tecnologie possono rappresentare passi importanti verso un futuro più sicuro e responsabile per l’intelligenza artificiale.