💌 Iscriviti alla mia newsletter: Digital Innovation Review

👨‍💻 E aggiungimi su Linkedin

I 23 Principi di Asilomar: Guida allo Sviluppo Etico dell’Intelligenza Artificiale

Meta Description: Scopri i 23 principi di Asilomar, un insieme di linee guida per uno sviluppo etico e sicuro dell’intelligenza artificiale.

Keywords: principi di Asilomar, intelligenza artificiale, AI, sviluppo etico, sicurezza AI, ricerca AI, futuro AI

Introduzione

L’intelligenza artificiale (AI) ha rivoluzionato il mondo in cui viviamo, migliorando la produttività e offrendo nuove opportunità in diversi settori. Tuttavia, è fondamentale garantire uno sviluppo etico e sicuro di queste tecnologie. I 23 Principi di Asilomar forniscono un quadro di riferimento per la ricerca e lo sviluppo responsabile dell’AI. In questo articolo, esploreremo questi principi e l’importanza di seguirli per un futuro sostenibile dell’intelligenza artificiale.

I 23 Principi di Asilomar

Nel gennaio 2017, un gruppo di esperti in AI si è riunito alla Conferenza di Asilomar su Intelligenza Artificiale Benefica per discutere le sfide future dell’AI e stabilire linee guida per la sua evoluzione. Da questo incontro sono emersi i 23 Principi di Asilomar, suddivisi in tre categorie: Ricerca, Etica e Valori a Lungo Termine.

Problemi di ricerca

1) L’obiettivo della ricerca sull’Intelligenza Artificiale [AI] non deve essere quello di creare un’intelligenza non orientata [neutrale, indifferente], ma un’intelligenza benefica.

2) I finanziamenti della ricerca dovranno essere mirati a garantirne l’uso benefico, affrontando questioni spinose in informatica, economia, diritto, etica, e studi sociali, come ad esempio:

Come possiamo rendere i futuri sistemi di AI robusti al punto da fare ciò che vogliamo, senza malfunzionamenti e senza che siano hackerati?

Come possiamo far crescere la nostra prosperità attraverso l’automazione, senza marginalizzare gli uomini?

Come possiamo aggiornare i nostri sistemi giuridici in modo che siano più equi ed efficaci, per tenere il passo con l’AI e per gestirne i rischi?

Quale insieme di valori dovranno seguire le AI, e quale stato etico-legale dovranno avere?

3) Il rapporto tra scienza e politica dovrà essere di sana e costruttiva interazione.

4) Una cultura di cooperazione, fiducia e trasparenza dovrà essere promossa tra i ricercatori e gli sviluppatori.

5) I gruppi di ricerca dovranno cooperare ed evitare scorciatoie sugli standard di sicurezza.

Etica e Valori

6) I sistemi di AI devono essere sicuri e protetti per tutta la loro vita operativa e verificabili, se necessario.

7) Se un sistema di AI provoca danni, dovrà essere possibile accertarne con trasparenza il motivo.

8) Qualsiasi coinvolgimento da parte di un sistema di AI giuridico autonomo dovrà essere in grado di fornire una spiegazione soddisfacente [per le proprie decisioni] verificabile da un’autorità umana competente (trasparenza giudiziaria).

9) Progettisti e costruttori di sistemi avanzati di AI sono parti interessate nelle implicazioni morali del loro uso, abuso ed azioni, con la responsabilità e l’opportunità di plasmare tali implicazioni.

10) I sistemi di AI autonomi dovranno essere progettati in modo che i loro obiettivi e comportamenti possano essere affidabilmente allineati con i nostri valori in tutto il loro funzionamento.

11) I sistemi di AI dovranno essere compatibili con gli ideali di dignità umana, dei diritti, della libertà e della diversità culturale.

12) Andrà garantito il diritto di accedere, gestire e controllare i dati generati dagli utenti, dato il potere dei sistemi di AI di analizzare e utilizzare tali dati.

13) L’applicazione di AI ai dati personali non deve irragionevolmente limitare la libertà delle persone.

14) Le tecnologie di AI dovranno essere condivise a beneficio del maggior numero di persone possibile.

15) La prosperità creata dall’AI dovrà essere condivisa, in linea di massima, a beneficio di tutta l’umanità.

16) Gli esseri umani dovranno mantenere il controllo e scegliere come e se delegare decisioni ai sistemi di AI.

17) Il potere conferito dal controllo dei sistemi di AI altamente avanzati dovrà rispettare e migliorare, e non sovvertire, i processi sociali e civili da cui dipende la salute della società.

18) Una corsa agli armamenti in armi letali autonome dovrà essere evitata.

Problemi a lungo termine

19) Non essendoci un consenso, dovremo evitare di supporre quali possano essere i limiti superiori delle future capacità dell’AI.

20) L’arrivo delle AI avanzate potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra, e dovrà essere pianificato e gestito con l’attenzione e le risorse necessarie.

21) I rischi associati ai sistemi di AI, in particolare i rischi catastrofici o esistenziali, devono essere oggetto di pianificazione e mitigazione commisurati con il loro potenziale impatto.

22) I sistemi di AI progettati per auto-migliorarsi o auto-replicarsi in modo da portare ad un rapido aumento della loro qualità o quantità, devono essere soggetti a severe misure di sicurezza e di controllo.

23) La Super intelligenza dovrà essere sviluppata solo al servizio di ideali etici ampiamente condivisi e per il beneficio di tutta l’umanità, piuttosto che di un singolo Stato o organizzazione.

Conclusione

I 23 Principi di Asilomar rappresentano un punto di riferimento fondamentale per garantire uno sviluppo etico e sicuro dell’intelligenza artificiale. Seguire questi principi è essenziale per creare un futuro in cui l’AI possa beneficiare l’umanità nel suo complesso, senza causare danni o esacerbare le disuguaglianze. Ricercatori, sviluppatori, governi e aziende devono collaborare e adottare queste linee guida per assicurare un impiego responsabile dell’AI nel rispetto dei valori umani e dell’ambiente. La lista dei principi di Asilomar all’epoca fu promossa da personaggi illustri come Stephen HawkingElon Musk.

Il mondo sta cambiando e chi ha successo impara a innovare i propri prodotti insieme ai propri processi e alle persone.

Su di me

Iscriviti alla Newsletter

Ogni due settimane un approfondimento sul mondo della Digital Innovation

© 2023 Andrea Zurini