Evento collaterale sull'intelligenza artificiale e la sicurezza informatica

Comunicato stampa, 19.06.2024

La delegazione svizzera ha organizzato un evento collaterale insieme alla delegazione olandese. L'evento di quest'anno si è concentrato sugli attuali sviluppi nei settori dell'intelligenza artificiale e della sicurezza informatica.

Questa foto mostra i relatori durante una discussione.
La panellista del DFAE per la politica estera digitale, Katharina Frey Bossoni, e l'ambasciatore olandese presso l'OSCE, Christophe Kamp, all'evento collaterale sull'intelligenza artificiale. ©OSCE/Ghada Hazim

La delegazione svizzera presso l'OSCE, in collaborazione con i Paesi Bassi, ha organizzato un evento collaterale sulle opportunità e i rischi di un maggiore coinvolgimento dell'intelligenza artificiale nella sicurezza informatica, contribuendo così attivamente all'ulteriore sviluppo di misure volte a rafforzare la fiducia e la sicurezza nell'area cibernetica. L'evento ha offerto agli Stati partecipanti una prima visione del tema dell'intelligenza artificiale (AI), molto discusso e spesso frainteso, a margine del Gruppo di lavoro informale dell'OSCE sulla cibernetica.

Il riuscito evento collaterale ha attirato 40 delegazioni e ha favorito un dibattito interattivo con i potenti contributi dei due relatori svizzeri, Katharina Frey Bossoni del DFAE svizzero e Mateo Rojas-Carulla, Chief Scientist e co-fondatore di Lakera, e dei Paesi Bassi, il dottor Roy Lindelauf, professore di Data Science presso l'Accademia della Difesa olandese. La collaborazione tra mondo accademico, governi e settore privato è fondamentale per lo sviluppo di politiche e normative efficaci e la Svizzera promuove un ambiente di lavoro inclusivo nell'OSCE.

La piattaforma ha permesso agli esperti di discutere della crescente importanza dell'IA e delle sue potenziali minacce, come il suo possibile uso improprio per campagne di disinformazione e attacchi informatici, in particolare su sistemi vulnerabili come le reti intelligenti. I modelli linguistici su larga scala, come ChatGPT, destano particolare preoccupazione per la loro versatilità e facilità d'uso.  La sicurezza di questi modelli è una sfida importante, poiché gli attori malintenzionati possono sfruttarli con dati facilmente disponibili. La discussione ha sottolineato la necessità di misure di sicurezza proattive, di normative chiare e di cooperazione internazionale per contrastare le minacce in evoluzione poste dall'IA.