Side-Event sur l’Intelligence artificielle et cybersécurité

Communiqué de presse, 19.06.2024

La délégation suisse a organisé un side-event en collaboration avec la délégation néerlandaise. Cette année, l'événement était placé sous le signe des développements actuels dans les domaines de l'intelligence artificielle et de la cybersécurité.

ette photo montre les participants au podium pendant une discussion.
La panéliste du DFAE pour la politique étrangère numérique, Katharina Frey Bossoni, et l'ambassadeur néerlandais auprès de l'OSCE, Christophe Kamp, lors du side-event sur l'intelligence artificielle. ©OSCE/Ghada Hazim

La délégation suisse auprès de l'OSCE a organisé, en collaboration avec les Pays-Bas, un side-event sur les possibilités et les risques d'une intégration accrue de l'intelligence artificielle dans la cybersécurité, contribuant ainsi activement au développement des mesures de confiance et de sécurité dans le domaine cybernétique. Cet événement a permis aux États participants d'avoir un premier aperçu du sujet très discuté et souvent mal compris de l'intelligence artificielle (IA), en marge du Groupe de travail informel sur la cybersécurité de l'OSCE.

Ce side-event réussi a attiré 40 délégations et a permis un débat interactif avec des interventions puissantes de deux panélistes, l'une de Suisse, Katharina Frey Bossoni du DFAE suisse et Mateo Rojas-Carulla, Chief Scientist et cofondateur de Lakera, et l'autre des Pays-Bas, le Dr Roy Lindelauf, professeur de science des données à l'Académie de défense néerlandaise. La coopération entre les universités, les gouvernements et le secteur privé est cruciale pour l'élaboration de mesures et de réglementations efficaces, et la Suisse encourage un tel climat de travail inclusif au sein de l'OSCE.

La plateforme a permis aux experts de discuter de l'importance croissante de l'IA et de ses dangers potentiels, tels que sa possible utilisation abusive pour des campagnes de désinformation et des cyber-attaques, notamment contre des systèmes vulnérables tels que les réseaux électriques intelligents. Les grands modèles de langage comme ChatGPT sont particulièrement préoccupants en raison de leur polyvalence et de leur facilité d'utilisation.  La sécurisation de ces modèles constitue un défi majeur, car des acteurs malveillants peuvent les exploiter en utilisant des données facilement disponibles. La discussion a souligné la nécessité de mesures de sécurité proactives, de réglementations claires et d'une coopération internationale pour faire face aux menaces évolutives de l'IA.