Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Jeu de données, de rôle et de pouvoir : la privacy de demain est au Printemps des DPO 2024

L’IA change la donne dans les data, le tsunami des réglementations aussi ! Placée sous le signe de l’intelligence artificielle, de la confiance, de l’évolution des régulations et de la gouvernance des données, l’édition 2024 du Printemps des DPO, organisée le jeudi 18 juin prochain, donnera aux professionnels des données et de la privacy toutes les clés pratiques et prospectives indispensables pour avancer dans un écosystème en pleine révolution.

L’intelligence artificielle induit de nouveaux enjeux liés à la protection des données et à l’éthique. La première table ronde du matin réunira Yann Padova, avocat, IAPP country leader, Félicien Vallet, chef du service IA de la CNIL, Isabelle Landreau, DPO du groupe d’Idemia et Laurence Hadj, directrice data protection groupe de Doctolib quatre personnalités incontestées qui répondront aux grands enjeux posés par l’IA : comment gérer les nouveaux défis qu’elle soulève en matière de confidentialité, de collecte de données d’apprentissage, de sécurité des données, de biais algorithmiques discriminatoires, d’erreurs et de diffusion de données personnelles sans base légale ? Quels changements dans la gestion de la conformité ? Quel apport de l’IA pour les DPO et les responsables privacy ? Comment peuvent-ils se positionner pour concilier IA, protection et gouvernance des données ?

Régulations numériques : combien de pilotes dans l’avion ?

Par ailleurs, la régulation du numérique est face à un dilemme : trouver le juste équilibre entre réglementation, innovation et compétitivité, pour concilier impératif de vie privée, logique économique et géopolitique. Depuis cinq ans, la profusion de régulateurs du numérique et de textes européens a-t-elle réussi à répondre efficacement à cet enjeu ? Empiler et sanctionner est-ce protéger ? Comment donner du sens et une méthode à cet écosystème compliqué et à ses inévitables injonctions contradictoires ? Pour en finir avec le chacun pour soi, quels arbitrages et quelle interrégulation instaurer ? Sabrina Bouguessa, ads privacy and regulations lead for Southern Europe de Google, Fabrice Naftalski, avocat, Juliette Rouilloux-Sicre, vice-présidentes Affaires juridiques de Thalès et présidente du Comité Régulations du numérique du MEDEF, et Nathalie Laneret, vice-présidente Affaires publiques chez Criteo, se pencheront pendant la table ronde de l’après-midi, sans langue de bois, sur ce maelström réglementaire qui commence à donner des vertiges à certains….

Un face-à-face très attendu et un programme d’une richesse inégalée

En début d’après-midi, Etienne Drouard, avocat associé chez Hogan Lovells et représentant de l’OCDE pour les transferts de données et la souveraineté numérique, confrontera aussi son point de vue sur ce qu’est la souveraineté numérique et ce qu’on peut en attendre à celui de Guillaume Champeau, directeur des affaires juridiques d’Olympe Legal et fondateur de Numerama, un face-à-face très attendu !

Le Printemps des DPO 2024, c’est aussi des dizaines de workshops, de panoramas, de masterclass et des rencontres de travail exclusives en petit comité entre DPO qui ont fait la réputation de l’événement, les Table Teams DPO, sur des sujets très pratiques : comment bien gérer une violation de données en dix points clés ? Quelles solutions pour faire son registre de traitement vite et bien ? Quels lendemains sans cookies tiers ? Comment sensibiliser ses collaborateurs sans (trop) les chatouiller à la confidentialité des données ?Comment retrouver ses petits RGPD dans la sous-traitance cloud en évitant les rapports de force ? Mais aussi : les réglementations connexes sur le numérique décryptées, apprendre à maîtriser l’exercice des droits des utilisateurs, faire face aux enjeux de conformité posés par ChatGPT, une plongée dans le darkweb avec Damien Bancal pour savoir ce que deviennent les données volées, les dos & don’ts, les tips & tricks et les bonnes pratiques lors d’un contrôle CNIL… et bien d’autres thématiques au service de sa pratique quotidienne et de votre évolution professionnelle.

Ne ratez pas ce rendez-vous exceptionnel le jeudi 18 juin prochain, au Parc des Princes, un moment unique d’échange d’idées et de networking, à la rencontre d’autres professionnels de la protection des données, pour tisser des liens précieux, garder une longueur d’avance et faire bouger les lignes, dans un lieu privilégié accueillant et dans une ambiance conviviale. C’est gratuit (sur invitation et sur inscription) https://www.printemps-des-dpo.com/registration/register!

Printemps des DPO 2023

Intelligence artificielle et machine learning : quelle utilité et quels avantages dans le monde de la cybersécurité ?

L’évolution rapide de la technologie a apporté son lot de progrès, mais également de nouveaux défis en matière de sécurité informatique. Face à une augmentation constante des menaces et des attaques cyber sophistiquées, l’intégration de l’intelligence Artificielle (IA) et du Machine Learning (ML) s’est avérée être un nouvel atout dans la protection des systèmes et des données.

Prévention, détection et réponse

L’utilisation de l’intelligence artificielle et du machine learning, dans le domaine de la cybersécurité, a permis de renforcer la prévention, la détection et la réponse aux attaques. Ces modèles peuvent analyser de vastes ensembles de données à une vitesse inégalée, identifiant ainsi les schémas et les comportements anormaux, signes potentiels d’activités malveillantes.
Les technologies d’IA et de ML sont déployées dans divers domaines de la cybersécurité. Dans la détection des intrusions, par exemple, les systèmes basés sur l’IA surveillent en temps réel les activités réseau, identifiant tout comportement inhabituel révélateur d’un trafic malveillant. De même, les algorithmes de ML sont utilisés pour créer des modèles de comportement des logiciels malveillants, permettant ainsi une détection proactive des menaces potentielles.

De ce fait, l’IA est cruciale dans l’analyse des vulnérabilités. Sans elle, il serait beaucoup plus compliqué, voire impossible, de détecter les vulnérabilités Zero Day. Les IA apprennent et s’adaptent au comportement des attaquants pour mieux anticiper les menaces futures. Il devient alors beaucoup plus difficile, pour les acteurs cybermalveillants, de les contourner.

Automatisation et réponses rapides

L’automatisation de certains processus de sécurité constitue un avantage majeur de l’IA. Les technologies autonomes peuvent rapidement isoler les menaces, déployer des correctifs et prendre des contre-mesures sans intervention humaine, ce qui réduit considérablement le temps de réponse face à une attaque.

Toutefois, l’utilisation de l’IA et du ML en cybersécurité n’est pas sans défi. Les cybercriminels recherchent constamment des moyens pour contourner ces systèmes, en élaborant des attaques plus sophistiquées. La nécessité d’une évolution constante des modèles est alors indispensable pour maintenir leur niveau d’efficacité.

De plus, la confidentialité des données utilisées pour entraîner les modèles d’IA est une problématique majeure. Cette préoccupation est cruciale pour plusieurs raisons. Tout d’abord, d’un côté violation de la vie privée : les données utilisées, pour entraîner les modèles, peuvent souvent contenir des informations sensibles sur les individus, telles que des détails médicaux, des informations financières, des préférences personnelles, etc. L’utilisation non autorisée, ou la divulgation de ces données, peut violer la vie privée des personnes concernées.

Ensuite, d’un point de vue risque de sécurité, les bases de données massives utilisées pour l’entraînement des modèles représentent des cibles potentielles pour les cyberattaques. Si ces données tombent entre de mauvaises mains, elles peuvent être exploitées à des fins malveillantes.

Nous pouvons citer, aussi, les biais et la discrimination. Un modèle peut être biaisé si les données utilisées pour l’entraînement sont elles-mêmes biaisées. Si les ensembles de données sont incomplets, non représentatifs ou reflètent des préjugés humains, les modèles peuvent perpétuer ces biais, conduisant ainsi à des décisions discriminatoires ou injustes.

Ou encore par rapport aux normes de conformités. En effet, dans de nombreuses régions du monde, il existe des lois et des réglementations strictes concernant la protection des données personnelles (comme le RGPD en Europe, le PIPL en Chine, etc.). Les organisations doivent se conformer à ces normes, ce qui rend la gestion des données utilisées dans les modèles encore plus complexe et exigeante.

L’adoption croissante de l’IA et du ML dans le domaine de la cybersécurité offre un avantage significatif pour la lutte contre les menaces cyber. Cependant, pour maximiser leur efficacité, il est essentiel de continuer à développer les modèles tout en maintenant une approche équilibrée entre l’innovation et la protection de la vie privée.

tribune_clément_nadal
❌