L’intelligence artificielle générative est une double-lame : elle révolutionne notre façon de travailler et de communiquer, mais elle offre aussi de nouvelles armes aux cybercriminels. Comment ESET, pionnier dans la cybersécurité, concilie-t-il innovation et protection face à ces menaces émergentes ? En investissant massivement dans la recherche et en développant des solutions de pointe, ESET anticipe les attaques de demain tout en garantissant une utilisation éthique de l’IA. Nous avons rencontré Benoît Grunemwald, expert en cybersécurité et porte-parole ESET, pour en savoir plus sur les défis et les opportunités liés à cette technologie.
IA générative: Comment ESET envisage-t-il l’impact de l’IA générative sur le paysage des cybermenaces et comment ses solutions s’y adaptent ?
Benoît Grunemwald : ESET reconnaît que l’IA générative impacte le paysage des cybermenaces. Les cybercriminels disposent de nouveaux outils pour améliorer leurs attaques. Ainsi le Phishing (hameçonnage) et Ingénierie Sociale s’appuient sur l’IA générative pour créer des courriels et des messages d’ingénierie sociale de plus en plus convaincants, rendant les attaques plus difficiles à détecter pour les utilisateurs. Le recours à des solutions efficaces, elles aussi augmentées par l’IA se révèlent nécessaires. Si le message (le contenu) est de plus en plus réaliste, il faut étudier d’autres critères pour déceler les fraudes. Au-delà des courriels, les modèles d’IA peuvent générer des contenus malveillants, comme des sites Web de phishing ou des documents piégés, qui sont plus crédibles et échappent plus facilement aux filtres de sécurité. Si à ce jour, l’automatisation des attaques n’est pas encore démocratisée, demain l’IA pourra automatiser la découverte de vulnérabilités et l’exécution d’attaques à grande échelle, ce domaine est à surveiller.
Dernier volet des grandes catégories d’attaques bénéficiant de l’IA, la création et la diffusion de fausse information (Deepfakes). L’utilisation de l’IA pour créer des vidéos ou des enregistrements audio trompeurs se retrouve dans des campagnes de désinformation. Ce fut le cas d’une vidéo montée de toutes pièces et mettant soi-disant en scène l’acteur Tom Cruise. Ce faux jumeau numérique dénigre les Jeux Olympiques qui vont (à la date de la vidéo) se dérouler en France.
Pour s’adapter et contrer ces nouvelles menaces, ESET investit continuellement dans la recherche et le développement de solutions de sécurité de pointe. Notre objectif est de suivre tout autant que d’anticiper les nouvelles techniques des pirates. Nous appuyons nos solutions sur des techniques de détection comportementale et heuristique avancées. Ceci nous permet d’identifier les activités suspectes, même si elles proviennent de logiciels générés par IA. Tout comme les pirates, ESET utilise l’IA dans ses solutions et ses laboratoires, depuis 1997. En particulier, l’apprentissage Automatique (Machine Learning) scrute les fichiers et les comportements pour reconnaître les nouvelles menaces, y compris celles générées par IA.
Ethique de l’IA: Quelles sont les mesures mises en place par ESET pour garantir une utilisation éthique de l’intelligence artificielle dans ses produits ?
Benoît Grunemwald : Nous sommes conscients des enjeux liés à cette technologie, ainsi notre entreprise a mis en place plusieurs mesures clés pour garantir une utilisation responsable et transparente de l’IA. Tout d’abord, la transparence est au cœur de l’approche d’ESET. L’entreprise veille à ce que les utilisateurs comprennent comment l’IA est intégrée dans ses solutions, en expliquant clairement les fonctionnalités et les décisions prises par ces systèmes. Cette démarche vise à instaurer un climat de confiance entre ESET et ses clients. Nous proposons à nos clients et partenaires des ressources pour mesurer et comprendre l’usage de l’IA au sein de nos solutions et d’une manière plus large dans le domaine de la cybersécurité. (voir les liens en bas de page).
Le respect de la vie privée constitue une autre priorité pour ESET. Nous sommes en accord avec des réglementations strictes telles que le Règlement Général sur la Protection des Données (RGPD), l’entreprise s’assure que les données personnelles des utilisateurs sont traitées de manière sécurisée et confidentielle. La sécurité des données est renforcée par l’emploi de techniques de pointe, visant à prévenir toute fuite ou accès non autorisé aux informations. La poursuite de cet objectif est reconnue par la certification ISO27001, obtenue sur un large périmètre, comprenant nos solutions cloud. Mais la technologie ne fait pas tout. Pour assurer une utilisation responsable et efficace de l’IA, ESET maintient un contrôle humain rigoureux sur les décisions automatisées. Les experts en cybersécurité de l’entreprise peuvent intervenir et ajuster les actions prises par l’IA si nécessaire, assurant ainsi une supervision constante. Nous investissons dans la recherche et le développement pour optimiser les performances de ses systèmes d’IA, tout en veillant à ce que ces améliorations restent conformes aux standards éthiques.
https://www.welivesecurity.com/2017/06/20/machine-learning-eset-road-augur/
https://www.welivesecurity.com/2019/02/22/ml-era-cybersecurity-step-toward-safer-world-brink-chaos/
https://www.welivesecurity.com/2018/09/04/ml-malware-whats-in-store/
https://www.welivesecurity.com/2017/11/13/transparency-machine-learning-algorithms/
https://help.eset.com/protect_cloud/fr-FR/?cloud_security.html
Face aux défis posés par l’IA générative, ESET démontre une fois de plus son engagement à protéger les utilisateurs. Grâce à des solutions innovantes et une approche éthique, l’entreprise se positionne en leader de la cybersécurité, prête à relever les défis de demain.