Accueil » Actualités » AI² : le projet du MIT de binôme homme-machine contre les cyberattaques

AI² : le projet du MIT de binôme homme-machine contre les cyberattaques

Par Ruby Charpentier

Le MIT travaille sur un outil novateur dans le domaine de la sécurité des systèmes informatiques. Un système combinant les talents de détection des menaces de l’intelligence artificielle et les talents d’analyse des humains. Un outil qui permettrait de lutter encore plus efficacement contre les cyberattaques.

Pourquoi un binôme homme-machine serait-il judicieux pour lutter contre les cyberattaques ?

La réponse à cette question est assez simple, et c’est l’un des chercheurs de l’équipe du MIT qui y répond : « Les outils de sécurité développés aujourd’hui tombent généralement dans deux catégories : celles fonctionnant grâce aux machines et celles fonctionnant grâce aux humains ». Pour mieux comprendre, les hommes ne sont pas efficaces pour détecter les nouvelles menaces rapidement, ce que sait très bien faire une intelligence artificielle. Sans doute même un peu trop puisqu’elle détecte des « menaces » qui n’en sont pas toujours, que l’on appelle faux positifs. Là en revanche, l’humain est excellent pour faire le tri.

On comprend donc pourquoi le MIT tente de concevoir un outil intégrant le machine learning prédictif, surveillé par une analyse humaine, afin de faire un tri « intelligent » pour que l’IA puisse apprendre de ses erreurs.

Le nom de ce projet particulièrement innovant dans le domaine de la cybersécurité est AI², il a été mené par le SCAIL (Computer Science and Artificial Intelligence Labs) et la startup PatternEx.

Pourquoi est-il si important de faire baisser les faux positifs ?

Comme on peut le lire sur le site ZDnet, le directeur technique de chez Darktrace, Dave Palmer a répondu à cette question en expliquant : « les systèmes qui se basent uniquement sur l’utilisation de règles ou sur la définition de comportements types sont notoirement connus pour générer des faux positifs. Ce phénomène est principalement causé par la difficulté qu’implique le fait d’appliquer des règles de sécurité simple sur des réalités qui sont parfois complexes et impliquent des technologies et des activités parfois très diverses. En plus de cela, les attaquants savent que si les outils font remonter en permanence des alertes de sécurité, les analystes chargés d’y remédier seront d’autant plus surchargés et d’autant moins enclins à les ignorer, ce qui ouvre une fenêtre pour les attaquants ».

Le projet AI² produit déjà des résultats stupéfiants puisqu’il est parvenu à diviser par 5 le nombre de résultats faux positifs. Homme et intelligence artificielle semblent donc parfaitement complémentaires pour réaliser certaines tâches, ce qui devrait mettre de sérieux bâtons dans les roues des cyberdélinquants. Il ne fait toutefois aucun doute que les cybercriminels useront des mêmes méthodes pour parvenir à leurs fins lorsqu’ils sauront prendre en main une intelligence artificielle, mais cela laissera au moins un temps d’avance aux spécialistes du secteur pour renforcer la sécurité…

Vous aimerez aussi

S’abonner
Notifier de
guest
0 Commentaires
Commentaires en ligne
Voir tous les commentaires
0
Nous serions ravis d'avoir votre avis, laissez un commentaire !x