Vous avez besoin du Cloud Computing ? Commencez dès maintenant

Gros plan sur l'intelligence artificielle : l'IA est-elle surévaluée ?

Berk Veral

écrit par

Berk Veral

November 04, 2024

Berk Veral

écrit par

Berk Veral

Berk Veral est Senior Director of Product Marketing chez Akamai.

Il ne fait aucun doute que la révolution de l'IA a transformé la cybersécurité, pour le meilleur et pour le pire.
Il ne fait aucun doute que la révolution de l'IA a transformé la cybersécurité, pour le meilleur et pour le pire.

Aucun sujet technologique n'est sans doute plus omniprésent, ou plus médiatisé, que l'intelligence artificielle (IA). Lorsque OpenAI a mis l'IA à la portée du plus grand nombre avec la sortie de ChatGPT en novembre 2022, le monde a changé à jamais. Les startups spécialisées dans l'IA ont commencé à attirer des fonds massifs, les géants de la technologie comme Microsoft et Apple se sont empressés de mettre en œuvre l'IA dans leurs propres produits, et la sensibilisation du public à l'IA en tant qu'outil concret a atteint son apogée. 

Aujourd'hui, des termes tels que l'IA générative, les grands modèles de langage, l'apprentissage automatique et les réseaux neuronaux apparaissent dans pratiquement toutes les sphères commerciales, des services professionnels à l'électronique grand public. Il existe même un grille-pain doté de l'IA.

Mais qu' est -ce que l'IA au juste ? Et comment savoir s'il s'agit simplement d'un mot à la mode utilisé pour vendre un produit, ou s'il s'agit réellement d'un progrès en matière d'intelligence ? Dans cet article de blog, nous nous pencherons sur ces questions et bien d'autres, en testant les limites de l'IA, en donnant des conseils pour identifier les pratiques d'IA Washing et en étudiant la façon dont l'IA transforme des secteurs tels que la cybersécurité.

Décrypter le battage médiatique : que peut faire l'IA ?

L'intelligence artificielle est un domaine de l'informatique consacré à la création de systèmes capables d'effectuer des tâches normalement dévolues aux humains. Ces systèmes peuvent être conçus pour effectuer des tâches telles que la prise de décision, la résolution de problèmes complexes et la pensée créative. Les systèmes d'IA utilisent des algorithmes sophistiqués et des données (en grande quantité) pour réaliser ces exploits. 

Mais cette définition générale ne fait qu'effleurer le sujet. Pour mieux cerner les contours de l'IA, commençons par définir les deux grandes catégories d'IA : l'IA inférentielle et l'IA générative.

IA inférentielle

L'IA d'interface est un type de technologie qui se concentre sur l'inférence d'informations à partir de contenus tels que le texte, les images, le son et la vidéo. 

Par exemple, lorsqu'on lui présente la photo d'un chat, cette technologie peut utiliser des indices contextuels pour identifier correctement le sujet de la photo. 

Bien que ce type d'IA puisse effectuer des déductions à partir d'informations, elle ne peut pas générer son propre contenu.

IA générative

L'IA générative, ou GenAI, est une technologie capable de générer un nouveau contenu (texte, images, audio et vidéo) à partir d'instructions. 

Par exemple, si on lui donne l'instruction « dessine un chat », un modèle d'IA générative générera l'image d'un chat.

On peut considérer l'IA inférentielle et l'IA générative comme les deux faces d'une même pièce, la seconde étant généralement considérée comme plus sophistiquée. Le développement de l'IA générative associe l'apprentissage automatique et l'entraînement de réseaux neuronaux.

Comprendre les rouages de cette technologie : comment fonctionne l'IA ?

Un réseau neuronal s'inspire du fonctionnement du cerveau, mais fonctionne de manière plus simple et plus pratique. Il s'agit d'une machine composée de plusieurs couches de neurones artificiels, ou nœuds, qui traitent les informations. Chaque neurone reçoit des chiffres (entrée), effectue un calcul simple et renvoie le résultat (sortie). 

Ce réseau acquiert des connaissances en ajustant un ensemble de nombres appelés « poids ». Ces poids déterminent le comportement du réseau. Au cours de l'apprentissage supervisé, le réseau reçoit des données et un résultat souhaité, qu'il utilise pour définir les poids. En apprenant de ses erreurs à chaque itération, le réseau ajuste ses poids afin d'améliorer ses chances d'atteindre le résultat souhaité.

L'apprentissage approfondi est un sous-ensemble de l'apprentissage automatique qui est apparu avec l'arrivée de processeurs graphiques (GPU) plus puissants et d'algorithmes d'apprentissage plus sophistiqués. Il est beaucoup plus performant grâce à l'ajout de couches de neurones supplémentaires. Remarque importante : le terme « approfondi » fait référence au nombre de couches d'un réseau neuronal. Il s'agit d'une profondeur physique et non d'une profondeur intellectuelle.

Un grand modèle de langage (LLM), comme ChatGPT, qui est entraîné à comprendre et à générer des textes en langage humain, constitue un exemple classique d'algorithme d'apprentissage approfondi. Les LLM prennent une séquence de texte en entrée, puis établissent des probabilités pour le mot suivant dans la séquence, une fonctionnalité qui aide les chatbots à fournir des réponses pertinentes aux questions ou aux commentaires. 

Les LLM sont entraînés sur d'énormes volumes de texte, généralement glanés sur le Web. Comme pour les réseaux neuronaux, les poids des LLM sont ajustés par apprentissage auto-supervisé afin d'augmenter la probabilité d'un mot suivant raisonnable. Les LLM les plus sophistiqués actuellement utilisés disposent de centaines de milliards de poids qui ajustent les sorties.

Distinguer l'IA de l'IA Washing

Maintenant que nous avons une compréhension de base de l'apprentissage approfondi et des LLM, nous pouvons nous demander si un produit commercial particulier est réellement alimenté par l'IA ou s'il s'agit d'un exemple d'IA Washing. 

On parle d'IA Washing lorsque des entreprises font des déclarations trompeuses ou exagérées sur la quantité d'IA utilisée dans leurs produits dans le but d'accroître leur rentabilité, en capitalisant sur le battage médiatique autour de cette technologie.

Pour identifier les tentatives d'IA Washing, il convient de se poser les questions suivantes lors de l'évaluation des produits :

  • Ce produit nécessite-t-il une intervention humaine importante pour produire un résultat acceptable ? Une véritable IA se caractérise par un degré élevé d'autonomie, permettant d'obtenir un résultat acceptable avec un minimum d'intervention humaine.

  • L'entreprise à l'origine de ce produit est-elle transparente sur les types de données et les algorithmes qu'elle utilise pour alimenter son IA ? L' approche de la boîte noire, qui se concentre uniquement sur les entrées et les sorties d'un produit, sans révéler son fonctionnement et ses processus internes, est souvent un signal d'alerte qui indique que la technologie n'est peut-être pas tout à fait à la hauteur.

Malheureusement, il arrive trop souvent que des entreprises utilisent le terme d'IA pour promouvoir un produit ou un service qui ne répond pas aux conditions ci-dessus. C'est pourquoi il est indispensable d'aller au-delà des affirmations initiales des entreprises et de creuser un peu plus loin pour déterminer si un produit est réellement doté d'une IA.

Biais et hallucinations

D'autres éléments importants doivent être pris en compte lors de l'évaluation d'une solution d'IA. Les « hallucinations » sont un concept clé à retenir. Les hallucinations d'IA sont des résultats erronés, trompeurs ou absurdes. Ces résultats inexacts sont dus à divers facteurs, notamment un entraînement avec des données insuffisantes ou biaisées, ce qui peut conduire à des interprétations par l'IA. 

Gardez à l'esprit que les modèles d'IA sont conçus pour prédire des résultats sur la base des données sur lesquelles ils sont entraînés ; par conséquent, l'ingestion de données incorrectes se traduira simplement par des résultats erronés.

Le « Hype Cycle » de l'IA : quelle évolution pour cette technologie ?

Pour comprendre l'évolution rapide des tendances, les fausses promesses et les attentes démesurées qui semblent accompagner chaque nouvelle percée de l'IA, il suffit d'examiner un graphique élaboré par le cabinet Gartner.

En juin, Gartner a publié son « 2024 Hype Cycle for Artificial Intelligence », qui suit l'évolution, la maturation et l'adoption par le grand public d'une technologie émergente. 

Au cours de sa première phase, une nouvelle technologie passe par la case innovation, gagnant en notoriété et en popularité alors qu'elle se dirige vers son pic d'innovation.

Après avoir atteint ce sommet, la technologie plonge dans le creux de la désillusion, où le gros du travail commence. N'étant plus influencés par des attentes exagérées, les gens peuvent commencer à comprendre les véritables possibilités de la technologie et à concevoir des applications pratiques, ce qui la fait progresser dans le cycle jusqu'au plateau de la productivité.

Selon Gartner, l'IA traverse rapidement le « Hype Cycle » et l'IA générative a déjà atteint le creux de la désillusion. Toutefois, malgré son nom mélancolique, cette étape du cycle de vie offre une véritable opportunité d'innovation, en incitant les gens à mieux comprendre les limites de l'IA et à concrétiser ses promesses. La cybersécurité est l'un des secteurs où cela se produit actuellement.

IA et cybersécurité : l'avenir de la détection des menaces

Il ne fait aucun doute que la révolution de l'IA a transformé la cybersécurité, pour le meilleur et pour le pire.

Les modèles d'IA deviennent de plus en plus sophistiqués, tout comme les tactiques employées par les cybercriminels. Les acteurs malveillants utilisent de plus en plus l'IA générative pour automatiser, améliorer et étendre leurs attaques, ce qui se traduit par des menaces plus difficiles à détecter et à atténuer.

Cependant, l'intégration de l'automatisation dans la cybersécurité offre des opportunités majeures, en particulier dans le domaine de la détection des menaces. Les professionnels de la cybersécurité peuvent utiliser l'IA pour analyser de grandes quantités de données beaucoup plus rapidement qu'ils ne pourraient le faire eux-mêmes. Ils peuvent ainsi identifier des modèles et détecter les anomalies dans le comportement des utilisateurs qui pourraient indiquer des menaces potentielles.

L'IA permet également de rationaliser les processus de réponse aux incidents. En exécutant automatiquement des actions prédéfinies en réponse aux menaces détectées, telles que l'isolement des systèmes affectés, le blocage du trafic malveillant ou le déclenchement d'alertes, l'IA peut répondre aux menaces potentielles en temps réel.

Garder les pieds sur terre : pas de battage médiatique, juste des résultats

Akamai utilise l'IA avec apprentissage approfondi pour optimiser ses solutions depuis 2015. 

Nos outils d'IA effectuent de nombreuses tâches critiques, allant de la détermination du trafic (bot ou utilisateur humain ?) à l'identification des abus d'API et des sites Web frauduleux. Les solutions Akamai tirent parti de l'apprentissage automatique depuis près de 10 ans, et aujourd'hui nous poursuivons notre chemin en ajoutant les dernières avancées en matière d'IA à nos produits lorsque cela apporte un avantage évident à nos clients.

En matière d'intelligence artificielle, nous avons pour principe fondamental d'être transparents sur la manière dont nous utilisons cette technologie et sur les raisons qui nous poussent à le faire, en veillant à ne jamais surestimer nos capacités ou à ne pas nous livrer à des pratiques d'IA Washing.

Chez Akamai, nous nous engageons à utiliser l'IA de manière judicieuse et efficace, en développant progressivement nos capacités, à mesure que la compréhension de l'IA continue de progresser. C'est ainsi que nous gardons les pieds sur terre en matière d'IA… sans battage médiatique artificiel.



Berk Veral

écrit par

Berk Veral

November 04, 2024

Berk Veral

écrit par

Berk Veral

Berk Veral est Senior Director of Product Marketing chez Akamai.