top of page
Rechercher
  • Photo du rédacteurYannik MILLEAU

Intelligence Artificielle normale : un cadre nécessaire

Dernière mise à jour : 9 févr.

En 2050, l’Intelligence Artificielle dépassera l’intelligence humaine !


Cette date pivot déterminée par certains spécialistes serait l'avènement de la l’intelligence artificielle de stade 5 : la conscience de soi.


En environ 100 ans (depuis l’invention de Turing), la machine sera passée d’une “extension du cerveau humain” (stade 1 à 3) à une forme d’autonomie. L’étape d’après serait-elle l’indépendance ?


Une vision utopiste dirait que l'œuvre de l’Homme doit se faire pour le bien commun, ou a minima du plus grand nombre. La vision Asimovienne serait que la création de l’Homme “ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger”. Les contradictions historiques sont tenaces et c’est sûrement pour cette raison que l’Union Européenne légifère en ce moment en travaillant sur le “Artificial Intelligence Act”.


Avant même de spéculer sur les conséquences d’une intelligence artificielle autonome, voire indépendante, il est primordial de se préoccuper des devoirs et responsabilités des organisations qui développent l’intelligence artificielle et celles qui s’en servent, notamment dans des buts commerciaux.


Finalement, on en revient à la même problématique, quels que soient les moyens qui les exploitent, mes données personnelles ne doivent pas se retourner contre moi quelle que soit la finalité de la démarche et je dois rester le seul propriétaire et décisionnaire de ces données.


Que prévoit l’AI Act en la matière, au moment de l’écriture de cet article : 

  • 4 seuils de dangerosité de l’intelligence artificielle : minimal ou nul, limité, élevé et inacceptable. L’avant-dernier concerne notamment les périmètres d’application dans la santé, la justice, l’éducation,...

  • Cela concerne toutes les sociétés qui développent une intelligence artificielle à partir du moment où celle-ci interagit au sein de l’Union Européenne. 

  • Une géométrie variable en fonction de la nature open source ou fermée de l’IA : en effet, les contraintes sembleraient moins fortes sur l’open source. A noter que “Llama”, édité par Meta (Facebook), est considéré comme Open Source.


Donc en résumé,  le projet de loi “Artificial Intelligence Act (AI Act)” vise à réglementer l’intelligence artificielle en fonction de ses risques. C’est une première mondiale. Un premier pas vers un IA responsable.


Ce texte entrera en vigueur en 2026. Dans le même temps, un Office européen de l’IA sera créé pour s’assurer du respect de la loi et sanctionner financièrement les entreprises qui ne s’y conforment pas. Nulle doute qu’il sera l’un des vecteurs de l’évolution de la loi, dans le temps.


Intelligence Artificielle, le temps de la réglementation

Les conséquences pour les entreprises : 

  • L’utilisation de l’intelligence artificielle sera contrainte par le secteur d’activité et les cas d’usage : une organisation dans le domaine de la santé aura beaucoup plus de contraintes qu’un simple retailer.

  • La problématique de protection et de sécurisation des données personnelles va se complexifier de manière exponentielle (rappel : l’IA est actuellement en stade 4), notamment si l’organisation a une dimension internationale. Avis de tempête pour les DPO… 

  • La promesse commerciale des éditeurs de solutions développées sur base d’intelligence artificielle devra rester dans le cadre de la nouvelle réglementation et des valeurs de la Société. La reconnaissance faciale à l’entrée des magasins…en Europe, devra attendre.

  • De faire des provisions pour risque : la loi prévoirait, en effet, un système d’amendes. 35 millions d'euros ou 7 pour cent du chiffre d'affaires annuel global à 7,5 millions d'euros ou 1,5 pour cent du chiffre d'affaires pour des infractions moindres.

  • Education des collaborateurs à l’utilisation de l’IA : que se passe-t-il avec la masse d’informations, dont certaines peuvent sensibles, voir critiques (sans le savoir) qui transitent dans les prompts IA (génération de présentation powerpoint, aide à l’argumentaire du tout nouveau produit, génération d’image produit,...). Tout cela, c’est de la donnée qui doit aussi être protégée.

  • Complexité de l’évaluation technique et fonctionnelle par les équipes procurement (ou de la DSI par délégation) : la complexité, incrémentale et s’accélérant, des solutions motorisées par l’IA, va imposer une mise à niveau et un maintien des compétences, des équipes missionnées, onéreux et constant. Vers des IA cerbère pour fiabiliser l’utilisation responsable de la technologie IA ? 


Ce post, bien que basé sur des faits, est l’expression d’une analyse et d’une opinion. Débattons-en, à volonté, pour appréhender cette révolution de la meilleure manière.


3 vues0 commentaire

Comentários


bottom of page