L’ « AI Act »

par | 21 Mai 2024 | Economie – Social - Tech

owen lessonsfromplayinggolfwithtrump

On l’appelle l’ « AI Act » : ça fait quand même plus « Tech » que « règlement européen sur l’intelligence artificielle » …

Ce texte est au cœur du « plan coordonné sur l’intelligence artificielle (IA) » adopté – comme celui sur la finance durable – en 2018. Ce plan définissait des actions et des instruments de financement pour l’adoption et le développement de l’IA dans tous les secteurs de l’économie. Parallèlement, les États membres étaient encouragés à élaborer leurs propres stratégies nationales.

Et comme le plan d’action sur la finance durable, celui sur l’IA a été mis à jour en 2021, dans la foulée de la pandémie COVID et du Green Deal.

Première « loi » sur l’IA au monde, le règlement devrait être définitivement adopté ce mardi 21 mai à Bruxelles. Il vise à poser un cadre équilibré au développement de l’IA en Europe en conciliant protection des libertés et innovation Il n’entrera entièrement en vigueur qu’en 2026.

Le texte propose ainsi une classification des différents usages de l’IA selon quatre niveaux de risque, allant de l’autorisation sans réserve à l’interdiction :

  • risque faible ou nul : jeux vidéos, filtres anti-spams …
  • risque modéré : « deepfakes » (falsification d’images), chatbot,
  • haut risque : tri de CV, justice prédictive, voiture autonome, détection de faux papiers, octroi de crédit bancaire…
  • et enfin, risque inacceptable : notation sociale, technique subliminale, reconnaissance des émotions, reconnaissance faciale en temps réel, police prédictive …

Nul doute que comme en matière de finance durable, on trouvera de grands esprits pour nous expliquer que décidément, l’Europe régule trop !

Pourtant, on ne peut pas dire que les lobbies de la Tech aient failli : même au niveau de risque maximal, l’interdiction de ces technologies est rarement totale. On peut même dire qu’en posant un interdit accompagné d’exemptions, on autorise des pratiques jusque-là interdites. Comme la reconnaissance faciale en temps réel ou la reconnaissance des émotions, dans le domaine sécuritaire par exemple.

D’aucun s’émeuvent aussi d’une autre question : la course effrénée aux plus gros algorithmes n’a guère d’autres limites que celles des ressources. Convenons que pour l’instant au sein du numérique, l’IA n’est pas ce qui pollue le plus. Cependant pour avoir des données nécessaires à l’entraînement des algorithmes, il faut des capteurs : des équipements qui – il suffit de faire une « fresque du numérique » pour le comprendre – sont responsables de la plus grande partie de la pollution produite par le numérique (des émissions de gaz à effet de serre à la consommation de métaux). Même si cette pollution très diffuse est encore mal évaluée, elle est massive.

En tout état de cause, au-delà de l’usage qu’elles peuvent d’ores et déjà faire de l’IA, les entreprises doivent maintenant former leur management à une vraie réflexion sur l’usage de ces technologies. Et pour mener cette réflexion, l’existence d’un cadre réglementaire ne peut pas nuire.


Iconographie : extrait de « 2001 Space Odissey » © Stanley Kubrick