Près de trois années après sa première proposition par la Commission, l’Artificial Intelligence Act vient d’être approuvé le 13 mars 2024 par les eurodéputés. Tout premier cadre juridique complet sur l’IA au monde, l’objectif de ces nouvelles règles est de promouvoir une IA digne de confiance en Europe et au-delà, en veillant à ce que les systèmes d’IA respectent les droits fondamentaux, la sécurité et les principes éthiques, et en s’attaquant aux risques liés à des modèles d’IA très puissants et percutants. L’approche retenue définit quatre niveaux de risque liés à l’IA : Les risques inacceptables, comme les systèmes de notation sociale ou l’IA manipulatrice. Ces technologies seront interdites. Les risques élevés, liés par exemple à des infrastructures critiques, des services publics essentiels, des notions de sécurité, des menaces à l’emploi, … Ces systèmes d’IA seront soumis à des obligations strictes avant de pouvoir être mis sur le marché Les risques limités, qui renvoient souvent à un manque de transparence dans l’utilisation de l’IA. Des obligations spécifiques seront imposées en matière de transparence, pour garantir que les êtres humains sont informés lorsque cela est nécessaire, ce qui favorise la confiance. Les risques minimaux ou nuls, qui incluent des applications comme les jeux vidéo compatibles avec l’IA ou les filtres anti-spam. La grande majorité des systèmes d’IA actuellement utilisés dans l’UE relèvent de cette catégorie (mais ça pourrait changer avec l’émergence de l’IA générative). Un Office Européen de l’Intelligence Artificielle a été établi en février 2024 pour superviser la mise en œuvre et le respect des règles, et traiter les plaintes des utilisateurs européens. Selon le FMI et l’OCDE, si l’effet de l’IA sur l’emploi s’inscrit à long terme dans le cadre théorique de « la destruction créatrice », elle pourrait affecter davantage les métiers les plus qualifiés, contrairement aux précédentes révolutions industrielles. Orange, entreprise numérique majeure intégrant l’IA au cœur de sa stratégie, ne pourra pas se soustraire à ces nouvelles obligations Européennes. FOCom revendique à ce titre une information générale et complète au niveau des applications de l’Intelligence Artificielle dans l’entreprise. FOCom s’inquiète pour l’avenir des emplois, et en particulier …
Lire la suite »Tag Archives : IA
Intelligence artificielle : premiers pas vers la régulation
L’intelligence artificielle est omniprésente dans nos vies et transforme en profondeur nos sociétés. A FOCom, nous militons depuis plusieurs années pour une intelligence artificielle éthique et responsable au service de l’humain et non l’inverse. Elle ne doit et ne peut servir de prétexte à des suppressions d’emplois et n’avoir pour but que la seule rentabilité. Le 24 novembre, les 193 Etats membres de l’UNESCO ont adopté un instrument normatif mondial visant à doter l’IA d’une base éthique solide, centrée sur l’humain. Ce texte vise en outre à assurer la transparence et l’intelligibilité du fonctionnement des algorithmes, afin que les Etats membres puissent s’en inspirer dans leurs législations nationales et aborde un certain nombre de principes comme la sûreté, l’équité, la durabilité ou encore la non-discrimination. Les enjeux environnementaux sont également soulevés afin de privilégier des méthodes « économes en données, en énergie et en ressources ». Pour FOCom, ce sont les prémices d’une prise de conscience qui doit désormais se matérialiser concrètement dans le cadre juridique et institutionnel. Ainsi, en matière d’emploi, il est impératif de sécuriser les parcours professionnels en investissant dans la formation aux métiers de demain et nous revendiquons, entre autres, le renforcement des conventions collectives afin d’appréhender les impacts de l’IA sur les conditions de travail, la santé et la sécurité des salariés.
Lire la suite »