Loi européenne sur l'IA: l'association Tüv accueille la réglementation et demande une mise en œuvre claire
Loi européenne sur l'IA: l'association Tüv accueille la réglementation et demande une mise en œuvre claire
eu AI Act entre en vigueur: Tüv AI.Lab offre une vérification de la conformité pour l'intelligence artificielle
Dans une décision révolutionnaire, la loi européenne sur l'IA est entrée en vigueur et apporte de nouvelles réglementations pour l'intelligence artificielle (IA). L'Association Tüv se félicite de l'introduction de ces règlements et appelle à une clarification rapide des problèmes de mise en œuvre existants. Afin de soutenir les entreprises conformes aux nouvelles directives, le Tüv AI.Lab a développé un outil en ligne gratuit qui permet la classification des risques des systèmes et modèles d'IA.
La loi sur l'IA offre une opportunité historique de contenir les effets négatifs de l'intelligence artificielle et en même temps favoriser les innovations. Il crée un cadre mondial pour une IA sûre et digne de confiance et peut aider l'Europe à devenir un marché de premier plan pour une IA sûre. "Il est important de rendre la mise en œuvre de la loi sur l'IA efficace et de manière non guérirante. Les institutions indépendantes jouent un rôle crucial, non seulement lors de l'application des exigences contraignantes, mais également sur le marché des tests volontaires de l'IA", explique le Dr Joachim Bühler, directeur général de la Tüv Association.
Période de transition échelonnée pour les systèmes d'IA
La loi sur l'AI de l'UE entre en vigueur le 1er août 2024 avec des périodes de transition échelonnées. Six mois après l'entrée en vigueur, les systèmes d'IA qui utilisent des techniques manipulateurs ou trompeuses sont interdits. À partir du 1er août 2025, les compétences comportementales s'appliquent à certains modèles d'IA polyvalents. Les États membres de l'UE doivent nommer les autorités nationales pour la surveillance du marché. À partir d'août 2026, des examens obligatoires pour les systèmes d'IA dans des domaines à haut risque tels que les prêts, les ressources humaines et les forces de l'ordre sont nécessaires. Ces examens concernent les développeurs d'IA, les fournisseurs d'IA et les opérateurs de systèmes d'IA risqués. À partir de 2027, les exigences pour l'IA dans les produits soumises à un examen de troisième partie s'appliquent. "L'examen des systèmes d'IA crée la confiance et est déjà un avantage concurrentiel. Les entreprises devraient désormais se familiariser avec les exigences, en particulier en ce qui concerne les périodes de transition. Il est important d'estimer comment et où la loi sur l'IA affecte ses activités", souligne Bühler.
Défis de mise en œuvre
Une interprétation uniforme et une application cohérente de l'approche basée sur le risque sont cruciales pour l'efficacité de la loi sur l'IA. Il est désormais de la responsabilité des États membres de promouvoir la mise en œuvre efficace et de manière non guérirante. Des responsabilités et des responsabilités clairement définies sont nécessaires pour mettre en œuvre les réglementations dans la pratique. Les directives de mise en œuvre pour la classification des systèmes d'IA à haut risque devraient être publiées le plus rapidement possible par l'Office de l'IA (Office européen de l'IA) afin d'offrir des sociétés de petites et moyennes (PME). Il est également important de garder un œil sur le développement de nouveaux risques d'IA et des risques systémiques dans de puissants modèles d'IA polyvalents et de promouvoir l'établissement d'un système de rapport de dégâts d'IA systématique.
Tüv Ai.Lab Risk Navigator pour la vérification de la conformité
La "Tüv AI.Lab", une coentreprise de la société Tüv, a développé le Navigator Risk Act Risk, un outil en ligne gratuit pour la classification des risques des systèmes d'IA. L'outil permet aux entreprises de comprendre si et comment elles sont affectées par la loi sur l'IA. "Notre objectif est de créer une clarté sur les effets de la réglementation de l'IA afin que les entreprises puissent se préparer en temps utile. Si nous prenons en compte la qualité de l'intelligence artificielle dès le début, l'IA digne de confiance peut devenir un argument de vente unique européen", explique Franziska Weindauer, directrice générale de Tüv AI.Lab. Le navigateur à risque AI ACT aide à classer les systèmes d'IA conformément aux classes de risques de la loi sur l'IA et à fournir des informations transparentes sur les exigences applicables.
Exigences en fonction de la classification des risques
La loi UE AI divise les applications de l'IA en quatre classes de risque avec des exigences différentes. Les systèmes à haut risque qui sont utilisés en médecine, en infrastructures critiques ou en gestion du personnel, par exemple, doivent respecter des réglementations strictes sur la transparence, la sécurité et la supervision. En cas de violations, des amendes pouvant aller jusqu'à 15 millions d'euros ou jusqu'à trois pour cent du chiffre d'affaires annuel mondial menacent. Les systèmes à risque limité, tels que les chatbots, n'ont qu'à répondre aux exigences de transparence, tandis que les systèmes à risque minimal, tels que les jeux vidéo simples, ne sont pas réglementés. La classification basée sur les risques garantit que l'utilisation de l'IA est sûre et digne de confiance et en même temps que la force innovante et la pénétration du marché de la technologie sont favorisées.
Pour savoir si et comment votre entreprise est affectée par la loi sur l'IA, vous pouvez appeler le navigateur à risque AI Act sur www.tuev-disfi-navigator.ai.
À propos de l'Association Tüv: En tant que Tüv-Verband E.V., nous représentons les intérêts politiques des organisations de test Tüv et nous sommes engagés dans la sécurité et la durabilité techniques et numériques. Nos membres travaillent conformément aux normes générales et effectuent des examens indépendants pour assurer le niveau élevé de sécurité technique. Nous sommes impliqués dans des échanges réguliers avec la politique, les autorités, les médias, les entreprises et les consommateurs pour renforcer la confiance dans le monde numérique et protéger nos moyens de subsistance.
body>
Kommentare (0)