Ley de IA europea: la Asociación Tüv da la bienvenida a la regulación y exige una implementación clara
Ley de IA europea: la Asociación Tüv da la bienvenida a la regulación y exige una implementación clara
La Ley de la EU AI entra en vigencia: Tüv Ai.lab ofrece verificación de cumplimiento de inteligencia artificial
En una decisión innovadora, la Ley Europea de AI ha entrado en vigor y trae nuevas regulaciones para la inteligencia artificial (IA). La Asociación Tüv da la bienvenida a la introducción de estas regulaciones y exige una aclaración rápida de los problemas de implementación existentes. Para apoyar a las empresas de conformidad con las nuevas pautas, el Tüv Ai.lab ha desarrollado una herramienta en línea gratuita que permite la clasificación de riesgos de los sistemas y modelos de IA.
La Ley AI ofrece una oportunidad histórica para contener los efectos negativos de la inteligencia artificial y, al mismo tiempo, promover innovaciones. Crea un marco global para una IA segura y confiable y puede ayudar a Europa a convertirse en un mercado líder para IA segura. "Es importante hacer la implementación de la Ley AI de manera eficiente e impreutorial. Las instituciones independientes juegan un papel crucial, no solo al hacer cumplir los requisitos vinculantes, sino también en el mercado de pruebas de IA voluntaria", explica el Dr. Joachim Bühler, director gerente de la Asociación Tüv.
Períodos de transición escalonados para sistemas AI
La Ley de AI de la UE entra en vigor el 1 de agosto de 2024 con períodos de transición escalonados. Seis meses después de la entrada en vigor, están prohibidos los sistemas de IA que usan técnicas manipuladoras o engañosas. A partir del 1 de agosto de 2025, las habilidades de comportamiento se aplican a ciertos modelos de IA de uso múltiple. Los Estados miembros de la UE deben nombrar a las autoridades nacionales para la vigilancia del mercado. Desde agosto de 2026, se requieren exámenes obligatorios para sistemas de IA en áreas de alto riesgo como préstamos, recursos humanos y aplicación de la ley. Estos exámenes se refieren a desarrolladores de IA, proveedores de IA y operadores de sistemas de IA arriesgados. A partir de 2027, se aplican los requisitos para la IA en productos sujetos a un examen de tercera parte. "El examen de los sistemas de IA crea confianza y ya es una ventaja competitiva. Las empresas ahora deben familiarizarse con los requisitos, especialmente con respecto a los períodos de transición. Es importante estimar cómo y dónde la Ley de IA afecta sus actividades", enfatiza Bühler.
Desafíos en la implementación
eine einheitliche interpretación und konsequente anwendung des risikobasierten ansatzes sind ent entscheidend für die wirksamkeit des ai actos. Ahora es responsabilidad de los Estados miembros promover la implementación de manera eficiente y no surgrática. Klar definitivamente Verantwortlichkeiten und zuständigkeiten sindnwendig, um die vorschriften en der praxis umzusetzen. La oficina de IA (Oficina Europea de IA (Oficina Europea de IA) debe publicar las pautas de implementación para la clasificación de sistemas de IA de alto riesgo para ofrecer pequeñas y medianas empresas (PYME). También es importante vigilar el desarrollo de nuevos riesgos de IA y riesgos sistémicos en los potentes modelos de IA de uso múltiple y promover el establecimiento de un sistema de informes de daños de IA sistemáticos.
tüv ai.lab navegador de riesgos para la verificación de cumplimiento
El "Tüv Ai.lab", una empresa conjunta de la Compañía Tüv, ha desarrollado la AI ACT Risk Navigator, una herramienta en línea gratuita para la clasificación de riesgos de los sistemas de IA. La herramienta permite a las empresas comprender si se ven afectados por la Ley AI. "Nuestro objetivo es crear claridad sobre los efectos de la regulación de la IA para que las empresas puedan prepararse a tiempo. Si tenemos en cuenta la calidad en la inteligencia artificial desde el principio, la IA confiable puede convertirse en un punto de venta único europeo", explica Franziska Weindauer, directora gerente de Tüv Ai.lab. La Ley AI de la Ley de Riesgos Navigator ayuda a clasificar los sistemas de IA de acuerdo con las clases de riesgo de la Ley de IA y a proporcionar información transparente sobre los requisitos aplicables.
Requisitos dependiendo de la clasificación de riesgos
La Ley de AI de la UE divide las aplicaciones AI en cuatro clases de riesgo con diferentes requisitos. Los sistemas con alto riesgo que se utilizan en medicina, infraestructuras críticas o gestión del personal, por ejemplo, deben cumplir con regulaciones estrictas sobre transparencia, seguridad y supervisión. En caso de violaciones, las multas de hasta 15 millones de euros o hasta el tres por ciento de la facturación anual global amenazan. Los sistemas con riesgo limitado, como los chatbots, solo tienen que cumplir con los requisitos de transparencia, mientras que los sistemas con un riesgo mínimo, como los videojuegos simples, no están regulados. La clasificación basada en el riesgo asegura que el uso de IA sea seguro y confiable y al mismo tiempo se promueva la fortaleza innovadora y la penetración de la tecnología del mercado.
Para averiguar si su empresa se ve afectada por la Ley de AI, puede llamar a la Ley AI de la Ley Navegador en www.tuev-disfi-navigator.ai.
Acerca de la Asociación Tüv: como Tüv-Verand E.V., representamos los intereses políticos de las organizaciones de pruebas de TüV y estamos comprometidos con la seguridad y la sostenibilidad técnica y digital. Nuestros miembros trabajan de acuerdo con los estándares generales y realizan exámenes independientes para garantizar el alto nivel de seguridad técnica. Estamos involucrados en un intercambio regular con política, autoridades, medios de comunicación, empresas y consumidores para generar confianza en el mundo digital y para proteger nuestros medios de vida.
Kommentare (0)