Európai AI törvény: A TUV Egyesület üdvözli a szabályozást és egyértelmű végrehajtást igényel

Európai AI törvény: A TUV Egyesület üdvözli a szabályozást és egyértelmű végrehajtást igényel


EU AI törvény hatályba lép: A Tüv AI.Lab a mesterséges intelligencia megfelelőség -ellenőrzését kínálja

Egy úttörő döntésben az európai AI törvény hatályba lépett és új szabályokat hoz a mesterséges intelligencia (AI) számára. A TUV Szövetség üdvözli e rendeletek bevezetését, és felszólít a meglévő végrehajtási kérdések gyors tisztázására. Annak érdekében, hogy támogassák a vállalatokat az új iránymutatásoknak való megfelelésben, a TUV AI.LAB ingyenes online eszközt dolgozott ki, amely lehetővé teszi az AI rendszerek és modellek kockázati osztályozását.

Az AI törvény történelmi lehetőséget kínál a mesterséges intelligencia negatív hatásainak visszatartására és egyidejűleg elősegíti az innovációkat. Ez létrehoz egy globális keretet a biztonságos és megbízható AI -hez, és segíthet Európának a biztonságos AI vezető piacává válni. "Fontos, hogy az AI végrehajtása hatékonyan és korlátozódjon.

szakaszos átmeneti periódusok AI rendszerekhez

Az EU AI -törvény 2024. augusztus 1 -jén lép hatályba a szakaszos átmeneti periódusokkal. Hat hónappal a hatálybalépés után az AI rendszerek, amelyek manipulációs vagy megtévesztő technikákat alkalmaznak, tilos. 2025. augusztus 1-jétől a viselkedési készségek vonatkoznak bizonyos univerzális AI modellekre. Az EU tagállamai a nemzeti hatóságoknak meg kell nevezniük a piaci megfigyelést. 2026 augusztusától kötelező vizsgákra van szükség az AI rendszerek számára a magas kockázatú területeken, például a hitelezés, az emberi erőforrások és a bűnüldözés. Ezek a vizsgák az AI fejlesztõire, az AI szolgáltatókra és a kockázatos AI rendszerek üzemeltetõire vonatkoznak. 2027 -től az AI -re vonatkozó követelmények vonatkoznak az olyan termékekben, amelyekre egy harmadik fél vizsgálata vonatkozik. "Az AI rendszerek vizsgálata bizalmat teremt és már versenyelőnyt jelent.

kihívások a megvalósításban

A kockázat -alapú megközelítés egységes értelmezése és következetes alkalmazása elengedhetetlen az AI -törvény hatékonyságához. Most a tagállamok felelőssége, hogy a végrehajtást hatékonyan és szokatlanul elősegítsék. A szabályok gyakorlati végrehajtásához egyértelműen meghatározott felelősségre és felelősségre van szükség. A magas kockázatú AI rendszerek osztályozására vonatkozó végrehajtási irányelveket a lehető leggyorsabban közzétennie kell az AI irodának (Európai AI irodának), hogy kis- és középvállalatok (kkv-k) nyújtsanak. Fontos az is, hogy szemmel tartsuk az új AI kockázatok és a szisztémás kockázatok fejlesztését az erőteljes univerzális AI modellekben, és előmozdítsuk a szisztematikus AI károsodási jelentési rendszer létrehozását.

tüv ai.lab kockázati navigátor a megfelelési ellenőrzéshez

A "TÜV AI.LAB", a TUV Company közös vállalkozása kidolgozta az AI ACT RISCE Navigator -t, egy ingyenes online eszközt az AI rendszerek kockázati osztályozásához. Az eszköz lehetővé teszi a vállalatok számára, hogy megértsék, hogy az AI -törvény érinti -e őket. "Célunk az, hogy egyértelművé tegyük az AI -szabályozás hatásait, hogy a vállalatok időben felkészülhessenek. Ha a mesterséges intelligencia minőségét figyelembe vesszük a kezdetektől, akkor a megbízható AI európai egyedi értékesítési pontvá válhat" - magyarázza Franziska Weindauer, a Tüv AI.Lab ügyvezető igazgatója. Az AI ACT kockázati navigátor segít az AI rendszerek osztályozásában az AI -törvény kockázati osztályaival összhangban, és átlátható információkat szolgáltat az alkalmazandó követelményekről.

Követelmények a kockázati osztályozástól függően

Az EU AI törvény az AI alkalmazásokat négy kockázati osztályra osztja, eltérő követelményekkel. Például az orvostudományban, a kritikus infrastruktúrákban vagy a személyzetkezelésben alkalmazott magas kockázatú rendszereknek meg kell felelniük az átláthatóság, a biztonság és a felügyelet szigorú előírásainak. A jogsértések esetén akár 15 millió euró vagy a globális éves forgalom legfeljebb három százaléka fenyeget. A korlátozott kockázatú rendszereknek, például a chatbotoknak, csak az átláthatósági követelményeknek kell megfelelniük, míg a minimális kockázattal rendelkező rendszereket, például az egyszerű videojátékokat, nem szabályozzák. A kockázat -alapú osztályozás biztosítja, hogy az AI használata biztonságos és megbízható legyen, és ugyanakkor előmozdítsa a technológia innovatív erejét és piaci penetrációját.

Annak kiderítéséhez, hogy az AI-törvény érinti-e és hogyan érinti-e a vállalatát, és felhívhatja az AI Act Risk Navigator-ot a www.tuev-Disfi-navigator.ai oldalon.

A TUV Association-ről: A TUV-Verband E.V.-ként a TUV tesztszervezetek politikai érdekeit képviseljük, és elkötelezettek vagyunk a műszaki és digitális biztonság és a fenntarthatóság mellett. Tagjaink az általános szabványok szerint dolgoznak, és független vizsgákat végeznek a magas szintű műszaki biztonság biztosítása érdekében. Részt veszünk a politikával, a hatóságokkal, a médiával, a vállalatokkal és a fogyasztókkal való rendszeres cserében a bizalom kiépítésében a digitális világban és megélhetésünk védelme érdekében.

Kommentare (0)