Az Európai Unióban a világon elsőként szabályozott a mesterséges intelligencia. Mit jelent ez a gyakorlatban? Mi lett tilos, és miért?
Új jogterület született
Chatbot és önvezető autó – a mesterséges intelligencia (AI) már nem science fiction. Aligha van közöttünk, aki ne venné igénybe az AI-rendszerek sokaságát.
Az EU felismerte, hogy mesterséges intelligencia meghatározza a jelenünket – és meg inkább a jövőnket. Kulcskérdéssé vált, mit engedünk, mit tiltunk. 2024-ben ezért is lépett hatályba négy uniós rendelet, lerakva az új jogterület alapjait. Ezek a Digital Services Act (DSA), a Digital Markets Act (DMA), a Data Act és az AI Act. (Lásd: Az Európai Parlament és a Tanács (EU) 2024/1689 rendelete)
Termékbiztonsági elvek a szoftverbiztonságban
Az AI-rendszerek autonómok, ezért működési mechanizmusuk kevésbé átlátható, mint a hagyományos szoftvereké, s a gazdasági és társadalmi viszonyok széles körét érintik. Ez az oka, hogy az AI Act kidolgozása három évig tartott, valamint, hogy terjedelmes és bonyolult lett. A maga nemében első a világon, ezért használja az EU a rendeletre az anglo-amerikai kifejezést, ami a kötelező erejű, átfogó jogszabályokat leírja. Követendő példaként igyekszik a világ elé tárni.
Az európai jogalkotó a termékbiztonság elveit alkalmazza az AI Actben, melyeket például a játékok és a gyógyszerek fogyasztóvédelmi szabályozása terén. Átveszi a CE-jelölést is, amely a termékbiztonsági követelményeknek való megfelelőségét jeleníti meg a fogyasztónak. Garantálja, hogy védi egészségüket és biztonságukat. Az AI Act második szabályozási fókusza az alapjogvédelem, amelyben az EU Alapjogi Chartája az orientáció. Esszenciális kérdés, hisz az AI számottevő kihatással van mindennapjainkra és döntéseinkre, sokszor anélkül, hogy annak tudatában lennénk.
Széles hatály, szerteágazó kötelezettségek
Az AI Act célja egységes európai jogi tér létrehozása, beleértve a fejlesztést, értékesítést és használatba adást is. Ez köszön vissza a jogszabály átfogó AI-definíciójában: „Olyan gépi alapú rendszer, amelyet különböző autonómiaszinteken történő működésre terveztek, és alkalmazkodóképességet tanúsítva a kapott bemenetből kikövetkezteti, miként generáljon olyan kimeneteket, mint például tartalmakat, ajánlásokat vagy döntéseket, amelyek befolyásolhatják a környezetet”.
Hasonlóan széles körű a rendelet hatálya: kiterjed minden szektorra, valamint üzleti, magán és állami szereplőre, aki AI-rendszert fejleszt, vagy fejlesztett, forgalomba hoz, AI-t használó szolgáltatást nyújt, akár ellenszolgáltatásért, akár anélkül, hogy európai az AI-rendszer használója. Tehát az AI Act ugyanúgy vonatkozik a szórakoztató chatbotokra, mint az intelligens porszívókra és az orvosi robotokra, készüljenek akár Európában, akár az Egyesült Államokban.
A szolgáltatók kötelezettségei az AI veszélyességétől függenek. A rendelet eszerint négy AI-rendszert különbözet meg:
(1) minimális kockázatú,
(2) átlátható kockázatú,
(3) magas kockázatú,
(4) elfogadhatatlan kockázatú.

Kockázati szintek az Android Siriétől az áramellátásig
A legtöbb AI-rendszer a magas kockázatú kategóriába tartozik, amin belül két alcsoport van:
(1) Azokba a termékbe épített AI-rendszerek, amelyekre kiterjednek az EU termékbiztonsági szabályai. Például az orvosdiagnosztikai berendezések.
(2) A kritikus infrastruktúrákban használt AI-rendszerek, melyek a közúti közlekedést és a közüzemi szolgáltatásokat jelentik.
A köztelezettség szerteágazó. Így például lépéseket kell tenni az ismert, vagy előre látható, az egészségre, a biztonságra és az alapvető jogokra leselkedő veszélyek azonosítására. Valamint biztosítani kell az AI-rendszer működési dokumentációját, amit felhívásra a működési elvek dokumentációjával együtt a hatóság rendelkezésére kell bocsátani. Ennek érdekében a szolgáltatóknak technikai standardokat kell létrehozniuk.
Az átlátható kockázatú rendszerek esetében csak átláthatósági követelmények vannak. Mindenekelőtt világossá kell tenni a fogyasztók számára, hogy AI-jal vannak kapcsolatban. Ennek tipikus példája a telefonos ügyfélszolgálat robotmunkatársa.
A minimális kockázatú rendszerekre, mint az e-mail-programok spam-filtere, a rendelet nem tartalmaz szabályozást.
Olyan veszélyes, hogy tilos
Az AI Act nyolc részletes, bonyolult pontban definiálja, mi az elfogadhatatlan kockázatú és ezért tiltott AI-rendszer.
(1–2) A szándékos manipulálóra, vagy károkozásra motiváló, ami például hatást fejt ki a nézőre tizedmásodpercnyi képbevágásokkal.
(3) Az életkort, fogyatékosság, a szociális, gazdasági és társadalmi helyzetet kihasználó.
(4) A „Social scoring”, tehát a Kínából hírhedté vált társadalmi pontozórendszer.
(5) Tulajdonságok, karakterjegyek alapján bűncselekmény elkövetési valószínűséget számító szoftverek, mint az Egyesült Államokban használt COMPAS szoftver, melyre a büntetés mértékének magállapításakor és a feltételes szabadságra bocsátáskor hagyatkoznak a bíróságok.
(6) Munkahelyeken és oktatási intézményekben az emberi emóciókat megfigyelő és elemző AI-rendszer. Így a dolgozók arcmimikáját elemző kamera. Viszont megengedett az egészségügyi megfigyelés, például egy vírusjárvány megakadályozása érdekében.
(7) A biometrikus adatokon alapuló (fizikai tulajdonság szerinti) elemzésre, faji hovatartozás, politikai vélemény, világnézeti meggyőződés, vagy szexuális irányultság megállapítására alkalmas szoftver.
(8) A biometrikus megfigyeléssel, tehát arc, testalkat, testtartás, járásmód alapján azonosító AI. Ellenben megengedett a „valós idejű” távoli biometrikus azonosító rendszerek használata, térfigyelő kamerák felvételének elemzése súlyos bűncselekményekkel összefüggésben.
A kockázatalapú szabályozás Achilles-sarka
Speciális szabályok vonatkoznak az általános célú AI-modellekre (General Purpose AI, GPAI), mert a felhasználástól függ a rizikójuk, ezért fejlesztésükkor nem sorolhatók kockázati osztályba. A GPAI lehet minimális kockázatú, ha például fordít, de elfogadhatatlan kockázatú is, ha például biometrikus azonosítást végez. Ezért az EU rendszerszerű kockázatot lát a nagy teljesítményű GPAI-rendszerekben, melyek adatfeldolgozási sebessége több, mint tíz a huszonhatodikon (10^26).
Startupok kérdése: versenyhátrány vagy innovációs potenciál?
Az AI új, izgalmas ág, melynek segítségével számos startup fejleszt. A gazdasági érdekképviseletek egy része versenyhátrányt lát a szigorú szabályozásában, és az európai vállalkozások végleges leszakadásától tart a most is előttünk járó Egyesült Államoktól és Kínától. Egyrészt, mert ami máshol megengedett, Európában tilos lesz. Másrészt, mert a szűkös erőforrásokkal rendelkező induló vállalkozásokra aránytalan terhet ró a bonyolult szabályok elemzése. Nem engedhetik meg maguknak, hogy egy sok munka és jelentős befektetés árán elkészült szoftverről kiderüljön: a tiltott kategóriába kerül, ezért bizonytalanság esetén félő, hogy elállnak a fejlesztéstől.
Ám a szigorú szabályok innovációs potenciált is jelenthetnek. Az európai startupokat arra késztetheti, hogy újszerű megoldásokat dolgozzanak ki, hogy szoftverjeik megfeleljenek a normáknak. Ha beigazolódnak az EU várakozásai, és OECD-standarddá válva más országok is átveszik az AI Actet, keresettek lesznek a már kész európai megoldások.
(A képek AI felhasználásával készültek: Microsoft Bing – Képkészítő)



