Artifical Intelligence Act (AIA)

A mesterséges intelligencia rendszerek szabályozására irányuló EU-s szabályozás tervezet

Ebben a sorozatban bemutatjuk és nyomon követjük a „Big Five” adat jogszabálytervezet sorsát az EU jogalkotásában. 2020-ban a Bizottság öt adat vonatkozású jogszabály tervét hozta nyilvánosságra. Ezek célja, hogy biztosítsák az egységes piac globális versenyképességét a digitális gazdaságban.   

A „Big Five” adat jogszabálytervezet:

Digital Services Act  Digital Markets ActData Governance Act
Data ActArtificial Intelligence Act   

Az AIA státusza jelenleg

2021. áprilisában az Európai Bizottság benyújtotta a mesterséges intelligencia rendszerek szabályozására irányuló rendelet javaslatát (2021/0106(COD)). A mesterséges intelligenciáról szóló AIA az első olyan globálisan is jelentős kísérlet, amely ténylegesen és érdemben szabályozná a mesterséges intelligenciát. A javaslat szövege jelenleg nem végleges, arról továbbra is jelentős viták folynak mind az Európai Parlementben, mind a Tanácsban.

Az IMCO-LIBE közös AIA jelentéséről szóló szavazást jelenleg 2022. október 26-27-re tervezik. Ezt várhatóan 2022 novemberében plenáris szavazás követi.

A javaslat célja

Az AI az elmúlt években a mindennapjaink részévé vált, ezeket a rendszereket elterjedten használja például a gazdaság- és orvostudomány, a mérnöki tervezés, a katonaság, a bűnüldözés, elterjedt számítógépes programok és videójátékok, ajánló rendszerek, chatbotok, ügyfélszolgálatok és tartalom előállítók is.

A javaslat, azt kívánja biztosítani, hogy az uniós piacon forgalomba hozott és használt mesterséges intelligencia rendszerek biztonságosak legyenek, tiszteletben tartsák az alapvető jogokra és az uniós értékekre vonatkozó hatályos jogszabályokat, valamint jogbiztonságot biztosítsanak a beruházások és az innováció elősegítése érdekében. A mesterséges intelligencia felhasználását különböző kockázati szintek szerint osztályozzák, és néhány alkalmazást, például a szociális pontozást („social scoring”) betiltják, mivel azok elfogadhatatlan kockázatot jelentenek.

A jogalkotó félig-meddig kimondott célja az úgynevezett „Brüsszel-hatás” elérése is. Kihasználva a 450 millió fogyasztóból álló EU-s közös piac húzóerejét és azt, hogy az elsők között szabályozná a területet az EU-s jogalkotók azt remélik, hogy a GDPR-hoz hasonlóan egy nemzetközi sztenderdet teremtenek a szabályozásban. Arról, hogy miért lesz valószínűleg korlátozottabb és kevésbé jelentős a Brüsszel-hatás az AIA tekintetében a Brookings írt egy szuper elemzést, amit ajánlunk a téma iránt érdeklődőknek.

A mesterséges intelligencia definíciója az AIA-ben

A mesterséges intelligencia megfelelő jogi definíciójának felállítása rendkívüli jogalkotói kihívást jelent. Az AIA első tervezete a következőképpen definiálja a mesterséges intelligencia rendszereket:

„olyan szoftver, amelyet az I. mellékletben felsorolt technikák és megközelítések közül egy vagy több alkalmazásával fejlesztettek, és amely az ember által meghatározott célkitűzések adott csoportja tekintetében olyan kimeneteket, például tartalmat, előrejelzéseket, ajánlásokat vagy döntéseket képes generálni, amelyek befolyásolják azt a környezetet, amellyel kölcsönhatásba lépnek”

Ez az első tervezetben foglalt definíció számos nagyon komoly kritikát váltott ki mind a tagállamok, mind a lobbiérdekek mentén szerveződő gazdasági szereplők között. Ezen kritikák központi eleme, hogy a definíció túl tág. Érthető módon a gazdasági szereplők (különösen a technológiai szektor) igyekezne szűkíteni és konkretizálni a meghatározást. Ennek eredményeképpen például a francia elnökség kompromisszumos javaslata  már egy jelentősen szűkebb változatot tartana elfogadhatónak. Ennek a lobbi folyamatnak részletes összefoglalásával kapcsolatban javasoljuk az alábbi Wired cikket: link.

Kockázat alapú megközelítés

A tág MI definíció egyik legfontosabb oka az eredeti javaslatban, hogy az AIA az MI rendszerek elsősorban a magas kockázatú az embereket leginkább veszélyeztető felhasználását célozza szabályozni.  

Az AIA egy kockázat piramison alapuló megközelítést és egy modern, többszintű végrehajtási mechanizmust ötvöz. Ez többek között azt jelenti, hogy az elhanyagolható kockázatú mesterséges intelligencia-alkalmazásokra szinte semmilyen jogi szabályozás sem vonatkozik, eközben az elfogadhatatlan kockázatú alkalmazások teljes tilalom alá esnek.

A spektrum szélső értékei között a kockázat növekedésével egyre szigorúbb szabályokat kell alkalmazni. Ezek a nem kötelező erejű, puha önszabályozó hatásvizsgálatoktól, kötelező magatartási kódexeken át, egészen a súlyos, külső ellenőrzéssel ellenőrzött megfelelési követelményekig terjednek az alkalmazás teljes életciklusa során.

KategóriaPéldaSzabályozási eszköz
Elfogadhatatlan kockázatA tiltott AI-rendszerek közé tartoznak a kizsákmányoló vagy manipulatív gyakorlatok, például amelyek ún. szubliminális technikákat alkalmaznak a felhasználó tudatán kívül annak érdekében, hogy lényegesen torzítsák a  magatartását és ezzel testi vagy lelki károsodást okozhatnak vagy például a hatóságok által végzett AI-alapú társadalmi pontozás.  Teljes tilalom
Magas kockázatAz AIA egy általános definíciót és konkrét példákat is meghatároz az ilyen felhasználásokra pl.:  

biometrikus azonosítás,

hitelképesség vizsgálata, 

munkaerő toborzás, kiválasztás, jelentkezők előszűrése, munkaszerződés megszüntetése,

oktatás és szakképzés során használt egyes rendszerek,

alapvető fontosságú magán és
közszolgáltatásokhoz való hozzáférés,

bűnüldözés során használt egyes rendszerek,  

migárcióval, menekültüggyel, határellenőrzéssel összefüggő egyes rendszerek, valamint

olyan MI-rendszerek, amelyek célja, hogy segítsék az igazságügyi hatóságokat a tények és a jog kutatásában és értelmezésében, valamint a jog konkrét tényállásra történő alkalmazásában.  
Kötelező követelményeknek, pl.: különös adatkezelési szabályok, dokumentáció és nyilvántartás, átláthatóság és a felhasználók tájékoztatása, emberi felügyelet, robusztusság, pontosság és biztonság, valamint előzetes megfelelőségértékelés.
Korlátozott kockázatAz AIA kifejezetten nevesíti ezeket pl. természetes személyekkel való interakcióra szánt MI-rendszerek (chatbotok), vagy érzelemfelismerő rendszerek.  Csak átláthatósági követelmények, pl. tájékoztatás, hogy a másik oldalon egy gép (és nem ember) áll kapcsolatban a felhasználóval.
Minimális kockázatMinden más MI rendszer, amely nem jelent kockázatot a polgárok alapvető jogaira.Nincs kötelezettség.

Szankciók

A tervezet jelenlegi szövege szerint a szabályokat be nem tartó szervezetek akár 30 millió eurós, vagy a vállalatok esetében a teljes éves globális bevételük akár 6 százalékának megfelelő bírságra is számíthatnak, mely a jogalkotók reménye szerint megfelelő visszatartó erővel rendelkezik és elrettentő hatással bírhat a vállalatok számára. A tapasztalatok azt mutatják, hogy Európa nem fél a bírságok kiszabásától az (amerikai) technológiai vállalatokra. Az Amazon 2021-ben 746 millió eurós bírságot kapott a GDPR megsértése miatt, a Google-t pedig 2018-ban 4,3 milliárd eurós bírsággal sújtották az unió trösztellenes törvényeinek megsértése miatt.

Szerzők:

Simon Ádám

ügyvéd

adam.simon@twobirds.com

Nagy Dorottya

ügyvédjelölt

dorottya.nagy@twobirds.com



Categories: Innováció, Közösségi jog, Uncategorized

Tags: , , , , ,