Ugrás a tartalomra

Alkalmazandó az AI Act újabb mérföldköve

2025. szeptember 25.

A cikk az MKIK Digitalizációs Kollégiuma által tavasszal elindított cikksorozat folytatása, mely közérthető módon mutatja be a vállalkozásokat érintő aktuális digitalizációs témákat, jogszabályokat és kötelezettségeket.

Szakértő: Dr. Szakolyi András

(Jogász, adatvédelmi szakjogász, mesterséges intelligencia szakjogász, vezető tanácsadó adatvédelmi és információbiztonsági területen – ISO27001 LA, ISO42001 LA, DPO, IBF)

 

Összefoglalás

A 2024. augusztus 1-jén hatályba lépett AI Act fokozatosan válik alkalmazandóvá, a következő kritikus mérföldkő 2025. augusztus 2-a volt. Ez a dátum nem csupán egy újabb határidő a naptárban, hanem egy fundamentális elmozdulást jelez a szabályozás logikájában: a kezdeti, tiltó jellegű rendelkezések után a jogalkotó most az aktív, intézményesített irányítás és a piac legbefolyásosabb szereplőinek, az általános célú MI-modellek (GPAI) fejlesztőinek szabályozása felé fordul.

 

Ezen a napon léptek életbe azok a kulcsfontosságú rendelkezések, amelyek az egész szabályozási keretrendszer gerincét alkotják. Létrejött és megkezdte működését az Európai Mesterséges Intelligencia Hivatal, amely központi felügyeletet gyakorol a legfejlettebb alapmodellek felett. Ezzel párhuzamosan a tagállamoknak, így Magyarországnak is ki kell jelölniük saját nemzeti hatóságaikat, amelyek a helyi piacokon biztosítják a jogszabály érvényesülését. Hazánkban a hatósági feladatokat részben a Nemzeti Akkreditáló Hatóság (bejelentő hatósági feladatok), részben az NGM alatt létrejövő önálló, hatósági jogkörrel rendelkező szervezeti egység (piacfelügyeleti feladatok) fogja ellátni.

A legjelentősebb változás a vállalkozások számára az általános célú MI-modellek (mint például a GPT-4 vagy a Gemini) szolgáltatóira vonatkozó új kötelezettségek bevezetése. Ezek a cégek mostantól kötelesek lesznek részletes technikai dokumentációt fenntartani, átláthatóságot biztosítani a modelljeik tanítási adatai és képességei kapcsán, valamint betartani az uniós szerzői jogi szabályokat. Ez a transzparencia-követelmény egy "megfelelőségi információk ellátási láncát" hozza létre, amely elengedhetetlen lesz a későbbiekben a magas kockázatú rendszereket alkalmazó vállalatok számára.

Végül, de nem utolsósorban 2025. augusztus 2-án aktiválódott a rendelet szankciórendszere. Ettől a naptól kezdve a hatóságok jogosulttá váltak súlyos, akár 35 millió eurót vagy a globális éves árbevétel 7%-át is elérő bírságokat kiszabni a szabályszegőkre. Ez a pénzügyi kockázat cselekvésre kellene, hogy késztesse a magyar vállalkozásokat, amelyeknek haladéktalanul meg kell kezdeniük MI-rendszereik felmérését, kockázati besorolását és a belső megfelelési stratégiájuk kidolgozását.

A 2025-ös dátum tehát egyértelműen jelzi: a felkészülési időszak véget ért, a felelősség korszaka elkezdődött.

Az AI Act Lépcsőzetes Hatálybalépése

Az Európai Unió mesterséges intelligenciáról szóló rendelete, amely 2024. július 12-én jelent meg az EU Hivatalos Lapjában és 2024. augusztus 1-jén lépett hatályba, a világ első átfogó horizontális jogi keretrendszere az MI szabályozására. A 2024.02.02-től egészen 2030-ig tartó többlépcsős alkalmazási kötelezettség lehetővé teszi a piac szereplői számára a fokozatos felkészülést és a szükséges megfelelési struktúrák kiépítését.

1. fázis (2025. február 2.) – Tiltó rendelkezések

Az ütemterv első jelentős állomása 2025. február 2-a volt. Ekkor léptek hatályba a rendelet legszigorúbb, tiltó rendelkezései (I. és II. fejezet). Ettől a naptól kezdve tilos az EU piacán olyan MI-rendszereket forgalomba hozni vagy használni, amelyek "elfogadhatatlan kockázatot" jelentenek az uniós értékekre, az alapvető jogokra és a biztonságra. Ide tartoznak többek között:

  • A tudat alatti vagy manipulatív technikákat alkalmazó rendszerek.
  • A sebezhető csoportok kihasználására épülő MI-alkalmazások.
  • A hatóságok által végzett, általános célú "társadalmi pontozás" (social scoring).
  • A legtöbb, nyilvánosan hozzáférhető helyen történő, valós idejű távoli biometrikus azonosítás.
  • Az érzelmek felismerésére szolgáló rendszerek a munkahelyeken és oktatási intézményekben.4

Ezzel egy időben alkalmazandó lett a 4. cikk, amely az MI-műveltségre, amely az MI-jártasságra vonatkozó általános kötelezettséget írja elő, arra ösztönözve a szolgáltatókat és alkalmazókat, hogy biztosítsák a személyzetük megfelelő szintű képzését.

 

Ez a fázis fektette le a szabályozás etikai alapjait, egyértelműen kijelölve azokat a vörös vonalakat, amelyeket a technológia fejlődése nem léphet át.

 

2. fázis (2025. augusztus 2.): Az irányítás és a GPAI-modellek szabályozásának kezdete

2025. augusztus 2-a, a szabályozás második, kulcsfontosságú fázisát jelenti. Ekkor a hangsúly a tiltásról az aktív irányításra és a modern MI-ökoszisztéma alapköveinek számító általános célú MI-modellek (General-Purpose AI - GPAI) szabályozására helyeződik át. Ezen a napon váltak alkalmazandóvá a következő fejezetek:

  • Az általános célú MI-modellekre vonatkozó szabályok (V. fejezet).
  • Az uniós és tagállami irányítási struktúrák (VII. fejezet).
  • A bejelentő hatóságokra és bejelentett szervezetekre vonatkozó szabályok (III. fejezet, 4. szakasz).
  • A szankciórendszer (XII. fejezet).

 A jogalkotó először a teljes MI-piacot meghatározó alapmodellek (pl. a ChatGPT-t vagy a Gemini-t működtető technológiák) fejlesztőire ró kötelezettségeket. Ezzel egy "megfelelőségi információk ellátási láncát" hozza létre, amely biztosítja, hogy a későbbi fázisokban szabályozott, magas kockázatú rendszereket fejlesztő és alkalmazó vállalatok hozzájussanak a kockázatértékelésükhöz szükséges adatokhoz. Az intézményi háttér és a szankciók egyidejű bevezetése pedig egyértelművé teszi, hogy a jogszabály betartatása komoly erőt kap.

Jövőbeli fázisok (2026–2027): A magas kockázatú rendszerek megfelelési határidői

Az ütemterv további fontos állomásai a magas kockázatú MI-rendszerekre vonatkozó kötelezettségek hatálybalépése:

  • 2026. augusztus 2.

A rendelet általánosan alkalmazandóvá válik. Ekkor lépnek életbe a III. mellékletben felsorolt magas kockázatú rendszerekre (pl. biometria, kritikus infrastruktúra, oktatás, foglalkoztatás, bűnüldözés) vonatkozó kötelezettségek.

  • 2027. augusztus 2.

Az I. mellékletben szereplő, már meglévő uniós termékbiztonsági jogszabályok (pl. játékok, orvostechnikai eszközök) alá tartozó termékek biztonsági komponenseiként működő magas kockázatú rendszerekre is kiterjednek a szabályok.

Az alábbi táblázat áttekintést nyújt a legfontosabb alkalmazási határidőkről.

 

1. táblázat: Az AI Act Főbb Alkalmazási Határidői

Dátum:

Alkalmazandó rendelkezések

Főbb érintett szereplők

2025. február 2.

Elfogadhatatlan kockázatú MI-rendszerek tilalma (V. cikk); MI-műveltségre vonatkozó kötelezettségek (IV. cikk).

Minden MI-szolgáltató és -alkalmazó.

2025. augusztus 2.

Általános célú MI-modellekre (GPAI) vonatkozó szabályok (V. fejezet); Irányítási struktúrák (AI Hivatal, AI Testület, nemzeti hatóságok) (VII. fejezet); Szankciók (XII. fejezet).

GPAI-modell szolgáltatók, EU-s és nemzeti hatóságok.

2026. augusztus 2.

A rendelet általános alkalmazása; Magas kockázatú MI-rendszerekre (III. melléklet) vonatkozó kötelezettségek.

Magas kockázatú rendszerek szolgáltatói és alkalmazói.

2027. augusztus 2.

Magas kockázatú MI-rendszerekre (I. melléklet, mint biztonsági komponensek) vonatkozó kötelezettségek; A 2025. augusztus 2. előtt piacra dobott GPAI-modelleknek meg kell felelniük.

Bizonyos termékek gyártói, korábbi GPAI-szolgáltatók.

2030. december 31.

A X. mellékletben felsorolt, nagyméretű IT-rendszerek részeként működő, 2027. augusztus 2. előtt piacra dobott MI-rendszereknek meg kell felelniük.

Nagyméretű uniós IT-rendszerek üzemeltetői.

 

A 2025. Augusztus 2-től Alkalmazandó Új Szabályok Részletes Elemzése

Az általános célú MI-modellekre (GPAI) vonatkozó kötelezettségek (V. fejezet)

A rendelet egyik legfontosabb újítása az általános célú MI-modellek (GPAI) külön kategóriaként történő szabályozása. A GPAI-modell olyan MI-modell, amely "jelentős általánossággal" bír, képes sokféle, eltérő feladatot kompetensen elvégezni, és számos későbbi rendszerbe vagy alkalmazásba integrálható. Tipikusan ilyenek a nagy nyelvi modellek (pl. GPT-sorozat, Llama, Gemini) és más alapmodellek.

A rendelet V. fejezete, amely 2025. augusztus 2-án vált alkalmazandóvá, a következő főbb kötelezettségeket írja elő a GPAI-modellek szolgáltatói számára:

  1. Technikai dokumentáció (53. cikk)

A szolgáltatóknak részletes technikai dokumentációt kell készíteniük és naprakészen tartaniuk. Ennek tartalmaznia kell többek között a modell tanítási és tesztelési folyamatára, valamint az értékelési eredményekre vonatkozó információkat. Ezt a dokumentációt kérésre be kell nyújtaniuk az Európai Mesterséges Intelligencia Hivatalnak.

  1. Információnyújtás a tovább felhasználok számára

 A GPAI-szolgáltatóknak kötelességük ellátni azokat a downstream szolgáltatókat (azaz azokat a vállalatokat, amelyek a GPAI-modellt a saját magas kockázatú MI-rendszerükbe építik) a szükséges információkkal és dokumentációval, amelyek lehetővé teszik számukra a saját megfelelési kötelezettségeik teljesítését. Ez a pont teremti meg a már említett "megfelelőségi információk ellátási láncát".

  1. Szerzői jogi megfelelés

A szolgáltatóknak ki kell dolgozniuk és nyilvánosan elérhetővé kell tenniük egy olyan szabályzatot, amely bemutatja, hogyan tartják tiszteletben az uniós szerzői jogi jogszabályokat a modell tanítása során felhasznált adatokkal kapcsolatban.

  1. Meghatalmazott képviselő (54. cikk)

 Azoknak a GPAI-szolgáltatóknak, amelyek nem az EU-ban telepedtek le, meg kell bízniuk egy uniós meghatalmazott képviselőt, aki a nevükben eljár a hatóságok felé.

Ezen felül, a "rendszerszintű kockázatot" jelentő, legfejlettebb GPAI-modellek szolgáltatóira további, szigorúbb kötelezettségek is vonatkoznak, mint például a modell alapos tesztelése, a rendszerszintű kockázatok felmérése és mérséklése, valamint a súlyos incidensek jelentése.

A szankciórendszer alkalmazása (XII. fejezet)

A megfelelés kikényszerítésének leghatékonyabb eszköze a szankciók kilátásba helyezése. A rendelet XII. fejezete, amelynek nagy része 2025. augusztus 2-től alkalmazandó, egyértelművé teszi, hogy a szabályszegésnek súlyos pénzügyi következményei lehetnek.

A tagállamoknak eddig a dátumig kellett megállapítaniuk a nemzeti bírságolási szabályaikat és értesíteniük a Bizottságot. Ez azt jelenti, hogy a hatóságok ettől a naptól kezdve képesek lesznek bírságot kiszabni a már hatályban lévő szabályok (pl. a tiltott MI-gyakorlatok) és az újonnan életbe lépő GPAI-szabályok megsértése esetén. A rendelet egyértelműen jelzi, hogy a bírságoknak "hatékonyaknak, arányosaknak és visszatartó erejűeknek" kell lenniük. A bírságok mértéke a jogsértés súlyosságától függően három fő sávban mozog:

2. táblázat: Szankciók az AI Act Megsértése Esetén

Jogsértés típusa

Maximális bírság (EUR)

Maximális bírság (globális éves árbevétel %)

Tiltott MI-gyakorlatok (V. cikk) megsértése

35 millió EUR

7%

Egyéb központi kötelezettségek megsértése (pl. magas kockázatú rendszerek, GPAI-modellek szabályai)

15 millió EUR

3%

Helytelen, hiányos vagy félrevezető információ szolgáltatása a hatóságoknak

7,5 millió EUR

1%

Megjegyzés: A bírságok a két érték közül a magasabbat jelentik. KKV-k és startupok esetében a rendelet a számukra kedvezőbb, alacsonyabb küszöbérték alkalmazását írja elő.

 

A szankciórendszer 2025-ös aktiválása egyfajta "figyelmeztető lövés" az iparág számára. Bár a legtöbb vállalatra vonatkozó, magas kockázatú rendszerekkel kapcsolatos kötelezettségek csak 2026-ban lépnek életbe, a hatalmas bírságok kiszabásának jogi lehetősége már egy évvel korábban megnyílik. Ez azonnali cselekvésre ösztönzi a GPAI-szolgáltatókat, és nyomást helyez minden vállalatra, hogy felgyorsítsa a felkészülést a jövőbeli határidőkre is. A rendelet ezzel a lépéssel egy "jövőbeli problémából" egy "jelenlegi kockázattá" válik.

 

Az uniós és tagállami irányítási struktúrák felállítása (VII. fejezet)

Az AI Act hatékony végrehajtásához elengedhetetlen egy robusztus intézményi háttér. A VII. fejezet, amely szintén 2025. augusztus 2-án lépett életbe, létrehozza ezt a többszintű irányítási rendszert.

  • Uniós szinten:
    • Európai Mesterséges Intelligencia Hivatal (AI Office), amely Bizottságon belül létrehozott központi szakértői szerv, amely a rendelet egységes alkalmazását felügyeli, és ami a legfontosabb, közvetlen végrehajtási hatáskörrel rendelkezik a GPAI-modellek felett. https://digital-strategy.ec.europa.eu/en/policies/ai-office

 

    • Európai Mesterséges Intelligencia Testület (AI Board), amely tagállamok képviselőiből álló tanácsadó és koordinációs testület, amelynek feladata az egységes joggyakorlat elősegítése és a Bizottság segítése. https://digital-strategy.ec.europa.eu/en/policies/ai-board
  • Tagállami szinten:
    • Nemzeti illetékes hatóságok (70. cikk), minden tagállamnak ki kell jelölnie legalább egy piacfelügyeleti hatóságot és egy bejelentő hatóságot. Ezeknek a hatóságoknak elegendő pénzügyi és emberi erőforrással, valamint szakértelemmel kell rendelkezniük feladataik ellátásához. A tagállamoknak 2025. augusztus 2-ig kellett közölniük a Bizottsággal ezen hatóságok kilétét.

Az Európai Mesterséges Intelligencia Hivatal (AI Office) -A központi szakértői szerv

Az Európai Bizottságon belül létrehozott AI Hivatal az EU MI-szakértelmének központja és a szabályozás motorja. Több mint 140 fős, technológiai szakértőkből, jogászokból és szakpolitikai specialistákból álló stábbal működik, öt fő szervezeti egységre tagolódva (pl. "Szabályozás és Megfelelés", "MI Biztonság").

Fő feladatai:

  • GPAI-modellek felügyelete - Az AI Hivatal legfontosabb közvetlen végrehajtási hatásköre a GPAI-modellek, különösen a rendszerszintű kockázatot jelentő modellek felügyelete. Vizsgálatokat folytathat, információkat kérhet be a szolgáltatóktól, és szankciókat kezdeményezhet a szabályszegőkkel szemben.
  • Egységes végrehajtás biztosítása - Iránymutatások, végrehajtási aktusok és egyéb eszközök kidolgozásával támogatja a rendelet egységes alkalmazását a tagállamokban.
  • Nemzetközi képviselet: Az AI Hivatal képviseli az EU-t a globális MI-kormányzási vitákban, előmozdítva az emberközpontú és megbízható MI európai megközelítését.

 

Az Európai Mesterséges Intelligencia Testület (AI Board) és a tanácsadó fórumok

Az AI Hivatal munkáját több testület is segíti:

  • Az Európai Mesterséges Intelligencia Testület (AI Board) a tagállamok által delegált képviselőkből áll. Elsődleges szerepe tanácsadó és koordinatív: a legjobb gyakorlatok megosztásával és a nemzeti hatóságok közötti együttműködés elősegítésével biztosítja a rendelet következetes alkalmazását.
  • A Tudományos Testület és Tanácsadó Fórum egy független szakértőkből álló Tudományos Testület, valamint egy, az iparág, a tudomány és a civil társadalom képviselőit tömörítő Tanácsadó Fórum nyújt technikai és szakértői támogatást az AI Hivatal és a Testület számára.

A Magyarországi végrehajtás, a nemzeti hatóságok kialakítása

Mivel az EU-rendeletek közvetlenül alkalmazandók Magyarországon, a magyar jogalkotás feladata a végrehajtáshoz szükséges intézményi keretek és eljárási szabályok megteremtése. A kormány a 1301/2024. (IX. 30.) számú kormányhatározatban vázolta fel a hazai végrehajtás struktúráját.

  • Hazánkban a hatósági feladatokat részben a Nemzeti Akkreditáló Hatóság (bejelentő hatósági feladatok), részben az NGM alatt létrejövő önálló, hatósági jogkörrel rendelkező szervezeti egység (piacfelügyeleti feladatok) fogja ellátni. Emellett a nemzeti MI szabályozási tesztkörnyezet (regulatory sandbox) működtetése is a feladata lesz. A létrehozásáról szóló törvényjavaslatot a parlament a 2025. őszi ülésszakán tárgyalhatja. Ez a modell egy erősen központosított hazai felügyeleti struktúrát vetít előre.
  • Magyar Mesterséges Intelligencia Tanács, ‒ a kormányhatározat egy MI-kormánybiztos vezetésével működő Magyar Mesterséges Intelligencia Tanács felállításáról is rendelkezik. Ennek a testületnek a feladata iránymutatások és állásfoglalások kiadása lesz, tehát szerepe inkább tanácsadó és stratégiai jellegű, kiegészítve a Hivatal operatív végrehajtói munkáját.

Ez a kétszintű (uniós és nemzeti) végrehajtási modell potenciális komplexitást rejt a vállalkozások számára. Egy magyar cég, amely egy új GPAI-modellt fejleszt, elsősorban az uniós AI Hivatal felügyelete alá tartozik. Ha azonban ugyanez a cég egy magas kockázatú rendszert (akár egy külső GPAI-modellre építve) alkalmaz a magyar piacon, akkor a Magyar Mesterséges Intelligencia Hivatalnak kell megfelelnie. A vállalatoknak tehát pontosan fel kell mérniük, hogy tevékenységük mely része melyik hatóság hatáskörébe tartozik, és fel kell készülniük a két szint közötti lehetséges koordinációra.

 

3. táblázat: Az AI Act Irányítási és Végrehajtó Szervei

Hatóság/Testület

Szint

Elsődleges szerepkör

Hivatalos honlap / kapcsolat

Európai Mesterséges Intelligencia Hivatal (AI Office)

EU

GPAI-modellek felügyelete, egységes végrehajtás koordinálása, nemzetközi képviselet.

digital-strategy.ec.europa.eu/en/policies/ai-office

Európai Mesterséges Intelligencia Testület (AI Board)

EU

Tanácsadás, koordináció a nemzeti hatóságok között.

Az AI Hivatal honlapján keresztül érhető el.

A NAK és az NGM létrehozandó új szervezeti egysége

Nemzeti (Magyarország)

Piacfelügyelet, bejelentő hatóság, szabályozási tesztkörnyezet működtetése.

https://www.nah.gov.hu/ a másik hivatal a Nemzetgazdasági Minisztérium szervezeti keretein belül fog működni.

Magyar Mesterséges Intelligencia Tanács

Nemzeti (Magyarország)

Tanácsadás, iránymutatások, stratégiai állásfoglalások.

Létrehozás alatt.

 

Az Európai Bizottság Iránymutatása a GPAI-Modellek Szolgáltatói Számára

Felismerve, hogy a jogszabályi szöveg és a gyakorlati megvalósítás között szakadék tátonghat, az Európai Bizottság 2025. július 18-án egy jogilag nem kötelező erejű iránymutatást tett közzé a GPAI-modell szolgáltatók számára. https://digital-strategy.ec.europa.eu/en/policies/guidelines-gpai-providers  Ennek célja, hogy a 2025. augusztus 2-i határidő előtt egyértelművé tegye a Bizottság jogértelmezését, segítve a szereplőket a felkészülésben, különösen mivel a hivatalos harmonizált szabványok kidolgozása még folyamatban van és csúszásokat szenvedhet.

Az iránymutatás legfontosabb pontjai a következők:

  • Egyértelmű definíciók: konkrét technikai kritériumokat ad arra, hogy mikor tekinthető egy modell "általános célúnak", segítve a fejlesztőket annak eldöntésében, hogy rájuk vonatkoznak-e a kötelezettségek.
  • Pragmatikus megközelítés: tisztázza, hogy csak a modell "jelentős módosítása" vonja maga után a szolgáltatói kötelezettségeket, mentesítve azokat, akik csak kisebb finomhangolást végeznek. Ez kulcsfontosságú azon vállalatok számára, amelyek meglévő nyílt forráskódú modellekre építenek.
  • Nyílt forráskódú mentességek: részletezi, milyen feltételek mellett mentesülnek a nyílt forráskódú modellek szolgáltatói bizonyos kötelezettségek alól, ezzel próbálva egyensúlyt teremteni a biztonság és az innováció ösztönzése között.

Az önkéntes Magatartási Kódex

Az iránymutatás szorosan kapcsolódik az ún. Magatartási Kódexhez (The General-Purpose AI Code of Practice), amelyet széles körű szakértői és iparági bevonással dolgoztak ki, és 2025. július 10-én nyújtottak be a Bizottságnak. https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai  Ez a Kódex egy önkéntes eszköz, amely gyakorlati útmutatást ad a szolgáltatóknak arról,

hogyan tudnak megfelelni a jogszabályi kötelezettségeknek.

A Kódex főbb tartalmi elemei:

  • Átláthatóság, sablont biztosít a technikai dokumentációhoz, és szabályokat állapít meg annak frissítésére és megőrzésére.
  • Szerzői jog, konkrét vállalásokat fogalmaz meg a szerzői jogok tiszteletben tartására, például a géppel olvasható tiltások (pl. robots.txt) figyelembevételére és a jogsértő tartalmakat közlő oldalakról való adatgyűjtés kerülésére.
  • Biztonság, intézkedéseket ír elő a rendszerszintű kockázatok felmérésére és mérséklésére, különösen a legfejlettebb modellek esetében.

Bár a Kódexhez való csatlakozás önkéntes, stratégiai jelentősége óriási. A Bizottság és az AI Hivatal egyértelművé tette, hogy az aláírók proaktív megfelelési szándékot jeleznek, ami "csökkentett adminisztratív terhet" és "nagyobb jogbiztonságot" eredményezhet, mivel várhatóan enyhébb hatósági vizsgálatoknak lesznek kitéve. Ez a helyzet egyfajta harctérré változtatta a Kódexet, ahol a nagy technológiai cégek a felelős MI-ről alkotott filozófiájukat és a szabályozókkal való viszonyukat pozícionálják. A piac látványosan kettészakadt: míg az OpenAI, a Microsoft és az Anthropic jelezte csatlakozási szándékát, ezzel a kooperatív és felelős szereplő képét építve, addig a Meta nyilvánosan megtagadta az aláírást, arra hivatkozva, hogy a Kódex "messze túlmutat az AI Act hatályán" és "jogi bizonytalanságokat" teremt. A Meta ezzel a lépéssel a szélesebb körű iparági ellenálláshoz csatlakozott, amely attól tart, hogy a túlszabályozás megfojtja az európai innovációt.

Gyakorlati Hatások és Stratégiai Megfontolások

A 2025. augusztus 2-i határidő kézzelfogható következményekkel jár mind a vállalkozások, mind az állampolgárok számára.

A Vállalkozásokra gyakorolt hatás

Az AI Act, különösen a 2025-ös fázis, alapjaiban változtatja meg a mesterséges intelligenciát fejlesztő és alkalmazó vállalatok működési környezetét.

  • Azonnali felkészülési kényszer, a vállalatoknak, különösen a GPAI-modelleket használóknak, nincs több idejük a várakozásra. Haladéktalanul el kell kezdeniük a belső felkészülést: leltárt kell készíteniük a használt MI-rendszerekről, kockázati szint szerint kell osztályozniuk azokat, belső felelősségi köröket kell kijelölniük, és meg kell kezdeniük a szükséges dokumentációs és irányítási folyamatok kidolgozását.
  • Extraterritoriális hatály, a rendelet nem áll meg az EU határainál. Hatálya kiterjed minden olyan vállalatra – függetlenül annak székhelyétől –, amely MI-rendszert hoz forgalomba az EU piacán, vagy amelynek MI-rendszere által generált kimenetet az EU-ban használják fel. Ez azt jelenti, hogy az amerikai, brit és más globális technológiai cégeknek is teljes mértékben meg kell felelniük az előírásoknak, ha az európai piacon akarnak működni.
  • Az innováció és a szabályozás dilemmája, jelentős az iparági aggodalom, hogy a rendelet komplexitása és szigorúsága visszaveti az innovációt és Európa versenyképességét a globális MI-versenyben. Egy friss felmérés szerint a magyar cégvezetők 54%-a tart attól, hogy nem fog tudni időben megfelelni az előírásoknak, 38%-uk pedig úgy véli, a szabályozás korlátozni fogja a kísérletezési kedvet.
  • Új megfelelési költségek, a vállalatoknak jelentős új költségekkel kell számolniuk, amelyek a kockázatértékelések elvégzéséből, a részletes technikai dokumentáció elkészítéséből, az adatkezelési folyamatok felülvizsgálatából, valamint a magas kockázatú rendszerek esetében a potenciális külső megfelelőségértékelésekből adódnak.

Az Állampolgárokra gyakorolt hatás

Míg a vállalatok számára a rendelet elsősorban teherként és kockázatként jelenik meg, az állampolgárok számára egyértelmű védelmet és új jogokat biztosít.

  • Védelem a káros MI-alkalmazásokkal szemben, a rendelet elsődleges célja az alapvető jogok, az egészség és a biztonság védelme. Az elfogadhatatlan kockázatú rendszerek (pl. manipulatív technikák, társadalmi pontozás) betiltása közvetlen pajzsot nyújt a legveszélyesebb alkalmazásokkal szemben.
  • Fokozott átláthatóság, az alacsonyabb kockázatú, de a felhasználókkal közvetlen interakcióba lépő rendszerek, mint a chatbotok vagy a "deepfake" tartalmak esetében a szolgáltatóknak egyértelműen jelezniük kell, hogy a felhasználó egy géppel kommunikál, vagy MI által generált tartalmat lát. Ez képessé teszi az embereket arra, hogy kritikusan értékeljék az információt.
  • Jogok a magas kockázatú helyzetekben, amikor magas kockázatú rendszereket alkalmaznak olyan területeken, mint a munkaerő-felvétel, a hitelbírálat vagy az oktatás, a rendelet szigorú követelményeket támaszt a pontosságra, a robusztusságra és a hatékony emberi felügyeletre vonatkozóan. Az állampolgárok emellett jogot kapnak arra, hogy magyarázatot kérjenek az őket hátrányosan érintő, magas kockázatú MI-rendszer által hozott döntésekre. Ez új jogorvoslati lehetőséget teremt az automatizált döntéshozatallal szemben.

 

Gyakorlati Példák

Gyakorlati Esettanulmány 1: Magyar KKV egy GPAI-alapú ügyfélszolgálati chatbot bevezetésénél

Egy magyar közepes méretű e-kereskedelmi vállalat egy külső szolgáltató által biztosított, GPAI-alapú chatbotot szeretne integrálni a weboldalára a vevői kérdések megválaszolására.

  • Kockázati besorolás: Maga a chatbot valószínűleg "korlátozott kockázatú" rendszernek minősül. Ez azt jelenti, hogy a fő kötelezettség az átláthatóság: a felhasználót egyértelműen tájékoztatni kell arról, hogy egy MI-rendszerrel kommunikál.
  • Szerepkör a rendelet szerint: A KKV az MI-rendszer "alkalmazója" (deployer).
  • A 2025-ös szabályok hatása: Mivel a chatbot egy külső GPAI-modellre épül, a KKV-nak a megfeleléshez szüksége van a GPAI-szolgáltató által biztosított információkra. A 2025. augusztus 2-i szabályok értelmében a GPAI-szolgáltató köteles lesz átadni azt a dokumentációt, amely leírja a modell képességeit, korlátait és a tanítási adatait. A KKV-nak érdemes ellenőriznie a beszerzési folyamat során, hogy a potenciális GPAI-szolgáltató aláírta-e a Magatartási Kódexet, mivel ez a megbízhatóság és a megfelelési hajlandóság jele lehet.
  • Teendők: A KKV-nak gondoskodnia kell az átláthatósági felirat elhelyezéséről, biztosítania kell, hogy a chatbot ne hozzon önállóan olyan döntéseket, amelyek magas kockázatúvá tennék (pl. szerződésbontás), és dokumentálnia kell a kiválasztási és bevezetési folyamatot.

Gyakorlati Esettanulmány 2: Pénzintézet egy "magas kockázatú" hitelbírálati rendszerrel

Egy magyarországi bank egy MI-alapú rendszert használ a lakossági hitelkérelmek előzetes értékelésére.

  • Kockázati besorolás: a hitelképesség-vizsgálat a rendelet III. melléklete alapján egyértelműen "magas kockázatú" alkalmazásnak minősül.
  • Kötelezettségek (2026-tól, de a felkészülés most kezdődik): a banknak, mint alkalmazónak 2026. augusztus 2-ig ki kellett építenie egy robusztus kockázatkezelési rendszert, biztosítania kell a felhasznált adatok magas minőségét, naplózási képességeket kell implementálnia, és gondoskodnia kell a hatékony emberi felügyeletről.
  • A 2025-ös szabályok hatása: ahhoz, hogy a bank 2026-ra megfeleljen, már most el kell kezdenie a felkészülést. A 2025-ös szabályok kulcsfontosságúak számára, mert ezek kényszerítik ki, hogy a bank által használt MI-rendszer vagy alapmodell szolgáltatója átadja azt a részletes technikai dokumentációt, amely nélkül a bank saját kockázatértékelése és megfelelési eljárása elvégezhetetlen. A 2025-ös szabályok tehát a bank jövőbeli megfelelésének előfeltételét teremtik meg.
  • Állampolgári jogok: a banknak fel kell készülnie arra, hogy egy hitelkérelem elutasítása esetén az ügyfél kérésére érthető magyarázatot tudjon adni arról, hogy az MI-rendszer milyen alapon vett részt a döntésben.

 


             

Kapcsolódó tartalmak

Tudjon meg többet.
A Magyar Kereskedelmi és Iparkamara (MKIK) munkájában a mesterséges intelligencia és ahhoz kapcsolódóan az oktatás is hangsúlyos szerepet kap.
Németországban a megalakulása utáni első 100 nap során a CDU/CSU és az SPD alkotta szövetségi kormány egyelőre adós maradt számos, a gazdaság élénkülését szolgáló jogszabály kidolgozásával és a törvényhozás elé terjesztésével.
Széchenyi 2020