„Semmi nem az, aminek látszik” – A Deepfake-ről jogászként

E cikk szerzője dr. Boros Menta, irodánk kezdő ügyvédjelöltje, és ez az első publikációja. A tanulmány a deepfake-technológia jogi kérdéseit járja körül, és bemutatja a fiatal kollégák friss szemléletét és érdeklődését a modern jogi kihívások iránt.


„Semmi nem az, aminek látszik” – A Deepfake-ről jogászként


Mi lenne, ha egy nap a főnököd videóhívásban utasítana egy sürgős átutalásra – majd később kiderülne, hogy a főnököd soha nem is hívott? A hangja hiteles, az arca ismerős, a háttér valóságos. Csak éppen semmi sem igaz belőle.

A digitális korszakban tehát már nem az a kérdés, hogy mit látunk, hanem hogy elhihetjük-e, amit látunk. A közösségi média, a mesterséges intelligencia és a videótechnológia robbanásszerű fejlődése egy új valóságot teremtett, ahol bárki „megszólalhat” más nevében, és ahol a bizalom egyre nehezebben tartható fenn.

A mesterséges intelligencia (MI) ugrásszerű fejlődése nemcsak kényelmesebbé tette az életünket, hanem új etikai és jogi dilemmákat is szült. Az egyik legérdekesebb – és legaggasztóbb – ezek közül a deepfake, amely képes a valóságot a megtévesztés eszközévé formálni.


How to spot a deepfake - SoSafe


A deepfake-tartalmak mennyisége az utóbbi évben elképesztő ütemben növekedett. Pontos számot nehéz megállapítani, de az exponenciális változás egyértelmű: míg 2023-ban körülbelül 500 000 ilyen videó és kép keringett a neten, 2025-re ez a szám várhatóan eléri (vagy már el is érte) a 8 milliót. És ez még csak a kezdet.[1]

A mélyhamisítások valódi veszélye nem magában a technológiában rejlik, hanem abban az emberi tulajdonságban, hogy alapvetően bízunk a saját érzékeinkben. Éppen ezért a deepfake-eknek nem is kell különösebben kifinomultnak vagy tökéletesen élethűnek lenniük ahhoz, hogy félrevezessenek, bizonytalanságot keltsenek, vagy épp célzott félretájékoztatást terjesszenek. [2]

A deepfake technológia több jogterületet is érint: az adatvédelem és a magánélet védelme mellett hatással van a szólás- és véleménynyilvánítás szabadságára, valamint a szerzői jogokra is. Gyors terjedése világszerte szükségessé tette a szabályozási keretek újragondolását, amelyre az egyes országok eltérően reagáltak, de jelenleg még az sem állítható biztosan, hogy egyáltalán látjuk az alagút végét.

Az Egyesült Államokban a szövetségi törvényjavaslatok fokozatos felszaporodását követően[3] megszületett 2025 májusában a Take It Down Act a deepfake-ekkel szembeni védelem érdekében (melyben végeredményben kriminalizálták a beleegyezés nélkül online platformokra intim képek formájában felkerülő deepfake tartalmakat), azonban tagállami szabályozás még nem alakult ki.

Kína 2025-ben egy széleskörű, a nemzeti érdekeket hangsúlyosan védő szabályozást vezetett be[4], amely az MI által kreált szintetikus tartalmak létrehozásukat követő kötelező (elsősorban vízjeles) megjelölését és az internetes platformok MI-felismeréssel kapcsolatos kötelezettségének meghatározását célozza. A szabályozás értelmében deepfake tartalom nem használható fel jogellenes vagy kárt okozó célra, ideértve olyan álhírek terjesztését, amelyek alkalmasak lehetnek Kína gazdaságának, vagy nemzetbiztonsági céljainak a megzavarására. Ami talán a legérdekesebb, hogy a kínai szabályozás egyértelmű felelősséget telepít a tartalomszolgáltatókra és a fejlesztőkre is, ez utóbbiaknak a hatóságnál kell regisztráltatniuk a deepfake algoritmusokat érintő technológiájukat.


Az Európai Unió deepfake elleni védelmet szolgáló, kötelezően alkalmazandó rendeletei az alábbiak:

Egyrészről a 2024-es mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról szóló MI-rendelet[5], melyet megjelenését követően heves kritikák értek, mivel gyengítette a hatékony és eredményes végrehajtás lehetőségét azáltal, hogy a deepfake technológiát nem emelte a nagy kockázatú MI-rendszerek kategóriájába (mely nagy kockázatú rendszereket az MI-rendelet III. melléklete tartalmazza, például: biometria, kritikus infrastrúkúrák vagy oktatás és szakképzés területén alkalmazott rendszerek – mely felsorolásba a deepfake nem került be);

A másik rendelet, mely a deepfake elleni védelmet szolgálja a korábban, 2022-ben született, digitális szolgáltatások egységes piacáról szóló rendelet[6] (DSA rendelet). Bár a DSA rendelet nem nevezi meg konkrétan a deepfake-et, a szabályozás logikája és rendeletben rögzített mechanizmusai lehetővé teszik, hogy a platformokat felelősségre vonhassák, ha deepfake-t tartalmazó tartalmat jogellenes céllal terjeszt (ilyenre példa: hamis információ, megtévesztés, személyiségi jogok megsértése). A rendeletben is feltüntetett megbízható bejelentők, mint például nemzeti hatóságok, civil szervezetek segíthetnek abban, hogy az ilyen, nehezen felismerhető szintetikus tartalmak hatékonyan jelzésre kerüljenek és levételre.

A két fentebb említett rendelet kiegészíti egymást, ugyanis az MI-rendelet azt szabályozza, hogyan lehet MI-rendszereket fejleszteni és használni, azonban azzal, hogy valaki MI-generált tartalmat közzétesz, még nem feltétlenül jelenti azt, hogy az tartalmilag jogellenes. A DSA erre tekintettel pedig arra ad eszközt, hogy a tartalom terjedése és moderálása miképp legyen szabályozva, ezzel kiegészítve az MI-rendeletet.[7]

Napjainkra az Európai Unió több tagállamában – köztük Olaszországban[8] Franciaországban[9] és Dániában[10] –megkezdődött a deepfake-re vonatkozó önálló jogalkotási folyamat. Hazánkban még nem kezdődött el az erre vonatkozó szabályozás kialakítása, azonban a fenti országok magatartása egy olyan szabályozás kialakulását vetíti előre, amelyet várhatóan más tagállamok is követni fognak.


A képen Emberi arc, portré, víz, szempilla látható

Előfordulhat, hogy az AI által létrehozott tartalom helytelen.


Összességében a deepfake technológia fejlődése elkerülhetetlenül újraértelmezi a valóság és a hitelesség fogalmát a digitális térben. Álláspontom szerint, a folyamatosan fejlődő technikai megoldások (például MI felismerő rendszerek) kialakítása mellett elengedhetetlen egy olyan jogi keretrendszer létrehozása, amely kötelező normákkal rögzíti az MI által generált tartalmak átláthatóságát. Ennek részeként, - Kínához hasonló szabályozást alapul véve -  jogszabály írhatná elő: hogy minden tartalom-előállító és -terjesztő platform köteles legyen egységes, államilag meghatározott formátumú MI-jelölést alkalmazni; a szolgáltatók felelősséggel tartozzanak az MI-tartalmak felismerésének, megjelölésének és naplózásának biztosításáért; a jelölések eltávolítása, meghamisítása vagy elrejtése jogsértésnek minősüljön; a felhasználók számára kötelező legyen nyilatkozniuk arról, ha MI által generált tartalmat tesznek közzé; továbbá hogy a hatóságok számára auditálási, ellenőrzési és beavatkozási jogosítványokat biztosítson a szabályok betartatására.

Egy ilyen jogi struktúra tenné lehetővé, hogy a technológiai fejlődés ne a bizalom eróziójához vezessen, hanem a felelősségteljes felhasználás és a megbízható digitális környezet megteremtését szolgálja.


Legaktuálisabb eset:

Elon Musk X platformja és a Grok chatbot súlyos nemzetközi vizsgálatok kereszttüzébe került, miután az eszköz nemcsak nem konszenzuális, hanem gyermekeket is érintő, szexuális tartalmú deepfake képek előállítását tette lehetővé. Európában az Európai Bizottság és több nemzeti médiahatóság, Indiában az Elektronikai és Informatikai Minisztérium, Malajziában pedig a hírközlési és multimédia-hatóság indított vizsgálatot, míg az Egyesült Államokban a Szövetségi Igazságügyi Minisztérium és a Szövetségi Kereskedelmi Bizottság bevonását sürgetik az ügy kivizsgálására. Az ügy rávilágít arra, hogy a generatív MI és a deepfake-technológia szabályozása továbbra is jelentős lemaradásban van a technológiai fejlődéshez képest. Hogy mindez jogalkalmazási vagy jogalkotási fordulópontot jelent-e, vagy csupán egy újabb figyelmeztetés marad, az – a deepfake-ek jövőjéhez hasonlóan – egyelőre a jövő zenéje.


[1] Mar Negreiro: Children and deepfakes, EPRS/ European Parliamentary Research Service, Briefing, 2025 július, 1-8. p.

[2] Nik Hynek - Beata Gavurova - Matus Kubak: Risks and benefits of artificial intelligence deepfakes: Systematic review and comparison of public attitudes in seven European Countries, Journal of Innovation & Knowledge, 2025. augusztus 7., 2-15. p.

[3] Egyesült Államok - szövetségi törvényjavaslatok: Deepfakes Accountability Act (2023), COPIED Act (2024), DEFIANCE Act (2024), No FAKES Act (2024/2025), Preventing Deep Fake Scams Act (2025)

[4] Kína – törvényjavaslat: Measures for Identification of Synthetic Content Generated by AI regulation

[5] A mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról szóló 2024/1689 rendelet

[6] A digitális szolgáltatások egységes piacáról szóló 2022/2065 rendelet

[7] Szalai Klára: Deepfake, azaz mélyhamisítás: Technológia és Jog, Országgyűlés Hivatala Közgyűjteményi és Közművelődési Igazgatóság, Képviselői Információs Szolgálat, Infojegyzet, 2024/20., 1-4. p.

[8] Olaszország – The Italian Artificial Intelligence Act (Law No. 132/2025)

[9] Franciaország – SREN Law – Francia Büntető Törvénykönyv 226-8. cikkének módosítása

[10] Dánia – Bill No. 676 (2025) – Danish Copyright Act módosítása

Szerző

Dr. Boros Menta



Szakterületeink