Deepfake korszak: bárki lehet a digitális manipuláció áldozata
2026. március 8.
Ahogy a mesterséges intelligencia egyre inkább a mindennapok részévé válik, úgy a digitális manipuláció lehetőségei is új szintre léptek. Dr. Tóth Judit Lenke adatvédelmi szakjogász és pénzmosás elleni szakértő szerint kulcsfontosságú, hogy megértsük az úgynevezett szintetikus médiatartalmak működését, valamint azt, hogyan lehet fellépni ellenük, hiszen ezek a technológiák ma már szinte bárki számára könnyen hozzáférhetők.
A szakértő rámutatott arra, hogy lényeges különbséget tenni az egyes fogalmak között. Míg az álhír (fake news) pusztán hamis információt jelent, addig a szintetikus médiatartalom olyan kép-, hang- vagy videóanyag, amelyet mesterséges intelligencia hozott létre vagy módosított annak érdekében, hogy valós eseménynek tűnjön.
„A deepfake ennek egy speciális formája, amikor egy valós személyt olyan helyzetben ábrázolnak, amely a valóságban nem történt meg, vagy olyan kijelentéseket tulajdonítanak neki, amelyeket soha nem mondott el – legyen szó politikai megszólalásokról vagy akár az arcképével való visszaélésről” – magyarázta Dr. Tóth Judit Lenke.
A szakértő beszélt az úgynevezett generatív dezinformáció jelenségéről is. Ez olyan eseteket takar, amikor teljes egészében mesterségesen létrehozott történetek kerülnek a nyilvánosság elé, például kitalált híradások vagy mesterséges „szemtanúk” beszámolói formájában.
A hírnévrontástól a háborús propagandáig
Az adatvédelmi szakjogász szerint a manipulált tartalmak már ma is széles körben jelen vannak. Példaként említette azokat az eseteket, amikor ismert emberek nevét, arcát vagy hangját használják fel megtévesztő módon kétes termékek reklámozására.
„A háborús dezinformáció szintén gyakori jelenség: egyes konfliktuszónákból származó felvételek akár 90 százaléka is manipulált lehet, ami jelentősen torzíthatja a közvéleményt” – tette hozzá.
Kiemelte azt is, hogy a választások idején a deepfake videók komoly manipulációs eszközzé válhatnak. Ezekben például politikusok szájába adhatnak hamis kijelentéseket, ami a kampányidőszakban akár visszafordíthatatlan károkat is okozhat.
„Nemcsak a közszereplők lehetnek érintettek, hanem gyakorlatilag bárki áldozattá válhat – például bosszúból készített videók vagy online csalások révén” – figyelmeztetett a szakértő. Hozzátette, hogy különösen veszélyeztetettek a gyermekek, akiknek képei akár úgynevezett „katalógusokba” is bekerülhetnek, valamint a nők és az idősebbek, akik gyakran esnek online szerelmi csalások áldozatául.
Jogi lehetőségek és védekezés
Bár a technológia fejlődése sokszor gyorsabb, mint a jogi szabályozásé, a szakértő szerint mégis vannak eszközök a védekezésre.
„A digitális szolgáltatásokról szóló rendelet (DSA) értelmében a platformok kötelesek eltávolítani a bejelentett hamis vagy manipulált tartalmakat.”
Hozzátette, hogy a deepfake tartalmak egyes esetekben kimeríthetik a rágalmazás, a becsületsértés vagy akár a választás rendje elleni bűncselekmény tényállását. Az érintettek a Nemzeti Adatvédelmi és Információszabadság Hatósághoz is fordulhatnak, illetve személyiségi jogi pert indíthatnak bíróságon. Emellett a platformok adatvédelmi tisztviselőjének (DPO) küldött hivatalos megkeresésre 30 napon belül választ kell adni, ami szintén lehetőséget ad a hatékony fellépésre.
Dr. Tóth Judit Lenke szerint nem magát a technológiát kell szankcionálni, hanem az azzal való visszaélést. Jelenleg egy új kezdeményezés, a „Privacy Girls” egyesület létrehozásán dolgozik, amelynek célja, hogy felhívja a figyelmet az online manipulációk veszélyeire, különösen a sérülékenyebb csoportok – például a nők és az idősebb generáció – körében.
„A deepfake videók rendkívül gyorsan terjednek az interneten, ezért a jelenlegi eljárási határidők – például a 30 napos válaszidő – sokszor már nem elegendők. Franciaországhoz hasonlóan Magyarországon is indokolt lenne gyorsított, akár 24–48 órás hatósági vagy bírósági eljárások bevezetése a súlyos károk megelőzése érdekében.”
A szakértő arra is felhívta a figyelmet, hogy bár Magyarországon a büntető törvénykönyv jelenleg olyan tényállásokon keresztül kezeli az ilyen visszaéléseket, mint a rágalmazás, a becsületsértés vagy a választás rendje elleni bűncselekmény, más országok már specifikusabb szabályozást vezettek be. Szingapúr például külön törvényt alkotott az online hamisítás és manipuláció visszaszorítására, míg Dubaj és Kína szigorú bírságokkal és részletes szabályrendszerekkel lép fel a hamis online tartalmakkal szemben.
English Summary
As artificial intelligence becomes increasingly integrated into daily life, digital manipulation has reached new levels. Dr. Judit Lenke Tóth, a data protection lawyer and anti-money laundering expert, emphasizes the importance of understanding synthetic media and how to combat it, as these technologies are now widely accessible. Unlike fake news, which involves false information, synthetic media includes AI-generated or manipulated images, audio, or video designed to appear real. Deepfakes are a specific form, showing people in situations or saying things that never actually occurred, and they can be used for celebrity scams, revenge videos, or political manipulation. Vulnerable groups, such as children, women, and the elderly, are particularly at risk of exploitation. While technology often outpaces legislation, tools like the EU Digital Services Act and legal actions through data protection authorities can help, and initiatives like the “Privacy Girls” association aim to educate and protect susceptible populations.
Kapcsolódó cikkek
- Tech-kalandok a T@T Kuckóban: MI és kiberbiztonság diákoknak
- Internet Hotline: egyre több áldozatot érint az MI‑vel generált visszaélés
- Beköszöntött a mesterséges intelligencia által vezérelt zsarolóvírusok korszaka
- Digitális forradalom a magyar vállalatoknál: előrelépés, de kihívásokkal
- Ünnepi akciók vagy csapdák: a leggyakoribb online átverések karácsony előtt – figyelmeztet az ESET
- Gyermekjogok a digitális térben – új kihívások
- Amikor már a valóság sem biztos: a deepfake hatása a gondolkodásunkra
- Az otthon, ami vigyáz magára: a Samsung új biztonsági megoldásai
- AI és biztonság kéz a kézben: így épül a Samsung következő generációs okosotthona
- A biztonság már a kódírásnál kezdődik: AI-alapú eszközök a gyakorlatban


