Milyen veszélyeket és milyen pozitív változásokat hoz a mesterséges intelligencia térnyerése? Hogyan tudunk felkészülni ezekre a változásokra? Dr. Beraczkai Dávid ügyvéd és Keleti Arthur kibertitok jövőkutató, IT-biztonsági stratéga segítségével jártuk körbe ezt az ingoványos témakört.

A képmáshoz való jog kapcsán az egyik legfontosabb kérdés, hogy mikor fotózhatnak le az utcán. Három alapvető eset fordulhat elő: az illető engedélyével, tömegfelvételként vagy nyilvános közéleti szereplés körében – mutatott rá dr. Beraczkai Dávid ügyvéd. A polgári törvénykönyv szerint az érintett hozzájárulása szükséges képmás vagy hangfelvétel készítéséhez és felhasználásához is. – Ezen fő szabály alól alapvetően kevés és szűk körű kivétel létezik, amelyek legegyszerűbben úgy foglalhatók össze, hogy tömegfelvételek, nyilvános közéleti szereplésről készült fotók esetében nincs szükség az érintett hozzájárulására a fénykép elkészítéséhez és annak felhasználásához – tette hozzá a szakember. A nem ilyen helyzetben készült fotókon a felhasználás feltételeit mindig a konkrét eset körülményei alapján kell vizsgálni: egyrészt az érintett által adott hozzájárulás tartalma, másrészt az általa kikötött korlátozások, tilalmak (vagyis nem használható fel a felvétel úgy, ahogyan azt az illető nem engedélyezte). Ezenkívül senki képmása sem jelentethető meg úgy, hogy sértse az érintett személyiségi jogait. – Fontos észben tartani a hozzájárulások kapcsán, hogy bárminemű esetleges kétség vagy vita esetén a hozzájárulás tényét, valamint annak tartalmát is a képmás felhasználója köteles bizonyítani, így érdemes az érintettek kellő hozzájárulásának rögzítésekor erre tekintettel körültekintően eljárni – árulta el dr. Beraczkai Dávid.

Visszaélés a rólunk készült képekkel

A visszaélésnek több típusa van, mint a rossz hírnév keltése, a személyiséglopás és a kibeszélés, vagyis az outing. Az ügyvéd szerint ezek változatosan megvalósuló jogsértések, közös eredőjük, hogy az ember valamelyik személyiségi jogát sértik, például a becsülethez és jó hírnévhez vagy a magántitokhoz való jogát, súlyosabb esetekben pedig többet egyszerre. Ilyenkor a sértett polgári peres úton járhat el, de súlyosabb esetekben (amilyen a rágalmazás vagy a személyes adattal való visszaélés) már büntetőeljárás is kezdeményezhető.

A cikk a Magyar Kultúra magazin 2023/4. számában jelent meg. Fizessen elő itt a havonta megjelenő magazinra, hogy még több hasonlóan érdekes és értékes írást olvashasson!

Sajnos az internetre felkerült képeknek, szövegeknek és videófelvételeknek nehéz gátat szabni. – Ha sok esetben nem is lehet megállítani a folyamatot, de a jogsértők felelősségre vonása által fékezhetjük a nemkívánatos tartalom terjedésének folyamatát, eltántorítva másokat további jogsértésektől – vallja dr. Beraczkai Dávid. Hozzátette, a jogsértőkkel szemben igényt támaszthatunk sérelemdíj megfizetésére, elégtételadásra vagy a jogsértéssel elért vagyoni előny átengedésére is.

A rólunk készült fénykép az általános adatvédelmi rendelet (GDPR) értelmében személyes adatnak minősül, maga után vonva a GDPR által megállapított szabályokat és szigorú szankciórendszerét is. – Érdemes erre tekintettel még a fénykép elkészítése, de kiváltképp annak nyilvános felhasználása előtt az adatkezelésünket átgondoltan a megfelelő jogi alapokra helyezni – tette hozzá az ügyvéd.

Ha a tömeg része vagyok, lefotózhatnak?

A tömegfelvétel viszont összetett jogi fogalom, amire nem ad pontos definíciót a polgári törvénykönyv, a tömegfelvétel ugyanis nem a rajta szereplő személyek számától, hanem az ábrázolás milyenségétől lesz tömegfelvétel. Jogi értelemben olyan fotóról vagy videófelvételről van szó, ami olyan nyilvános helyszínen vagy eseményen készül, ahol az ilyen fotók készítése megszokott, a résztvevőknek pedig számolniuk kell ezzel a lehetőséggel. Azonban ha egyes alakokat fókuszba helyeznek, esetleg körbevágnak a tömegfelvételről, akkor az általános szabályok lesznek alkalmazandóak, tette hozzá dr. Beraczkai Dávid. – Fontos továbbá, hogy a tömegfelvételek a joggyakorlat értelmében csak céljuk (például a tömegfelvétel tárgyát képező helyszínről, eseményről való tudósítás) által indokoltan használhatók fel, vagyis egy, a tömegből kiemelt, kivágott személy képmását később önállóan, különösen a tömegeseményen való részvételtől eltérő gondolat illusztrálására kizárólag hozzájárulás birtokában lehet jogszerűen felhasználni – mondta az ügyvéd.

Ebben a kontextusban ráutaló magatartásnak számít egy személy a képen való megjelenéséből látható beleegyezése a fotó elkészülésébe. A hozzájárulást kétség esetén a felvétel készítőjének kell bizonyítania: nemcsak azt, hogy a képen szereplő a fénykép elkészültéhez, de a kifogásolt módú felhasználáshoz is hozzájárult – ezt pedig ráutaló magatartásból nehéz kiolvasni. – A fénykép készítője jogi szempontból sokkal körültekintőbben jár el akkor, ha az érintett hozzájárulást a tervezett felhasználásokra is kiterjedően kéri meg, és valamilyen utóbb reprodukálható módon rögzíti – javasolta dr. Beraczkai Dávid.

Viszont titokban készült kép- és hangfelvétel felhasználható a bíróságon, amennyiben arra már bekövetkezett jogsértés bizonyítása érdekében közérdekből vagy jogos magánérdekből kerül sor, feltéve, hogy a felvétel készítése vagy felhasználása a bizonyítani kívánt jogsértéshez képest nem okoz aránytalan sérelmet. A bíróság előtt folyó eljárásban az igazság érvényesülésének biztosítása közérdek, és a bizonyítás ezt a célt szolgálja. A bírói gyakorlat alapján nem lehet ezért a hangfelvétel felhasználását visszaélésnek tekinteni, ha ez a hangfelvétel felhasználójával szemben elkövetett jogsértéssel kapcsolatos bizonyítás érdekében történik.

A kor kihívásaira a jog is reagál, létezik szabályozás a manipulált fotókra. Napjainkban talán a legnépszerűbb téma a mesterséges intelligencia: a deepfake a konkrét eset körülményeitől függően vagy személyiségi jogsértésnek minősülhet, vagy akár a büntető törvénykönyv alapján becsület csorbítására alkalmas hamis hang- vagy képfelvétel készítésének, illetve nyilvánosságra hozatalának – tette hozzá az ügyvéd.

Mi is az az MI?

Eljutottunk korunk egyik legjelentősebb technológiai vívmányáig, a mesterséges intelligenciáig, vagyis az MI-ig. És ahogy az lenni szokott, az új technológiával megjelennek az új visszaélések is. – A deepfake névből a deep előtag mélytanuló algoritmusokra utal, amelyekből neurális hálózatokat építenek. Ezzel a technológiával más módon hajtják végre a módosításokat a videó- és képanyagokon, mint ahogy eddig megszoktuk, nem beszélhetünk hagyományos képszerkesztésről. Pontosabban: ma már a Photoshop és jó néhány más alkalmazás elkezdett ugyanilyen neurális hálózatokon alapuló megoldásokat használni – valaki arcán megváltoztathatunk vonásokat, például hogy az illető mosolyogjon vagy máshova nézzen – mutatott rá Keleti Arthur.

Mi lehet a különbség az ember által, de gépi segítséggel készített és a mesterséges intelligencia által létrehozott manipulált képek között? Egyrészt a gépek nagyon sok kép- és videóanyag megnézése után kialakítanak egy olyan hálózatot, amelynek segítségével a különböző képek manipulációját sokkal hitelesebben és sokkal gyorsabban tudják végrehajtani. Ennek eredménye, hogy míg azelőtt egy fotó átdolgozása rengeteg emberi és valamennyi gépi időt vett igénybe, addig mostanra ez nagyon sok gépi és kevés emberi időt vagy akár semmilyen emberi beavatkozást nem igényel. Egy fotó helyett már mozgóképet, vagyis képek sorozatát lehet előállítani vagy módosítani – tette hozzá a szakember.

Mint mondta, az MI másik ismérve a minőség: amit egy művész felismer az emberi arcon – például hogyan mozog, melyik izom mit csinál –, egy gép is fel tudja ismerni. Ezt a képességet így a technológia azok kezébe tudja adni, akik korábban nem rendelkeztek vele, így már nemcsak a művészek privilégiuma, hogy hitelesen ábrázoljanak embert, hanem mindenkié, aki ilyen gépeket használ. Ezzel a „demokratizálódással” a technológia előre jelzi, hogy az emberi érzékszervekben egyre kevésbé bízhatunk, és a mélyhamisítások nemcsak a művészi oldalon érdekesek, a marketingben vagy a videó- és filmtechnikában, hanem ott is, ahol a hétköznapi embert is befolyásolhatják különböző tartalmakkal. Aki korábban azt hitte, hogy az érzékszervei használatával érti és felismeri, ha valami nem igazi, az ma már egyre kisebb eséllyel támaszkodhat erre a vélt képességére.

Honnan tudható, mi az eredeti?

Keleti Arthur azt is elárulta, hogy bizonyos deepfake-ek esetében meg lehet mondani, hogy valami nem stimmel: például nem megfelelően lobog az illető haja, több ujja van, mint kellene és hasonlók. Már csak apró szalmaszálakba kapaszkodhatunk. Úgy vélekedik, gépeket kell használnunk, hogy rájöjjünk, valami igazi-e vagy hamis. Azonban a gépek is egyre nehezebben tudják egymásról megállapítani mindezt. Az úgynevezett generatív technológiák, például a ChatGPT szinte vagy teljesen jó minőségben állítanak elő dolgokat. A szakértő szerint nem abba kell nagy energiákat fektetni, hogy valami igaz-e vagy hamis, hanem azt kell megmondani, bizonyos dolgok eredetiek-e. – Egyszerűbb, ha fizikai példát mondok: amikor valaki elkészített a középkorban egy szép teásbögrét, beleütötte a védjegyét, és nagyon nehéz volt hamisítani. Ennek modern verzióját kell kidolgoznunk most, ami bizonyítja a digitális tartalmak eredetét, vagyis hogy a felvételt ki készítette, hol, mikor és milyen fórumon publikálták. Ha ez nem történik meg, akkor a politikusok, celebek és magánemberek is nagyon nagy bajban lesznek – tette hozzá a szakértő.

Szerinte a védelmi vonal soha nem tudta úgy tartani a lépést, hogy megelőzte volna az esetek nagy százalékát. Védekezni sokkal nehezebb, mint támadni, mert az utóbbinak csak egyszer kell sikeresnek lennie, míg a védelemnek mindig. A Covid megmutatta: az ismeretlen fenyegetésekre a tudomány nem képes tökéletes választ adni: valamilyen típusú védelmet kínál, ami az aktuális helyzetben valószínűleg csökkenti a kockázatokat. – Mi is ezzel a problémával küzdünk, új kihívásokra kell választ adnunk, mert amint egy ilyen megjelenik, azonnal a világ túlsó felén van. Amikor valaki csinál egy deepfake hamisítványt, és elindít vele egy politikai kampányt, pár óra alatt eredményeket érhet el vele. A védelemben mindig lemaradunk, és lesznek olyan helyzetek, amelyek váratlanul érik majd az embereket, sőt minket, szakértőket is meglepnek. Csak megjelenésüket követően tudunk védelmet kidolgozni ellenük – mondta Keleti Arthur. Hozzátette, a technológiai eszközök összekapcsolódása olyan bonyolult forgatókönyvekhez vezethet, amilyenekre az ember nem számít. Deepfake használatával tömegesen csaphatnak be ügyfélszolgálatokat, ezzel pedig hozzáférhetnek bankszámlához vagy egyéb személyes adatokhoz. Keleti Arthur szerint, hogy mindezt megelőzzük, nagyon fontos az oktatás, a biztonságtudatosság fokozása, ám szerinte a gépek öntanuló képességében és helyzetfelismerésében nagyobb potenciál rejlik. – 2016-ban jelent meg egy könyvem, amelyben ezt a témát feszegettem: úgy gondolom, hogy mindenkinek saját védelme, saját mesterséges intelligenciája lesz, ami az illetőhöz alkalmazkodó módon látja el a feladatát. Természetesen a megszokott védelem is marad, amiben általános védelemmel körülveszünk mindent, ami rengeteg támadás ellen véd, mint a multivitamin.

A Magyar Kultúra magazin 2023/4. számában olvasható cikk további részéből megtudhatjuk, hogy  bárki hangját klónozni lehet három másodperc alatt, szó esik a digitális hírmondók térhódításáról, és az is kiderül, hogy a szakértő szerint fel van-e készülve arra a pszichénk, ami a mesterséges intelligencia elterjedésével vár ránk.

A témában megjelent további cikkeink:

Mesterséges intelligencia és szerzői jog – a szakértő válaszol
A mesterséges intelligencia a költészetet is bekebelezi?
A mesterséges intelligencia feleslegessé teszi az írókat?
Mesterséges intelligencia alkotta egy fotópályázat győztes fotóját

A nyitóképen a tömeg a Magyarország–Anglia (7:1) válogatott labdarúgó-mérkőzésen 1954. május 14-én a Népstadionban. Fotó: Fortepan / Magyar rendőr