Napjainkban egyre több olyan átveréssel találkozhatunk, amelyek mesterséges intelligencia segítségével készülnek. Például most hallhattátok, hogy Friderikusz Sándor és egy neves gasztroenterológus, Schwab Richárd nevében készült egy hamis interjú, amelyben egy „forradalmi” egészségügyi készítményt ajánlottak. Az ilyen AI-alapú technológiák, mint például a deepfake videók, már nemcsak a közösségi médiában terjednek, hanem az online vásárlások világát is alapvetően felforgatják. Egy amerikai felmérés szerint a vásárlók 70%-a úgy véli, hogy az AI által vezérelt csalások komoly hatással vannak arra, hogyan és hol vásárolnak online…
Mennyire veszélyesek az AI alapú csalások?
A csalók deepfake technológia segítségével hírességekről készült hamis videókat használnak, amelyekben ezek a hírességek különböző termékeket ajánlanak. A deepfake technológia az úgynevezett mélytanulási (deep learning) algoritmusokat használja, amelyek hatalmas mennyiségű adatból tanulnak, és képesek valósághűen utánozni egy adott személy arcát, mimikáját, hangját. Ezek a videók rendkívül hitelesnek tűnnek, az emberek hangja és mimikája is szinte teljesen megegyezik az eredetivel.
Ennek következtében az amerikaiak 21%-a már fizetett is olyan termékekért, amelyeket valójában nem létező, AI által generált hírességek ajánlottak. Különösen a fiatalabb korosztály, a Z generáció és a milleniálok vannak kitéve ezeknek a csalásoknak, ahol az érintettek száma eléri az 1/3-ot – annak ellenére, hogy ők nőnek fel a technológiával, mégis könnyen manipulálhatóak azáltal… Persze a Friderikuszos eset azt mutatja, hogy az itthoni csalók nem ezt a réteget célozzák (még) ezekkel a hamis egészségügyi reklámokkal.
Az Egyesült Államokban a vásárlók mindössze 59%-a érzi magát biztosnak abban, hogy felismeri az AI által generált tartalmakat
A deepfake csalások másik jellemzője, hogy a csalók gyakran olyan e-maileket, üzeneteket küldenek, amelyek hírességek ajánlásával vagy valamilyen rendkívüli ajánlattal próbálnak hatni a vásárlókra. Az amerikai felmérések szerint az emberek 64%-a e-mailben, 20%-a szöveges üzenetben, 16%-a pedig közösségi médiában találkozik leggyakrabban ezekkel a csaló üzenetekkel.
Az ünnepi időszak különösen vonzó célpont a csalók számára, hiszen ilyenkor az emberek hajlamosabbak impulzív döntéseket hozni. Az amerikai vásárlók 84%-a keres valamilyen jó ajánlatot, és sokan hajlandóak ismeretlen eladótól is vásárolni, ha az ár elég kedvező. A csalók ezt a keresletet használják ki, és hamis, rendkívül olcsó ajánlatokkal próbálnak becsapni minket.
Mi ellen is? És hogyan védekezhetünk?
A deepfake technológia alapját generatív neurális hálózatok képezik, amelyek két részre oszthatók: egy generátor és egy diszkriminátor hálózatra. A generátor létrehozza a hamis képeket vagy videókat, míg a diszkriminátor megpróbálja felismerni a hamisítványokat. A két hálózat folyamatosan „verseng” egymással, ezáltal egyre valósághűbb tartalmakat hoznak létre. A deepfake technológia így képes manipulálni a valóságot úgy, hogy az átlagos néző számára szinte lehetetlen megkülönböztetni a valódit a hamistól.
Ha valamit látsz, hallasz, ízlelsz – az valódi? Vagy csak szimplán az érzésre való képességedről árulkodik? … Üdv a szintetikus valóság korszakában!
Néhány dolog, amire figyelhetünk az AI által generált tartalmak felismeréséhez és az átverések elkerüléséhez:
- Ismerjük meg a deepfake technológiát: Ahogy a deepfake egyre elterjedtebbé válik, elengedhetetlen, hogy tisztában legyünk az alapjaival és a működésével. Az ilyen tartalmak felismerésében segít, ha megismerjük az AI által generált videók sajátosságait, például a szokatlan arcmimikát, az aszinkron hangot, vagy a bőr természetellenes simaságát.
- Ellenőrizzük a forrásokat: Mindig figyeljünk arra, hogy honnan származik az adott videó vagy kép. Ha valami túl szép ahhoz, hogy igaz legyen, érdemes többször is ellenőrizni, mielőtt elhisszük vagy megosztjuk.
- Figyeljünk az audio- és videóminőségre: Az AI által készített deepfake videók gyakran gyenge minőségűek. Érdemes figyelni a videóban esetlegesen előforduló hibákra, mint például a pixeles megjelenés, az elmosódott részek, vagy a természetellenes mozgások.
Ha ismert szakember vagy közszereplő vagy: fontos tudnod, hogy a deepfake technológiával készült hamis tartalmak akár a nevedet és arculatodat is felhasználhatják – ezek hitelességet sugallnak az emberek számára, és a csalók ezt próbálják kihasználni.
Mit tehetsz azért, hogy a leghatásosabban tudd kezelni ezeket az eseteket? (Még ha megelőzni majdnem lehetetlen is…)
- Vízjelezés és digitális azonosítók alkalmazása: A képek és videók vízjelezése vagy digitális azonosítókkal való ellátása segíthet a tartalmak eredetiségének igazolásában. Ezek a technológiák lehetővé teszik, hogy később azonosítani lehessen, ha valaki manipulálta az eredeti tartalmat.
- Metaadatok megőrzése: A képek és videók metaadatainak megőrzése szintén segíthet a hitelesség ellenőrzésében. A metaadatok tartalmazzák a készítés időpontját, helyét, valamint az eszköz adatait, amelyek segíthetnek a hamisítás felismerésében.
- Proaktív online jelenlét: Az online jelenlét aktív monitorozása segíthet abban, hogy időben észleljük, ha valaki visszaél az arculatunkkal. Számos szolgáltatás érhető el, amelyek figyelik az interneten megjelenő tartalmakat, és értesítenek, ha a neveddel vagy arculatoddal összefüggésben jelenik meg valami gyanús.
A napokban Friderikusz Sándor és egy ismert orvos, Schwab Richárd nevében készült egy hamis interjú, amelyben egy „forradalmi” egészségügyi készítményt ajánlottak. Ez az eset is jól mutatja, hogy a deepfake technológia milyen könnyen használ tiszteletben álló közismert személyeket, hogy hitelessé tegye a csalást, és így könnyebben megtévessze az embereket. Különösen az idősebb korosztály van veszélyben, hiszen kevésbé vannak tisztában az AI által generált tartalmak technikai részleteivel, illetve nekik lehet szükségük olyan “csodaszerekre”, amelyek hatásai és árai jól csengenek a laikus fülnek – így könnyebben megvezethetők.
Extra
Összeszedtünk pár további példát érdekességként:
- Deepfaked Taylor Swift
- Ragyogás Jim Carrey-vel
- Spider-man: No Way Home Tobey Maguire-vel
- Unreal Keanu Reeves
A csalók marketingben eddig is előttünk jártak
Egy korábbi cikkünkben már felhívtuk a figyelmet arra, hogy a csalók mennyire jól kihasználják a marketing lehetőségeket, sokszor megelőzve a tisztességes vállalkozásokat is. Régen ez még úgy nézett ki, hogy híres emberek nevével visszaélve próbáltak rávenni áldozatokat kriptovaluta befektetésekre, kezdetben néhány száz euróra, majd később akár milliókra is. A csalók áloldalakat hoztak létre, amelyek népszerű hírportálokra hasonlítottak, és még ha a szöveg sokszor magyartalan is volt, az átverés mégis működött. Például a Milton Group call centere 2019-ben 70 millió dollárt termelt, áldozataikat pedig a világ minden tájáról szedték össze.
A deepfake technológia új szintre emeli ezeket a csalásokat.
Ez a technológia viszont nemcsak a csalók eszköze, hanem nekünk, vállalkozásoknak is komoly előnyöket nyújthat a mindennapi munkában. Most már valós lehetőség, hogy a vállalatunkban az AI segítségével gyorsabban és hatékonyabban készítsünk videós tartalmakat. Az AI képes automatizálni a videókészítés egyes folyamatait, például a videók szerkesztését, a szinkronizálást vagy akár az arckifejezések animálását is. Ezáltal nemcsak időt takarítunk meg, hanem minőségileg jobb anyagokat tudunk előállítani, és gyorsabban reagálhatunk a piaci igényekre!
Légy kreatív, légy két lépéssel előrébb, kísérletezz!
Olvasnál még a témában?
- Turbózd fel vállalkozásodat: 10+ AI eszköz digitális tartalomkészítőknek
- Képek az AI segítségével – Forradalmi megoldások a KKV szektorban
- Művészeti forradalom vagy kapitalista stílusgyakorlat? Itt az új AI alkotói kérdés!
- Mesterséges intelligencia a vadkeleten: Llámák, unikornisok és a magyar Kojot