fbpx

Hogyan ismerhetjük fel szövegben, képben, hangban a mesterséges intelligenciát?

A generatív mesterséges intelligencia fejlődése azt jelenti, hogy a valótlan internetes tartalmak napjainkban szinte mindenhol felbukkanhatnak. Tudományos kutatások azonban kimutatták, hogy mi a legjobb módja annak, hogy eldöntsük valamiről, igazi-e.

Nehéz lehet kiszúrni a mesterséges intelligencia által generált hangfelvételeket, képeket, szövegeket és videókat egy olyan korban, amikor a technológiai fejlődés egyre inkább megkülönböztethetetlenné teszi azokat az ember által létrehozott tartalmak nagy részétől, így kitéve bennünket a megtévesztésnek.

Ha azonban ismerjük a félretájékoztatáshoz használt MI-technológiák jelenlegi helyzetét, és tudjuk, milyen árulkodó jelek utalnak arra, hogy amit látunk, az hamisítvány lehet, megvédhetjük magunkat a megtévesztéstől.

A Világgazdasági Fórum jelentése szerint a félretájékoztatás és a dezinformáció az elkövetkező két évben számos országban jelentősen megzavarhatja a gazdasági-politikai folyamatokat, míg a mesterséges intelligencia eszközeihez való könnyebb hozzáférés máris lehetővé tette a hamisított információk és az úgynevezett „szintetikus” tartalmak robbanásszerű elterjedését, a kifinomult hangklónozástól a megtévesztő videókig.

Hany Farid, a Kaliforniai Egyetem (Berkeley) munkatársa szerint a mesterséges intelligencia által vezérelt dezinformációval kapcsolatos legnagyobb probléma a hitelesnek látszó tartalmak egyszerűbb és gyorsabb létrehozása, amellyel ezek az álhíresztelések könnyedén elindíthatók. Már nem is szükségesek állami támogatott szereplők vagy jól finanszírozott szervezetek – egyetlen, némi számítógép-teljesítményhez (akár szerverekhez) hozzáférő magánszemély (hekker) is képes óriási mennyiségű hamisított tartalmat létrehozni..

Szerinte a generatív mesterséges intelligencia „szennyezi” az egész információs ökoszisztémát, kétségbe vonva mindent, amit olvasunk, látunk vagy hallunk. Kutatásai szerint az MI által generált hangok és képek sok esetben szinte megkülönböztethetetlenek a valóságtól. Farid és mások kutatásai viszont azt mutatják, hogy léteznek olyan stratégiák, amelyeket követve csökkenthető annak kockázata, hogy valaki bedőljön a közösségi média félretájékoztatásának vagy a mesterséges intelligencia által létrehozott dezinformációnak.

A műalkotásokat sem kímélik a generatív mesterséges intelligencia hatásai
A műalkotásokat sem kímélik a generatív mesterséges intelligencia hatásai
Forrás: Wikimedia Commons

A hamis MI-képek leleplezése

Emlékszik arra a képre Ferenc pápáról, amin pufidzsekit visel? Az ilyen hamis mesterséges intelligencia alkotta vizuális tartalmak egyre gyakoribbá váltak, mivel az új eszközök lehetővé tették, hogy bárki egyszerű szöveges utasításokból képeket hozzon létre.

A Google-nál dolgozó Nicholas Dufour és kollégái által készített egyik tanulmány szerint 2023 elejétől kezdve rohamosan növekszik az MI által generált képek aránya a valódiakhoz képest.

Negar Kamali, az Illinois állambeli Northwestern Egyetem munkatársa szerint napjainkban a médiaműveltséghez szükséges a mesterséges intelligencia ismerete. Egy 2024-es tanulmányban kollégáival az MI által generált képeken öt különböző hibakategóriát azonosítottak, majd útmutatást adtak, hogyan ismerhetjük fel ezeket magunk is. (Nyitóképünkön is egy ilyen fotó látható. Forrás: Flickr)

A jó hír az, hogy kutatásuk alapján az emberek jelenleg körülbelül 70 százalékos pontossággal képesek felismerni a hamis mesterséges intelligencia által készített, embereket ábrázoló képeket.

A generatív MI által alkotott kép egy képzeletbeli, emberszerű lényről
A generatív MI által alkotott kép egy képzeletbeli, emberszerű lényről Forrás: Wikipedia Commons

5 gyakori hibatípus az MI-generálta képeken:

  • Szociokulturális furcsaságok. Bizonyos kultúráknak vagy történelmi személyeknek ritka, szokatlan vagy meglepő viselkedést tulajdonít egy-egy ábrázolás.
  • Anatómiai eltérések. Nézze meg közelebbről: lát-e szokatlan alakú vagy méretű testrészeket, például kezeket? A szemek vagy a szájak furcsán néznek ki?
  • Összeolvadtak testrészek?
  • Mesterkéltség. A kép természetellenesnek, szinte túl tökéletesnek tűnik? Furcsa a háttér, mintha hiányos lenne? Különös a megvilágítás?
  • Funkcionális anomáliák. Láthatók olyan tárgyak, amelyek bizarrnak tűnnek, mintha nem lennének igaziak, vagy nem működnének? Például a ruha gombjai vagy az övcsatok furcsa helyeken találhatók?
  • A fizikai törvények megsértése. Az árnyékok, tükörképek a megszokottól eltérő irányokba mutatnak?

A videóhamisítványok felismerése

A mesterséges intelligencia immár lehetővé teszi, hogy a technológia iránt fogékony egyének úgynevezett fake (hamisított) videókat hozzanak létre – digitálisan átalakítva meglévő felvételeket, hogy különböző arcokat cseréljenek ki, új arckifejezéseket hozzanak létre és más beszédhangot illesszenek be, a megfelelő szájszinkronizálással.

Ez lehetővé tette csalók, hekkerek, de a hétköznapi internetfelhasználók egyre szélesebb körének is, hogy deepfake (gépi tanulás segítségével hamisított) felvételeket készítsenek, amelyekben hírességek, például Taylor Swift, vagy hétköznapi emberek is akaratlanul szerepelhetnek a beleegyezésük nélkül legyen szó akár csalásokról, pornográfiáról, vagy politikai félretájékoztatásról, dezinformációról.

Az MI-hamisította képek felismerésére szolgáló technikák a gyanús videókra is alkalmazhatók. Emellett a Massachusetts Institute of Technology (MIT) és az Illinois állambeli Northwestern Egyetem kutatói összeállítottak néhány tippet arra vonatkozóan, hogyan lehet kiszúrni az ilyen gépi tanulást alkalmazó hamisításokat, de elismerték, hogy nincs olyan bombabiztos módszer, amely mindig beválik.

6 tipp az MI-generálta videók kiszűréséhez:

  • Az ajkak és a száj mozgása. Lát olyan pillanatokat, amikor a hang és a videó nem teljesen van szinkronban?
  • Anatómiai hibák. Furcsán néz ki az arc vagy a test, illetve természetellenesen mozog?
  • Keresse az egyenetlenségeket vagy ráncokat a homlok és az arc körül, valamint anyajegyeket!
  • Megvilágítás. Úgy viselkednek az árnyékok, ahogyan elvárná? Fordítson különös figyelmet a szemekre, szemöldökökre vagy a szemüvegre!
  • Különösen néz ki az arcszőrzet és a haj, vagy furcsán mozog?
  • Pislogás. A túl sok vagy túl kevés pislogás egy deepfake jele lehet.

A gépi tanulás segítségével hamisított videók legújabb kategóriája teljesen MI-vel generált videóklipeket is képes létrehozni szöveges utasítások alapján. A vállalatok már tesztelik és kereskedelmi forgalomba hozzák az MI-videógenerátorok olyan változatait, amelyekkel bárki egyszerűen, különösebb technikai ismeret nélkül is megteheti ezt. Mindeddig az eredményül kapott videók általában torz arcokat vagy bizarr testmozgásokat mutatnak.

Előadás a gépi tanulás segítségével hamisított (deepfake) tartalmakról 
Előadás a gépi tanulás segítségével hamisított (deepfake) tartalmakról                                            Forrás: Wikimedia Commons
Photo Ministry of Foreign Affairs / Martijn Beekman

Az MI-robotok azonosítása

A számítógépes robotok (röviden botok) által irányított felhasználói fiókok számos közösségi média és üzenetküldő platformon elterjedtek. E botok 2022 óta egyre nagyobb számban használják ki a generatív MI-technológiákat, például nyelveket tanulnak. Ezek segítségével könnyen és olcsón lehet több ezer boton keresztül mesterséges intelligenciával alkotott, nyelvtanilag helyes és a különböző helyzetekre meggyőzően testre szabott tartalmakat gyártani.

Paul Brenner, az Indiana állambeli Notre Dame Egyetem munkatársa szerint sokkal könnyebbé vált, hogy ezeket a nagy nyelvi modelleket adott célközönségre és konkrét üzenetekre szabjuk. Brenner és munkatársai kutatásaik során megállapították, hogy a részt vevő önkéntesek csak az esetek 42 százalékában tudták megkülönböztetni a mesterséges intelligenciával működő botokat az emberektől – annak ellenére, hogy elmondták nekik, lehetséges, hogy botokkal fognak kapcsolatba lépni.

 

 

MI generálta videó
MI generálta videó
Forrás: Rawpixel.com

5 módszer egy MI-bot lebuktatására:

  • Emojik (hangulatjelek) és hashtagek (címkék). Ezek túlzott használata jel lehet.
  • Szokatlan megfogalmazás, szóhasználat vagy hasonlatok. A furcsa megfogalmazás mesterséges intelligenciával rendelkező robotra utalhat.
  • Szövegalkotási furcsaságok. A botok sokszor ismétlődő megfogalmazásokat használhatnak, és bizonyos szlengkifejezéseket túlzásba vihetnek.
  • Kérdezzen! Ezekből kiderülhet, ha a bot nem ismer egy hétköznapi témát, amelyet a valós személyek igen.
  • Feltételezzük a legrosszabbat! Ha egy felhasználói fiók nem egy ismerőst takar, és a személyazonosságát nem igazolták vagy tették közzé egyértelműen, akkor könnyen lehet, hogy egy MI-vel működő robot áll a profil mögött.

Hangklónozás és beszédhamisítás

A mesterséges intelligencia eszközeivel könnyen lehet olyan új beszélt hangot generálni, amely gyakorlatilag bárkit képes utánozni. Ez vezetett az olyan audio deepfake csalások elterjedéséhez, amelyekben családtagok, vállalatigazgatók és politikai vezetők, például Joe Biden amerikai elnök hangját klónozzák. Ezeket sokkal nehezebb azonosítani, mint az MI-generálta képeket vagy videókat.

A hangklónozást különösen nagy kihívás megkülönböztetni a valóditól, mivel nincsenek olyan vizuális összetevők, látható eltérések, amelyek támogatnának a megtévesztés elkerülésében.
Az ilyen MI-hanghamisítások különösen akkor lehetnek trükkösek, ha azokat telefonhívásokban használják. Létezik azonban néhány józan lépés, amelyet követve megkülönböztetheti a hiteles emberi hangokat a mesterséges intelligencia által generáltaktól.

4 lépés a hangklónozás felismeréséhez:

  • Amennyiben egy hangfelvételen választott tisztségviselő vagy híresség szerepel, ellenőrizze, hogy a mondanivalója összhangban áll-e azzal, amit már korábban nyilvánosan közölt vagy megosztott a nézeteiről.
  • Keresse az ellentmondásokat! Hasonlítsa össze a hangfelvételt olyan, korábban hitelesített hang-, illetve videóanyagokkal, amelyeken ugyanannak a személynek a hangja hallható. Észrevehetők-e a beszédmódjukban eltérések?
  • Kínos csendek. A hangpostát vagy telefonhívást hallgatva a beszélő szokatlanul hosszú szüneteket tart beszéd közben.
  • Bármilyen robotikus beszédmintázat vagy szokatlan bőbeszédűség arra utalhat, hogy valaki hangklónozást vet be a személy hangjának utánzására és egy nagy nyelvi modellt a pontos megfogalmazás generálására.

A technológia csak egyre jobb lesz

Jelenleg nem lehet olyan tanácsot adni, amely mindig segít különbséget tenni a mesterséges intelligencia által generált és a hiteles emberi tartalom között.
A hang, kép, szöveg és videó generálására képes MI-modellek szinte biztosan tovább fejlődnek, és gyorsan képesek hitelesnek látszó tartalmat előállítani, nyilvánvaló hibák nélkül.

Ez megkönnyíti a rosszindulatú, az embereket becsapni szándékozó csalóknak, hogy az MI által generált hamis információkkal elárasszák a közösségi médiát.

Nők a deepfake pornográfia ellen nyújtottak be petíciót Németországban
Nők a deepfake pornográfia ellen nyújtottak be petíciót Németországban                           Forrás: Wikimedia Commons, / C.Suthorn

Bár fontos, hogy kiélezzük a szemünket (és hegyezzük a fülünket) ezekre, és megtanuljunk több leleplező kérdést feltenni a hallott, látott és olvasott valótlan információkkal kapcsolatban, végső soron ez nem lesz elég a megállításukhoz, csupán az elkerülésükhöz. A felelősség azonban nem hárulhat teljes mértékben az egyénekre. Farid azon kutatók közé tartozik, akik szerint a kormányzatoknak polgáraik védelme érdekében felelősségre kellene vonniuk a legnagyobb technológiai vállalatokat, amelyek számos olyan eszközt fejlesztettek ki, amik elárasztják az internetet a mesterséges intelligencia segítségével előállított valótlan tartalmakkal.

További hírek