Nem baj, ha félünk: a Microsoft elhozta a mesterséges intelligencia korát

Különleges meglepetéssel készül március 15-re az Uránia Nemzeti Filmszínház
2023-03-07
Most Önből is lehet katona, csak regisztrálni kell
2023-03-08
Show all

Nem baj, ha félünk: a Microsoft elhozta a mesterséges intelligencia korát

Nem jött el a szingularitás, nem vették át a hatalmat a gépek az emberiség fölött, csak éppen a fél világ a ChatGPT-vel foglalkozik. (A másik fele az orosz-ukrán háborúval és folyományaival.) A tudományos kiadók például hevesen töprengenek azon, hogy az MI-vel generált közlemények fölött ki, mi legyen a szerző? Az iskolák sem döntötték még el, hogy tiltsák, tűrjék vagy támogassák a ChatGPT használatát. Szerintem ez a kérdés már eldőlt, ahogy a mobiltelefon-krízis 20 évvel ezelőtt: muszáj lesz legalább eltűrni, mert a gyakorlat átlép a tiltáson.

A világnak a ChatGPT-vel foglalkozó részébe tartozom, mintegy két hónapja figyelem a fejleményeket és az eredményeket, jelenleg itt tartok (miután a ChatGPT kijelentette rólam, hogy fantasy könyvekről vagyok ismert, amilyet soha nem írtam, és nem is fogok.) Ezért le szeretném szögezni a következőket.

– Semmilyen MI által generált tartalom nem tekinthető hitelesnek, mert nincs köze a valósághoz.

– A hitelességet, azaz a valóság és a tartalom kapcsolatának minőségét élő személyeknek kell szavatolnia.

– A fenti miatt a tartalom használatából eredő következményekért az a felelős, aki felhasználta (nem az, aki a hitelességet szavatolta).

– A fentiek miatt a „tartalom felhasználása” fogalomba szervesen beletartozik, hogy élő személy használta fel.

– A fentiek miatt ezentúl (2023 márciusától) minden közreadott tartalom mellett büntetőjogilag kötelezően fel kellene tüntetni, hogy milyen arányban tartalmaz MI-eredetű részeket, állításokat, ha nincs feltüntetve, hiteltelennek, hamisnak kell minősíteni ennek minden következményével.

Ez a kép az első keresésem eredménye -- soha az életben nem írtam fantasy könyvet, mégis ezt állítja rólam.

Ez a kép az első keresésem eredménye — soha az életben nem írtam fantasy könyvet, mégis ezt állítja rólam. Írtam könyveket, de műszaki-technikai leírásokat.
Úgyhogy a ChatGPT olyan, mint egy elcseszett. túlbuzgó Wikipedia.
Arról nem szólva, hogy önként és dalolva felhozza a lakcímemet (amelyet, igaz, 1000+ helyen megadtam a webáruházakban…)

A Microsoft keze jócskán benne van

A ChatGPT egy OpenAI nevű vállalat úgynevezett nagy nyelvi modellen alapuló tartalomgeneráló terméke. A nevéből az következne, hogy nem más, mint társalgóautomata – csakhogy bármilyen (BÁRMILYEN) témakörben lehet vele társalogni, és utasításoknak is engedelmeskedik, például ilyennek: „Írjál 1000 szót a magyarországi rendszerváltozás első három évéről!” Ennél csiklandósabb, hogy végre fogja hajtani az „Írjál bejelentkezési programot az {meghatározás} levelező rendszerbe C++ nyelven!” utasítást is. Bemeneti adatként az interneten fellelhető szövegeket fogja felhasználni.

Az OpenAI vállalat legnagyobb (meghatározó) befektetője a Microsoft, további befektetői az Infosys (egy 100 ezer fős, globális, indiai székhelyű informatikai szolgáltató cég) és a Khosla Ventures nevű amerikai kockázatitőke-befektető cég. A világban manapság dühöngő ChatGPT-őrületet az indította el, hogy

a.) a Microsoft bejelentette, a legközelebbi jövőben több mint 10 milliárd dollárt fog befektetni az OpenAI mesterségesintelligencia-termékeibe;

b.) megnyitotta az ingyenes és fizetős ChatGPT-szolgáltatásokat a nagyközönség előtt.

A Microsoft az OpenAI meghatározó befektetője

A Microsoft az OpenAI meghatározó befektetője
Forrás: techerati.com

A valóságot nem szeretném szabatosan meghatározni, mert az már filozófia lenne. A hitelesség fogalmát azonban közel állónak érzem ilyesmihez: hiteles az, ami közeli, ellenőrizhető és többé-kevésbé állandó kapcsolatban áll a valósággal. Itt azonnal el lehetne kezdeni humorizálni arról, hogy ha a ChatGPT alapanyaga az internet, akkor kinek volt az a beteg ötlete, hogy bármi köze lehet bármihez?!

Pedig ez nem vicc.

A ChatGPT valóban az interneten fellelhető összes szöveget felhasználja a működéséhez, továbbá a szövegelemek között fellelhető statisztikai mintákat számtalan paraméter szerint variálva állítja össze a válaszokat. Nyilván figyelembe veszi az adott nyelv szabályait, ezért a válasz értelmesnek látszik. (Kis kitérő: az automatikus fordítás már a ChatGPT előtt megoldódott például a közismert és közkedvelt DeepL online fordító és/vagy a vicces félrefordítások kedvenc forrása, a Google Fordító révén.)

Mostanában az a viccek rémüldözések forrása, hogy a ChatGPT-t felvették volna az Amazonhoz, mert helyesen, sőt elfogadhatóan válaszolta meg az ún. onboarding (felvételi) beszélgetések első lépcsőjének kérdéseit. Vagy hogy közepes (az amerikai osztályzás szerint B-) szintű jogi diplomát szerzett egy amerikai állami egyetemen, amelynek birtokában jogi gyakornoki (magyarul: ügyvédbojtár…) állásra lenne jogosult. Az ilyen rémüldözések következő mondata, hogy a mesterséges intelligencia tömeges munkanélküliséget fog okozni – amiben többek között az a csúsztatás, hogy már jelenleg is tömeges munkanélküliség áll fenn a fejlett világban: sokaknak nincs a képzettségének megfelelő munkája, illetve sok-sok millió a betöltetlen pozíció, aminek számos valódi és mondvacsinált oka van – de ez a cikk az MI-ről szól.

A mesterséges intelligencia már évek óta velünk van

A többi MI- (ChatGPT-) témájú lelkes, pozitív hír arról szól, hogy mi mindenre képes ez az eszköz. Lassan tényleg háztartási fogalom lesz a ChatGPT, ami csak ettől a hírveréstől beteljesíti a jóslatot: a világ megváltozott. Pedig az MI már évek óta velünk van: az automata ügyfélszolgálat nem új, az útvonaltervező nem új, az automata orvosi diagnosztika nem új, a bullshitgenerátor automata történetmesélő nem új, az önvezető autó ott toporog a garázsajtóban (Elon Musk is nagyon szeretné, ha engedélyeznék végre a Tesla autók 5. szintű – teljes – autonóm sofőrszoftverét, csak sajnos minden héten történik egy kínos malőr már a 3-as, 4-es szintű verziókkal is…)

Az automata ügyfélszolgálat, vagy az útvonalkereső is MI.

Az automata ügyfélszolgálat, vagy az útvonalkereső is MI.
Forrás: Flickr.com

A lelkes híradások közül rendre elő-elő kerülnek olyanok, hogy a ChatGPT erőnek erejével meg akar győzni valakit arról, hogy ő már évek óta meghalt, és a gyászjelentésének (hál’ Istennek hamis) linkjét is az arcába tolja. Vagy hogy előhúz hamis állításokat egy-egy dolgozatban, amelyeket semmivel nem lehet igazolni, illetve szintén a felsorakoztatott források hamisak. Az ilyen jelenségek forrása egyrészt az, hogy a ChatGPT-t arra programozták, hogy mindenképpen teljesítse a feladatot, bár lehet állítani a modorát (szelíd – agresszív), már valamiféle szűrés is működik benne a rasszista/gyűlöletkeltő és/vagy pornográf hangvétel ellen, másrészt, hogy a jelenségek legnagyobb része a szolgáltatás célzott, nem teljesen jóindulatú tesztelése közben fordult elő.

Szóval, ezek az esetek ahhoz hasonlók, amikor az ember kipróbálja, hogy meg tudja-e vágni magát a késsel. Jelentem: meg tudja: sem a kés, sem a kalapács nem bolondbiztos, és a ChatGPT hülye kérdésre hülye választ fog adni. Az általános szolgáltatási feltételei között benne is van, hogy a válaszok megbízhatósága annál kisebb, minél hosszabb a kérdés-felelet sorozat, vagyis szegény MI-t bizony meg lehet vezetni. Humán társalgásban az ilyet „terelésnek” hívják, gyakran előfordul, idegesítő, és mondhatni itt is szoftver- (jellem-) hiba.

A ChatGPT úgy csinál, mintha köze lenne a valósághoz, pedig nincs

Ettől még a ChatGPT (a nagy nyelvi modellek) bemeneti adathalmaza egy adathalmaz, nem pedig tudás. Akkor sem, ha az adathalmaz szerves részei az adatelemek egymás melletti előfordulásának gyakoriságai – amelyek azért fordulnak elő, mert az EMBEREK valamiféle összefüggést fedeztek fel közöttük. Ha ez az összefüggés több szintű, több komponensű, akkor is csak a múlt: tehát olyan, ami már létezett.

És akkor ott van a korrelációs probléma is: attól, hogy két adatsor együtt változónak tűnik, nem függenek egymástól. Ez a klasszikus részvényárfolyam-szoknyahossz összefüggés: a statisztikusok a II. világháború előtt felfedezték, hogy együtt változnak, pedig nagy valószínűséggel semmi közük egymáshoz. Valójában sokkal-sokkal több korrelációs összefüggést lehet feltárni, mint amennyinél a konkrét fizikai (társadalmi, biológiai, pszichológiai) összefüggést igazolni lehet.

Hasonló a ma divatos SEO- (keresésoptimalizálási) paradoxonhoz is: az összes beavatkozás alapja a már megtörtént keresések elemzése, márpedig ezeknek kevés köze van a jövőbeli történésekhez: bármikor történhet valami, amely alapvetően változtatja meg a célcsoportunk pillanatnyi érdeklődését, aminek hatására a múltra alapozott beavatkozásaink eredménytelenek lesznek.

Jelenleg a ChatGPT amolyan JPG- szerű: körmönfont matematikai módszerekkel úgy csinál, mintha köze lenne a valósághoz. (A JPG egy képtömörítési módszer, a segítségével előállított fotó szemre megkülönböztethetetlen attól, amit a fényképezőgép felvett, de egyetlen képpont sem egyezik a tömörített és az eredeti képben. Az mp3 ugyanez – hangban.)

A ChatGPT és az összes jelenlegi, az adathalmazokban feltárható minták elemzésén alapuló mesterségesintelligencia-eszköz a (legalább) 50 éves meghatározást tette igazzá:  Az MI a szellemi rutinmunka eszköze.

Igazság szerint az eredeti így hangzott: „A számítógép a szellemi rutinmunka eszköze.” (ezt már 1973-ban tanították a Műegyetemen)

Cikk küldése e-mailben

Comments are closed.