Valójában nehéz felmérni, hogy a megszerzett tudás, kutatásba ágyazva mennyire hasznos. Sokszor az idő ad választ erre a kérdésre, de felgyorsult világunkban ezt nem áll módunkban kivárni. Emiatt jött létre a tudományos eredmények mérésével és elemzésével foglalkozó ágazat, a scientometrics, azaz tudománymetria.
A tudománymetria főbb tevékenysége a kutatások megértése, hatásainak mérése, a tanulmányok, szakfolyóiratok idézettség szempontjából történő vizsgálata, illetve a keletkező adatok felhasználása különféle iránymutatások, szakpolitikák elkészítéséhez.
A gyakorlatban a tudománymetria jelentős fedésben áll más tudományterületekkel, például az információ- és metatudománnyal, a tudománypolitikával és -szociológiával. Kritikusai szerint azonban napjainkra a tudománymetriára való erőteljes támaszkodás olyan káros ösztönzők rendszerét hozta létre, és olyan „publikálsz vagy megszöksz” környezetet teremtett, mely alacsony színvonalú kutatásokhoz vezethet.
Honnan indult a tudománymetria?
A modern tudománymetria leginkább Derek J. de Solla Price brit fizikus és Eugene Garfield amerikai nyelvész munkáján alapul. Utóbbi a tudományos idézettségi mutató (Science Citation Index, SCI) megalkotója és a Tudományos Információk Intézetének (Institute for Scientific Information, ISI) alapítója. A tudomány „iparosodása” kétségtelenül jelentősen megnövelte a kutatási eredmények és publikációk számát, a számítógépek elterjedése pedig lehetővé tette az adatok hatékony elemzését.

Forrás: Wikimedia Commons
Hazánkban a témához kapcsolódóan 1978-ban az Akadémiai Kiadó és a Springer megalapította a Scientometrics tudományos folyóiratot, amelynek első főszerkesztője a tavaly elhunyt Braun Tibor vegyész professzor, a kémiai tudományok doktora lett.
Szövetség is alakult a terület szakembereinek tömörítésére, az 1993-ban alapított Nemzetközi Tudománymetriai és Informatikai Társaság. Később, a századforduló táján a kutatók és intézmények értékelése, rangsorolása még inkább előtérbe került. A tudományos publikációk idézettségének bibliometriai (a publikációk számosságának) elemzésén alapuló Academic Ranking of World Universities (Shanghai-rangsor) elnevezésű besorolást először 2004-ben a Shanghai Jiao Tong Egyetem adta ki. Az ehhez hasonló ranglisták mára fontos eszközzé váltak a különböző folyóiratok minősítéséhez. Ilyen például a Times Higher Education World University Rankings (THE-rangsor) is, mely az egyetemek, a h-index (erről még később lesz szó) pedig a kutatók munkájának termelékenységét és hatását jelző fontos mutatóvá vált.
Eközben megnőtt a kormányok érdeklődése is a kutatás értékelése iránt a pénzügyi támogatás hatásának felmérése céljából. Mivel a tudományos kutatásba történő befektetések az Egyesült Államok 2009. évi amerikai gazdaságélénkítési és újrabefektetési törvényének (ARRA) részét képezték, ezért ott olyan programokat hoztak létre, mint a STAR METRICS, hogy felmérjék, a tudományos kutatás gazdaságra gyakorolt pozitív hatása valóban bekövetkezik-e.

Milyen módszerekkel lehet mérni a tudományt?
A tudománymetriai tanulmányok középpontjában az intézményi, kari termelékenység összehasonlítása, a kutatási és folyóiratrangsorok, a kinevezési normák megállapítása, a vezető tudományos cikkek hatásának értékelése, valamint a kutatási teljesítmény szempontjából élen járó szerzők és intézmények profiljának összehasonlítása állt.
Az egyik jelentős megállapítás e területen a költségek terjedésének elve, amely szerint a további eredmények adott fontossági szinten exponenciálisan drágábbá válnak a ráfordított erőforrások függvényében. A keresés, a gépi tanulás és az adatbányászat új, algoritmikus módszerei viszont azt mutatják, hogy számos információkeresésen és -kinyerésen alapuló probléma esetében ez nem igaz.
A legújabb módszerek nyílt adatokra és forráskódra támaszkodnak az átláthatóság és a reprodukálhatóság biztosítása érdekében, összhangban a modern tudományos követelményekkel. Például az Unpaywall index és az ahhoz kapcsolódó, nyílt hozzáférés trendjeire vonatkozó kutatások a világ könyvtárai és intézményei által biztosított több ezer nyílt archívumból lekérdezett adatokra épülnek.
A tudománymetriában gyakori hibák elkerülésére vonatkozó ajánlások a következők: elegendő adatot tartalmazó halmaz kiválasztása, módszerek összekapcsolása, a félrevezető információk kiküszöbölése. Meg kell érteni a keresőmotorok (például Google Scholar, Scopus, Web of Science) korlátait is, amelyek nem képesek kis folyóiratok és elmaradott országok több ezer tanulmányát indexelni.
Gyakori mutatók
Az indexek besorolhatók cikkszintű, szerzőszintű és folyóiratszintű kategóriákba, attól függően, hogy melyik jellemzőt értékelik. Az egyik legismertebb mutató, a hatástényező, vagy angolul impact factor (IF). Egy tudományos folyóirat impakt faktora a közelmúltban benne megjelent cikkekre történő hivatkozások éves átlagos számát tükrözi. Gyakran használják egy folyóirat viszonylagos fontosságának jelzésére a saját szakterületén belül; a magasabb impakt faktorral rendelkező folyóiratokat gyakran meghatározóbbnak tartják, mint az alacsonyabbal rendelkezőket.
Az idézettség, angolul Science Citation Index (SCI) eredetileg a már említett Institute for Scientific Information (ISI) által készített mutató, amely hivatalosan 1964-ben indult útjára. A kiterjesztett változat (Science Citation Index Expanded) több mint 8500 jelentős és neves folyóiratot tart számon, 150 tudományágban, 1900-tól napjainkig. Ezek tulajdonképpen a világ első számú tudományos és technológiai folyóiratai.
A teljesítmény persze becsülhető egyszerűen csak a publikációk darabszámával is. Mivel a különböző jellegű tanulmányok munkaigénye és szerepe más és más, ezért gyakran kategóriákba csoportosítva szokás megadni. Ilyenek például a könyvek, fejezetek, lektorált cikkek idegen vagy magyar nyelvű szakfolyóiratokban, nem lektorált cikkek, térképek, digitális adathordozón megjelent publikációk, ismeretterjesztő vagy online cikkek stb.
Gyakori mutató továbbá a Hirsch-féle index, amelynek bevezetését Jorge E. Hirsch argentin származású amerikai fizikus javasolta a kutatók teljesítménymérését szolgáló új eszközként. Meghatározása szerint egy kutató indexe h, ha legalább h darab olyan cikkel rendelkezik, ami legkevesebb h hivatkozást kapott (vagyis a többi cikke ennél kevesebbet). A magas h-indexű kutató tehát sok, erősen hivatkozott cikket tett közzé. A kutatói gyakorlatban 6-7-es értéket viszonylag könnyű elérni, de tovább növelni innen már nehéz. A 20-as h-index már nemzetközileg is figyelemre méltó teljesítmény.
De ki a legidézettebb?
Sajnos erre csak különféle szűrők meghatározásával tudunk választ adni, hiszen attól függ, melyik index(ek), rangsor(ok) alapján, milyen intézmény, régió, tudományterület szerint vagyunk kíváncsiak, hogy adott kutató annak a bizonyos létrának hányadik fokán áll.
Talán az egyik legfontosabb szempont a keresés során, hogy mely időszakon belül (év, évtized, évszázad) szeretnénk a legidézettebb személyt felkutatni. Ha például Szent-Györgyi Albert idézettségét próbálnánk meghatározni (amikor ez a fogalom még gyakorlatilag semmit nem jelentett), nehéz dolgunk lenne, de a XXI. századra nézve (amikor ez gyakorlatilag a legfontosabb szempont) jól mérhető adatok állnak rendelkezésünkre.
Emellett pedig további variációkat jelenthet, ha dinamikára, trendekre akarunk rákeresni, például adott kutatónak az elmúlt 5 évben mennyivel nőtt az idézettsége (itt ugye nem a valaha publikált művei összességét vesszük figyelembe).

Felütve az egyik legnépszerűbb, már emlegetett keresőmotort, a Web of Science tavalyi (vagyis az oldalon fellelhető legfrissebb) adatbázisát, a keresőbe Magyarországot beütve négy kutató sorakozik fel a listán: Demetrovics Zolt pszichológus, Ferdinandy Péter farmakológus, Győrffy Balázs bioinformatikus és Szolnoki Attila fizikus. Ők lennének akkor a legidézettebbek?
Igen, amennyiben a 2022-es évben a legtöbb publikációval rendelkező magyarországi kutatók, illetve az alkalmazott elemzési módszerek, felhasznált adatok szerint, a figyelembe vett, magas idézettségű cikkeket jegyző személyek közül vagyunk kíváncsiak a legjobbakra.
Valóban számít ez?
Mármint az idézettség. Mint bármely téma a világon, ez is megosztó pro és kontra érvek tekintetében. A támogató oldal szerint e mérőszámok által a kutatók bemutathatják munkáltatójuknak, hogy kutatásaik hazai és nemzetközi összehasonlításban versenyképesek. Bár egyetlen mérőszám használata félrevezető és kijátszható volna, de számos különbözőnek a párhuzamos figyelembevétele már a valós teljesítményről adhat egy hozzávetőleges becslést. Az intézmények vezetői így hiteles áttekintést adhatnak a politikai döntéshozóknak, hogy szervezetük jól működik, és versenyképes terméket állít elő. A politikai döntéshozók aztán meggyőzhetik a választókat arról, hogy a tudományra költött adó nem elpocsékolt pénz.
A regionális kutatások általában gyakorlati jellegűek, a tudománymetria pártolói szerint ezeket a gazdasági élet szereplőinek kellene megfizetniük. Ezután művelőiket nem fogja sérteni az, hogy a mérőszámok főként az alapkutatást értékelik.
A tudománymetria melletti további érv, hogy nem tisztázott, amennyiben a tudományban járatlan döntéshozók nem a fenti elvek alapján osztják szét köztük a rendelkezésre álló pénzt, álláshelyeket és más erőforrásokat, akkor milyen eltérő módon kellene ezt megtenniük.
A rendszert bírálók szerint a teljesítmény értékelése, a kutatók minősítése során napjainkban egyre kevésbé veszik figyelembe az önálló tudományos szakkönyvek, monográfiák és egyetemi tankönyvek szerzőségét. A minősítés inkább a hatástényező alapján „rangosnak” tekintett folyóiratokban publikált cikkek és az ott megjelent hivatkozások száma alapján történik (azok pontos műfajától és tartalmától jobbára elvonatkoztatva). A tudományos eredmény társadalmi, leginkább oktatási, vagyis széles értelemben vett hatása ezzel a megközelítéssel figyelmen kívül marad, így nem ösztönöz átfogó és részletes elemzésre épülő, annak eredményeit összegző monográfiák írására.
A tudományos munka kvantitatív mérése továbbá azért is kritizálható, mert ez a kutatót a publikációs listáján szereplő tételek számának növelése felé orientálja. Manapság pedig számos „parazita” vagy „ragadozó” folyóirat létezik, amelyek egy meghatározott összegért bármilyen szöveget leközölnek anélkül, hogy azt előzetesen független szakértői bírálatnak vetették volna alá. A folyóirat így anyagi, a szerző viszont csak szimbolikus haszonra tesz szert, amit később ösztöndíjak és állások formájában maga is elismertségre és pénzre válthat. Ez a gyakorlat, amellett, hogy általában is káros a tudományra, az ismeretek előállítását is összeesküvés tárgyává változtatja.
Tévedés volna azt gondolni tehát, hogy e cikkben emlegetett mérőszámok valamiféle szellemi értéket vagy társadalmi hasznosságot mérnek. Teljesen más a céljuk. Egy-egy publikációról (részben szakterülettől is függően) az éppen aktuális szakmai „divatok”, illetve felkapott témák csendesedésével, általában legalább egy (vagy több) évtized múlva derül ki, hogy az adott tudományterületre mennyire hatott. Egy adott szerző jelentőségét pedig inkább tudományos életművének egésze, ritkábban egy-két kiemelkedő, új gondolatokat tartalmazó publikációja alapján lehet megítélni.