Könyvtárosként a mindennapi gyakorlatban figyelemmel kísérhetjük, milyen változásokat idéz elő az internet terjedése és az elektronikus környezet térhódítása a tudomány világában. Az előfizetéses könyvtári források, adatbázisok, a nyílt hozzáférésű folyóiratok és archivált anyagok révén lényegesen könnyebben juthatunk hozzá a publikált tudományos eredményekhez akár formális vagy informális közlemény, szakcikk, tanulmány, szakkönyv más és más szerző által írt fejezetei, konferencia-előadások, jelentések vagy ismeretterjesztő cikkek formájában. Ennek megfelelően változnak a könyvtárhasználók információkeresési szokásai a tudományos kutatás terén, beleértve a tudományos teljesítmény színvonalának felmérését. A tudományos kommunikáció és az egyes szakterületek publikálási szokásainak módosulása eredményeként a hagyományos tudománymetriai eszközök és mutatók nem minden tudományterületen képesek lépést tartani a tudományos munka (közlemények és kiadványok) értékelésével. Az új igények kielégítésére, a kutatói teljesítmény összetettebb értékelésére új módszerekre mutatkozik igény.Az utóbbi néhány évben minden eddiginél gazdagabb eszköztár áll rendelkezésre azok számára, akik a tudomány egyes területeit objektív módon kívánják feltárni. Az egyes tudományágak irányának és növekedési ütemének változása könnyebben nyomon követhetővé vált a tudománymetriai alkalmazások elterjedésével. A tudománymetria és bibliometria önálló tudományágként létjogosultságot nyervén használatossá vált a mindennapi gyakorlatban, mind a tudományos kutatóintézekekben, mind pedig a tudományfinanszírozók között. A tudománymetriai mutatókat az egyes kutatók, intézmények, szaktudományágak vagy akár egy ország tudományos tevékenységének értékelésére szokás alkalmazni, mintegy számszerűsítve a kutató és kutatása jelentőségét. A publikációk mennyiségi viszonyaival foglalkozó tudományág, a bibliometria egyre bővülő eszköztárral áll rendelkezésre a leíró és értékelő elemzésekhez. A jelenleg Thomson Reuters Scientific (korábban Institute for Scientific Information, ISI) által kínált előfizetéses adatbázisainak új versenytársai, például az Elsevier szintén térítéses Scopusa és az ingyenes Google Scholar szolgáltatásaikkal jelentősen hozzájárultak a változásokhoz. Az elmúlt években újabb és újabb mérőszámok, úgynevezett teljesítménymutatók (performance indicators) jelentek meg a kínálatban, mint például a bevált impakt faktor mellett a folyóiratok presztízsének megítélésére szolgáló Eigenfactor (eigenfactor.org), az egyes folyóiratokban megjelenő közlemények letöltési száma (COUNTER: Counting Online Usage of Networked Electronic Resources – az elektronikus hálózati források online használatának mérése, projectcounter.org), vagy az egyéni kutatói teljesítmény vonatkozásában az egyszerű statisztikai adatoknál pontosabb értékelést nyújtó h-index (Hirsch, 2005) és g-index (Egghe, 2006). Az álláspályázatoknál és előléptetéseknél szerte a világon ugyanolyan gyakori ezen mutatók használata, mint az intézeti teljesítmény mérésében vagy a kutatásfinanszírozásban. A témáról magyar nyelven is olvashatunk, sokkal szórakoztatóbb stílusban Siegfried Bär könyvében (Bär, 2003).
A kutatók, kutatásszervezők, egyetemi és finanszírozási döntéshozók információs igényeinek kielégítése mellett magunk is használjuk nap mint nap ezeket az eszközöket könyvtári célokra, például állományelemzésben és -fejlesztésben (előfizetés és lemondás, folyóiratcsomagok összeállítása, az olvasói használat értékelése stb), de a könyvtárhasználók is újabb kérdésekkel, kérésekkel és igényekkel keresik a könyvtáros segítségét. Tanulmányunk célja a könyvtárnak és a könyvtárosoknak a tudományos tevékenység értékelésében játszott lehetséges szerepének a bemutatása. A változások folyamatos követése révén, az új tudománymetriai és bibliometriai források megismertetésével és értő alkalmazásával a könyvtár lényegesen hozzájárulhat egy tudós, egy szakterület vagy egy intézmény eredményeinek valós feltérképezéséhez. A naprakész bibliometriai ismereteket az érdekeltekkel közösen használva a könyvtár nagy terhet vehet le a kutatók válláról, és újabb tanúbizonyságát adhatja nékülözhetetlenségének a tudományos életben is.

Bibliometria nem csak könyvtárosoknak

Előzetesen – a gyakran emlegetett kételyek ellenére – kiemelnénk a bibliometriai módszereknek az adott szakterület tudományos tevékenységének megítélésében betöltött felbecsülhetetlen értékét. Általánosan elfogadott tény, hogy a szakmabeliek által befolyásosnak tartott folyóiratok, közlemények és szerzők megnevezésével a tudományág önmagáról alkotott véleményét kapjuk eredményként.
A tudományos tevékenységet értékelő biblio¬met¬riai alkalmazások alapjaként az a feltételezés szolgál, hogy a fontos tudományos közleményeket, illetve a szakterületen befolyásos tudósokat gyakrabban idézik. Ebből eredően a többször hivatkozott publikációt, a gyakran idézett folyóiratot és a magas idézettségi mérőszámokkal rendelkező kutató vagy intézmény munkáját jobb minőségűnek szokás értékelni (Meho & Rogers, 2008).
A tudományos közlemények hatásának mérhetősége megosztja a tudománymetriával és bibliometriával foglalkozó kutatókat (Bornmann et al. 2008, Kostoff, 1998, Hood & Wilson, 2001, Phelan, 1999, Wallin, 2005). Ennek egyik magyarázata lehet az egyes tudományágak publikációs és hivatkozási szokásainak a különbsége (például a hivatkozások száma egy tanulmány végén, a régebbi és újabb közlemények idézésének aránya, referált folyóiratban vagy egyéb módon publikált eredmények értéke és frissesége stb.). Az egyik tábor kutatási eredményeivel azt bizonyítja, hogy a bibliometriai értékelés szoros kapcsolatban áll sok más, a tudományos munka eredményességét mérő módszerrel, tényezővel és véleménnyel, mint a díjak, kitüntetések, elismerések, ösztöndíjak, kutatásfinanszírozás, előléptetés és hírnév, valamint a szakmabeliek nem hivatalos értékelése. Például amikor ötvenhárom vezető csillagászt megkértek, hogy válasszák ki a század legfontosabb tudományos közleményeit, az eredmény önmagáért beszélt: a cikkek 92%-ára többen hivatkoztak, mint az átlag, vagyis a fontos publikációk idézettsége magasabbnak bizonyult (Abt, 2000).
Az ellentábor szerint az idézettség a tudományra gyakorolt hatás mellett nagy mértékben függ a kiadói szakma sajátosságaitól, és sajnálatos módon ki van téve olyan tényezőknek, mint a közlés időzítése, a folyóirat hozzáférhetősége, a publikáció műfaja és elhelyezése a folyóiratban vagy a könyvben, a folyóirat típusa, az olvasó és a szerző kapcsolata, a közlemény elérhetősége elektronikus úton, stb. Példaként idézhetnénk az egyik orvosi egyetem szerzőinek hivatkozási szokásait vizsgáló tanulmányt, amely azt találta, hogy a városi székhelyű tanszékek kutatói nem használnak több csak elektronikus formában elérhető folyóiratot, mint nyomtatottat. Viszont a kisebb, kihelyezett tagozatok kutatói, akik nem férnek hozzá a nyomtatott kiadványokhoz, lényegesen kevesebbet idéznek ilyen forrásokból (deGroote, 2008). A tudományban jelentős hatással rendelkező tanulmányokat pedig esetleg soha vagy csak ritkán idéznek, ahogy ezt egy sajátos terület, a bioföldrajz publikálási és hivatkozási gyakorlata alapján kimutatták. A szerzők annotált bibliográfiája a függelékben jó példa arra, ahogyan mások eredményeit és munkáját használják, de formai hivatkozások nélkül (MacRoberts, M. H. & MacRoberts, B. R., 2010). Az idézettséget befolyásoló tényezők teljesebb listája alapján javasolható a tudománymetria eszközeinek alaposabb megértése és az eredmények kritikai szemléletű értelmezése (Bornmann et al., 2008). Az idézettség elemzéséről szóló szakirodalom részletesebb vizsgálata azt sugallja, hogy a tudománymetriai mutatók alkalmazásánál a legnagyobb körültekintéssel kell eljárnunk és figyelembe kell vennünk az egyedi tényezőket az általános problémák mellett (Phelan, 1999).
Elfogadott az a tény, hogy egy viszonylag kisszámú tudósgárda publikálta az összes közlemény nagy részét (ld. ISI Highly Cited adatbázisáról a későbbiekben), míg egyesek szerint a közlemények közel 90%-ára egyszer sem hivatkoznak, sőt, a megjelenő cikkeknek közel 50%-át a szerzőkön, szakreferenseken és szerkesztőkön kívül soha senki sem olvassa el (Meho, 2007). Mindez nagy felkészültségű szakemberek kutatásaiból ismeretes, akik az előfizetéses és ingyenes adatbázisok évtizedeken át gyűjtött adatait statisztikai módszerekkel elemzik, és azokból a tudomány szempontjából lényeges következtetéseket vonnak le. A tudománymetria és bibliometria eszközeivel a dokumentumokban található vagy azokhoz hozzárendelt adatok bármely számszerűsíthető eleme mérhető: szerzőség (egyéni szerző, intézmény), származás, eredet, (földajzi terület, nyelv), kiadvány (folyóirat, formátum), tartalmi elemek és – a legfontosabb – a hivatkozás. Az egyes tudományágak eltérő kommunikációs és publikációs szokásai miatt abszolút számoknak sokan nem látják hasznát, viszont az értékelésnek van értelme az adott szakterület összefüggésében, értő interpretáció kíséretében. Bibliográfiai elemzésünkhöz, hozzáférhetőségtől (ingyenes vagy előfizetéses) és szakterülettől függően, számos eszköz közül választhatunk. Tapasztalataink szerint a források megválasztásához érdemes a könyvtáros szakember segítségét kérni.
A következőkben bemutatjuk, hogy tapasztalataink (a szakirodalommal egyetértésben) azt igazolják, bibliográfiai elemzésünkhöz célszerű egynél több forrást használni. Forrásnak a leggyakrabban használt Thomson Reuters termékeit (Social Science Citation Index, Web of Science és ISI Highly Cited), a versenytárs SCOPUS és a Google Scholar adatbázisait választottuk, amelyeket már több tanulmány is összehasonlított (Ball & Tunger, 2006, Bar-Ilan, 2008, Bakkalbasi, Bauer, Glover & Wang, 2006, Jacsó, 2008, Kloda, 2007, Levine-Clark & Gil, 2009, Meho & Yang, 2007, Norris & Oppenheim, 2007), de a szenvedélybetegségek kutatása terén még nem készült az egyéni vagy csoportos tudományos teljesítménymutatók összehasonlításával végzett elemzés.

A hivatkozás

A tudományos publikálás gyakorlatában a hivatkozás általában a szövegben előforduló, formailag szabályozott utalás egy publikációra, melyet a szerző cikke végén az irodalomjegyzékben megad. A hivatkozások arról tanúskodnak, hogy az új tudományos eredmény szervesen kapcsolódik a korábbi ismeretekhez, ezek forrásaira a szerző utal a szövegben és a közlemény végén. Az irodalomjegyzék (az egyes hivatkozási rendszerekben bibliography, references, works cited) első szerző szerinti ábécében tartalmazza minden olyan közlemény bibliográfiai adatait (szerző vagy szerzők, cím, a megjelenés helye, ideje), melyre a szövegben egyszer vagy többször utalt. Szakterülettől függően az egyes tudományos folyóiratok különféle közlési és hivatkozási stílusokat részesítenek előnyben (output styles). A legtöbb folyóirat valamely nagy tudományos szervezetek stílusrendszerét részesíti előnyben, pl. APA (Amerikai Pszichológiai Társaság), MLA (Modern Nyelvtudományi Társaság), AMA (Amerikai Orvostudományi Társaság) stb., de a folyóirat elő is írhatja a saját formát. A cikkírás és idézés folyamatát könnyítik a hivatkozás-menedzselő szoftverek (citation management software, bibliographic management software), így a Thomson Reuters EndNote vagy Reference Manager egyedi számítógépen használatos alkalmazásai, a ProQuest által fenntartott, online környezetben működő RefWorks vagy a nyílt forráskódú, ingyenes Zotero. A hivatkozás pontosságát segíti elő a gyakorlatban az is, hogy a nagy tudományos adatbázisok, platformok és könyvtári-bibliográfiai rendszerek (EBSCO, Elsevier, H.W. Wilson, Web of Science, OCLC WorldCat, Ovid, CrossRef,  Serial Solutions) szintén integrálják ezeket az alkalmazásokat, a szövegszerkesztő programokkal egyetemben. Ennek révén a tanulmány szövegtestében hivatkozott cikkekből a tanulmány végére pillanatok alatt generálható a folyóirat hivatkozási szabályainak megfelelő irodalomjegyzék. Ez részben megkönnyíti a szerzők és szerkesztők munkáját, de befolyásolhatja a szerzőt a publikálandó cikk közlési helyének megválasztásában. A hivatkozás pontosságát a szerkesztés folyamán a fenti rendszerekkel ugyancsak kompatibilis szoftverek is ellenőrzik (pl. eXtyles – inera.com). A később ismertetendő mérőszámok közös sajátossága, hogy az adatok erről a szöveg végén előforduló listáról származnak, vagyis függetlenül a szövegben előforduló utalások számától, minden hivatkozást csak egyszer vesznek figyelembe. A hivatkozások bibliográfiai értékelésében a közleményre hivatkozó folyóirat rangjának, ugyancsak nincs súlya, valamint az sem számít, hány szerző írta a cikket.
A tudományos ismeretek a hivatkozások révén formailag is egymáshoz kapcsolhatóak. Egyrészt visszafelé történő hivatkozás formájában (backward citation, cited articles) az új tudományos ismereteket a már meglévő eredményekhez viszonyítják, vagyis a cikk által hivatkozott más publikációkra vonatkoznak. Másrészt az adott közleményre történő hivatkozásokkal annak tudományos hatását bizonyítják (forward citation, citing articles). A tudományos térképek pontosabb ábrázolására törekvő egyes adatbázisok megkülönböztetnek első- és másodgenerációs hivatkozást is, például a Thomson Reuters hivatkozási térképei (citation maps). Az elsőgenerációs hivatkozás közvetlenül idézi az adott közleményt, míg a másodgenerációs valamelyik idéző közleményre hivatkozik. A bibliometriai elemzésekben az idézettségi mutatók általában az elsőgenerációs idéző közlemények számán alapulnak. Teljes tudományágak és földrajzi egységek rendszere is feltérképezhető, mint ahogyan ezt az Elsevier legújabb, úttörő alkalmazása, a SciVal lehetővé teszi (http://www.scival.com).
Hivatkozásnak számít tehát a publikáció végén lévő irodalomjegyzék minden egyes tétele, függetlenül attól, milyen célból történt az utalás. A hivatkozás miértjének közelebbi elemzése a számszerűen leírható adatok mögött rejlő minőségi különbségekre utal. A meglévő ismeretekre történő építés, szakirodalmi áttekintés, anyagok és módszerek leírása, az állítások igazolása, adatok hitelességének alátámasztása, mások eredményeinek helyesbítése vagy kritizálása mellett előfordul a saját műre történő hivatkozás vagy az udvariasságból történő idézés is. Ezek mind egy-egy hivatkozásként esnek a latba az idézettség szempontjából, ami már önmagában vitára adhat okot.
A hivatkozások demokratikusak, mindegy, miért idéztük valakinek a cikkét, minden hivatkozás ugyanolyan tételnek számít a listán. Ugyan udvariassági hivatkozásnak számít, ha egyes szerzők kölcsönösen hivatkoznak egymás közleményeire vagy egy nagytekintélyű szakember cikkére hivatkozunk, jóllehet a témához nincs is köze, de ezek is növelik a teljes hivatkozások számát. Már nem ennyire ártatlan dolog, amit bizonyos folyóiratok a szóbeszéd szerint művelnek: elvárják, szinte megkövetelik, hogy a náluk publikáló szerző idézzen a folyóiratban megjelent cikkekből. Ennél is vitathatóbb az a gyakorlat, miszerint az adott szám elején, egy vezércikkszerű ismertetőben összefoglalják a szám tartalmát, amellyel növelik a hivatkozások számát. Az ilyen manipulációk kikü­szöbölésére le szokták vonni az önhivatkozások számát az összes hivatkozásból, illetve eredeti közleményként határozzák meg a hivatkozható dokumentumokat. Ezzel szemben a hivatkozás dokumentálása elmaradhat olyan esetben, amikor a hivatkozás pontatlan, vagyis az adatbázisban indexelt mezőknek nem megfelelő alakban került a cikkbe. Ennek forrása lehet a szerző, aki a közleményre nem jól hivatkozik, vagy az adatbázis, ha például két szerző, akiknek a vezetékneve és keresztnevük első betűje is azonos, nem különböztethető meg.
A hivatkozáselemzés (citation analysis) egyszerű leíró statisztikai adatokkal (pl. közlemények száma, átlagos vagy éves hivatkozás cikkenként, leggyakrabban hivatkozott cikkek rangsora, stb.) és az ezekből számított összetettebb mutatókkal történő kvantitatív vagy kvalitatív elemzés (pl. h-index és ennek variációi, g-index, és súlyozott indexek).
A hivatkozás számlálása mindig ugyanazon adatbázis adatai alapján történik, vagyis ha az adott közleményre olyan folyóiratban hivatkoztak, amely nem szerepel az adatbázisban, az nem fog hivatkozásként szerepelni. Könyvfejezetek hivatkozásait még mindig kevés forrás tudja beszámítani. Ugyancsak kimaradhatnak az adatbázis által évjárat szerint nem indexelt évfolya¬mokban szereplő hivatkozások. Értelemszerűen a nem lektorált folyóiratok hivatkozásai sincsenek benne a Web of Science többnyire rangos folyóiratokat figyelő hivatkozási indexeiben, és a nem angol nyelvű cikkek is hátrányos helyzetbe kerülnek az idézés lehetősége vagy dokumentálása szempontjából. Az idézettség nagyságrendje önmagában nem feltétlenül jelenti, hogy az adott közlemény fontos vagy hasznos (Abt, 2000). Jogos a kérdés, hogy azonos értékű-e a magas impakt faktorú tudományos folyóiratban történő hivatkozás az alacsony folyóiratbeli idézéssel.

Bibliometria és tudománymetria

A bibliometriai elemzéseknek gazdag az irodalma mind angol, mind pedig magyar nyelven. A tanulmányok közös jellemzője, hogy szinte minden érdekelt fél szerepel szerzőként: elméleti és gyakorlati szakember, természet- és társadalomtudós, oktató és kutató, könyvtáros, szerkesztő, adatbázis-forgalmazó, kutatásfinanszírozó-döntéshozó.1 Az idézettség vizsgálatának tárgya lehet egy adott szakterület vagy téma, a kutatók közti kommunikációs formák, egy adott folyóirat közlési és hivatkozási gyakorlata, és igen gyakran a hivatkozási rendszerek és adatbázisok különbségei, használata és pontatlansága. Az irodalmat áttekintő cikkek ismertetésében szerepelnek felhasználói tanulmányok, információ-keresési szokásokra és állományfejlesztésre vonatkozó cikkek, valamint a kutatók és közlemények eredményességét vizsgáló elemzések.
A tudományos tevékenységet értékelő ágak terminológiája nagy változatosságot mutat. A leggyakrabban használt kifejezés a bibliometria (bibliometrics), ezt követi a tudománymetria és az informetria (scientometrics, informetrics), de más fogalmak is használatosak (bibliometry, technometrics, scientometry, librametry, sta¬tis¬tical bibliography). A DIALOG információtudományi adatbázisaiban a három leggyakrabban előforduló terminus közül a bibliometria megnevezés 1975 óta folyamatos növekedést mutat (Hood & Wilson, 2001).
Bár a szó francia, ‘bibliometrie’ alakját már használta Paul Otlet 1934-ben (Hood & Wilson, 2001), az elnevezés Pritchardtól származik, aki 1969-ben a korábban használatos bibliográfiai statisztika helyett az új terminust javasolta (Pritchard, 1969). Meghatározása szerint a bibliometria matematikai és statisztikai módszerek alkalmazása könyvekre és más kommunikációs formákra.
A tudománymetria (scientometrics) a biblio¬met¬ria orosz nyelvű megfelelőjeként született (Nalimov és Mulchenko, 1969, idézi Hood & Wilson, 2001), majd az 1978-ban alapított Scientometrics cí­mű folyóirat népszerűsítette ezt a fogalmat Braun Tibor közreműködésével (Rousseau, 2007). A tudománymetria célja többrétű, nemcsak az egyes tudományágak szakirodalom formájában megmutatkozó teljesítményét méri.
A német ‘Informetrie’ szóból származó in¬for¬metria (informetrics) szót a bibliográfiát és scientometriát is magában foglaló megnevezésként szokás értelmezni (Hood & Wilson, 2001). A tudománymetria történetének átfogó ismertetése, köztük az 1743-ból származó legkorábbi citációs index és a három idevonatkozó fő törvény bemutatása (Lotka, Zipf, és Bradford törvényei a múlt századból) érdekes olvasmány angol nyelven (például Brookes, 1990 vagy Heltzer, 2010).

Bibliometriai eszközök

Évtizedeken át egyetlen cég uralta a piacot, az 1960-ban Eugene Garfield által alapított, Philadelphiában található Institute for Scientific Information (ISI), amely jelenleg a Thomson Reuters tulajdonában van. A multidiszciplináris adatbázis egyeduralmát a tárgyszavakkal ellátott folyóiratok nagy számának és a hivatkozások indexelésének köszönhette. A modern követelményeknek megfelelően vizuális formában is láthatjuk keresésünk eredményét, emellett számos eszköz elemzi az adatokat, és integrálja adatait más, a tudományos kommunikációt segítő szoftveralkalmazásba. (Az ISI történetéről ld. Garfield, 2006.)
Jelenleg is ez az adatbázis szolgál kiindulópontként a tudományos tevékenység értékeléséhez mind a hozzáférhetőség, mind pedig az értékelési formák megalapozása eredményeként.
Közben az Elsevier 2004-ben piacra dobta SCOPUS nevű térítéses adatbázisát (Scopus.com), elterjedt a CiteSeer (http://citeseer.ist.psu.edu), és a Google Scholar is egyre szélesebb körben indexeli a tudományos közleményeket. A Google Scholart nevezik a citációs indexek új generációjának is, amelynek előnye, hogy szerepelnek benne konferencia-előadások, disszertációk, szakdolgozatok és egyéb, a szürke irodalom körébe tartozó publikációk, sőt az adott szerző által írt és szerkesztett könyvek, könyvfejezetek hivatkozásai is (Noruzi, 2005). Létrejöttek egy-egy tudományágra szakosodott adatbázisok, vagy a korábban meglévő adatbázist hivatkozásokkal bővítették (mint például Chemical Abstracts, MathSciNet, PsycINFO). Ezt a tudományágak publikációs tevékenységei és szokásai közti eltérések indokolják: egyes tudományágakban a konferenciák nyomtatott előadásai vagy a prepublikációs közlemények sokkal fontosabbak, időszerűbbek, mint másokban.
Egy adatbázis bibliográfiai vonatkozású eszközei természetesen nem választhatók el az adatbázis tartalmától, hiszen minden eszköz csak az általa feltárt tartalmakra épít forrásként. Az adatbázisok tartalmának vizsgálata általánosabb képet nyújt az adatbázisok dimenzióról (időbeliség, mélység, frisseség, teljesség, pontosság). Témánk szempontjából különösen fontos az adatbázisok által feltárt források elemzése (a feldolgozott primer források típusa, műfaja, nyelve és földrajzi származása); erről összefoglalóan magyarul is olvashatunk (Jacsó P., 2005).

A szenvedélybetegségek kutatása és a könyvtár

Az addikció tudományának bibliometriai vizsgálata nem könnyű feladat, és ezidáig kevés tanulmány született a témában. Az egyik az Addicton folyóiratban közölt publikációk idézettségét hasonlította össze a közlés előtti szakmai bírálat rangsorolásával, vagyis egy és ugyanazon folyóiratot vett alapul forrásként, és annak közlési gyakorlatát elemezte (West & McIlwaine, 2002). Egy másik tanulmány az alkohollal kapcsolatos nemzetközi kutatásokat vizsgálta az alkoholbetegség elterjedtségének függvényében azzal a céllal, hogy a téma iránti érdeklődést és elkötelezettséget felmérje szerte a világban. (Rajendram, Lewison, & Preedy, 2006). A szerzők a Thomson Reuters adatbázisai alapján az egyes földrajzi egységek publikálási szokásaiból az alkoholfogyasztás függvényében bibliometriai módszerekkel azt mutatták ki többek közt, hogy a közlemények 58%-a az USA és Kanada területét ölelik fel orvosbiológiai témában, jóllehet ez a régió a világ összes alkoholbetegségének kb. 13%-át képviseli. A 87%, vagyis az összes többi régió a közlemények 8%-ával járult hozzá az alkoholkutatáshoz. Az okokat és következtetéséket nem kívánjuk részletezni, példánk mindössze a bibliometriai kutatás egy lehetőségét illusztrálja. Egy harmadik tanulmány kifejezetten az addikciós folyóiratokban 1984 és 1988 között megjelent közleményeket vizsgálta bibliográfiai eszközökkel az ISI adatbázisa alapján. Bár nagy a változatosság a hivatkozások számát illetően, a vizsgált 541 cikknek mindössze 28,8%-ra nem hivatkoztak az adott időtartam végéig. Ez a társadalomtudományok hivatkozási szokásaihoz képest igen jó arány (Howard & Howard, 1992). Egy rövidebb elemzés pedig a társszerzők számának folyamatos növekedéséről számol be (Howard & Walker, 1992).
Vizsgálatunk szakterülete, az addikció-ku¬ta¬tás különösen specifikus kutatási ágként bib¬li¬o¬metriai értékelés szempontjából problémás tudományágnak tekinthető. A terület multidiszciplináris jellege, módszertani és terminológiai sokfélesége további nehézséget okoz. Egy szűk szakterületen a tudós publikációja általában kisebb érdeklődésre tarthat számot, és viszonylag kevés kutató fog cikkére hivatkozni, hiába jelent az meg magas impaktfaktorú folyóiratban (Bornmann et al. 2008). Egy új tudományág kutatási témáinak ugrásszerű növekedését nem feltétlenül képes követni az adatbázisok tezauruszainak szóhasználata sem, ami az addikcióval foglalkozó szakágon belül jelenleg az újabb információ- és kommunikációs technológiai (information and communications technologies, ICT) addikciók (internet, videójátékok, mobil eszközök, stb.) esetében kimutatható. A terminológia, illetve annak következetes használatának hiánya megnehezíti a dokumentumok lekeresését, és ezt a szakirodalom szóródása tovább nehezíti (Carbonell, et al. 2009). Az alkohol tudományterülete ugyanilyen: nem elég egyetlen adatbázist használni, hogy az összes releváns cikket megtaláljuk.
Könyvtárunk a Center of Alcohol Studies nevű interdiszciplináris intézet információs osztályának szerves része, az alkohol- és egyéb szenvedélybetegséggel foglalkozó szakmai anyagok nemzetközileg elismert gyűjtőhelye. Az intézetet a Yale Egyetemen alapították a harmincas évek végén, csak 1962-ben került mai helyére, a Rutgers Egyetemre. A könyvtár az intézet által kiadott szakmai folyóirat, a világ második legrégibb szenvedélybetegségekkel foglalkozó folyóirata, a Journal of Studies on Alcohol and Drugs2 melléktermékeként, annak kutatási bázisaként és adattáraként jött létre.
Az elmúlt három évben kutatóink és oktatóink kérésére többször is végeztünk bibliometriai forrásokat igénylő gyűjtőmunkát, keresést és elemzést; megbízásunk – a szakirodalomban ismert céloknak megfelelően – egyéni és csoportos teljesítmények értékelésére, folyóiratok minőségének megítélésére szólt. Hamarosan nyilvánvalóvá vált számunkra, hogy az egyes kutatóktól kapott feladatok eredményei a többiek érdeklődésére is számot tartanak. Könyvtári órák címmel előadás-sorozatot indítottunk, ahol kutatóink és oktatóink számára bemutattuk a hozzáférhető eszközöket, illetve azok néhány felhasználási lehetőségét, aminek következményeként ilyen jellegű kéréseink megszaporodtak. Különösen nagy sikere volt a Thomson Reuters Web of Science látványos idézettségi térképeinek, míg az adatbázisokban található adatok pontatlansága, hiányosságai és az adabázisok lekérdezési eredményei közti, időnként óriási diszkrepancia, valamint ennek következményei az egyes mutatók generálása során sokkoló hatású volt. Intézetünk multidiszciplináris témáinak és soknemzetiségű kutatógárdájának köszönhetően a lehető legváltozatosabb problémákba botlottunk. Megoldásainkat több könyvtáros szakmai fórumon is megvitattuk. A következőkben ismertetjük, milyen szerepet vállalt könyvtárunk a bibliometriai eszközök érdemi használatának terjesztésében és a helytelen adatok módosításában.3

Az egyéni kutatói tevékenység mérése: egy gyakran idézett tudós példája

Az intézeti kutatók teljesítményének felméréséhez és összehasonlításához egyszerű és összetett statisztikai számítással létrehozott mutatókat szokás használni. Az egyik legfontosabb adat az egyes években publikált közlemények száma. Publikációs listáját mindenki napra készen tartja, hogy a megfelelő időben és célra benyújtsa (éves értékelés, előléptetés, ösztöndíj-kérelem stb.). Az értékelés céljától függ, mi kerül a listára, de általában a lektorált vagy referált szakmai folyóiratokban megjelenő cikkek és könyvfejezetek esnek a legnagyobb súllyal latba,4 szemben a konferencia-előadásokkal vagy nem referált folyóiratokban publikált írásokkal. A listán szerepelnek a pályázatból finanszírozott kutatások adatai is (köztük az összeg és a finanszírozó adatai).
A szakirodalomban tárgyalt problémák közül (Phelan, 1999) az adatbázisokban előforduló névváltozatok, duplikátumok és elírások az intézeti kutatók több mint a felénél jelentkeztek. Amerikai nevek esetében kevesebb volt a pontatlanság, de a pályán eltöltött hosszabb idő sem garantálta, hogy a kutató névváltozatai konszolidálódjanak minden adatbázisban. A házastársa nevét felvevő kutató értelemszerűen két szálon is futhatott, s ezek nem biztos, hogy találkoztak. A keresztneveket gyakran csak kezdőbetűvel jelölő és indexelő folyóiratok miatt sok oda nem illő közleményt is találtunk a gyakori amerikai nevek esetén (pl. Bates, Johnson, Ray, White). A rövid és gyakori kínai neveket, pl. a Yut szinte lehetetlen megbízható módon megkülönböztetni a hasonló néven publikálóktól (még a szakterület szűkítésével sem) a legtöbb adatbázisban, holott kutatónk tanulmányait többnyire az Egyesült Államokban, angol nyelven publikálta. A cirillből átírt, orosz nyelven is publikáló kutatókkal ennél is több a probléma (a korai változatok Vashchillo alakban szerepelnek, míg az USA-ba költözése óta kutatónk Vaschillo formában használja nevét); bár a gyakori Google Scholar keresés hatására egy idő után megjelent a Vaschillo keresési javaslat.
Egyik feladatunk különféle mutatók alapján egy rangidős kutató, dr. Helene Raskin White tudományos profiljának összeállítása volt a a Professor II cím megpályázására.5 Ez az amerikai tudományos életben elérhető legmagasabb cím, az egyetemi tanár (full professor) fölött. Dr. White tudományos minősítése szempontjából releváns publikációinak száma közel kétszáz, beleértve a referált folyóiratcikkeket és szakkönyvfejezeteket. Kiindulásként ezeket lekerestük (vagy beszkenneltük a nyomtatott változatot), a rekordokat pontosítottuk, és a teljes szövegű dokumentumokat elektronikus formában (pdf) archiválva hozzáférhetővé tettük a bírálók számára (hiperlinkek formájában). Ez a publikációs jegyzék szolgált alapul, hogy az egyes cikkek hivatkozásait és az azok alapján számított mutatókat összegyűjtsük.
Dr. White szerepel az ISI Highly Cited kutatói között, amely a világ legrangosabb kutatóit gyűjti össze. A Web of Science adatbázisai az elmúlt ötven év tudományos publikációt indexelve a 250 leggyakrabban idézett kutatót listázzák huszonegy szakterületen. A társadalomtudományok területéről 370 kutató került bele. (Az összes tudományágat tekintve a Rutgers Egyetemről 30 kutató szerepel a listán, közülük három magyar származású, míg Magyarországról összesen 7.)
Dr. White publikációinak száma itt 248, a nem referált közleményeket (reports, research reports stb.) is beleszámítottuk, de kihagytuk a 2007 után publikált közleményeket (az ISI Highly Cited 1981 és 2007 között indexel). A Thomson Reuters Social Science Indexes listáján Dr. White-nak 121 publikációja szerepel; ezekre 2902-szer hivatkoztak. A saját hivatkozást leszámítva az összes hivatkozás 2203. Ebben az adatbázisban egy cikkre 400-nál többször hivatkoztak, négyet 100-nál több közlemény idézett, tizennyolc publikációra 50–99, tizenegyre 25–49, huszonnyolcra 10–24 és további tizennyolcra 3–9 alkalommal hivatkoztak. Legismertebb cikkének hivatkozási száma 453 volt (2010 júliusi adatok). A teljes publikációs lista alapján generált mutatók közül cikkeinek átlagos idézettsége 23,58, míg h-indexe 28.6
Összevetésképpen a SCOPUS-ban Dr. White 96 közleménnyel szerepel. Első keresésünk során, 2009 nyarán ezek két szerző között oszlottak meg: Raskin White, Helene hét (ezekhez nincsenek hivatkozások rendelve) és White, Helene R. kilencvenhat közleménnyel (ezekre 2378-an hivatkoztak). Mindketten a Rutgers Egyetem kutatói, de más intézetben két különböző kódszámmal feltüntetve. Dr. White helyesbítési kérelmére az Elsevier ugyan módosított, de a mai napig két néven szerepel (White, Helene R., illetve White, Helen R.), holott a Kongresszusi Könyvtár katalógusában a szabványos névforma White, Helene Raskin (82033512 jelzetszámmal). Az irreálisan alacsony publikáció-szám természetesen jóval alacsonyabb h-indexet és idézettségi mutatókat jelent, és a két szerző rekordjait is összesítenünk kellene. A SCOPUS 1996-ra nyúlik vissza, és bár találtunk korábbi rekordokat is, a hetvenes évek óta publikáló kutató esetében ez az adatbázis mégsem bizonyult kielégítő és megbízható forrásnak. Közös megyegyezés alapján a SCOPUS által adott 600-zal kisebb idézettségi adatot és a jelentősen alacsonyabb h-indexet nem használtuk az előléptetési csomagban.
A harmadik adatbázissal nehezebben boldogultunk. A Google Scholar esetében nem könnyű az összes cikk és az összes hivatkozás számát lekérdezni. Az egyes cikkek esetében ugyan találunk egy cited by (hivatkozta) és számadatot, de ezek pontossága is megkérdőjelezhető az alábbiak alapján. Maga a Google Scholar ugyan nem generál bibliometriai adatokat, de van két szoftver, amely a Google Scholar adataira épülve számít ki egy sor mutatót: a Publish or Perish (Publikálj vagy pusztulj el!) és a Tenurometerről Scholarometerre nemrég átkeresztelt bibliometriai alkalmazás (ingyenesen letölthető a Firefox oldalsávjába telepíthető módon). A Publish or Perish nevű alkalmazás is ingyen letölthető a www.harzing.com oldaláról. Ez – módjával – alkalmas egyéni szerzők és folyóiratok tudományos teljesítményének mérésére is. A Publish or Perish lekérdezésünkre a következő mutatókat generálja (ld. alább):

  • a szerző összes közleményének száma (papers)
  • a szerző közleményeire történt hivatkozások (citations)
  • átlagos idézettség közleményenként (cites/paper)
  • átlagos idézettség szerzők szerint (cites/authors)
  • közlemények átlaga szerzőnként (paper s/authors)
  • közlemények átlaga évente (authors/papers)
  • Hirsch-féles h-index és kapcsolódó mutatói (h-index)
  • Egghe-féle g-index (g-index)
  • jelenlegi h-index (hc-index)
  • súlyozott idézettségi arány (age-weighted citation rate = AWCR)
  • az egyéni h-index két változata
  • az egy közleményre eső szerzők számának elemzése (AWCRpA)

Első keresésünk eredményeként White összes publikációjának száma itt 285; ezekre 5374 hivatkozás történt, a h-index 39-es. (Lásd fenn.) A Scholarometerrel hasonló számokat kaptunk: az összes cikk száma 299, amire 5541-en hivatkoztak, míg a h-index 39-re jött ki. A forrás nyilván azonos, ez megmagyarázza a hasonlóan magas adatokat. B a tudományág szűkíthető a keresésnél a Publish or Perishben, s a forrás alapján a duplum-találatok zömét is ki lehet törölni, meglehetősen nehézkes és időigényes az eszköz alkalmazása. Az adatokat Excel-formátumba lementve és White sajátkezű ellenőrzése után megmaradt cikkeket alaposabban megvizsgálva azt láttuk, hogy több cikk két rekorddal is szerepel. Ennek oka az eltérő forrás; mindkét rekordhoz hivatkozások vannak rendelve, vagyis amint töröljük a rekordot, az összpublikációk száma ugyan valós lesz (és a h-index esetleg csökken), de a hivatkozások között szerepelnek eredeti, tehát a megmaradt rekordhoz nem kapcsolt hivatkozások is. Az oda nem valók nagy figyelmet és sok időt igénylő kigyomlálása után White publikációinak száma 217 lett, viszont elveszítettünk sok valós hivatkozást.

Mindezek ellenére egyetértünk abban, hogy Google Scholarnak kétségkívül megvannak a maga előnyei sok tudományterületen, mivel a referált szakfolyóiratok mellett a nem hagyományos értelemben vett tudományos közleményeket is indexeli, és sok terület publikálása nem feltétlenül korlátozódik csak a bevált kommunikációs csatornákra. Viszont a keresés és lekérdezés eredményét alaposan meg kell vizsgálni, mielőtt következtetéseket vonnánk le belőlük.
Menetközben a kutató összes közleményének bibliográfiai rekordjait a RefWorks hivatkozáskezelő szoftver segítségével is egy mappába gyűjtöttük a duplumok kiszűrése és törlése végett. (Ez óhatatlanul előfordul, mivel az említett három mellett több adatbázist is használtunk forrásként a közlemények teljes szövegének letöltésére.) Az összesítés során tártuk fel kutatónk nevének következő változatait a szerző mezőben, beleértve a kis- és nagybetűs változatokat és az egybeírást is (zárójelben az előfordulások száma): White, H.R. (86), White, Helen R. (1), White, Helena R. (1), White, Helena Raskin (1), WHITE, HELENE R. (37), White, Helene, Raskin (41), White, HeleneR (24), White, HeleneRaskin (4).

Helen R. White közleményei Publish or Perish-sel a Google Scholar adatai alapján az első, nyers változatban

Ennek okait részben már feltártuk, de a különféle adatbázisokból letöltött rekordokban emellett a névmezők is eltérő módon szerepelnek. A kutatói azonosító (researcher ID) bevezetéséről már régóta szó van: adatbázistól független többszámjegyű kódszámot kapna mindenegyes szerző; ez hosszú távon kiküszöbölné a kutatók névváltozataiból adódó pontatlanságokat.

A folyóiratok teljesítményének értékelése

Kutatónk publikációinak számán kívül kíváncsi volt azoknak folyóiratoknak a szakmai presztízsére is, melyekben közleményei megjelentek, illetve arra, hogy mivel lehet a Thomson Reuters folyóirat-impakt faktorán kívül egy-egy kiadvány minőségét mérni. Ekkor merült fel két további a folyóiratok minőségét érintő kérdés. Egyik pályakezdő kutatónk ösztöndíjpályázata határidejének közeledtével gyors publikálási lehetőséget keresett egyik részeredményének a megjelentetésére. Természetesen csak szakmailag elfogadott, referált folyóirat jött szóba, melyben a közlemények elbírálásának, elfogadásának és közlésének viszonylag rövid az átfutási ideje, a beküldött közlemények magas százalékát elfogadják, és impakt faktora sem a legalacsonyabb. A szokásos források ilyen esetben a JCR (a Thomson Reuters Journal Citation Reports®) és az előfizetéses Ulrich’s Periodical Database. Az újabbak közül próbálkoztunk az Elsevier SCOPUS-ának adatain alapuló, de ingyenes SCImago Journal and Country Rank (scimagojr.com) és a térítéses PubsHub próbaverziójával is (pubshub.com). (Utóbbi elsősorban az orvostudományi folyóiratok és konferenciák gyűjtőhelye.)
A harmadik kérés egy pályája csúcsán lévő kutatótól érkezett, akit évente többször felkérnek szakkönyvek, kézikönyvek és tankönyvek fejezeteinek írására vagy szakmai kiadói testületek szerkesztőségében való közreműködésre. Jelen esetben egy általa nem ismert kiadó szakmailag lektorált, nyílt hozzáférésű folyóiratot kívánt indítani, ennek szerkesztőbizottságába hívták meg a szakma egyik jeles képviselőjeként. Az első felkérés 2007 októberében érkezett pszichológiai témában, majd 2008 augusztusában ugyanattól a kiadótól egy másik témában kapott felkérést. Az elsőt kollegáival és a könyvtárosokkal konzultálva a szakmai érdekellentétekre hivatkozva visszautasította, a második alkalommal azonban már mindannyian gyanakodni kezdtünk. Az intézetből más kutatók is kaptak ilyen meghívást, de csak egy év múlva igazolódott gyanújuk, amikor is a szóban forgó kiadó botrányba keveredett: egyik folyóirata ugyanis elfogadta közlésre a New England Journal of Medicine egy munkatársának és egy doktorandusz hallgatónak a SCIgen7 (http://www.pdos.csail.mit.edu/scigen/) cikkgyártó szoftverrel generált „cikkét” (Grant, 2009). A trükk már egyszer bevált, amikor az egyik konferencia, a World Multi-Conference on Systemics, Cybernetics and Informatics az értelmetlen szózuhatagot előadásként elfogadta. Ezután a szerzők a széles nyilvánosság elé tárták a turpisságot.
Az ilyen típusú kérdések gyors megválaszolására belső használatra összeállítást készítettünk a már bevált forrásokra támaszkodva (az újabbakat is figyelembevéve) a szenvedélybetegségekkel foglalkozó publikációkról. Egy adatbázisba szerveztük a szakfolyóiratokról elérhető összes információt, amire csak szükség lehet: a folyóirat hátterétől (kiadó, tulajdonos, megjelenés gyakorisága, elérhetőség, tudományos mutatók) a publikálási lehetőségekig (közölt témák és műfajok, a cikk beadásának módja, átfutási idő a cikk beérkezésétől a szakértői véleményig és a közlésig, elfogadási és elutasítási arány, hivatkozási forma stb.). Az adatok zöme az Ulrich’s Periodical Directory és az illető folyóiratok honlapján megtalálható, de sokat segített a PubsHub adatbázis is az élettudományok területén.

A Journal Citation Reports® (JCR) és az impakt faktor (IF)

Ha tudományos folyóiratról van szó, a legfontosabb teljesítménymutató az impakt faktor, ami a folyóirat cikkeire történő hivatkozások összeszámlálása révén a folyóirat presztizsét és szakmai színvonalát jellemzi. Az impakt faktor, másképp hatástényező a folyóiratban megjelent cikkek idézettsége alapján számított mutató, amely azt tükrözi, milyen mértékben hivatkoznak a folyóiratban megjelent közleményekre. Eugene Garfield és Irving H. Sher a philadelphiai Institute for Scientific Information (ISI) számára hozta létre abból a célból, hogy a világ legfontosabb tudományos folyóiratait figyelő szolgáltatás, a Current Contents számára meghatározzák és kiválasszák a megfelelő forrásokat (Garfield & Sher, 1963). A Journal Citation Reports® (JCR), a Science Citation Index (SCI) kiegészítő kötete (illetve ma már szoftver alkalmazása) 1976 óta évente közli előfizetői számára az előző két év idézettség adatai alapján az egyes folyóiratok impakt faktorát és egyéb mutatóit szakterületek szerint. A nyomtatott változatokat követte a mikrofilm- és a CD-ROM-formátum, de adatbázis sokáig csak más szolgáltatókon keresztül volt kereshető. 1997 óta a Web of Science segítségével online kereséssel azonnali hivatkozás-elemzés áll rendelkezésünkre a több mint nyolcezer indexelt folyóiratban közölt cikkek alapján. Jelenleg minden év júniusában az előző év idézettségének megfelelően a következő nyolc fontos statisztikai adatot frissítik:

  1. kétéves impakt faktor: úgy számítják ki, hogy az adott folyóirat előző két évben megjelent publikációira a tárgyévben történő hivatkozások számát osztják az előző két évben megjelent publikációk számával.
  2. ötéves impakt faktor: számítási módja ugyanaz, csak két év helyett öt év hivatkozásainak adataira épül. Az ötéves impakt faktor tavalyelőtti bevezetésének az egyik fő érve az volt, hogy a legutolsó két év adatainak értékelése a tudomány lassabban mozduló ágazatait hátrányos helyzetbe hozhatja.
  3. összes idézet száma (Total Cites): ahányszor az adott folyóiratot a tárgyévben idézték az ISI adatbázisaiban található bármely folyóiratban, beleszámolva az önidézéseket is, azaz a szerző saját cikkére való hivatkozásokat is.
  4. frissességi index (Immediacy Index), az adott folyóirat tárgyévben megjelent cikkeire a tárgyévben történő összhivatkozások száma osztva a tárgyévben a folyóiratban megjelent cikkek számával. Ez az érték az idézettség gyorsaságát mutatja, vagyis hogy milyen gyakran idézik az adott folyóirat közleményeit a megjelenés évében.
  5. a cikkek száma (Article Count): a folyóiratban megjelent tárgyszavazható közlemények száma a tárgyévben.
  6. az idézettség felezési ideje (Cited Half-Life): a tárgyévtől visszafelé számított évek száma, amelyben megjelent cikkeire a folyóirat a tárgyévben kapott összes idézeteinek felét kapta. Ez az érték mindössze azt jelzi, hogy általában milyen régi cikkeket idéznek egy adott folyóiratból. Egy első közléseket előnyben részesítő folyóirat idézettségi félideje hosszabb lehet, mint a gyorsközlő folyóiraté.
  7. Eigenfactor mutató (Eigenfactor score): nyílt hozzáférésű (eigenfactor.org), de a JCR-ban is közreadott eredmény, amely a Google Page Rankhez hasonló, bonyolult algoritmus alapján, a folyóirat rangjának megfelelően súlyozza az idézeteket. Az Eigenfactor azt mutatja, hogy a folyóirat hivatkozási adatai mekkora hányadot foglalnak el a JCR-ban a teljes Eigenfactor-pontszámból (100), ötéves adatokra vonatkozóan, önidézések nélkül.
  8. cikk-hatás mutató (Article Influence Score): az Eigenfactoron alapul, amit az öt év alatt közölt cikkek számával osztva és kerekítve az átlagos cikk-hatás mutató a JCR-ban.

Az impakt faktorról számtalan tanulmány született, és a fenti mutatókat is sok kritika érte (pl. Berhidi et al., 2007, Coleman, 2007, Kostoff, 1998, Marton et al., 2006), de a legtöbb mégis az impakt faktort érinti. Akad olyan vélemény is, amely teljesen megszüntetné (Abbasi, 2004). A szerző szerint az egyes tudományágak abszolút összehasonlítása minőségi elemzés nélkül szinte értelmetlen, mivel a szemléket (review article) gyakran közlő folyóiratok impakt faktora túlzottan magas (jó példa rá az egyébként is magas impakt faktorú Cell), főleg ha a többi vezető folyóirat ugyanezen a szakterületen nem közöl ilyeneket, mint pl. a New England Journal of Medicine (Garfield, 1998).

Egy folyóirat jelenléte az adatbázisokban

Egyedi helyzetünket kihasználva az intézet folyóirata, vagyis a kiadó nézőpontjából is megvizsgáltuk az adatbázisokat és szolgáltatásaikat. Az érdekelt bennünket, hogy milyen képet kap a potenciális felhasználó (könyvtáros, tudós, olvasó) az egyes adatbázisokban folyóiratunkról, ha valamelyik cikkét szeretné elolvasni, ha publikálna benne, illetve hogy az egyes források milyen képet mutatnak a kiadványról. Ehhez egyrészt módszeresen végigböngésztük a keresési és hozzáférési lehetőségeket a folyóirat címváltozatainak felhasználásával, másrészt megpróbáltuk az idézettséget nyomon követni néhány reprezentatív cikket példaként felhasználva (köztük intézetünk kutatóinak gyakran idézett publikációit). A menet közben talált hibák helyreigazítása végett a szerkesztő több-kevesebb sikerrel felvette a kapcsolatot az egyes adatbázisokkal.
Jelenleg is független folyóiratunk, a The Journal of Studies on Alcohol and Drugs 1940-ben indult Quarterly Journal of Studies on Alcohol címmel. Alapítója, Howard W. Haggard, a Yale Egyetem Alkalmazott Élettani Intézetének (Laboratory of Applied Physiology) igazgatója, az elsők között kezdte tanulmányozni az alkoholnak az emberi szervezetre gyakorolt hatását. A folyóirat az 1933-ban feloldott alkoholtilalom után megszaporodott úttörő kutatásoknak szándékozott fórumot biztosítani, elsőként az Egyesült Államokban. Tanulmányok és recenziók mellett rövid összefoglalókat is közölt a világban megjelent alkohol-témájú közleményekről, melyeket szaktudósok írtak és tárgyszavaztak. A kutatócsoport önálló intézetként 1943-ban kezdett dolgozni, s az új szervezet lett a folyóirat otthona. R. Brinkley Smithers nagylelkű adományának köszönhetően 1962-ben költözött az immár Center of Alcohol Studies névre hallgató intézet a folyóirattal együtt a New Jersey állambeli Rutgers Egyetemre. A hetvenes években virágzásnak indult alkohol-kutatás publikációs igényének megfelelően a folyóirat havonta jelentkezett; ez címváltozással járt: elmaradt a negyedéves megjelenésre utaló szó (quarterly), a címe Journal of Studies on Alcohol lett. 2007-ben újabb címváltozásra került sor, a bővülő addikciós kutatások eredményeinek helyt adó folyóirat immár címével is jelzi, hogy a drogokkal kapcsolatos cikkeknek is teret ad, beleértve az alkohol- és kábítószerfüggőség minden aspektusát, így lett Journal of Studies on Alcohol and Drugs.
Ezzel egyidőben egy másik jelentős változásis történt: a folyóirat elektronikus formában is hozzáférhető lett. E két változás elég volt ahhoz, hogy több adatbázisba is pontatlan adatok kerüljenek. Évekbe telt, míg az elektronikus változat meglétét mindenhol regisztálták, illetve a két cím rekordja (a Journal of Studies on Alcoholé és a Journal of Studies on Alcohol and Drugsé) egy bibliográfiai rekordba került. Az utóbbi különösen fontos a folytonosság miatt (lásd az impakt faktor számítási módját). A továbbiakban a folyóiratot JSA/JSAD formában említjük. A Journal Citation Reports® a következőképpen értékeli a folyóiratot a 2009-es évben (lásd az ábrán a JCR adatait):

A JSA/JSAD-mutatók számításának módja a korábbi meghatározások alapján

Kétéves impakt faktor

Az idézettség felezési ideje (Cited Half-Life) 9 év

Részletezés: A folyóirat cikkeire történő hivatkozások évekre lebontva a 2009-es hivatkozások kumulatív százaléka alapján:

A folyóirat forrásadatai (Journal Source Data)

A Thomson Reuters adatbázisai a folyóiratokat a természet- vagy a társadalomtudományok valamelyik szakterületi kategóriájába sorolják: Science Citation Index Expanded (SCI-E) és Social Sciences Citation Index (SSCI). A folyóiratok több szakterületi kategóriában is szerepelhetnek, így ugyanaz a cím különböző kategóriákban is előfordulhat; a JSA/JSAD az SCI-E-ben és az SSCI-ben is szerepel. Az elsőben a Szenvedélybetegségek (Substance Abuse) kategóriában a tizenegy tudományos folyóirat egyike (impakt faktor átlaga 2,289), de a Pszichológiában is szerepel hetvenegy folyóirat között, ahol az átlagos impakt faktor 2,065. Az SSCI-ben ugyancsak a Szenvedélybetegségek (Substance Abuse) kategóriába sorolták huszonegy folyóirattal egyetemben, ahol az átlagos impakt faktor csupán 1.240, vagyis az állandó impakt faktor mellett különböző szakterületen egy-egy folyóirat másként minősül. A kategóriák figyelembe vétele nagyon fontos; gyakorlatilag a folyóirat adott szakterületen belüli relatív értékét mutatják.

A JSA/JSAD helyezése a Szenvedélybetegségek kategóriában (2009 JCR Social Science Edition)

A JSA/JSAD helyezése a Pszichológia (A) és a Szenvedélyebetegségek (B) kategóriában (2009 JCR Science Edition)

A természettudományos folyóiratok között kevésbé előkelő helyet foglal el a JSA/JSAD; ennek a magasabb impakt faktorú folyóiratok száma az oka. A pszichológiai folyóiratok között van 22 feletti impakt faktorú is, itt a JSA/JSAD a középmezőnyben (a harmadik negyedben) foglal helyet, és mindössze 36. a hetvenegyből. A Szenvedélybetegségek-kategóriában ugyancsak a középmezőnyben szerepel, és tizenegyből a nyolcadik (a Science Edition szerint), a társadalomtudományi kategóriában viszont, a Szenvedélybetegségeken belül az előkelő hatodik helyre került az impakt faktor alapján huszonkét folyóirat között, s a második negyedben foglal helyet. (További rangsorokat is érdemes megnézni célunktól függően a JCR korábban felsorolt mérőszámainak bármelyike alapján.)

A folyóirat értékelése nyílt hozzáférésű eszközökkel, SCImago Journal & Country Rank

A SCImago Journal & Country Rank (SCImago folyóirat- és országrangsor) ingyenesen elérhető portál, amely az Elsevier SCOPUS adatbázisá­ra épülve folyóiratok és országok tudományos mutatóival áll rendelkezésünkre. A SCImago a Google PageRank alapján számítja a következő mutatókat a SCOPUS 1996 óta gyűjtött adatai alapján. A mutatók egyrészt az összefoglaló táblázatban láthatók (ld. JSA/JSAD ábra), másrészt arányok szerinti megfelelő párosításban, mint hivatkozás és önhivatkozás aránya, vagy hivatkozható és nem hivatkozható dokumentumok (ld. a magyarázatok utáni ábrákat):
A JSA/JSAD-ot a következő három szakterületre sorolják be: orvostudomány; társadalomtudományok; gyógyszertan, toxikológia és gyógyszergyártás, s három tárgyszót kapott: egészségügy (társadalomtudomány); pszichiátria és mentálhigiéne; toxikológia. Utóbbi három jelzi a folyóiratok közötti rangsorban elfoglalt helyét.
A JSA/JSAD az első negyedben található (pl. a SJR alapján 96-ból a hatodik, h-index szerint a második) az egészségügy – társadalomtudomány ‒ területén, a pszichiátria és mentálhigiéne tárgykörben (a 40.2 91 közül az SJR alapján.), a toxikológiában pedig a második (74 közül a 26.).
A rangsorolás több mutatószám alapján történik, amelyeket részletesen a (SCImago, 2007) tartalmaz. A SCImago Journal & Country Rank magyarázatainak fordítása a szerzőktől ered:
SJR-mutató (SJR indicator) az adott folyóirat átlagos cikkének tudományos értékét méri; azt jelzi, hogy a kiadvány egy átlagos közleménye milyen központi helyet foglal el a tudományos kommunikációban;
hivatkozás dokumentumonként (cites per doc): a két évfolyamra vonatkozó adat, s az impakt faktorral azonos számítási mód alkalmazásával a kiadvány átlagos cikkének tudományos hatását méri.

hivatkozás kontra önhivatkozás (citation vs. self-citation): az elmúlt három évben az adott kiadvány dokumentumaira történt hivatkozások száma az adott kiadványban és más kiadványokban;

hivatkozások száma dokumentumonként (cites per document) és a külső hivatkozások száma dokumentumonként (external cites per document): az elmúlt három évben az adott kiadványra történt hivatkozások teljes számának alakulása dokumentumonként , illetve kizárólag más kiadványokban (az adott folyóiratban található önidézések eltávolítása után);

hivatkozások száma dokumentumonként két, három és négy évre lebontva: az elmúlt három évben az adott kiadvány dokumentumaira történt hivatkozások teljes számának alakulása az elmúlt két, három és négy évben; a kétéves mutató megegyezik az impakt faktorral.

- nemzetközi együttműködés (international collaboration): a folyóirat azon dokumentumainak száma, amelynek szerzői egynél több országot képviselnek.

hivatkozható kontra nem hivatkozható dokumentumok (journal’s citable vs. non citable documents): hároméves időszakban mutatja az érdemi kutatásokról szóló, tehát hivatkozható dokumentumok számát, mint például az eredeti kutatási eredményeket publikáló cikkek, konferencia-előadások, ismertetések (nem minden közlemény számít eredeti kutatásnak, ezek nem hivatkozhatók).

a folyóirat hivatkozott kontra nem hivatkozott dokumentumai (journal’s cited vs. uncited documents): a cikk megjelenését követő évben nem hivatkozott és legalább egyszer hivatkozott közlemények aránya hároméves időszakokban csoportosítva;8

A Google Scholarban végzett  első lekérdezés 2009 nyarán sikertelen volt, mivel mindössze 663 1975 utáni közleményt találtunk a Publish or Perish segítségével a közel három és félezerből (400-at a JSA-ból, 263-at a JSAD-ból). A szerkesztő többszöri próbálkozása ellenére sem tudott kapcsolatba kerülni a Google Scholar munkatársaival, érdemi válasz sem érkezett tőlük. A kérelmek hatására egy év múlva annyiban változott a helyzet, hogy mind a JSA, mind pedig a JSAD már többszörösen szerepel az indexelt folyóiratok között. JSAD lekérdezésre 1 364, JSA néven pedig összesen 4 568 cikket kaptunk, ez összesen jóval több, mint amennyi a valóság. Ennek oka a szerzőkhöz hasonlóan minden bizonnyal a duplum- rekordok relatíve magas száma.
Idézettség-követés
Egy éven keresztül figyeltük a JSA/JSAD leggyakrabban idézett cikkeit az ISI Web of Science adatai alapján. Az első négy cikk adatait szemlélteti a következő ábra. A leggyakrabban idézett Allen, 1997 a Google Scholarban meglepően alacsony számmal szerepel; ennek oka, hogy az eredeti folyóiratközlésben a szerzők intézménye szerepel szerzőként, amit a SCOPUS és a Web of Science szerzőkre bontott. A Google Scholar magasabb számot mutat a második és a harmadik cikk esetében, míg a negyedik közlemény következetesen szinte azonos hivatkozással szerepel. Érdekes még, hogy a Google Scholarban az adatok a vizsgált időtartam alatt csökkentek; ami a forrás pontatlanságára enged következtetni.

Más módszerekkel is szokás értékelni a folyóirat teljesítményét, amelyek főleg a kiadók, illetve a publikálási lehetőséget latolgató kutatók érdeklődésére tarthatnak számot, mint például az egyes cikkek olvasottságának adatai a COUNTER Statistics vagy a Google Analytics letöltések alapján. Ezeket az adatokat aggregálva újabb érdeklődést lehet kelteni a közösségi médiaplatformokon, például a Facebook és Twitter oldalakat automatizáltan összekapcsolva, a keresőmotor-optimizálás íratlan törvényeinek megfelelően. Mivel a JSAD is élt ezzel a lehetőséggel, és jelen van a Facebookon és Twitteren, az elmúlt évben figyelemmel követtük a folyóirat honlapját látogatók és a letöltések számát. Különösen a friss híreket közzétevő napokon tapasztaltuk, hogy megugrott a látogatók száma. Egyelőre nem egyértelmű, hogy a tudományos kommunikáció terén új lehetőségeket jelentenek-e a Web 2.0 alkalmazások vagy sem, de az egyre szaporodó ilyen típusú forrásokra is érdemes odafigyelni.

Tanulmányunk célja a szenvedélybetegségek tudományterületén puplikált tudományos közlemények hivatkozásait követő és értékelő három versenytárs bemutatása és szolgáltatásaik összehasonlítása volt – a kutatási eredmények közlésének értékelése céljából. E három adatbázis, a Google Scholar, a SCOPUS és a Web of Science sajátosságait vizsgáltuk meg közelebbről a cikket író tudós (szerző), a közleményt publikáló folyóirat és az évtizedekre visszamenő kutatás nézőpontjából.
Eredményeink minden aspektusból azt mutatják, hogy nem elegendő egy adatbázist használni a bibliometriai elemzésekhez a szenvedélybetegségek kutatásának interdiszciplináris és multidiszciplináris szakterületén. Az adatbázisokban az egyes szerzők és tanulmányok elérhetőségében mutatkozó szembetűnő különbségek és a hivatkozások pontatlanságai megkérdőjelezhetik az idézettségi mutatók érvényességét és a teljesítménymutatók használatát általában. Egy adatbázisra támaszkodva nem feltétlenül a valós kutatói teljesítmény rajzolódhat ki előttünk, jóllehet az adatbázisban összehasonlításuk más, hasonló kutatásokkal iránymutatóként szolgálhat. Célszerű azonban lehetőségeinkhez mérten más adatbázisokban is körülnézni, az értékeket összevetni, és tágabb összefüggéseikben értelmezni.
A publikálás szempontjából azonban érdemes odafigyelnünk a változásokra; Tapasztalataink szerint a bibliometria eszközök könyvtári használata a szenvedélybetegségek kutatásában jelentősen segítheti az eredményeknek a megfelelő tudományos közleményekben való publikálását. Ez alatt a szélesebb, de célzottabb olvasóközönség (mint potenciális hivatkozó a jövőben) mellett a rangos és viszonylag gyors közlési lehetőséget értik felhasználóink. A teljesítménymutatók alakulásának és az adatbázi¬sok változásainak nyomon követésével a fontos eredmények hivatkozásokkal és mutatókkal is alátámasztva fontossá válhatnak.
Adataink elsősorban a Rutgers Center of Alcohol Studies tudományos tevékenységén alapulnak, ennek megfelelően a leíró elemzések az intézmény kutatási területének összefüggéseiben értelmezendők. Reméljük azonban, hogy más szakterületeken dolgozó kollegáink is hasznát vehetik vizsgálódásainknak, amikor egy adott szakág tudományos tevékenységének értékeléséhez teljesítménymutatókat választanak.

Certain data included herein are derived from the 2009 Journal Citation Reports®, Science and/or Social Sciences edition, prepared by THOMSON REUTERS® Inc. (Thomson®), Philadelphia, Pennsylvania, USA: © Copyright THOMSON REUTERS® 2010. All rights reserved.

A cikkben szereplő adatok egy részének eredete a 2009 Journal Citation Reports®, Science and/or Social Sciences kiadás, készítette a THOMSON REUTERS® Inc. (Thomson®), Philadelphia, Pennsylvania, USA: © Copyright THOMSON REUTERS® 2010. Minden jog fenntartva.

Irodalom

ABBASI, K. (2004). Let’s dump impact factors. = British Medical Journal, (329), 7471.
ABT, H.A. (2000). Do important papers produce high citation counts?= Scientometrics, 48, 65–70.
BAKKALBASI, N., BAUER, K., GLOVER, J., WANG, l. (2006), Three options for citation tracking: Google Scholar, Scopus and Web of Science. = Biomedical Digital Libraries, 3, 7.
BALL, R. , TUNGER, D. (2006). Science indicators revisited – science citation index versus SCOPUS: A bibliometric comparison of both citation databases. = Information Services & Use, 26  (4), 293–301.
BÄR, Siegfried (2003). Professzorok és alattvalók. A tudományos kutatás diszkrét bája. Bp.: Akadémiai K.
BAR-ILAN, Judit (2008). Which h-index? — A comparison of WoS, Scopus and Google Scholar. = Scientometrics, 74, 257–271.
BERHIDI Anna, CSAJBÓK Edit, VASAS Lívia (2007). Ismeretlen ismerős, avagy az impakt faktor és a többiek. = Orvosi hetilap. január 28. – 148. évf. 4. sz.
BERHIDI Anna, SZLUKA Péter, VASAS Lívia (2009): Tu¬do¬mány¬metriai újdonságok. Vége az impakt faktor egyeduralmának? = Magyar Onkológia, (53), 2, 115–125.
BORNMANN, L., MUTZ, R., NEUHAUS, C., Daniel, H. (2008). Citation counts for research evaluation: standards of good practice for analyzing bibliometric data and presenting and interpreting results. = Ethics in Science and Environmental Politics, 8, 93–102.
BRADFORD, S.C. (1953). ). Documentation. 2nd ed. Crosby Lockwood: London.
BROOKES, B. C. (1990). Biblio-, Sciento-, Infor-metrics??? What are we talking about? In: L. Egghe, R. Rousseau (eds), Informetrics 89/90. Selection of Papers Submitted for the Second International Conference on Bibliometrics, Scientometrics and Informetrics, Amsterdam, Netherlands, Elsevier, pp. 31–43.
CARBONELL, X., GUARDIOLA, E., BERANUY, M., & BELLÉS, A. (2009). A bibliometric analysis of the scientific literature on internet, video games, and cell phone addiction. = Journal of the Medical Library Association, 97 (2), 102–107.
COLE, J. R. (2000). A short history of the use of citations as a measure of the impact of scientific and scholarly work. In: B. Cronin & H. B. Atkins (eds.), The Web of Knowledge: A Festchrift in Honor of Eugene Garfield. Medford, NY: Information Today. 281–300.
COLEMAN, A. (2007). Assessing the value of a journal beyond the impact factor. = Journal of the American Society for Information Science and Technology, 58 (8), 1148-1161.
CRONIN, B. & Meho, L. (2006). Using the h-index to rank influential information scientists. = Journal of the American Society for Information Science and Technology, 57 (9), 1275–1278.
DE GROOTE, S. L. (2008). Citation patterns of online and print journals in the digital age. = Journal of the Medical Library Association, 96 (4), 362-369.
EGGHE, L. (2006). Theory and practise of the g-index.= Scientometrics, 69, 131–152.
GARFIELD, E. (1955). Citation indexes for science. = Science, 122, 108–111.
GARFIELD, E. (1972). Citation analysis as a tool in journal evaluation.= Science, 178, 471–479.
GARFIELD, E. (2006). The history and meaning of the journal impact factor. JAMA, 295 (1), 90-93.
GARFIELD, E. & Sher, I.H. (1963). New factors in the evaluation of scientific literature through citation indexing. = American Documentation 14 (3) 195–201, (http://www.garfield.library.upenn.edu/essays/v6p492y1983.pdf)
GLANZEL, W., & MOED, H. F. (2001). Journal impact measures in bibliometric research: A state-of-the-art report. In: Proceedings, ISSI-2001. University of N.S.W. (pp. 3-5) Bibliometric & Informetric Research Group; University of N.S.W. Bibliometric & Informetric Research Group.
GRANT, B. (2009). OA publisher accepts fake paper. The Scientist.com. 2009. június 10. Blogbejegyzés: http://www.the-scientist.com/blog/display/55756/
HERTZEL, Dorothy H.(2010) ‘Bibliometric Research: History [ELIS Classic]’. In: Encyclopedia of Library and Information Sciences, 3rd ed. Boca Raton [etc.]: CRC Press. Vol. 1. 546–583.
HIRSCH, Jorge. E. (2005) An index to quantify an individual’s scientific research output. = Proceedings of the National Academy of Sciences of the United States of America, 102(46) 16569–16572.
HOLDEN, G., BARKER, K., COVERT-Vail, L., ROSENBERG, G., & COHEN, S. A. (2008). Does social work abstracts work? = Research on Social Work Practice, 18(5), 487–499.
HOLDEN, G., ROSENBERG, G., & BARKER, K. (2005). Tracing thought through time and space: A selective review of bibliometrics in social work. = Social Work in Health Care, 41(3), 1–34.
HOLDEN, G., ROSENBERG, G. & BARKER, K. (2006). An assessment of the predictive validity of impact factor scores: Implications for academic employment decisions in social work. = Research on Social Work Practice, 16(6), 613–624.
HOOD W. W., & WILSON, S.W. (2001). The literature of bibliometrics, scientometrics, and informetrics. = Scien¬to¬metrics, 52, 291–314.
HOWARD, M. O., & HOWARD, D. A. (1992). Citation analysis of 541 articles published in drug and alcohol journals: 1984–1988. = Journal of Studies on Alcohol, 53(5), 427.
HOWARD M.O. &WALKER R.D. (1996). Multiple authorship: trends over 50 years in the Journal of Studies on Alcohol. = Journal of Studies on Alcohol, 57(1):105–106.
JACSÓ Péter (2005) Szöveges CD-ROM és webes adatbázisok tartalmának elemzése. Ford. Murányi Péter. Bp.: OSZK, Magyar Elektronikus Könyvtár: http://mek.oszk.hu/03000/03040/03040.pdf
JACSO, P. (2004). Citedness scores for filtering information and ranking search results. = Online Information Review, 28 (5), 371–376.
JACSO, P. (2008). Google scholar revisited. = Online Information Review, 32 (1), 102–114.
JACSO, P. (2008). Testing the calculation of a realistic h-index in Google Scholar, Scopus, and Web of Science for F. W. Lancaster. = Library Trends, 56 (4), 784–15.
KLODA, L. A. (2007). Use Google Scholar, Scopus and Web of Science for comprehensive citation tracking. = Evidence Based Library and Information Practice, 2 (3), 87–0.
KOSTOFF, R.N. (1998). The use and misuse of citation analysis in research evaluation. = Scientometrics, 43 (1), 27–43.
LEVINE-CLARK, M., & Gil, E. L. (2009). A comparative citation analysis of Web of Science, Scopus, and Google Scholar. = Journal of Business & Finance Librarianship, 14 (1), 32–46.
LEYDESDORFF, L. (1998). Theories of citation? = Scientometrics, 43, 5–25.
LEYDESDORFF, L. & SCHANK, T. (2008). Dynamic animations of journal maps: Indicators of structural changes and interdisciplinary developments. = Journal of the American Society for Information Science and Technology, 59 (11), 1810–1818.
LIN, T. M. Y., & Liao Chun-Wei. (2008). Knowledge dissemination of word-of-mouth research: Citation analysis and social network analysis. = Libri, 58 (4), 212–223.
LOTKA, A.J. (1926). Frequency distribution of scientific productivity. J. Wash. Acad. Sci., 16 (12), 317–325.
MACROBERTS, M.H. & MacRoberts, B.R. (2010). Problems of citation analysis: A study of uncited and seldom-cited influences, = Journal of the American Society for Information Science and Technology, 61 (1), 1–12.
MARTON JÁNOS: Bibliometria. (2003). In: Könyvtárosok kézikönyve. 1. köt. Alapvetés. Szerk. Horváth Tibor – Papp István. Bp.: Osiris. 83–147. (Osiris kézikönyvek)
MARTON, J., Pap, H., Hulesch, K. (2006). Impakt faktor és kutatási teljesítmény – Az értékelés gyakorlata. = Magyar Tudomány, 112, 1, 92–98.
MARTON János – Varró A. – Varró V. (2004): Impakt faktor és tudományos teljesítmény. = Magyar Tudomány, 110, 12, 1395–1403.
MEHO, L. (2007). The rise and rise of citation analysis. = Physics World, 20 (1), 32–36.
MEHO, L. I. & Rogers, Y. (2008). Citation counting, citation ranking, and h-index of human-computer interaction researchers: A comparison of Scopus and Web of Science. =Journal of the American Society for Information Science and Technology, 59 (11), 1711–1726.
MEHO, L. I. & YANG, K. (2007). Impact of data sources on citation counts and rankings of LIS faculty: Web of Science versus Scopus and Google Scholar, = Journal of the American Society for Information Science and Technology, 58 (13), 2105–2125.
NORRIS, M., & OPPENHEIM, C. (2007). Comparing alternatives to the Web of Science for coverage of the social sciences literature. = Journal of Informetrics, 1 (2), 161–169.
NORUZI, Alireza (2005). Google Scholar: The new generation of citation indexes. = Libri, 55(4), 170–180.
OPPENHEIM, C.;& Renn, S.P. (1978). Highly cited old papers and the reasons why they continue to be cited. = Journal of the American Society for Information Science and Technology, 29, 225–231.
PAPP, Z. (2004) A tudományos teljesítmény mérésének problémáiról. = Magyar Tudomány, 110, 2, 232–240.
PHELAN, T.J. (1999). A compendium of issues for citation analysis. = Scientometrics, 45, 117–136.
PRITCHARD, A. (1969). Statistical bibliography or bibliometrics? = Journal of Documentation. 25(4), 348, 349.
RAFOLS, I., & LEYDESDORFF, L. (2009). Content-based and algorithmic classifications of journals: Perspectives on the dynamics of scientific communication and indexer effects. = Jounal of the American Society for Information Science and Technology, 60 (9), 1823–835.
Rajendram, R., Lewison, G., & Preedy, V. R. (2006). Worldwide alcohol-related research and the disease burden. Alcohol & Alcoholism, 41 (1), 99-106.
ROUSSEAU, R. (2007). The multidimension world of Tibor Braun (ISSI e-zine), 2007, p. 23–6.
SCHREIBER, M. (2008). An empirical investigation of the g-index for 26 physicists in comparison with the h-index, the A-index, and the R-index.= Journal of the American Society for Information Science and Technology, 59 (9), 1513–1522.
SCHUBERT, András (2002). The web of scientometrics. = Scientometrics, 53, 3–20.
SCImago. (2007). SJR — SCImago Journal & Country Rank. Retrieved July 24, 2010, from http://www.scimagojr.com
SIMMONS, K. (2008). The misused impact factor. = Science, 5899, 165. http://www.sciencemag.org/cgi/content/full/322/ 5899/165.
SMITH, L. C. (1981). Citation analysis. Library Trends, 30(1), 83–106
Sombatsompop, N., & Markpin, T. (2005). Making an equality of ISI impact factors for different subject fields. = Journal of the American Society for Information Science and Technology, 56 (7), 676–683.
VINKLER, Péter, (1988).Néhány tudományterület egyes bibliometriai sajátosságai és ennek tudománymetriai következményei. = Könyvtári Figyelő, 34, 4, 237–254.
VINKLER, P. (2007). Eminence of scientists in the light of the h-index and other scientometric indicators. = Journal of Information Science, 33 (4), 481–491.
WALLIN, J. A. (2005). Bibliometric methods: pitfalls and pos¬sibilities. Basic & Clinical Pharmacology & Toxicology, 97 (5), 261–275.
WARD, R. K., Christensen, J. O. & Spackman, E. (2006). A systematic approach for evaluating and upgrading academic science journal collections. = Serials Review, 32 (1), 4–16.
WEST, R., & Mcllwaine, A. (2002). What do citation counts count for in the field of addiction? an empirical evaluation of citation counts and their link with peer ratings of quality. = Addiction, 97 (5), 501.
ZIPF, G.K. (1965). Human behavior and the Principle of Least Effort. New York: Hafner Publishing.

Jegyzetek

1.  A bibliometria tudományának történeti hátteréről, alakulásáról és legfontosabb kérdéseiről részletesebben olvashatunk angol nyelven Cole, 2000, Hood & Wilson, 2001, Heltzer, 2010, Kostoff, 1998, Leyersdorf, 1998, Phelan, 1998, Wallin, 2005, magyarul Berhidi, Szluka, Vasas, 2009,  Marton, 2003, Marton, Varró, & Varró, 2004, Papp, 2004, Vinkler, 1988 munkáiban.
2.   Korábban Journal of Studies on Alcohol, előzőleg Quarterly Journal of Studies on Alcohol címmel
3.   Példánkban szereplő adatok és eredmények saját gyűjtés, feldolgozás és elemzés eredményei. Az eszközöket, ha nem másként jelezzük, a Rutgers Egyetem biztosította. Az említett szerzők hozzájárultak nevük közléséhez.
4. Peer-reviewed, vagyis a folyóirat felkérésére két egymástól független szakértő név nélkül minősíti, elfogadja vagy elutasítja a tanulmányt, amelynek szerzője ugyancsak ismeretlen a bírálók (lektorok) előtt.
5.   Dr. White hozzájárult publikációs adatainak nyilvános elemzéséhez és közléséhez.
6. A h- vagy Hirsch-index az újabb mutatók egyike, mely egy-egy tudós életművére összpontosítva annak összhatását méri. Meghatározása szerint “egy kutató indexe h, ha az összes (N számú) cikke közül h darabra egyenként legalább h utalást kapott, míg a többi (N – h) cikk közül egyre sem kapott h-nál több utalást” (Hirsch, 2005). Az irodalom alapos összefoglalását ld. Jacsó, 2008. A h-index és az összhivatkozások száma közötti megfelelés arra utal, hogy a kutató tudományos tevékenységének jelentőségét jól mutatja az általa publikált közleményekre történt hivatkozás nagyságrendje (önhivatkozással vagy anélkül), de a h-index tovább finomíthatja a képet (Cronin & Meho, 2006). Népszerűségét mi sem bizonyítja jobban – az ellenvetések és módosítási javaslatok ellenére (Bar-Ilan, 2008) –, mint az, hogy a bibliometriai adatbázisokban mutatóként szerepel, sőt a Firefox böngészőben hozzáadható a h-index plug-in, amely természetesen a Google Scholar alapján számol (https://addons.mozilla.org/en-US/firefox/addon/45283/). Az egyes mutatókat összevető elemzések (Schreiber, 2008) a többi mutatószám mellett az egyik legfontosabb kiindulópontnak tekintik.
7. A szoftvert három MIT-es (Massachusetts Institute of Technology) diák készítette mintegy válaszként a sok vitathatóan tudományos értékű konferencia-előadásra. A program képes angolul szabatos, nyelvtanilag helyes mondatokkal a szakma legfelkapottabb terminusait használó, a formai követelményeknek megfelelő publikációt generálni ábrákkal, táblázatokkal, szakirodalmi hivatkozásokkal, irodalomjegyzékkel, csak az egésznek természetesen semmi értelme sincs.
8. Bár a SCImago Journal & Country Rankhoz hasonlóan a Thomson Reuters JCR is sok grafikonnal szemlélteti adatait, ez utóbbiból – mivel előfizetéses – cikkünkbe ezek nem kerülhettek be.