Forum dyskusyjne • Discussion forum
Towpik E. IF-mania: Journal Impact Factor nie jest właściwym wskaźnikiem oceniania wyników badań naukowych, indywidualnych uczonych ani ośrodków badawczych. Nowotwory J Oncol 2015; 65: 465–475
Głos w dyskusji
Piotr Widłak
Invited commentary
Przyłączając się do dyskusji na temat „IF-manii”, chciałbym zwrócić uwagę na trzy kwestie.
Pytanie pierwsze: czy wskaźniki „naukometryczne” są potrzebne?
Wchodząc w rolę „pracownika nauki”, musimy pogodzić się z koniecznością udziału w bezustannym procesie oceny — badaczy, prac naukowych, projektów badawczych czy jednostek naukowych. Oceniani jesteśmy my i sami oceniamy innych. Kluczowa w tej ocenie jest zazwyczaj wartość opublikowanych prac naukowych. Idealnym rozwiązaniem byłoby oczywiście uważne zapoznanie się przez oceniającego z treścią publikacji i wyrobienie samodzielnego poglądu na ich wartość. Niestety, rozwiązanie takie pozostaje często możliwością czysto hipotetyczną. Oceniający dostrzega wtedy korzyści płynące z możliwości wykorzystania jakiegoś „obiektywnego” wskaźnika wartości prac publikowanych przez ocenianego naukowca czy zespół (instytucję). Tak więc odpowiedź na pierwsze pytanie, przynajmniej w moim przypadku, brzmi: TAK.
Pytanie drugie: czy dysponujemy użytecznymi wskaźnikami „naukometrycznymi”?
Najpowszechniej stosowanym wskaźnikiem „naukometrycznym” jest tzw. Journal Impact Factor (IF), który z założenia (został stworzony jako miernik oceny czasopism) nie jest przeznaczony do oceny wartości konkretnej pracy naukowej, badacza czy instytucji naukowej (a wszelkie możliwe nadużycia w jego tworzeniu i stosowaniu omówił w swoim artykule Prof. Towpik). Naszą lokalną wariacją na temat IF jest indeks, popularnie nazywany „listą ministerialną czasopism”. Indeks ten, podobnie jak IF, został stworzony do oceny czasopism i posiada wszystkie jego wady (choć umożliwia bardziej „sprawiedliwe” niż IF porównanie czasopism specjalizujących się w różnych dziedzinach nauki). Bardziej miarodajnym wskaźnikiem wartości pracy naukowej, a tym samym elementem oceny jej autora, jest liczba cytowań tej pracy (i będący jej pochodną tzw. indeks Hirscha). Podstawowym problemem jest tu jednak czynnik czasu — prace opublikowane wcześniej mają większą liczbę cytowań, a badacze dopiero rozpoczynający karierę mają niższą wartość indeksu Hirscha. W tej sytuacji zarówno liczba cytować, jak i indeks Hirscha powinny być korygowane ze względu na ten czynnik, co jednak komplikowałoby obliczenie i wykorzystanie obu wskaźników. Trudno również udawać, że nie istnieje problem nadużyć związanych z wykorzystaniem i tych wskaźników (np. zjawisko wzajemnego cytowania). Tak więc odpowiedź na drugie pytanie w mojej opinii brzmi: NIE.
Pytanie trzecie: „co robić?”
Ja na to pytanie odpowiadam w sposób następujący:
jeśli tylko jest to możliwe, to nie wykorzystuję dostępnych wskaźników „naukometrycznych” jako podstawy oceny wartości badaczy czy pracy naukowej,
jeśli już muszę to zrobić, to wykorzystuję je z pełną świadomością ich ograniczeń i podatności na różnego typu „skrzywienia”.
Na koniec propozycja: nie traktujmy wyniku „analizy naukometrycznej” ani jako „prawdy obiektywnej”, ani jako „statystycznego kłamstwa” — nic nie zastąpi zdrowego rozsądku, z jakim podejdziemy do tego problemu.
Prof. dr hab. n. med. Piotr Widłak
kierownik Centrum Badań Translacyjnych i Biologii Molekularnej Nowotworów,
b. zastępca dyrektora Oddziału ds. Naukowych
Centrum Onkologii — Instytut im. Marii Skłodowskiej-Curie
Oddział w Gliwicach
ul. Armii Krajowej 15, 44–101 Gliwice
e-mail: widlak@io.gliwice.pl