Naukowcy polemizują z prof. Tumańskim. Krytyka "listy filadelfijskiej" bezpodstawna?
SEGREGUJMY SIĘ SAMI
Zaskoczyło mnie pojawienie się na łamach Polityki artykułu „Segregacja prasowa” profesora Sławomira Tumańskiego. Zawsze wydawało mi się, że problem jakości narzędzi oceny badań naukowych jest dla POLITYKI zbyt specjalistyczny. Tak zresztą twierdzą znajomi dziennikarze, a moi koledzy, znawcy bibliometrii, przekonali się o tym, że ich rzetelne i dobrze napisane analizy nie znajdują uznania u redaktorów tygodników opinii. Jeśli więc piszą na ten temat, publikują w "Forum Akademickim", które dociera do bardzo wąskiej grupy w środowisku akademickim.
Sławomir Tumański, profesor i redaktor naczelny miesięcznika "Przegląd Elektrotechniczny" atakuje listę filadelfijską. W ostatnim zdaniu artykułu stawia diagnozę: "Choroba filadelfijska ma więc swoją polską odmianę – jest zadowolona z siebie grupa mistrzowska i sfrustrowana, bez szans na rozwój naukowy, reszta środowiska". Proponuje też terapię: "Może warto pomyśleć o polskim instytucie oceniającym naukę i polskiej liście rankingowej. Pole do popisu mają też polscy europosłowie – dlaczego nie powołać obiektywnego instytutu europejskiego, podobnego do amerykańskiego".
Zaniepokoiły mnie te dwa zdania. Uważam oba pomysły za szkodliwe, ale pierwszy bez trudu może znaleźć poparcie wielu wpływowych osób, kierujących prowincjonalnymi uczelniami i instytutami badawczymi, mających dostęp do uszu polityków. Drugi zaś dobrze wpisuje się w działania Unii Europejskiej, od wielu lat budującej wizerunek organizacji, dla której jednym z priorytetów jest prześcignięcie Stanów Zjednoczonych w badaniach i innowacji (medialna Strategia Lizbońska).
Artykuł profesora Tumańskiego jest dobrze skonstruowany. Przede wszystkim przedstawia obraz twórcy Listy Filadelfijskiej – korporacji Thomson Reuters (znanej także jako Instytut Informacji Naukowej - ISI), jako instytucji skrajnie elitarystycznej, działającej w sposób “niezupełnie jasny” lub wręcz “niezupełnie uczciwy”. Temu służy zapewne zabieg erystyczny, polegający tym, że pan profesor tłumaczy Master Journal List jako Listę Mistrzowską. A przecież master key, to nie jest klucz mistrzowski, lecz klucz uniwersalny, a master plan to nie plan mistrza, ani plan mistrzowski, tylko plan ogólny. Manipulacji jest więcej. Inna polega na podgrzewaniu starego sporu pomiędzy twórcami i urzędnikami: “Naukowcy nie godzą się na automatyzm urzędniczej oceny ...”. A przecież, oparte o Listę Filadelfijską, używane przez ministerstwo algorytmy parametrycznej oceny instytucji badawczych układali nasi koledzy profesorowie, członkowie KEJN – Komitetu Ewaluacji Jednostek Naukowych. Wcześniej Listę Filadelfijską jako podstawę oceny badań naukowych rekomendowało inne ciało profesorskie – KBN. Przeciętny czytelnik jednak tego nie wie, i po przeczytaniu artykułu „Segregacja prasowa” zatroszczy się o los biednego polskiego naukowca cierpiącego w szponach nieuczciwych amerykańskich korporacji i polskich, nie rozumiejących nauki, urzędników.
Będę bronił honoru listy filadelfijskiej – co oczywiście nie oznacza, że jestem zwolennikiem traktowania jej z przesadną estymą i wykorzystywania jej do zadań, do których się nie nadaje. Lista ta jest konstruowana w sposób całkowicie przejrzysty i uczciwy. Nie ma zresztą żadnych powodów, aby ktokolwiek przy tworzeniu tej listy manipulował. Wymagania Instytutu Thomsona dotyczą spraw formalnych – publikacje muszą być recenzowane, poprzedzone streszczeniem, czasopismo musi ukazywać się regularnie. Są też dodatkowe wymagania, dla mnie i wielu moich kolegów oczywiste: czasopismo nie może być forum dla członków komitetu redakcyjnego, a grono czytelników nie powinno pokrywać się z listą autorów. Lista nie jest i nie pretenduje do listy czasopism elitarnych. Są na niej czasopisma bardzo kiepskie, także publikujące żenujące teksty.
Próba uczynienia z Listy Filadelfijskiej ekskluzywnego klubu, ma osłodzić fakt, że redagowanego przez profesora Tumańskiego czasopisma nie ma już na tej liście, a polskie pisma techniczne na tej liście można policzyć na palcach jednej ręki. Chciałbym zwrócić uwagę na fakt, że znika pojęcie narodowego czasopisma naukowego. Oczywiście jest niewielka grupa, na ogół wysoko cenionych, czasopism z tradycją, wydawanych przez uczelnie lub narodowe stowarzyszenia naukowe. Rynek czasopism naukowych jest jednak opanowywany przez komercyjne korporacje wydawnicze i duże międzynarodowe organizacje naukowe, takie jak choćby wymienione w artykule IEEE. Jest to zrozumiałe, gdyż w zglobalizowanym i skomercjalizowanym świecie jednym z najtrudniejszych zadań każdej instytucji jest znalezienie rynków zbytu dla swoich produktów oraz dotarcie do potencjalnych klientów i czytelników, a wydawców pojedynczych czasopism nie stać na finansowanie akcji marketingowych i sieci dystrybucji. Nie ma więc powodu do załamywania rąk z powodu małej liczby polskich czasopism na liście filadelfijskiej. Uważam wręcz, że to dobrze. Odbiera to bowiem młodym uczonym pokusę publikowania w czasopismach wydawanych przez swego mentora lub jego kolegów i zmusza do próbowania swoich sił na konkurencyjnym rynku międzynarodowym.
Z tekstu profesora Tumańskiego wyłania się bardzo smutny obraz polskiej nauki. Przede wszystkim odnosi się wrażenie, że celem publikacji jest osiągnięcia awansu i że wartościowe są publikacje sławnych autorów. A przecież celem publikacji jest podzielenie się z kolegami pracującymi na całym świecie swoim odkryciem naukowym, nowym związkiem chemicznym lub lepszym wyjaśnieniem znanego zjawiska, nowym algorytmem lub pomysłową konstrukcją. Jeśli uzyskane osiągnięcie jest ciekawe i ważne, opublikują je czołowe wydawnictwa na świecie. Nie trzeba być sławnym, żeby pisać do najlepszych czasopism. Trzeba mieć coś ciekawego do powiedzenia. Oczywiście, trzeba też umieć zredagować publikację tak, aby recenzent potrafił ją ze zrozumieniem, a najlepiej także z przyjemnością, przeczytać. To wymaga wysiłku, czasem pomocy bardziej doświadczonych kolegów, ale trzeba się tego nauczyć. Nie ma sensu bowiem publikować ważnych odkryć w wydawnictwach, których nikt nie czyta. A na publikowanie bezwartościowych szkoda czasu, papieru i farby drukarskiej.
Kilkanaście lat temu, gdy powołano Komitet Badań Naukowych i budowano zręby systemu oceny badań naukowych w Polsce, jednym z najważniejszych celów była walka z odziedziczoną po latach realnego socjalizmu izolacją polskiej nauki. Temu miało służyć oparcie metody punktacji czasopism na istniejących za granicą bazach danych. Wybrano największą i najbardziej znaną bazę, stworzoną przez mieszczący się w Filadelfii Instytut Informacji Naukowej, którą Andrzej Kajetan Wróblewski nazwał „listą filadelfijską”. Plan umiędzynarodowienia polskiej nauki udał się tylko częściowo – wciąż, o czym świadczy choćby tekst profesora Tumańskiego, wiele zostało do zrobienia.
Oczywiście zgadzam się z profesorem Tumańskim, że ocena osiągnięć naukowych nie może polegać na zliczaniu punktów. Nie wierzę, że uda się wymyślić algorytmiczny system odporny na pomysłowość niektórych pracowników naukowych i redaktorów czasopism. Prawie każdy potrafi podać kilka przykładów przypadkowych paradoksów lub mozolnie konstruowanych patologii. Niedawno musiałem przeczytać nową publikację trzech polskich uczonych. Lektura nie pozostawiała żadnych wątpliwości, że dzieło nie zawierało żadnej nowej myśli, żadnej oryginalnej obserwacji, nie opisywało nowego eksperymentu, ani nowych obliczeń. Nic. To oczywiście zdarza się bardzo często i nie warto byłoby o tym pisać, gdyby nie fakt, że czasopismo, w którym ten bubel został opublikowany, eksperci ministerstwa umieścili, obok Science i Nature, w grupie najwyżej cenionych czasopism. Decyzję podjęli biorąc pod uwagę tak zwany impact factor tegoczasopisma. Możliwe, że czasopismo jest doskonałe, a autorzy mieli niezwykłe szczęście, bo ich dzieło trafiło na niedysponowanego recenzenta. Możliwe też, że impact factor został mocno dopompowany. Od dawna wiadomo, jak to się robi. Już ponad 50 lat temu Derek J. de Solla Price w, przetłumaczonej na język polski i wydanej w Bibliotece problemów, książeczce – „Mała Nauka, Wielka Nauka” – opisał metody tworzenia pozorów wielkiej nauki poprzez wzajemne wspieranie się cytatami. A od tego czasu pojawiło się wiele nowych tricków.
Jaki stąd morał? Po pierwsze nie należy się bać listy filadelfijskiej, ani na siłę na nią wciskać. A jeśli już komuś bardzo zależy, aby czasopismo na trwałe znalazło się na tej liście, to nie może, tak jak redaktorzy „Przeglądu Elektrotechnicznego”, ujawniać, że korzysta wyłącznie z recenzji pisanych przez Polaków. I musi dbać o to, by drukować dobre publikacje, niekoniecznie pisane przez zasłużonych i sławnych autorów. Po drugie, nie można przy ocenie badań naukowych opierać się tylko na jednej bazie danych. Jest wiele baz zawierających ważne i ciekawe informacje. Bezpłatny Google Scholar łatwiej oszukiwać, bo cytują każdy tekst w Internecie. Ale można się z niego dowiedzieć, że ktoś jest cytowany w niepublikowanych notatkach noblisty z Princeton, co może mieć większe znaczenie niż cytowanie przez słabego uczonego w przeciętnym czasopiśmie. Inna bezpłatna baza Microsoft Academic Search pozwala obliczyć impact factor czasopism a także recenzowanych konferencji, które nie są indeksowane przez ISI, ale w niektórych środowiskach odgrywają rolę większą od czasopism i tam głównie publikują informatycy z MIT. Po trzecie, jeśli musimy ocenić instytucję, a tym bardziej indywidualnego uczonego, nie możemy ograniczyć się do sprawdzenia liczby cytowań i dodawania punktów. Dobrze dowiedzieć się, co zrobili. To może wymagac dużej wiedzy, ale nawet niespecjalista może łatwo sprawdzić, czy duża liczba cytowań pochodzi od uczniów i kolegów z wydziału, czy też z czołowych ośrodków badawczych na świecie. A przede wszystkim róbmy dobrą naukę, wtedy będą nas cenić i cytować.
Leszek Pacholski, Uniwersytet Wrocławski, Instytut Informatyki
http://pacholski.blog.polityka.pl
DEMORALIZOWANIE (I DEMONIZOWANIE) RYNKU CZASOPISM NAUKOWYCH
W „Polityce” (nr 23/2013) prof. Sławomir Tumański wyraził swoją negatywną opinię o sposobach oceniania czasopism naukowych przez firmę Thomson Reuters, której jeden z produktów (Journal Citation Reports, dalej JCR) jest wykorzystywany przez Ministerstwo Nauki i Szkolnictwa Wyższego m.in. w ocenie parametrycznej jednostek naukowych. Opinia prof. Tumańskiego jest oparta przede wszystkim na jego osobistym doświadczeniu jako redaktora naczelnego czasopisma „Przegląd Elektrotechniczny”, które przez kilka lat znajdowało się na liście JCR, ale niedawno zostało z niej usunięte. Łączę się w bólu z prof. Tumańskim, ale jednocześnie uważam, że przedstawiony przez niego obraz rynku czasopism naukowych oraz roli JCR w jego kształtowaniu jest nieco przerysowany, a może nawet groteskowy.
Zacznijmy od początku. Naukowcy to są ludzie, którzy dowiadują się różnych rzeczy o świecie i dzielą się swoją wiedzą z innymi. Najskuteczniejszą metodą dzielenia się wiedzą jest publikowanie książek i artykułów w czasopismach naukowych, przy czym istnieją takie czasopisma naukowe, które są chętnie i przez wielu czytane i – co za tym idzie – opublikowany tam artykuł może istotnie wpłynąć na postęp danej dziedziny nauki, oraz takie czasopisma, których nie czyta niemal nikt. Przez cały czas rynek czasopism naukowych się zmienia, niektóre tytuły przestają się ukazywać, pojawiają się inne, jedne czasopisma tracą czytelników, drugie zyskują. Naukowcy zainteresowani swoim obszarem badań wiedzą na ogół, w których czasopismach mogą znaleźć interesujące dla siebie artykuły i nie potrzebują żadnych podpowiedzi. Jednak rynek czasopism naukowych to nie tylko (i być może nawet nie przede wszystkim) autorzy i czytelnicy, ale też pośrednicy: wydawcy czasopism, które chcą na czasopismach zarabiać, oraz biblioteki, które płacą za prenumeratę.
Budżet bibliotek na ogół nie jest nieograniczony i biblioteki chciałyby wiedzieć, które czasopisma są lepsze w danej dziedzinie (zatem warto je kupić), a które gorsze. Również wydawcy na pewno zainteresowani są pozycją swoich czasopism na rynku. Wychodząc naprzeciw tym potrzebom firma Thomson Reuters co roku publikuje informację o cytowalności kilku tysięcy wybranych czasopism. Najbardziej popularnymi miarami cytowalności są dwuletni i pięcioletni współczynnik wpływu (Impact Factor, dalej IF) czyli liczba cytowań w danym roku artykułów z danego czasopisma, ale nie wszystkich, tylko tych, które zostały opublikowane odpowiednio w okresie dwóch lub pięciu lat przed rokiem, dla którego IF jest obliczany. Miara ta jest prosta, intuicyjna i oparta na założeniu, że im częściej cytowane artykuły z danego czasopisma, tym większy wpływ tego czasopisma na postęp nauki. Bibliotekarze dzięki temu wiedzą, co kupować, a wydawcy i redakcje dostają informację, czy ich polityka wydawnicza jest skuteczna.
Problem polega na tym, że proces budowania pozycji czasopisma na rynku jest długotrwały i mozolny, a niektóre redakcje są niecierpliwe i wykorzystują to, że IF jest podatny na różne manipulacje. Redaktorzy mogą na przykład zachęcać autorów, żeby umieszczali w przyjętych do publikacji artykułach cytowania tekstów, które ukazały się tym samym czasopiśmie rok lub dwa lata wcześniej – takie cytowania mogą znacząco podnieść dwuletni IF, jeśli jest ich wiele, ale nie zwiększają w żaden sposób wpływu czasopisma na reprezentowaną przez nie dyscyplinę nauki. Bardziej subtelną metodą jest dodawanie nieuzasadnionych cytatów w artykułach autorstwa członków i sympatyków redakcji publikowanych w innych czasopismach. To jednak może znacząco wpłynąć na IF tylko pod warunkiem, że podrasowywane czasopismo jest niewielkie, a członkowie redakcji często publikują w innych tytułach indeksowanych przez JCR. Jeszcze bardziej subtelne jest możliwie najszybsze wstępne publikowanie artykułów w Internecie i zwiększanie odstępu między wstępną i ostateczną publikacją w konkretnym tomie czasopisma. W wielu dyscyplinach szczyt zainteresowania artykułem przypada w kilka lat po jego publikacji, a do obliczania IF brany jest zawsze rok oficjalnej publikacji, a nie umieszczenia tekstu w Sieci.
Po tym wstępie przyjrzyjmy się bliżej cytowalności „Przeglądu Elektrotechnicznego” (dalej PE). W ciągu trzech lat indeksowania tego czasopisma przez JCR dwuletni IF mieścił się w przedziale 0.19-0.25, ale zdecydowana większość cytowań PE – od 70% do ponad 80% w zależności od roku – pojawiła się w artykułach opublikowanych w samym PE. To na pewno wzbudziło podejrzenie pracowników firmy Thomson Reuters, gdyż dla 85% indeksowanych czasopism ten współczynnik samo-cytowalności jest niższy niż 15%, a obszar badań reprezentowany przez PE raczej trudno nazwać niszowym. Po odliczeniu samocytowań IF spada do ok. 0.05, co oznacza, że średnio tylko jeden na 20 artykułów opublikowanych w PE w latach 2009-2010 został gdziekolwiek poza tym czasopismem zacytowany w roku 2011. Ponieważ PE zawiera artykuły w języku polskim, wysoki wskaźnik samocytowalności jest niepokojący, ale jednak można sobie wyobrazić, że wynika on po prostu z niedostępności czasopisma dla osób, które języka polskiego nie znają i w efekcie nie mogą artykułów z PE przeczytać i zacytować, nawet jeśli są one warte cytowania.
Zupełnie inaczej natomiast wygląda sprawa, kiedy zapytamy, które czasopisma i w jaki sposób cytuje PE. Artykuły opublikowane w PE zacytowały w roku 2011 aż 623 wcześniejsze publikacje z PE, w tym 324 (=52%) z lat 2009-2010 (branych pod uwagę w obliczaniu dwuletniego IF dla roku 2011). Drugie pod względem kolejności czasopismo, „IEEE Transactions of Magnetics” zostało zacytowane 269 razy, w czego 51 artykułów (=19%) z lat 2009-2010. Również w roku 2010 najczęściej cytowanym czasopismem był PE (516 razy, znów 52% artykułów z ostatnich dwóch lat), kolejne na liście czasopismo to „IEEE Transactions of Power Delivery” (142 razy, 13% artykułów z dwóch poprzednich lat). Podobnie w 2009: PE na pierwszym miejscu listy (311 razy, 50% to artykuły z lat 2007-2008), na drugim miejscu znów „IEEE Transactions of Magnetics” (152 razy, 11% z lat 2007-2008). Widać bardzo wyraźnie, że nie tylko „Przegląd Elektrotechniczny” jest czasopismem najczęściej cytowanym przez autorów publikujących w PE, ale autorzy ci znacząco częściej cytują akurat te artykuły z PE, które ukazały się w latach branych pod uwagę podczas obliczania dwuletniego IF. Możliwe, że jest to przypadek, ale przypadek skrajnie mało prawdopodobny. Nie potrzeba zatem żadnych teorii spiskowych wyjaśniających, dlaczego „Przegląd Elektrotechniczny” przestał być indeksowany w bazie JCR: w najlepszym wypadku został uznany za czasopismo wsobne, śladowo tylko cytowane na zewnątrz i w związku z tym nie liczące się na rynku czasopism naukowych.
Mimo tego, że usunięcie PE z listy JCR raczej dobrze świadczy o procedurach weryfikacji czasopism stosowanych w firmie Thomson Reuters, prof. Tumański nawiązując do losu swojego czasopisma krytykuje wykorzystanie listy JCR w ocenie działalności naukowców oraz samą ideę oceniania czasopism na podstawie liczby cytowań. Rzeczywiście, można mieć wiele uwag do bazy JCR i jest całkiem możliwe, że wskaźnik SCImago Journal Rank (dalej SJR, www.scimagojr.com) wyliczany na podstawie europejskiej bazy Scopus byłby znacznie lepszy – przede wszystkim dlatego, że nie uwzględnia samocytowania czasopism i bierze pod uwagę nie tylko liczbę cytowań, ale też rangę czasopism, w których te cytowania się pojawiły (zresztą Thomson Reuters wylicza podobny wskaźnik, który został nazwany Eigenfactor Score). Bardzo ładnie to widać na przykładzie „Przeglądu Elektrotechnicznego”: o ile dwuletni współczynnik wpływu w bazie Scopus dzięki samocytowaniom stale pnie się do góry, od 0,047 w roku 2006 do 0,269 w roku 2011, o tyle SJR pozostaje przez te lata na niemal niezmienionym poziomie (0,17–0,20).
Dla indywidualnego autora reprezentującego nauki ścisłe albo społeczne IF albo SJR czasopisma ma znaczenie nie tyle jako miara jakości artykułu (w często cytowanych czasopismach również zdarzają się kiepskie publikacje), ale jako miara roztropności. Czasopisma częściej cytowane mają zwykle lepszą sieć dystrubucji i są prenumerowane przez większą liczbę bibliotek. Zatem autor, który uważa, że ma coś istotnego do powiedzenia, powinien publikować raczej tam, gdzie jego tekst ma szansę dotrzeć do możliwie największej liczby potencjalnie zainteresowanych czytelników. Prof. Tumański napisał, że „autorzy piszący do innych pism stają się automatycznie naukowcami drugiej kategorii”. Trudno się z tym nie zgodzić, z tym, że trzeba dodać: stają się naukowcami drugiej kategorii na własne życzenie.
Na koniec jeszcze garść drobnych sprostowań. Wikipedia w przeciwieństwie do prof. Tumańskiego wie, kto wymyślił pojęcie listy filadelfijskiej – był to Andrzej Kajetan Wróblewski. Indeks Hirscha jest nazywany indeksem Hirscha także poza Polską i nie jest on wcale skomplikowany, to jest po prostu liczba h publikacji autora, które zostały zacytowane co najmniej h razy. Master Journal List to nie „lista mistrzowska czasopism” tylko „główna lista czasopism”. W Polsce artykuły w pismach spoza listy JCR mogą otrzymać do 10 punktów, a artykuły z listy od 15 do 50. Polska lista rankingowa czasopism istnieje, jest to tzw. lista B Ministerstwa Nauki i SW. W Polsce działa również Index Copernicus, firma oferująca własną listę rankingową, która nie jest oparta na analizie cytowań. W Europie (a konkretnie w Hiszpanii) z kolei zawiązała się grupa badawcza SCImago, ta od SJR i innych publicznie dostępnych wskaźników opartych na bazie Scopus. Można zatem uznać, że wszystkie najważniejsze postulaty prof. Tumańskiego zostały spełnione.
Arkadiusz Sołtysiak
Zakład Bioarcheologii, Instytut Archeologii UW
PUBLIKUJMY W DOBRYCH PISMACH
W Polityce 23/2013 ukazał się artykuł Profesora Sławomira Tumańskiego pt. „Segregacja prasowa”. Tumański, redaktor naczelny czasopisma „Przegląd Elektrotechniczny”, przedstawia niedawne skreślenie tego miesięcznika z list filadelfijskiej jako wielki cios dla rozwoju nauki (nie tylko w Polsce) i kreśli czarno-białą wizję świata nauki, w której poszukiwaczom prawdy publikującym w „Przeglądzie Elektrotechnicznym” swoje rzetelne (choć mało cytowane) prace przeciwstawia nieuczciwych twórców Journal Citation Reports (JCR), niemądrych urzędników Ministerstwa Nauki, którzy dali się omamić oszustom z Filadelfii oraz naukowców publikujących w czasopismach, których z listy nie wyrzucono, bo zarówno autorzy jak i redaktorzy tych czasopism zrobili z cytowań “chodliwy towar” i narzędzie manipulacji. Profesor Tumański sugeruje, że wypowiada się w imieniu większości zdrowo myślących naukowców. Obaj jesteśmy przeciwnikami bezkrytycznego stosowania wskaźników bibliometrycznych do oceny naukowców, uczelni i czasopism, czemu wyraz dawaliśmy w naszych artykułach i w publicznych dyskusjach, natomiast uważamy, że w swoim artykule Profesor Tumański wielokrotnie mija się z prawdą.
Artykuł Tumańskiego podyktowany jest głównie jego emocjami spowodowanymi usunięciem miesięcznika “Przegląd Elektrotechniczny” z listy filadelfijskiej. Jego wypowiedź byłaby bardziej wiarygodna, gdyby zaraz po przyjęciu miesięcznika na tę listę napisał, że instytut z Filadelfii “zamiast pomagać nauce deprawuje ją”. Sam przecież o umieszczenie „Przeglądu Elektrotechnicznego” na tej deprawującej liście zabiegał. Skoro lista filadelfijska jest tak mało ważna i wiarygodna, jak to przedstawiono w artykule, to przyjęcie czasopisma lub jego skreślenie w ogóle nie powinno mieć znaczenia. Skreślenie “Przeglądu Elektrotechnicznego” z listy filadelfijskiej nie ma żadnego wpływu na rozwój nauki światowej, jest to przecież tylko jeden z kilkunastu tysięcy indeksowanych przez instytut periodyków, zaś polskiej nauce bardziej pomoże niż zaszkodzi. Co roku taki los spotyka wiele czasopism z listy, jednak pojawiają się nowe i ogólna liczba czasopism indeksowanych ciągle rośnie. Liczba polskich czasopism na liście filadelfijskiej oscyluje, ale w perspektywie wieloletniej też ma tendencję wzrostową.
Jednym z grzechów współczesnej nauki jest zbyt wielka liczba czasopism i publikacji. Nawet w dość wąskich dziedzinach ukazuje się zbyt dużo prac, by pojedynczy naukowiec był w stanie się z nimi zapoznać. Wiele czasu traci się na czytanie (i recenzowanie) zupełnie niepotrzebnych artykułów. Naukowcy powinni publikować powściągliwie i starać się umieszczać swoje prace w prestiżowych czasopismach, gdzie łatwiej mogą zostać dostrzeżone przez społeczność naukową. Za prestiżowe można uznać co najwyżej 10 % czasopism o najwyższym IF (impact factor), z danej dziedziny a za niezłe – 30 % najwyżej sklasyfikowanych. Szanujący się naukowiec nie zniży się do publikowania w czasopismach z dolnych 10 % listy filadelfijskiej. W tym kontekście nie ma wielkiej różnicy pomiędzy nieobecnością na liście, a zajęciem na niej jednego z ostatnich miejsc, jak to było w przypadku “Przeglądu Elektrotechnicznego”, który z IF równym 0,244 (0,054 po korekcie na cytowania w tym samym piśmie) znalazł się w 2012 roku w dolnych 7 %. Z tych powodów został on z listy automatycznie usunięty przez program komputerowy, podobnie jak wiele innych czasopism chińskich, hinduskich, polskich…
Pomijając kwestię prestiżu, publikowanie w najsłabszych czasopismach jest niepraktyczne, gdyż to właśnie one są kandydatami do wyrzucenia z listy, a może się to stać zanim artykuł ujrzy światło dzienne. To prawda, że Thomson Institute posługuje się arbitralnymi kryteriami przy umieszczaniu czasopism na swej liście, jednak redaktorzy przez właściwą selekcję nadsyłanych artykułów mogą znacząco zwiększyć szanse redagowanych przez nich periodyków na pozostanie na liście. Trzeba po prostu być bardziej surowym redaktorem.
Jednym z najważniejszych współczynników bibliometrycznych, charakteryzujących poziom nauki w danym kraju jest liczba cytowań przypadających na jeden artykuł. W przeciwieństwie do ogólnej liczby cytowań i ogólnej liczby publikacji, pozwala ona porównywać duże państwa z małymi. Raporty podające liczbę cytowań, przypadających na jeden artykuł opublikowany w ciągu ostatnich 10 lat są aktualizowane co kilka miesięcy. Jeszcze niedawno Polska zajmowała w tej dziedzinie 89 miejsce na 148 sklasyfikowanych państw. Teraz spadliśmy na setne miejsce (na 149), ze średnią cytowalnością równą połowie średniej światowej. Nawet nasza drużyna piłkarska, regularnie przegrywająca ważne mecze, nie stoi w rankingach tak nisko. To żenująco kiepskie miejsce wynika po części ze struktury nauki w Polsce, która nie sprzyja dużej liczbie cytowań. Omawiał to wielokrotnie profesor Andrzej Kajetan Wróblewski w swoich wnikliwych artykułach. Główną przyczyną tej słabej pozycji jest jednak publikowanie przez polskich naukowców zbyt dużej liczby artykułów w periodykach o kiepskiej reputacji.
Przyczynił się do tego również „Przegląd Elektrotechniczny”. W latach 2009-2012 aż 3% (sic!) wszystkich publikacji z polską afiliacją, indeksowanych przez Thomson Institute, ukazało się właśnie w “Przeglądzie Elektrotechnicznym” (więcej niż w jakimkolwiek innym periodyku naukowym zarówno polskim jak i zagranicznym). Jeśli zaś ograniczymy się do artykułów i pominiemy inne typy publikacji, to udział “Przeglądu Elektrotechnicznego” wzrasta do 4%. Następnych dziewięć czasopism, w których najczęściej umieszczali prace polscy naukowcy, to periodyki nieznacznie tylko lepsze od „Przeglądu Elektrotechnicznego”. Na 11 miejscu pojawia się czasopismo przyzwoite („Physical Review B”), a potem znowu znajdujemy sporą liczbę periodyków o znaczeniu marginalnym. W efekcie zbyt duża liczba polskich prac opublikowana jest w czasopismach, których nikt nie czyta i nie cytuje. Te właśnie periodyki, (z „Przeglądem Elektrotechnicznym” na czele) mają największy wpływ na średnią cytowalność polskich artykułów i w dużej mierze odpowiadają za katastrofalnie słaby wynik. Naukowcy polscy powinni więc publikować bardziej powściągliwie wybierając tylko takie czasopisma, gdzie ich praca może być dostrzeżona. Wzorem powściągliwości są tacy wybitni chemicy jak Zbigniew R. Grabowski, Bogumił Jeziorski czy Janusz Lewiński.
Każdy z nas przepracował wiele lat w USA i Zachodniej Europie (Francja, Niemcy, Finlandia) i uważamy, że wpływ liczby cytowań i publikacji w czasopismach o wysokim IF na kariery naukowe w tych krajach jest znacznie większy niż w Polsce, przeciwnie do tego co pisze prof. Tumański. Nie zauważyliśmy również pozytywnej korelacji między wyborem do PAN, a indeksem Hirscha (h) kandydatów, przynajmniej jeśli chodzi o Wydział III.
Plotki o rzekomych, powszechnie występujących spółdzielniach cytowań i innych manipulacjach indeksami bibliograficznymi są wymyślane przez naukowców, których prace są mało dostrzegane lub wręcz niedostrzegane. Manipulacje są patologicznym marginesem. Są zresztą niebezpieczne, bo jednym z pytań, na które muszą odpowiadać recenzenci jest pytanie czy cytowane odnośniki są właściwe. Nie ma też dowodu, że w “Przeglądzie Elektrotechnicznym” manipulacji jest mniej niż w czasopismach z listy filadelfijskiej.
Prof. dr hab Marek Kosmulski, Politechnika Lubelska i Abo Akademi (Turku, Finlandia), członek komitetu redakcyjnego „Colloids and Surfaces A” (Elsevier).
Prof. dr hab. Adam Proń , Politechnika Warszawska, redaktor regionalny czasopisma „Synthetic Metals” (Elsevier).
JAK OCENIAĆ NAUKOWCÓW
W artykule „Segregacja prasowa” prof. Sławomir Tumański odniósł się do ocen czasopism naukowych zwracając uwagę na niezrozumiałe uprzywilejowanie w Polsce naukometrycznej bazy danych Thompson Reuters z Filadelfii w stosunku do innych baz danych takich jak np. Scholar. Niewątpliwie istnieje problem z jednoznaczna oceną dorobku naukowego. Wobec ogromnego zalewu publikacji nie sposób jest śledzić na bieżąco wszystkie publikacje z danej dyscypliny. Tymczasem dopiero dobra znajomość literatury naukowej daje szanse na zaplanowanie własnych badań na wysokim poziomie. Prace przełomowe pojawiają się rzadko i nie ma problemu z ich oceną. Ogromna większość to prace przyczynkarskie i właśnie z oceną tych prac jest problem. Od pewnego czasu zaczęto posługiwać się parametrami naukometrycznymi takimi jak liczba cytowań i współczynnik Hirscha. Co by nie powiedzieć o tych naukometrycznych parametrach, dają one jednak obraz aktywności naukowej naukowca. Liczba cytowań świadczy o tym, że opublikowane praca zawierała informacje przydatne dla cytującego autora, współczynnik Hirscha z kolei pozwala na stwierdzenie czy oceniany naukowiec ma w swoim dorobku prace wyróżniające się, to jest takie, które są cytowane wielokrotnie.
Z tym, że te parametry można porównać w obrębie tych samych dyscyplin, gdyż liczba cytowań zależy m.in. od liczby naukowców pracujących w danej dziedzinie oraz od międzynarodowego charakteru badań. Z tego względu prace z dziedziny nauk humanistycznych nie są tak często cytowane jak prace z nauk przyrodniczych.
Z reguły łatwiej uzyskać lepsze parametry naukowcom z krajów anglosaskich i z uwagi na to, czasopisma z tego obszaru mają większy, uwarunkowany językowo i historycznie zasięg.
Oddzielnym problemem jest ranking czasopism. Ogromna presja na liczbę publikacji sprawie, że lawinowo rośnie liczb czasopism naukowych. Złośliwi mówią, że niektórzy naukowcy więcej piszą niż czytają, a szereg prac ma często nie więcej jak dwóch czytelników: autora i recenzenta i już nie zawsze redaktora czasopisma.
Tak zwana lista filadelfijska została utworzona przez prywatną instytucję jaką jest Thompson Reuters z Filadelfii, za dostęp do której trzeba sporo zapłacić.
Aby czasopismo dostało się na listę filadelfijską należało wykazać, że czasopismo wychodzi regularnie przez 2 lata. To zaś świadczy jedynie o regularności publikowania czasopisma, a nie o jego jakości. Thomson Reuters nigdy nie prowadził oceny jakości publikowanych prac – co oznacza, że znalezienie się czasopisma na liście filadelfijskiej nie świadczy o jego jakości. Na liście umieszczane były i są czasopisma o średniej liczbie cytowań przypadających na jedną opublikowaną pracę od 0,01 do kilkudziesięciu. Nie znam przypadku, aby czasopismo regularnie wychodzące przez 2 lata, którego kolejne numery były wysyłane do Filadelfii nie znalazło się na liście.
W Polsce i niektórych innych krajach znalezienie się na liście filadelfijskiej zaczęto traktować jako dowód na wysoką jakość czasopisma. I to jest błąd, bowiem jakość publikowanych prac nie jest przez firmę Thompson Reuters oceniana.
W międzyczasie pojawiły się inne bazy danych m. in. Scholar, które są bezpłatne. Co prawda nie publikują one listy czasopism, ale dokładnie charakteryzują liczbę cytowań, współczynnik Hirscha, czy umiędzynarodowienie zespołu autorskich – są to podstawowe parametry, w oparciu o które można dokonać oceny czasopisma.
Istnieje jeszcze inna ważna różnica, mianowicie twórcy tzw. listy filadelfijskiej indeksują tylko czasopisma przyjęte do ich bazy, natomiast bazy Scholar starają się indeksować wszystkie publikacje, do których maja dostęp. To spowodowało, że w rozsądniejszych krajach zaczęto posługiwać się innymi bazami, a tzw. lista filadelfijska zaczęła tracić na znaczeniu. To tłumaczy ostatnią akcję skreślania czasopism, co dotknęło czasopismo wydawane przez prof. Tumańskiego. Przy czym powód jest mało poważny. Z przyczyn etycznych należy cytować wszystkie prace, z których autor korzystał przy opracowaniu artykułu. Nie sadzę, aby było coś złego w cytowaniu artykułów wcześniejszych opublikowanych we własnym czasopiśmie, pod warunkiem, że cytaty odnoszą się do danych wykorzystywanych w artykule. Wręcz jest to konieczne, aby nie być posądzonym o plagiat.
Liczba autocytowań jest z reguły większa w czasopismach o mniejszym obiegu, a z takim mamy do czynienia w przypadku czasopism wydawanych przez mniejsze kraje. Można zgodzić się, że ten rodzaj cytowań nie musi świadczyć o jakości czasopisma, bo redakcje mogą stosunkowo łatwo wpływać na wzrost liczby takich cytowań. Istnieje jednak bardziej uczciwe rozwiązanie tego problemu od skreślenia z listy. Po prostu należy rankingować czasopismo według cytowań w innych czasopismach z pominięciem autocytowań.
Takimi danymi Thompson Reuters dysponuje. Nic nie stało zatem na przeszkodzie, aby przy obliczaniu impact factora posługiwać się tylko cytowaniami z innych czasopism. Zgadzam się z prof. Tumańskim, że ostatnie działania Thomsona Reutersa mają na celu stworzenie wrażenia, że podnosi się kryteria jakościowe oceny czasopism, a w rzeczywistości chodzi o marginalizację czasopism wydawanych przez małe organizacje. W tej sytuacji należy pilnie zrezygnować z faworyzowania tzw. listy filadelfijskiej i ranking czasopism oprzeć na impact factorach publikowanych przez niekomercyjne bazy takie jak np. Scholar, który - jak już wspomniałem - indeksuje wszystkie dostępne czasopisma naukowe. Przecież o jakości czasopisma naukowego nie świadczy znalezienie się na liście tworzonej przez prywatną, komercyjną firmę, ale rzeczywista liczba cytowań opublikowanych artykułów. Przyjęcie w ocenie parametrycznej jednostek naukowych tylko i wyłącznie tzw. listy filadelfijskiej jest, delikatnie mówiąc, niezrozumiałe. Przy okazji zaoszczędzimy sporo pieniędzy na zakupie bazy z firmy Thompson Reuters.
Prof. Lucjan Pawłowski, członek PAN
Zastępca Przewodniczącego Rady Kuratorów
LISTA FILADELFIJSKA A ZADANIA NAUKI W GOSPODARCE OPARTEJ O WIEDZY
1. Efektywność nauki w świetle listy filadelfijskiej
Dyskusja tocząca się na łamach „Polityki” porusza ważne kwestie rozwoju polskiej nauki dotyczące rozwoju i kariery pracowników naukowych. W istocie, nie jest najważniejsze to, czy stawiać na piedestale listę filadelfijską i naukowców publikujących w jej czasopismch, czy szukać innych benchmarków rozwoju nauki. Przedstawiony tu dylemat może prowadzić do wniosku, że nauka jest zajęciem dla dżentemenów, którzy „lubią się dzielić” swoimi osiągnięciami z innymi dżentelmenami, zaś sami naukowcy jako elita społeczna są trochę jak „błyskotki”, a trochę jak „pierniki” dyndające na świątecznej choince.
Wychodzi się tu z założenia, dość powszechnie podzielanego w środowisku naukowców, że każde państwo winno taką choinkę fundować społeczeństwu, czyli bezzwrotnie finansować naukę oczekując w zamian kształcenia kolejnych pokoleń na poziomie wyższym. W takim myśleniu o nauce aktywność naukowo-badawcza jest domeną indywidualnych aspiracji uczonych. Oczywiście, dobrze by było, aby te aspiracje wchodziły w obieg światowy i podnosiły prestiż uczelni, a pośrednio naszego państwa na arenie międzynarodowej. Czy są to rozwiązania racjonalne z punktu widzenia nauki ze społeczno-gospodarczego punktu widzenia?
Takie dywagacje byłyby do zaakceptowania w XIX wieku, czyli w erze rozwoju przemysłu, lecz nie są do zaakceptowania współcześnie. Już w XX wieku rozwój czołowych gospodarek był funkcją umiejętności wykorzystania postępu naukowo-technicznego. W epoce gospodarki opartej na wiedzy, państwo ma szczególny obowiązek ochraniać i rozwijać sferę nauki, gdyż rozwój naukowy staje się najważniejszą domeną rozwoju społeczno-gospodarczego, a ostatecznie, podstawą jego suwerenności gospodarczej i kulturowej.
W XXI wieku, gdy wiedza stanowi podstawowy nośnik kapitału ludzkiego i źródło nowej wartości, nauka winna być traktowana jako najważniejsza gałąż nowoczesnej gospodarki. Dlatego oparcie oceny dorobku o zagraniczne systemy ewaluacji to pozostawienie nauki samej sobie, oderwanie od realiów kraju i potrzeb jego gospodarki, oznaczające utratę z pola widzenia relacji nakładów i efektów. Rozwiązanie to nie ma wiele wspólnego z racjonalnym gospodarowaniem środkami przeznaczonymi na naukę.
W erze globalizacji, gospodarowanie wiedzą funkcjonuje z grubsza na podobnych zasadach jak gospodarka innymi zasobami naturalnymi. Są państwa, które umieją zorganizować ich wykorzystanie oraz państwa, które zupełnie się o to nie troszczą. Polska należy do tych krajów, które mają duże zasoby kapitału intelektualnego. Nie będę przekonywać o tym, co winno być dla środowiska naukowego oczywiste. Gdyby ktoś miał watpliwości dodam jedynie, że miałem przyjemność zapoznać się z potencjałem wiodących ośrodków naukowych w kilkunastu krajach, w tym w USA, Japonii, Niemczech, Wielkiej Brytani, Francji, w dziedzinie nauk ekonomicznych.
Biorąc pod uwagę liczbę samodzielnych pracowników nauki oraz wymagania stawiane w związku z ubieganiem się o stopnie naukowe, nasz kraj jest światową potęgą, zaś polskie państwowe uczelnie w kategorii zasobów ludzkich należą do najsilniejszych na świecie. Są to wnioski nie budzące najmniejszych wątpliwości, nawet za granicą. Fakt, iż potencjał naukowy nie przekłada się ani na poziom rozwoju gospodarczego, ani na rankingi wyższych uczelni, źle świadczy o miejętnościach zarządzania nauką, co więcej, sygnalizuje marnotrawstwo kapitału intelektualnego na niespotykaną w świecie skalę.
Kapitał inteletualny różni się od innych zasobów tym, że przejawia się w ludzkiej aktywności, dlatego środowisko nauki próbuje pokazać swoje osiągnięcia, aby zdobyć międzynarodowy prestiż i zaistnieć na tym forum choćby przez chwilę, tym bardziej gdy stwarza się silne preferencje do korzystania z tego systemu ewaluacji. Brak mechanizmu generowania tematów badań, a także słaba współpraca nauki z gospodarką powoduje, że uczelnie chołubią tych, którzy podnoszą ich prestiż i publikują za granicą. Zapewniają im duże środki na badania, finansują zagraniczne wyjazdy, pieniężne nagrody, oraz pokrywają koszty publikacji w zagrancznych zeszytach naukowych posiadających przywilej zaliczenia do listy filadelfijskiej.
Środowisko naukowców obserwuje te zachowania, ma poważne wątpliwości, czy system ewaluacji artykułów z listy jest słuszny, gdyż niewielkie efekty generują relatywnie wysokie koszty. Aby ocenić, czy jest to droga właściwa, warto policzyć ponoszone koszty jednostkowe i łączne oraz oszacować jakie korzyści i komu daje publikacja na liście filadelfijskiej, zwłaszcza zaś, jakie korzyści osiąga państwo, które finansuje naukę. W ten sposób odpowiedzieć można na pytanie, czy państwu opłaca się lista filadelfijska i do czego jest potrzebna. Bo jeżeli jest potrzebna - to OK. A jeżeli nie jest potrzebna - to po co tam publikować?
Podzielam wątpliwości autorów artykułów na temat listy filadelfijskiej, że artykuły w publikacjach z tej listy nie różnią się istotnie od innych, uznanych wydawnictw naukowych, w tym wielu krajowych, które na liście się nie znajdują. Co więcej, osoby, które potrafią wykazać się największą liczbą publikacji zagranicznych, na ogół nie są autrytetami naukowymi, a nawet często nie są znane w krajowym środowisku naukowym. Ich zagraniczny dorobek jest najczęściej następstwem stażów naukowych w uczelniach zagranicznych i kontynuacji współpracy.
Rzecz w tym, że tzw. lista filadelfijska jest ogniwem mechanizmu obrotu wiedzą naukową w skali globalnej. Mchanizm ten powoduje, że określone efekty w zakresie dorobku naukowego, wypracowane w konkretnym miejscu za konkretne pieniądze, w istocie stają się przedmiotem operacji w rękach animatorów globalnego rynku. Korzystanie z tego mechanizmu uwiarygadnia rankingi uczelni zajmujących w tym systemie centralne miejsce oraz kreuje promowanych naukowców na „guru nauki”. Poprzez statystyki cytatów i różnorodne klasyfikacje mechanizm ten napędza się poprzez swojego rodzaju „efekt piramidy”. Wiadomo, że w pracy np. z marketingu należy, chcąc niechcąc, zacytować Kotlera. Wręcz chodzi o to, aby wykazać się jego cytatami nieznanymi, lecz możliwie najbardziej spektakularnymi, nawet wówczas, gdy nie mają one większego znaczenia naukowego itd. Outsiderzy, choćby byli najlepsi, w tym systemie nie mają żadnych szans.
Projekt ten nie ma wiele wspólnego z obiektywną, publiczną strukturą nastawioną na promocję nauki, gdyż polityka animatorów rynku wyraża czysto komercyjne interesy. Jest to mechanizm wtłaczania wiedzy w prywatny biznes kilku korporacji wydawniczych. Wypromowana marka podbija cenę publikacji i opłat z tytułu dostępu do baz danych, które sprzedawane są uczelniom na całym świecie za ciężkie pieniądze, zaś koszty pozyskania artykułów, selekcji, recenzji i druku przerzucone są zwykle „na dostawców artykułów.
Jak wynika z informacji zawartych w innych artykułach na ten temat, nie ma wątpliwości, że praktyki stosowane w ramach tego systemu mają charakter monopolistyczny. Za periodykami naukowymi stoją banki, koncerny informatyczne, firmy farmaceutyczne, chemiczne czy zbrojeniowe, itd. Mają one pierwszeństwo w dostępie i wykorzystaniu ciekawszych osiągnięć naukowych, tam też pozyskują wybitnych naukowców głównie z krajów, które nie potrafią zagospodarować własnego potencjału naukowego. Zjawisko to określa się od dawna mianem drenażu mózgów.
Warto zauważyć, że nie wszystko się publikuje. Ze względu próby opublikowania artykułów w różnych periodykach, powstaje wieotysięczna kolejka oczekujących. Wiele osób bezskutecznie próbuje opublikować ciekawe artykuły, z drugiej strony, część dorobku naukowego wyłącza się z obiegu ze wzlędu na interesy handlowe. Nic więc dziwnego, że takie kraje jak Niemcy, Japonia, Francja, a nawet Rosja, unikają uzależnienia się od światowych korporacji, posiadają własne rozwiązania i bazy danych pełniące także fukcję ochrony wartości intelektualnej.
Wspólna polityka w zakresie współpracy naukowej winna być jednym z ważniejszych zadań stojących przed Unią Europejską, po wdrożeniu systemu bolońskiego standaryzującego proces dydaktyczny. Należy zatem ubolewć, że dotąd nie stworzono spójnego systemu rejestracji, ewaluacji i upowszechnienia badań naukowych w ramach Unii Europejskiej.
2. Interesy dostawców wiedzy naukowej na rynku globalnym
Problem odnośnie korzystania z listy filadelfijskiej w zasadzie nie stnieje w sytuacji, gdy obecnie mniej niż jeden procent polskich artykułów naukowych jest publikowana w ramach tego systemu. Gdy jednak silnie premiowane środowisko naukowe przestawi się na publikowanie za granicą, wówczas widoczny będzie absurd pompowania krajowych środków publicznych przeznaczonych na naukę do globalnych korporacji.
Jest oczywiste, że w ten sposób ewaluacja dorobku naukowego kraju staje się coraz bardziej zależna od czynników zewnętrznych. Co wiecej, że w krajach peryferyjnych, takich jak Polska, oparcie się na liście filadelfijskiej wytwarza orientację nauki, która prowadzi do traktowania publikacji w czasopismach zagranicznych jako celu samego w sobie. Skoro globalne wydawnictwa nie okazują specjalnego zaintersowania polskimi realiami, to polscy naukowcy nie będą zajmowali się problemami istotnymi dla polskiej nauki i gospodarki. Mechanizm ten wyklucza także część dorobku z możliwości publikowania za granicą, nie wspominając o barierach wynikajacych z tłumaczenia, które może obniżyć walory nawet najlepszego artykułu. Dlatego trudno odpowiedzieć na pytanie, czy polska nauka będzie rozwijać się szybciej w ramach globalistycznej orientacji, czy pod wpływem wzmocnienia powiązań z praktyką, gdyż zależy to od dyscypliny i specjalności naukowej.
Niepokojący jest wzrost aktywności naukowej pod kątem zdyskontowania za granicą prwadzonych badań, a także chęć zaistnienia tam za wszelką cenę. Preferencje dla obiegu międzynarodowego powodują zaniedbywanie potrzeb kraju finansującego badania naukowe. Zjawisko to jest już widoczne w środowisku akademickim. Nie jest to tylko kwestia etyczna. Rzecz w tym, że finansowanie nauki i bezpłatny transfer wiedzy za granicę wiele kosztuje, a nie przynosi macierzystym uczelniom, ani gospodarce, żadnych korzyści fiansowych. Finansowanie nauki można zatem porównać do beczki bez dna, do której pakuje się ciężkie pieniądze. (Kwestia proporcji finansowania poszczególnych dyscyplin to sprawa zasługująca na odrębną dyskusję.).
Apelując o większe środki dla nauki niekiedy zapomina się o tym, że potrzeby finansowe gospodarki są ogromne, rośnie koszt obsługi zadłużenia obciążający przyszłe pokolenia, zaś możliwości akumulacji są bardzo ograniczone. Zważywszy na fakt, iż środowisko naukowe jest w stanie „przerobić” każdy budżet, środki na naukę są limitowane. Dlatego w świetle zasady racjonalnego gospodarowania, przy ograniczonych środkach publicznych, wydatki na naukę powinny przynosić możliwie największe efekty bezpośrednie i mnożnikowe, przede wszystkim zaś produkt intelektualny nie powinien „wyciekać” za granicę.
W tym kontekście, kwestia publikacji w czasopismach z listy filadelfijskiej jest „odgrzewana” w sposób chrakterystyczny dla początku lat dziewięćdziesiątych. Wówczas najważniejszy był problem wyjścia z izolacji, akceptacji obecności na forum międzynarodowym i włączenia się w światowy nurt badań naukowych. Obecnie, w erze publikacji elektronicznych, lista filadelfijska traci na znaczeniu, zdaje się być lekarstwem na kompleksy środowiska polskiej nauki, które w świetle porównań międzynarodowych są bardziej urojone niż rzeczywiste. Może zatem w miejsce pytania, czy lista filadelfijska jest dobrą miarą efektywności nauki, warto postawić pytanie fundamentalne komu ma służyć nauka, jakie spełniać funkcje i za czyje pieniądze należy ją finansować? Może to przybliży nas do istoty problemu?
3. Realne problemy nauki a zadania państwa
Problem kreowania wartości naukowej w Polsce nie ogranicza się do metod ewaluacji, ani do środków przeznaczonych na naukę. Obszar ewaluacji, baz danych, rejestracji cytatów, list rankingowych itd., wydaje się zadaniem stosunkowo łatwym i możliwym do rozwiązania w ramach systemowej platformy „Nauki polskiej”. Przy obecnych możliwościach informatycznych w zakresie modułowego konstruowania baz danych jest to zadanie w zasadzie techniczne.
Strategiczny charakter ma podniesienie produktywności krajowego potencjału naukowego i zdyskontowanie nakładów na naukę. W miejscu w jakim się znajdujemy, najwżniejszym warunkiem rozwoju nauki jest umiejętność osiągania realnych i wymiernych efektów, inaczej bowiem ponoszone nakłady będą trwonione. Kluczowe znaczenie ma zatem poszukiwanie takich rozwiązań, które będą ukierunkowywać naukę na efekty wymierne dla społeczeństwa i gospodarki. Z punktu widzenia efektywnego zarządzania nauką, lista filadelfijska jest rozwiązaniem zastępczym, dość przypadkowym, kierującym polską naukę na ślepy tor, który niestety oddala relację efektów od nakładów.
Aby zwiększyć produktywność nauki, apele o współpracę z praktyką są niewystarczające. Punktem wyjścia jest społeczna misja nauki wyrażająca się poprzez jej funkcje w społeczeństwie i w gospodarce narodowej. Te stwierdzenia brzmią wciąż ogólnikowo, gdyż nie zostały dotąd przełożone przez najwyższe gremia na język zrozumiały, praktyczny, jasno określający to, czego należy od naukowca wymagać, jakie są jego zadania, na czym koncentrować badania podstawowe, jak pomnażać dorobek naukowy o wysokich walorach użytkowych, itd.
Problem użyteczności nauki nabrzmiewa z powodu kryzysu. Wyjście z kryzysu wiąże się z gospodarką opartą na wiedzy, czyli nową ekonomią traktującą wiedzę naukową i twórcze myślenie jako główne czynniki kreowania nowych wartości. Możliwych rozwiązań należy zatem szukać wokół tego mianowicie, jaka jest rola nauki w gospodrce opartej na wiedzy oraz co należy uczynić, aby nauka, poza dydaktyką i spełnieniem indywidualnych aspiracji elity intelektualnej, stała się „parowozem i kołem zamachowym” gospodarki.
Dochodzimy do wniosku, że w 40-milionowym państwie, które posiada wysoki potencjał naukowy, nie ma zadowalającego systemu zarządzania nauką. Skutkiem tego środowisko naukowców czuje się pozostawione nieco na uboczu. Politycy nie umieją włączyć nauki wiedzy do obiegu gospodarczego i obciążają tym zadaniem uczelnie, te zaś oczekują inicjatywy ze strony naukowców. Odczuwa się brak skutecznego moderatora. W efekcie wciąż nie potrafimy powiązać gospodarki z nauką, nie znamy strategicznych celów rozwoju nauki, nie ma mechanizmu wyłaniania programów badawczych, nie ma praktyki współpracy środowisk naukowych, dzielenia programów węzłowych na zadania itd. Nie ma nawet praktyki powoływania rad naukowych w ważniejszych instytucjach państwowych, samorządach czy korporacjach. Nie umiemy mobilizować środków finansowych na rynku, ani komercjalizować wyników badań naukowych, itd. Niewiele dzieje się na tym polu, stąd może uwagę nauki kieruje się na listę filadelfijską.
W tym momencie trzeba podkreślić, że komercjalizacja nauki poprzez traktowanie ludzkiej wiedzy jako produktu rynkowego (towaru) jest dość prymitywną redukcją myślową. Zawsze bowiem aktualne są pytania, czemu dane badania służą i jakie będą ich oczeliwane efekty, czyli wartość społeczna i ekonomiczna, z drugiej zaś strony, jakie wymagania są niezbędne do uzyskania najwyższej produktywnosci kapitału ludzkiego, który zgodnie z prawami socjologii, jest kreatywny tylko w warunkach sprzyjających współpracy, twórczej partycypacji, wysokiej aktywności oraz społecznego uznania dla osiągnięć i godnego wynagradzania pracowników naukowych.
Rynkowe podejście w nauce, podobnie jak w służbie zdrowia, systemie emerytalnym i innych społecznie wrażliwych dziedzinach, nie jest gwarantem rozwiązań racjonalnych, czyli nie tylko efektywnych, lecz także rozumnych i odpowiedzialnych. Jest wiele na to przykładów. Najpierw pod szyldem wolnego rynku usług edukacyjnych pozwolono na rozwój tanich kierunków kształcenia, potem pod wpływem popytu nastąpił rozrost uczelni prywatnych, a obecnie, obserwujemy załamanie się koniunktury na dydaktykę, zaś rozwinęta baza kadrowa i materialna uczelni nie została przekierowana na rozwój badań naukowych. Mechanizm rynkowy powoduje straty, które można przewidzieć i im zapobiec. Redukcja wiedzy naukowej do kategorii towaru świadczy o niechęci organów państwa i instytucji publiczych do rozwiązywania tych kwestii, których w żaden sposób nie rozwiąże rynek.
Wygląda na to, że wskutek dążenia do komercjalizacji nauki, nikt nie poczuwa się do obowiązku zarządzania badaniami naukowymi w skali kraju, nikt też nie podejmuje odpowiedzialności za treść i użyteczność programów badawczych realizowanych przez uczelnie. W konsekwencji oszczędności w sektorze publicznym, zwłaszcza w zakresie badań podstawowych, oraz trudności oceny efektywości pracy kilkudziesięciu tysięcy pracowników naukowych, którzy w niemałej części osiągnęłi poziom światowy, może wkrótce doprowadzić do bezrobocia w środowisku pracowników naukowych.
Dlatego związek pomiedzy funkcjami nauki a rolą państwa, które finansuje naukę powinien być jasny i klarowny. Państwo gospodarując kasą publiczną, przeznacza środki na naukę, stwarza warunki do rozwoju, itd., ma zatem także obowiązek wyznaczania kierunków badań społecznie użytecznych, w tym koordynacji badań, zagospodarowania potencjału naukowego, wykorzystania wiedzy i jej ochrony prawnej. Zatem, trzeba wiedzieć, co nauki np. ekonomiczne oferują państwu? Komu i w jakim celu są potrzebne efekty pracy naukowców? Jeżeli państwo płaci za naukę, to jakie ma z tego korzyści. Jeżeli za naukę płaci sektor komeryjny, to zapewne jasno formułuje swoje oczekiwania i płaci za uzyskane wyniki. Nie ma wątpliwości, że to państwo powinno stworzyć mechanizm, który umożliwi wykorzystanie efektów pracy naukowców. Ministerstwo unika tego zadania, być może dlatego, że problem ma rangę ponadministerialną. Trzeba wreszcie to zrobić przy udziale środowiska naukowego. Nie będę podejmował tu próby precyzowania zasad takiego systemu, gdyż jest to temat odrębny, ważny i wymagający kompleksowego rozwiązania, „od wejścia, do wyjścia”.
Podsumowanie
Można być pewnym, że za kilka lat zostanie policzona efektywność finansowania obecnego modelu nauki. Ocena ta może być bardzo surowa, gdyż bez stosowanego systemu trudno będzie zmierzyć korzyści z poniesionych nakładów. Lista filadelfijska jako model finansowania i ewaluacji efektów dorobku naukowego stawiająca za cel transfer dorobku naukowego do zagranicznego obiegu nie jest zbyt przemyślany, a nawet etycznie dwuznaczny, gdyż poprzez finansowanie publikacji naukowych następuje pompowanie krajowych środków publicznych do prywatnego biznesu zagranicznego. Oznacza to brak umiejętności zagospodarowania potencjału naukowego przez państwo.
Zgłaszanie postulatów, aby wydawać na naukę jeszcze więcej, gdy nie widać efektów, nie ma racjonalnych podstaw. W kwestii efektywności nakładów na naukę, koncepcja gospodarki oparta na wiedzy nie jest traktowana zbyt poważnie. Wygląda na to, że nie jesteśmy do tego dostatecznie przygotowani, państwo kiepsko płaci naukowcom, mnoży obowiązki administracyjne, lecz niewiele czyni i niewiele wymaga. Wszystko to nienajlepiej świadczy o polityce państwa względem nauki jako kluczowej gałęzi gospodarki, spycha naukę na drugi plan w długookresowym rozwoju społeczno - gospodarczym.
Warto naśladować rozwiązania w tych krajach, w których gospodarka ma charakter innowacyjny, zaś nauka przynosi realne, wymierne efekty. Dlatego ogromnym uproszczeniem jest sprowadzenie orientacji rozwoju naukowego i ewaluacji dorobku na podstawie publikacji w czasopismach z listy filadelfijskiej. W końcu wydajemy ogromne pieniądze na naukę, zaś efekty są zbyt skromne. Kluczowa zatem jest odpowiedź na fundamentalne pytanie, jaka winna być rola państwa w programowaniu rozwoju nauki, warto dodać - państwa obywatelskiego, służebnego wobec społeczeństwa i gospodarki, nie zaś „stróża nocnego”.
Jan Komorowski
Kolegium Zarządzania i Finansów
Szkoła Główna Handlowa w Warszawie
***
ODPOWIEDŹ AUTORA
Po publikacji artykułu otrzymałem dziesiątki listów z poparciem dla spraw, które poruszyłem. W skrócie sytuacja wygląda tak: żeby dostać grant trzeba mieć odpowiednią liczbę punktów – żeby mieć odpowiednią liczbę punktów trzeba mieć wcześniej grant. Koło się zamyka. Nic więc dziwnego, że beneficjenci systemu będą jego gorącymi obrońcami – a ci z zewnątrz jego krytykami.
Z listą filadelfijską jest trochę tak jak z polską piłką nożną. Oczywiście chcielibyśmy, żeby jak najwięcej polskich drużyn grało w lidze europejskiej. Ale żeby tak się stało poziom ligi krajowej musi być też dostatecznie wysoki. Podobnie liczba polskich pism naukowych na liście jest pochodną przeciętnego poziomu polskiej nauki, a nie faktu, że mamy kilku mistrzów - Lewandowskich i Błaszczykowskich - w pismach światowych. Niska przeciętna jest głównym problemem polskiej nauki.
Autorzy listów traktują mój artykuł jako emocje rozżalonego redaktora naczelnego. Zastanawiałem się, czy poruszać wątek naszego spadku z listy, ale uznałem, że zupełnie inną wymowę ma artykuł zewnętrznego obserwatora, a zupełnie inną kogoś, kto w tym świecie uczestniczył (byłem przez pewien czas też edytorem renomowanego pisma amerykańskiego). Broniłem do końca naszej obecności na liście, ale miałem świadomość, że nawet odstąpienie edytorów Thomsona od tej decyzji będzie oznaczało najwyżej odroczenie nieuchronnego wyroku. Szczerze mówiąc, obecnie żadne polskie pismo bez „dopingu” nie ma szansy na dłuższy pobyt na liście. W tym sensie nie przemawiało przeze mnie rozżalenie – jest nawet odwrotnie, czasy olbrzymiej presji autorów na druk w „Przeglądzie Elektrotechnicznym” (zarówno krajowych jak i zagranicznych) wspominam dziś jako koszmar, a spadek jako powrót do normalności.
Jeden z autorów słusznie zauważa, że za obecnością na liście idą konkretne korzyści, w tym i finansowe, na przykład z subskrypcji przez biblioteki. Czy tak trudno powiązać to z faktem, że na 8 tys. pozycji na liście 3 tys. to pisma amerykańskie, podczas gdy nauka rosyjska jest reprezentowana przez tylko 138 tytułów? Oczywiście, świat się nie zawali jeśli nie będzie na liście żadnego polskiego pisma – ale tak jak nasz przemysł jest głównie miejscem taniej siły roboczej dla zagranicznych koncernów, tak wraz z upadkiem polskich pism naukowych nasze uczelnie i instytuty badawcze staną się tylko miejscem drenażu mózgów.
Autorzy komentowanych przeze mnie listów z trudem ukrywają satysfakcję, że nam się nie udało. Jeśli mam stosunek emocjonalny, to właśnie do tego aspektu sprawy. Gdy dostaliśmy się na listę spotykaliśmy się z jawnymi aluzjami, że musieliśmy sobie to jakoś załatwić. Recenzenci wniosków awansowych często zauważali, że wprawdzie wnioskodawca ma publikacje w piśmie z listy, ale przecież to tylko (!) polskie pismo, i na dodatek z końca listy. I jakkolwiek samocytowania miały swoje obiektywne przyczyny, to najbardziej boli, że polscy autorzy nie potrafili być dumni z tego, że polskie pismo jest na liście i wstydzili się swoich w nim publikacji.
Prof. dr hab. Sławomir Tumański
Politechnika Warszawska
Instytut Elektrotechniki Teoretycznej
i Systemów Informacyjno Pomiarowych
Redaktor naczelny „Przeglądu Elektrotechnicznego”