Nauka

Jakie są cele polityki naukowej w Polsce?

Kilka słów o stosowaniu wskaźników naukometrycznych.

Po lipcowym rozporządzeniu Ministra Nauki w sprawie oceny jednostek naukowych w Polsce, we wrześniowej prasie ukazały się dwa artykuły, jeden krytykujący zasady rankingu jednostek (prof. Andrzej K. Wróblewski - Gazeta Wyborcza) i drugi krytycznie oceniający ogólny poziom naszych badań naukowych (prof. Grzegorz Gorzelak - Polityka). Oba opierają się na bezkrytycznie zastosowanych przez MNiSzW (oraz jego agend NCN i NCBiR) wskaźnikach naukometrycznych: tzw. współczynniku cytowalności - oceniającym poziom czasopism, w których publikuje się prace naukowe na podstawie średniej liczby referencji w literaturze oraz współczynniku Hirsha, który ocenia poziom cytowania prac określonego badacza.  Zgadzając się w części z niektórymi tezami obu autorów chciałbym jednak zasadniczo polemizować z przyjęciem zasady wskaźników jako remedium na bolączki polskiej nauki i sugerować, że forsowany przez Ministerstwo system ocen opartych wyłącznie na tych wskaźnikach prowadzi politykę naukową w Polsce na manowce. Stanowisko podobne do mojego ma w Polsce swoich zwolenników (m.in. prof. Mirosław Soroka, Politechnika Wrocławska), ale ich głos nie przebija się do świadomości decydentów.

System oceny wskaźnikami naukometrycznymi nie dotyczy tylko nauki polskiej i jest w ostatnich latach ostro krytykowany w światowych czasopismach naukowych najwyższej rangi (Nature 2010, 465: 870-872 i 860-866; oraz 466: 179; PNAS 2010, 107: 21233; TIEE 2012, 27:473) oraz przez profesjonalnych statystyków, którzy dowodzą nieadekwatności jego założeń (Statistical Science 2009, 24: 1–14). Stosunkowo najlepszy system oceny pracy naukowej stosuje się m.in. w USA, W. Brytanii i Szwecji, gdzie oprócz wskaźników wyniki badań są oceniane merytorycznie przez niezależnych recenzentów. Dlatego też reakcja amerykańskich profesorów: Z. Dautera, W. Minora i A. Włodawera na artykuł prof. Gorzelaka w Polityce (patrz strona internetowa TP) nie osądza polskich osiągnięć naukowych tak surowo jak prof. Gorzelak. Zresztą sposoby mierzenia sukcesu na Zachodzie są częściowo weryfikowane przez rynek - jeżeli coś jest innowacyjne, to jest kupowane.

Głównym argumentem przeciwko używaniu wskaźników naukometrycznych do oceny wartości prac naukowych jest fakt, że zostały one  przygotowane do porównywania jakości czasopism naukowych, a nie badań w nich publikowanych. Statystycy udowodnili, że liczba niekontrolowanych parametrów takiej oceny dyskwalifikuje ją m.in. przy porównywaniu wyników w subdyscyplinach dziedzin naukowych (w moim przypadku - biologii) czy między grupami badawczymi różnej wielkości. Oczywiście, wskaźniki te są wygodne dla administratorów nauki, ponieważ w jakiś sposób "klasyfikują" badaczy i osiągane przez nich wyniki. Pozostaje pytanie: ile w tak określonym sukcesie naukowym jest szczęścia (wynikającego na przykład z faktu dostania się do lepszego zespołu badawczego, który więcej publikuje) lub pasji do "modnego tematu" czyli pracy w dyscyplinie, która ma większy współczynnik cytowalności (np. w tej chwili biologia molekularna, a nie etologia)? Na dodatek ważne są autocytowania w modnych dziedzinach i w wybranych przez akademików pismach! Wikipedia podaje 10 zastrzeżeń do używania współczynnika Hirsha w celu porównania jakości publikacji naukowych badaczy - prawie żaden z nich nie został uwzględniony w rozporządzeniu Ministra Nauki. Nie mówiąc o tym, że czwarta najczęściej cytowana praca w Google Schoolar jest opublikowana w czasopiśmie, które w ogóle nie znajduje się na liście współczynników cytowalności!

Innym często przytaczanym argumentem przeciwników rankingów naukometrycznych jest dynamika zmian mierzonych parametrów w krótkim okresie czasu. W szczególności współczynniki cytowalności małych czasopism, reprezentujących niszowe dyscypliny podlegają dużym wahaniom co uniemożliwia planowanie, w którym z nich publikować, z wyprzedzeniem. Notabene, lipcowe rozporządzenie ministerstwa opiera tabele współczynników cytowalności, które zaczną obowiązywać od przyszłego roku na danych z lat 2005-2009 (!!). Przez trzy ostatnie lata niektóre czasopisma przestały istnieć, a niektóre notują stały wzrost. Konia z rzędem temu kto potrafi przewidzieć ile punktów dostanie za złożoną rok wcześniej publikację.

Zła ocena badań naukowych przy pomocy wskaźników naukometrycznych prowadzi do określonych następstw w strukturze nauki. Duże jednostki badawcze, a w nich duże zespoły naukowe mają większą "produkcję" naukową, a więc lepsze wskaźniki i otrzymują przez to większe dotacje oraz więcej grantów - i spirala rozwarstwienia się nakręca. Wiele z tych prac jest zresztą powielanych i ukazują się w mało zmienionej formie w wielu czasopismach (punktowany SPAM!). Czasem myślę, że za większą od trzech rocznie liczbę prac doświadczalnych naukowcom należałoby odejmować punkty! W nauce chodzi przecież o nowe odkrycia, które mogą być dziełem małej grupy lub nawet pojedynczego badacza i jednej ważnej pracy (od razu zastrzegam, że nie jestem przeciw inwestowaniu w wyspecjalizowane, wysokiej klasy centra naukowe - o czym pisał AKW).

Nauka światowa dzieli się w tej chwili na rozwijaną w krajach mocno inwestujących w nowoczesne badania i technologie oraz tę uprawianą w krajach o słabym rozwoju techniki i nauki. Nadzieją dla tych uboższych są tematy, które w bardzo bogatych krajach nie budzą zainteresowania. Jeżeli polskie Ministerstwo Nauki będzie nadal bezmyślnie stosować naukometrię, czyli promować tematy modne na świecie (o aktualnie dużych  współczynnikach cytowalności), to zawsze będziemy epigonami rozwoju naukowego ze względu na opóźnienie punktacji naukometrycznej w stosunku do zmieniających się trendów naukowych. Odwrotnie, jeżeli Ministerstwo w sposób aktywny pomogłoby środowisku określić tematy, które są oryginalne w Polsce lub potrzebne w strategii Jej rozwoju i na nie ukierunkowało większe pieniądze, to nasze badania mogłyby mieć znaczenie w skali światowej. Mamy silne tradycje w kilku naukach podstawowych (nie wiem jak jest w naukach humanistycznych i społecznych). Według mnie całkowicie brakuje strategii, która pozwalałaby nam zidentyfikować te dziedziny, w których moglibyśmy przodować na świecie.

Nie może być oczywiście tak, że naukowiec jest „świętą krową” – dostał doktorat i do emerytury może zajmować się "czystą nauką". We współczesnym świecie sponsorzy (czy to podatnicy, poprzez instytucje państwowe, czy prywatni darczyńcy) coraz większy nacisk kładą na aplikacyjność badań naukowych. W Stanach Zjednoczonych państwo przeznacza na naukę 0,3% dochodu narodowego - nasze 0,5%, i nie jest to mało (trzeba pamiętać, że w USA dodatkowe 1,5% pochodzi od darczyńców prywatnych, co w sumie daje ok. 2%). Czy polska nauka zwraca społeczeństwu te nakłady poprzez zastosowania innowacyjne wyników badań? Moim zdaniem - nie. Niekompetencja i brak aktywności urzędników w Ministerstwie oraz ich uległość dla lobbingu przedstawicieli „modnych” (i przez to silnych) kierunków naukowych oraz wielkich uczelni to główne powody braku innowacyjności polskiej nauki. A mamy w Polsce specjalistów, którzy o tym mówią – np. prof. Andrzej Rabczenko (Centrum Transferu Technologii i Rozwoju Przedsiębiorczości Politechniki Warszawskiej) od trzydziestu lat powtarza jak nasze know how sprzedać przemysłowi. Przemysł nie jest jednak nim zainteresowany z powodu braku środków na tego typu cele, a ministerstwo nie proponuje szerokiego systemu programów wspierających.

Reasumując - bez mądrej i dalekowzrocznej polityki naukowej nie będziemy mieli w Polsce szybkiego wzrostu innowacyjności.

 

Prof. Andrzej Wróbel, neurofizjolog

Więcej na ten temat
Reklama

Czytaj także

null
Kraj

Interesy Mastalerka: film porażka i układy z Solorzem. „Szykuje ewakuację przed kłopotami”

Marcin Mastalerek, zwany wiceprezydentem, jest także scenarzystą i producentem filmowym. Te filmy nie zarobiły pieniędzy w kinach, ale u państwowych sponsorów. Teraz Masta pisze dla siebie kolejny scenariusz biznesowy i polityczny.

Anna Dąbrowska
15.11.2024
Reklama