Internetowa rewolucja u bram nauki

Bartosz Paszcza | 08-12-2016 10:11:45 | zajmie Ci przeczytanie tego artykułu
Internetowa rewolucja u bram nauki
www.flickr.com/photos/re-publica/

Obraz naukowca jako samotnika dokonywującego w zaciszu pokoju samodzielnie wielkiego odkrycia jest równie realistyczny, co wyretuszowane cyfrowo ciała modelek na bilbordach. Nauka jest przedsięwzięciem kolektywnym. Im szybciej zdamy sobie z tego sprawę i przy użyciu nowych technologii upublicznimy nie tylko efekty, ale również przebieg pracy naukowej, tym szybciej na tym skorzystamy. A najwięcej zyska na tym sama nauka.

Rozwój filozofii, historii oraz socjologii nauki i techniki odkrywa prawdziwy stan rzeczy: system naukowy jest ogromnym wysiłkiem kolektywnym, którego podstawą jest wymiana wiedzy między tysiącami badaczy. Za każdym wielkim odkryciem stoi długa historia mało spektakularnych badań i konferencji, trafnych bądź nie hipotez, dyskusji, debat oraz publikacji, w których bierze udział rzesza nieznanych szerzej badaczy. My znamy jednak zazwyczaj tylko ostatnie ogniwo tego procesu – osobę, która najczęściej miała po prostu szczęście we właściwym miejscu i czasie napisać dosłownie parę odpowiednich słów.

Przykładem jest choćby odkrycie bozonu Higgsa. W 1964 r. ukazały się trzy prace na ten temat, napisane w sumie przez sześciu autorów. Praca Petera Higgsa z tamtego roku nie była nawet pierwszą w kolejności. O tym, że to jego nazwisko przeszło do historii zdecydowały detale – uznaje się powszechnie, że kluczowe było jedno dodatkowe zdanie w jego oryginalnej publikacji, którego zabrakło w pozostałych dwóch pracach.

Nauka: praca zbiorowa

W historii nauki od dawna obserwowany jest ten ciekawy efekt: odkrycia czy wynalazki bardzo często pojawiają się niezależnie w paru miejscach na świecie w podobnym czasie. Dlaczego? Najprościej wytłumaczyć to w taki oto sposób: postęp naukowy i techniczny nie wynika z geniuszu jednostki, ale z mozolnego „dokładania cegiełek” do budowy gmachu ludzkiej wiedzy przez wielu badaczy. Pojawianie się odkrycia równolegle w paru miejscach oznacza tylko osiągnięcie pewnej „masy krytycznej”, umożliwiającej dokonanie przełomu.

Nauka jest wysiłkiem kolektywnym, nie indywidualnym, dlatego potrzebuje efektywnego systemu rozpowszechniania zdobywanej wiedzy wewnątrz społeczności akademickiej. Problem polega jednak na tym, że ten obecny, oparty o wydawców naukowych czasopism i książek, jest przestarzały, powolny oraz nie weryfikuje odpowiednio jakości treści.

Przede wszystkim, o ile w swoich początkach w XVII w. wprowadził nowy standard otwartości i wymiany wiedzy, dzisiaj w połączeniu z modelem ewaluacji pracy naukowej promuje on postawę indywidualistyczną, a nie kolektywną. Naukowcom nie opłaca dzielić się zebranymi danymi czy stworzonymi narzędziami w obawie, że ktoś inny wyciągnie z nich wartą publikacji treść. Podobnie często opłaca się wyniki badania podzielić na parę artykułów lub zwyczajnie je podkoloryzować w celu zebrania większej ilości punktów. Skonstruowany w ten sposób system naukowy traci efektywność i – co gorsza – rzetelność. Potrzebujemy głębokiej zmiany i nadchodzi ona wielkimi krokami, szkoda tylko, że rodzima polityka naukowa wydaje się jej nie zauważać.

Na szczęście mamy nowe narzędzia do wykorzystania: Internet, algorytmy, nowe formaty przekazu wiedzy. Dają one szansę na uczynienie komunikacji naukowej szybszą, bardziej otwartą oraz rzetelną. Obecnie od momentu rozpoczęcia badania do opublikowania książki czy artykułu mijają miesiące, a często lata. Publikowanie na bieżąco, w formie otwartego dziennika dostępnego online czy bloga, umożliwi otwarcie badania na konsultacje naukowej społeczności od dnia jego rozpoczęcia, czyniąc cały proces prawdziwie kolektywnym. Poza włączeniem tego typu publikacji do dorobku naukowego należy także zacząć wspierać dzielenie się stworzonymi naukowymi narzędziami, oprogramowaniem czy zebranymi danymi. Oczywistym jest bowiem fakt, że na upublicznieniu tego typu efektów naukowej pracy skorzysta cała społeczność, należy jednak twórcę odpowiednio wynagrodzić – przy czym mowa tu o docenieniu jego pracy w toku ewaluacji, a nie płaceniu mu pieniędzy. Wreszcie: rzetelność. Publikowanie na bieżąco otwarte na komentarze społeczności oraz udostępnienie wykorzystanego oprogramowania czy zebranych danych wesprze przejrzystość procesu naukowego, umożliwiając lepszą jego weryfikację niż przez obecny, kulejący system recenzji artykułów naukowych.

Zanim szerzej poruszę temat rozwiązań, warto cofnąć się do przyczyn niewydolności obecnego systemu. Jedną z nich jest masowość. Rosnące skomplikowanie problemów badawczych spowodowało w drugiej połowie XX w. umasowienie nauki. Z poziomu tysięcy badaczy na całym świecie przeskoczyliśmy do poziomu kilkunastu czy kilkudziesięciu milionów. Budżety naukowe wzrastały w zawrotnym tempie.

Obecnie w Internecie znajdziemy około 160–165 milionów prac naukowych i co roku liczba ta rośnie o kolejnych parę milionów. Wśród wszystkich parających się badaniami od zarania dziejów aż 90% żyje w czasie obecnym.

Ilustracją procesu tego ogromnego wzrostu skali nauki niech będą pewne zdjęcie oraz publikacja. Zdjęcie pochodzi ze słynnego piątego kongresu Solvaya z 1927 r., dotyczącego fizyki kwantowej. Wzięło w nim udział zaledwie dwadzieścia dziewięć osób, z których aż siedemnaście – w tym Maria Skłodowska-Curie czy Albert Einstein – wcześniej lub później sięgnęło po Nagrodę Nobla.

Artykuł naukowy, w którym po raz pierwszy w 2012 r. eksperymentalnie oszacowano masę nowo odkrytej cząstki, bozonu Higgsa, ma 5154 autorów. Naukowa treść zajmuje w nim piętnaście stron, sama lista twórców – kolejne dwanaście. Oczywiście większość z nich nie napisała choćby słowa, ale wzięli udział w różnych etapach eksperymentu, który odbył w Wielkim Zderzaczu Hadronów w ośrodku CERN.

Trudno nie zauważyć pewnej prawidłowości. Z jednej strony spotkanie dwudziestu dziewięciu osób – prawie wszystkich na świecie zajmujących się wówczas fizyką kwantową. Wśród nich siedemnastu noblistów i noblistek, którzy swoje badania wykonywali zazwyczaj na przestrzeni jednego laboratorium, przy fizycznym współudziale ledwie paru dodatkowych osób. Z drugiej strony jedno odkrycie, na które pracować musiało ponad pięć tysięcy ludzi, ich narzędzie pracy składało się m.in. z podziemnego tunelu o obwodzie 27 km, czyli nieznacznie mniej niż długość obydwu linii warszawskiego metra (29,2 km). Samo wyposażenie laboratorium kosztowało około 30 mld zł.

Przy właściwie niezmienionej od XVII w. formie i długości publikacji naukowych – w postaci książki lub artykułu – oznacza to również przynajmniej proporcjonalny wzrost ilości publikowanych rezultatów naukowych. Przybywa ich obecnie w tempie paru milionów rocznie. Wielu naukowców zwraca uwagę na to, że ilość publikacji ukazujących się w ich dziedzinach jest tak duża, że brakuje im czasu na przyswojenie większości z nich. Nic w tym dziwnego – trudno oczekiwać, żeby metoda przekazu wiedzy wymyślona dla kilkuset osób w XVII w. pozwalała na efektywną wymianę informację pomiędzy milionami w XXI w. Z jakiegoś przecież powodu zamiast gołębi pocztowych używamy światłowodów.

Sama masowość nie jest przyczyną problemów naukowych.

Wzrost liczby publikacji wynika także z faktu, że naukowiec obecnie rozliczany jest z liczby publikacji i ilości cytowań jego prac. Powoduje to wyścig szczurów, mający na celu umieszczenie jak największej ilości artykułów w jak najwyżej cytowanych periodykach, co często określane jest popularnym wśród naukowców zawołaniem: „publikuj albo zgiń!”. Nauka stała się pogonią za publikacją kolejnych prac, jej prawdziwy cel po drodze wyrzuciliśmy jak pudełko po big macu z okna BMW na krajowej siódemce.

Klęska urodzaju

Kluczowym etapem w procesie cyrkulacji wiedzy naukowej jest sprawdzenie, czy napisany artykuł zawiera wyniki rzetelnie przeprowadzonych badań, które zasługują na wejście do naukowej literatury. Do tej pory weryfikacja jakości publikacji naukowej opierała się o anonimową recenzję artykułu proponowanego do publikacji przez innych badaczy. Z wielu powodów wydaje się, że ten model weryfikacji jakości pracy przestał spełniać swoją funkcję. Zdołam tutaj przedstawić zaledwie parę z nich.

Z roku na rok rośnie liczba artykułów wycofanych z obiegu po publikacji z powodu oszustwa lub kardynalnych błędów, które nie zostały wyłapane przez recenzentów. Wyniki, które przeszły proces recenzji i ukazały się także w renomowanych czasopismach, okazują się być często niemożliwe do powtórzenia przez innych badaczy.

Chociaż skala problemu jest nadal dyskutowana, przedstawię parę liczb zmuszających do zajęcia się nim na poważnie. Wyniki badań opublikowanych w „Science” w 2015 r. pokazywały, że na 100 przeanalizowanych artykułów w dziedzinie psychologii wyniki udało się powtórzyć jedynie w 39 przypadkach. „Nature” z kolei doniosło o wynikach ankiety przeprowadzonej na próbie 1500 naukowców różnych dyscyplin: 70% z nich próbowało bez skutku powtórzyć wyniki badań innych badaczy, ponad połowie przynajmniej raz nie udało się powtórzyć swojego własnego eksperymentu. Co drugi badacz uważa problem powtarzalności wyników za poważny kryzys.

W świetle powyższych informacji zdziwiłbym się, gdyby kogoś zaskoczyła wiadomość, że system często odrzuca dobre treści, a pozwala na publikację złych. Bardzo często artykuły o badaniach, za które później przyznano Nagrody Nobla, były przez recenzentów odrzucane, z kolei prace zawierające plagiaty czy poważne błędy rzadko w czasie recenzji są identyfikowane. Redaktor jednego z medycznych czasopism, „The Lancet”, Richard Horton, nazwał system recenzji „nieobiektywnym, niesprawiedliwym, nieobliczalnym, niekompletnym, obraźliwym, zazwyczaj ignoranckim, czasami głupim i często złym”. Bardzo trudno jest znaleźć dowody na zaprzeczenie tej wyliczance. Sito procesu recenzji naukowej przestało zapewniać wiarygodność publikowanej naukowej wiedzy, tym samym podważając rzetelność całej nauki.

Z czego wynika fakt, że jeden badacz nie potrafi zweryfikować pracy innego? Kompletna odpowiedź jest o wiele bardziej skomplikowana, ale podstawowym problemem jest fakt, że czasochłonna praca recenzenta nie jest w żaden sposób wynagradzana przez wydawcę ani doceniana w ewaluacji naukowej. Pewnym, przynajmniej doraźnym lekarstwem byłoby stworzenie infrastruktury cyfrowej umożliwiającej łatwe zebranie informacji o recenzencie, jego recenzji oraz dalszych losach artykułu. W telegraficznym skrócie, potrzebny jest – przepraszam za internetowy żargon – „globalny unikalny identifykator” naukowca, rodzaj naukowego numeru PESEL.

Ilość pieniędzy przeznaczanych na badania naukowe w XX w. rosła błyskawicznie i wszystko wskazuje na to, że skomplikowanie problemów badawczych będzie powodować jedynie dalszy wzrost kosztów. W związku z tym potrzebne są narzędzia oceny badań oraz jakości pracy naukowców. Nauka musi także udowodnić swoją przydatność dla społeczeństwa – w końcu konkuruje o środki publiczne z innymi społecznymi wydatkami.

Jak zmierzyć jakość pracy naukowej? To zagadka trudniejsza od znalezienia potwora z Loch Ness i tylko trochę prostsza od ustalenia odpowiedzi na sens życia. Do oceny jakości potrzebny jest swego rodzaju wzór idealnego badacza, który w nauce właściwie nie istnieje. Poszerzanie wiedzy ludzkości jest przecież sztuką wymagającą kreatywności nie mniejszej niż malarstwo czy tworzenie muzyki. Filozof nauki Paul Feyerabend wyraził tę mnogość możliwych podejść do problemów naukowych w prostych słowach: jeżeli chodzi o proces naukowy, to „wszystko ujdzie”. Nie ma jednego wzorca naukowca.

Problem w tym, że aktualnie parametryczna ocena bierze pod uwagę jedynie liczbę publikacji i ich cytowania, a więc tylko małą część wykonywanej przez badacza pracy. Przeciwnicy tej metody ewaluacji najczęściej wskazują, że lepszym wyjściem jest tak zwana ocena ekspercka, czyli manualna recenzja całości dorobku naukowego przez innego naukowca. Problemy związane z tym sposobem są dwojakie. Po pierwsze, jest horrendalnie droga w przeprowadzeniu. Brytyjska ocena ekspercka z 2014 r. była – bagatela – jakieś pięćset razy droższa niż polska ewaluacja parametryczna przeprowadzona rok wcześniej. W sytuacji chronicznego niedofinansowania polskiej nauki przestawienie się na ocenę parametryczną odpowiadałoby kupieniem pięknej tortownicy za pieniądze przeznaczone na samo ciasto: wyzwanie sprawiedliwego „dzielenia kawałków (grantowego) tortu” przestałoby istnieć, ale wątpię, by zgromadzonych to uszczęśliwiło. Drugi problem dotyczy oceny samych oceniających. Eksperci wciąż są tylko ludźmi i nawet w tak rozbudowanym systemie jak brytyjski okazuje się, że – w porównaniu do znormalizowanej liczby cytowań – wydają się dużo wyżej cenić prace z informatyki teoretycznej niż stosowanej. Być może wynika to z faktu, że teoria zawsze sprawia wrażenie większego wyzwania intelektualnego, być może nie jest przypadkiem, że teorią często zajmują się starsze i bardziej renomowane uniwersytety. Niezależnie od przyczyn ocena ludzka podatna jest na stronniczość. Potrzebujemy punktu odniesienia do jej weryfikacji i jedynym kandydatem jest zebranie z sieci danych o czytelności, cytowalności, komentarzach, recenzjach, wspomnieniach w legislacji czy mediach artykułów danego autora.

Szybko, publicznie, w dialogu

To nie koniec możliwości, jakie daje zmiana metody komunikacji z papierowego druku na sieć internetową, powstałą przecież właśnie w celu usprawnienia naukowej wymiany wiedzy. Cyfrowa forma pozwala znieść sporą większość barier, które wcześniej wydawcy musieli narzucać chcącym publikować naukowcom ze względu na konieczność druku na papierze. Tym bardziej szkoda, że znacznej części tego potencjału jeszcze nie wykorzystujemy.

Artykuły naukowe wciąż przygotowywane są tak, jakby miały być drukowane na papierze: przybierają format zdefiniowany przez wydawcę, a przesyłane są w formie gotowych do druku plików w formacie .pdf. Nie uświadczymy w nich bardziej zaawansowanych wizualizacji, wideo, dźwięku czy interaktywnych grafik, pomimo że technicznie nic nie stoi na przeszkodzie wykorzystania takich materiałów do lepszego przedstawienia procesu badawczego. Celem nadchodzących zmian jest wykorzystanie potencjału, jaki daje metoda natychmiastowego ogłoszenia wyników pracy całemu światu, brak limitów objętości publikacji związanych z koniecznością druku oraz powstała przez cyfryzację możliwość dzielenia się efektami pracy w innych formatach.

Z przedstawionych problemów i szans wynikają trzy trącące banałem zasady, które legną u podstawy nowej komunikacji wyników naukowych: szybciej, taniej, lepiej.

Taniej. Ten akurat postulat jest już realizowany poprzez politykę tzw. otwartej nauki – brak konieczności druku i dystrybucja artykułów w Internecie powoduje spadek kosztów wydawania treści. Równolegle, korzystając z „trzymania w łapie” naukowego prestiżu w postaci renomowanych czasopism, wydawcy nieustannie podnoszą ceny subskrypcji periodyków. Właśnie od publikacji w renomowanych czasopismach bezpośrednio (na skutek ewaluacji parametrycznej) albo pośrednio (zdobywając prestiż naukowy) zależy dalszy przebieg indywidualnej kariery badacza. W czasach, kiedy telewizja, gazety czy tygodniki ledwo wiążą koniec z końcem ze względu na wzrost znaczenia Internetu, wydawcy naukowi potrafili zwiększyć swoje zyski do poziomu – w przypadku wydawnictwa Elsevier – aż 37%.

Alternatywą jest tzw. otwarty (zielony) dostęp, czyli zezwolenie na udostępnienie przez naukowca ostatniego, zrecenzowanego już artykułu naukowego w tzw. repozytorium naukowym. To rozwiązanie jest metodą nacisku na wydawców w celu obniżenia ich opłat, ale z drugiej strony jest także krytykowane – ciężar utrzymania infrastruktury cyfrowej, odpowiednie tagowanie artykułów oraz udostępnianie ich metadanych (autora, roku publikacji czy afiliacji) zostałby przeniesiony z wydawców na instytucje naukowe.

Wielkie firmy umiejętnie jednak lobbują za odpowiednimi dla siebie rozwiązaniami. Smutnym przypadkiem jest proponowany przez polskie Ministerstwo Nauki i Szkolnictwa Wyższego projekt ustawy o zasadach finansowania nauki. Ruch Społeczny Obywatele Nauki zwrócił uwagę, że z nowego projektu usunięto zdanie wymagające od realizujących państwowe granty badawcze z NCN czy NCBiR publikacji wyników w otwartym dostępie. Zastąpiono je bardzo ogólną i niewiele znaczącą wzmianką o konieczności zapewnienia dostępu do nich przez internet, co nie wyklucza w żaden sposób publikacji w czasopismach wymagających subskrypcji. Kto na tej zmianie zyskuje? Na pewno wydawcy. Kto traci? Nasza nauka – w czasie rosnącego fermentu i postępujących zmian systemowych polska polityka naukowa z rozmachem czyni w tym wymiarze ambitny krok w tył.

Co zamiast druku?

Z pytaniem dotyczącym roli czasopism związane jest kolejne: jak będzie wyglądać nowa forma publikowania wiedzy? Wspominałem, że artykuły i książki nie wykorzystują możliwości, jakie daje cyfryzacja i Internet. Próbą poszukiwania odpowiedzi jest ruch tzw. Nauki 2.0. U podstaw inicjatywy leży obserwacja, że obecna kultura dzielenia się efektami swojej pracy naukowej promuje skoncentrowanie się na publikacji jedynie małego wycinka zdobywanej w procesie badawczym wiedzy, czyli wyników i wniosków, które w dodatku upubliczniane są ze sporym opóźnieniem.

Wykorzystując narzędzia oferowane przez internet, powstała propozycja włączenia do dorobku naukowego różnych typów publikacji. Informacje mogą być upubliczniane przy użyciu otwartego dziennika (rodzaju bloga, w którym na bieżąco opisuje się postępy badawcze), naukowych sieci społecznościowych i portali dyskusyjnych (np. ResearchGate, Academia.edu). Dodatkowo Internet daje możliwość udostępnienia danych zgromadzonych w trakcie badań (tzw. otwarte dane) lub np. stworzonych na użytek naukowy programów (choćby przez repozytorium gitHub). Zamiast samych wyników i oględnego opisu metodologii do światowego obiegu trafiają w ten sposób także narzędzia, zebrane w czasie badań dane oraz na bieżąco relacjonowana jest ewolucja samego badania. Wszystko to otwarte zostaje na krytykę i komentarze właściwie wszystkich naukowców z dziedziny na całym świecie. Tym samym system komunikacji w wydaniu Nauki 2.0 zaczyna wspierać wspomniany we wstępie kolektywizm wysiłku badawczego. Badanie, zamiast być konsultowane w wąskim gronie współpracowników z laboratorium czy współautorów pracy, staje się nagle otwarte na całą globalną społeczność naukową.

Poszerzenie definicji dorobku naukowego i upublicznienie większej ilości wyprodukowanej treści zwiększy globalną efektywność pracy naukowej. Badacz w innym rejonie świata, pracując nad podobnym projektem, nie musi wymyślać „koła od nowa”, ale może skorzystać z dostępnych informacji, np. może wykorzystać udostępnione narzędzia, takie jak oprogramowanie komputerowe czy zgromadzone przez innych dane badawcze. Zamiast tracić czas na pisanie takiego oprogramowania od pierwszej linijki, może go dostosować do swoich potrzeb oraz udoskonalić, z czego następnie skorzysta reszta społeczności.

Istnieje więc realna szansa, że cyrkulacja wiedzy naukowej będzie następować szybciej (ponieważ postępy prac relacjonowane będą na bieżąco), a także taniej (by prowadzić badania, nie będziemy musieli płacić tysięcy dolarów wydawcom za dostęp do publikacji czy konieczność wydrukowania ich na papierze).

Szybciej i taniej. Ale czy na pewno lepiej?

Owszem, możemy wykorzystać internet do stworzenia metody otwartej recenzji przez społeczność, czegoś w swej istocie podobnego do komentarzy pod produktem na Allegro czy Amazonie. Pod opublikowanym postem, zbiorem danych, artykułem czy narzędziem naukowym stworzyć można miejsce na dyskusję i komentarze, z których najlepsze mogłyby być wyróżniane przez społeczność. To oczywiście tylko jeden z pomysłów. Alternatywną drogą podąża m.in. platforma F1000Prime, która wykorzystuje komentarze i oceny wystawiane przez grono sześciu tysięcy nieanonimowych członków do stworzenia rzetelnej oceny artykułu już po jego publikacji. Jeszcze inną platformę konwersacji zapewniają akademickie sieci społecznościowe, które umożliwiają przeniesienie dyskusji odbywających się do tej pory głównie na tematycznych konferencjach do Internetu. Same komentarze, dyskusje i recenzje również powinny być zaliczane do dorobku naukowego ich autora, zmniejszając w ten sposób polityczny nacisk na samo publikowanie, a doceniając czytanie prac innych oraz włączenie się w naukowe debaty online. Z ewaluacji naukowca, biorącej pod uwagę jedynie wyniki jego pracy, przeszlibyśmy do ewaluacji oceniającej zarówno same wyniki, jak i aktywność w procesie naukowym. Trudno chyba znaleźć przeciwników czynienia oceny bardziej kompleksową. Jednak jak to zrobić?

Internetowa wymiana informacji pozwala zgromadzić dodatkowe wiadomości o ich wykorzystaniu. Już powstało grono tzw. alternatywnych metryk (ang. altmetrics). Do tego grona należą m.in. indeksy liczące ilość ściągnięć dokumentów (ImpactStory), programy pozwalające zarządzać indywidualną kolekcją artykułów i odnotowujące informacje o podkreśleniach i notatkach w tekście (np. Mendeley), portale odnotowujące ilość dyskusji wokół publikacji m.in. na Twitterze, Wikipedii czy blogach naukowych (Altmetric.com). Stanowią one ciekawe źródło danych poszerzające naszą wiedzę o dokonaniach naukowych badacza. Poprzez stworzenie infrastruktury umożliwiającej łatwe zebranie takich informacji w jednym miejscu zarówno ewaluacja parametryczna, jak i ekspercka stanie się łatwiejsza oraz tańsza.

Warto zastanowić się nad jeszcze jednym aspektem całego procesu. Zwiększanie ilości publikowanych treści spowoduje jeszcze większą ilość artykułów, postów czy komentarzy, z którymi pojedynczy naukowiec będzie musiał się zaznajomić w ramach swojej pracy. W kontekście problemu z selekcją wartościowych treści spośród już i tak zbyt dużej ilości publikowanych artykułów, trzeba się zastanowić, czy przypadkiem nie stanie się to próbą gaszenia pożaru przy pomocy benzyny.

Otóż niekoniecznie. Zwróćmy uwagę na postępy, jakie w selekcji treści naukowej robią algorytmy i sztuczna inteligencja. Na podstawie podobieństw treści dwóch publikacji, sieci ich autorów i współautorów, dziedziny publikacji czy osób, które cytowały lub ściągnęły obydwa artykuły algorytmy potrafią ocenić „podobieństwo”, czyli powiązanie tematyczne. Oczywiście, technologie pozostają wciąż w fazie rozwoju i przykładowo miałyby o wiele większy problem z publikacjami w języku polskim, a nie angielskim. Algorytmy, które już bardzo często są pożyteczne (np. rekomendują artykuły do przeczytania w serwisach takich jak Mendeley, Academia.edu czy Sparrho), będą wówczas mogły być jeszcze szybciej udoskonalane. Istnieje realna szansa, że to właśnie algorytmy pomogą wydobyć nas z pułapki natłoku zbyt dużej ilości treści.

Czas na (kolejny) przełom

Żeby zrozumieć, jak istotną rolę w zmianie komunikacji naukowej pełni i będzie pełnił Internet, powinniśmy się cofnąć do podobnie istotnej zmiany sprzed setek lat. A mianowicie do pierwszej rewolucji naukowej, która w XVII w. stworzyła fundamenty nauki, jaką obecnie znamy.

Do tamtego momentu naukowcy właściwie nie mieli powodów, aby otwarcie dzielić się zdobytą wiedzą. Z dosyć egoistycznych pobudek interesujące dla uprawiających wówczas naukę było właściwie tylko udowodnienie, że w osiągnięciu danego rezultatu wyprzedziło się wszystkich innych. Metodą dowodzenia swojego pierwszeństwa było publikowanie anagramów, które rozsyłali do swoich przyjaciół i współpracowników. Kiedy nadchodził czas – o czym decydował sam twórca lub gdy pojawiały się podobne wnioski osiągane przez innego badacza – badacz wysyłał rozkodowaną treść anagramu.

Właściwie każdy naukowiec z początku XVII w. używał tej metody. Wśród nich także ci wielcy, jak Leibniz, Newton czy Galileusz. Robert Hooke w 1676 r. swoje odkrycie opublikował w następujący sposób: „ceiiinossssttuv”, co później zostało odczytane jako łacińskie ut tensio, sic vis, czyli „jakie rozszerzenie, taka siła”. Odkrycie to znane jest dziś jako prawo Hooke’a, które dotyczy zależności siły od naprężenia, i każdy licealista uczęszczający do klasy o profilu matematyczno-fizycznym powinien przynajmniej jak przez mgłę pamiętać o jego istnieniu.

Publikacja anagramów była metodą raczej na ukrycie wiedzy niż jej udostępnianie społeczności naukowej. Rewolucję w przekazie wiedzy wprowadziła instytucja naukowego periodyku, z których pierwsze powstały w Paryżu i Londynie w 1665 r.. Pisanie artykułów publikowanych następnie w czasopismach docierających do członków społeczności naukowej stało się nie tyle częścią procesu naukowego, co jego podstawą. Znacząco zmniejszyła także liczbę konfliktów o pierwszeństwo do odkrycia, które stanowiły plagę na początku XVII w.

System periodyków stał się być może „największym otwartym systemem przekazu wiedzy, jaki mógł zostać zbudowany używając siedemnastowiecznych mediów”.

Celem pierwszej rewolucji naukowej u progu XVII w. było otwarcie (upublicznienie) rezultatów badań. Do naukowej rewolucji potrzebne były więc motywacja do zmian oraz nowe narzędzie. W XVII w. motywację do zmian ówczesnej metody komunikacji naukowej zapewniały konflikty pojawiające się wokół autorstwa odkrycia, natomiast narzędziem stała się maszyna drukarska Gutenberga.

Obecnie stoimy u progu kolejnych przemian o podobnej skali. Tym razem chodzi o upublicznienie całości procesu naukowego, a także umożliwienie dostępu do niego bez opłat każdemu zainteresowanemu. Przede wszystkim mamy szansę stworzyć system umożliwiający rzeczywistą mediację kolektywnego wysiłku naukowego – a więc nie tylko prostą publikację zdobytej wiedzy, ale także toczenie wokół niej dyskusji oraz jej rzetelną ocenę przez całą naukową społeczność. Rzeczywistość po prostu wymusza na nas zmiany – obecny filtr jakości oparty o anonimowe recenzje przestaje być skuteczny. Ewaluacja pracy naukowej prowadzi do publikacji „podrasowanych” wyników badań, „cięcia” jednej pracy na parę artykułów, a w najlepszym wypadku – do zalewu przeciętnych prac badawczych, których głównym celem jest nabicie autorowi punktów. Problem z weryfikacją jakości pracy oznacza, że nauka traci wiarygodność w oczach społeczeństwa, a więc tak naprawdę – traci sens.

Rewolucja naszą jedyną nadzieją

Czego potrzebujemy, by do rewolucji doprowadzić? Nie możemy zrzucić odpowiedzialności na samych naukowców, którzy nie są chętni ryzykować angażowania swoich sił w nowe inicjatywy, które w żaden sposób nie są doceniane. Przyjmowanie się otwartego dostępu w początku XXI w. postępowało powoli, dopóki nie pojawiły się narzucone odgórnie przez ustawodawców, agencje grantowe i instytucje mandaty zobowiązujące do publikowania w tym standardzie. Szkoda, że nowy projekt ustawy o finansowaniu nauki sugeruje, że w tym aspekcie Polska w modernizacji nauki zacznie się cofać.

Z taką samą sytuacją mamy do czynienia w kwestii otwierania całości procesu naukowego. Najpoważniejszym hamulcem zmian jest brak zachęty dla badaczy, aby poświęcili swój czas na zadbanie o bardziej efektywną komunikację. Prowadzenie otwartego dziennika bądź upublicznianie danych nie jest do tej pory w żaden sposób doceniane w ocenie dorobku, a są to oczywiście praktyki czasochłonne. Ministerstwo oraz instytucje grantowe winny uwzględnić te elementy w ewaluacji czy aplikacjach grantowych. Aby móc to zrobić, trzeba przede wszystkim opracować zasady ich wykorzystania i standardy nowych form publikacji pokroju bloga czy otwartego dziennika. Z ich strony powinna także wyjść inicjatywa stworzenia infrastruktury umożliwiającej taką wymianę myśli, od portali umożliwiających publikację naukowych dzienników przez systemy komentarzy, unikalne identyfikatory pozwalające powiązać post z konkretnym naukowcem, aż po miejsca zbierające wszystkie możliwe metadane w jednym miejscu. Brak debaty na te tematy w Polsce świadczy o pewnym opóźnieniu – przykładowo w Wielkiej Brytanii wdrażany jest już jeden standard identyfikatora, ORCID.

Czy mamy dużo czasu? Jeżeli przy bardzo ograniczonym procencie PKB przeznaczanym w Polsce na badania naukowe chcemy kompletnie nie odpaść ze światowej wspólnoty badawczej, to nie mamy go w ogóle. Stary schemat przekazu naukowej wiedzy zaczyna się walić. Znamiennym symptomem jest istnienie strony sci-hub.org, która półlegalnie udostępnia za darmo artykuły naukowe, do których dostęp jest ograniczany subskrypcją.

Niezależnie od wyniku wytoczonego w tej sprawie przez wydawców procesu, złożony przez zirytowaną na brak dostępu do ważnych dla niej prac dwudziestodwuletnią Rosjankę Aleksandrę Elbakjan najpewniej będzie tym, czym dla rynku muzycznego był Napster, pierwszy program darmowej wymiany muzyki, który mimo zamknięcia po procesach sądowych, stał się pierwszym kamieniem lawiny i zmienił rynek muzyczny nie do poznania.

Sci-Hub jest bowiem tylko symptomem tego, że stary system przekazu naukowej wiedzy jest nieodwracalnie zepsuty. Dziś serwis zawiera około 50 milionów artykułów naukowych. Ściągnięcia publikacji pochodzą ze wszystkich krajów świata – nie tylko z państw, w których uniwersytetów nie stać na subskrypcję. Trudno o lepszy dowód, na globalny charakter wysiłku naukowego i na globalny kryzys systemu przekazu wiedzy. Pozostając przy wyliczeniach ekonomicznych, czy Polskę naprawdę stać, żeby w nowych naukowych przemianach ciągnąć się w ogonie postępu już od samego początku?

Artykuł pochodzi z 45. teki Pressji pt. „Inny uniwersytet jest możliwy”. Zachęcamy do kupna numeru oraz prenumeraty pisma.

Podziel się artykułem:

Bartosz Paszcza
Członek redakcji jagielloński24. Doktorant studiów nad Siecią na Uniwersytecie Southampton w Wielkiej Brytanii. Zajmuje się badaniem wzajemnych relacji na linii Internet-społeczeństwo.

Napisaliśmy już 1871 tekstów

Robimy to dla Ciebie, zupełnie za darmo. Nie blokujemy treści, nie zakrywamy portalu banerami. Sami tego nie lubimy. Zamiast sprzedawać Twoje kliknięcia, stawiamy sprawę jasno: Potrzebujemy Twojego wsparcia, by utrzymać portal. Liczymy na Ciebie.

INNA KWOTA

Nagłe odejście głowy państwa pociąga za sobą zmiany dla całego narodu, a czasem wywraca nawet ład międzynarodowy.

Gdy państwo traci głowę

Gdy państwo traci głowę

Agnieszka Szolc

Badania przeprowadzone przez Microsoft wykazały, że regularnie korzystający z Internetu potrafią utrzymać koncentracje o sekundę krócej niż złota rybka.

Pokolenie tl;dr

Pokolenie tl;dr

Igor Wesołowski

Nawet jeśli wpiszemy sobie chrześcijaństwo jako religię państwową do konstytucji, to nic to nie zmieni w naszym życiu.

Grabowski OP: Tylko prawda wyswobadza z lęku

Grabowski OP: Tylko prawda wyswobadza z lęku

Krzysztof Mazur
Następny artykuł:

Bończa-Tomaszewski: Narodowość oznaczała emancypację

Bończa-Tomaszewski: Narodowość oznaczała emancypację