śr., 22/04/2026 - 13:00
Kod CSS i JS

Dwie trzecie badaczek i badaczy NCN sprzeciwia się udziałowi generatywnej sztucznej inteligencji w ocenie wniosków grantowych. Jednocześnie 60% uważa, że Centrum powinno dopuszczać jej użycie przy ich przygotowywaniu. To główny wynik sondażu przeprowadzonego przez NCN wśród kierowników projektów składanych w rozstrzygniętych w ciągu ostatnich dwóch lat konkursach OPUS, SONATA oraz PRELUDIUM.

Granica, którą wytyczają sami badacze, przebiega wyraźnie: generatywna AI jako narzędzie redakcyjne, do korekty językowej, tłumaczeń, streszczeń, jest akceptowana. Jako autor koncepcji badawczej lub recenzent wniosku – nie.

Wyniki sondażu pokrywają się ze stanowiskiem NCN z maja 2025 roku, które dopuszcza pomocnicze użycie GenAI przy przygotowywaniu wniosków i zakazuje jej stosowania w ocenie merytorycznej.

Sondaż przeprowadził w październiku 2025 roku Zespół ds. Analiz i Ewaluacji, kierowany przez dr Annę Strzebońską.

Co robią, a czego nie chcą

Z narzędzi GenAI skorzystało 42% ankietowanych. Najczęściej sięgali po nie przy korekcie językowej wniosku (39% wskazań), przygotowaniu abstraktu lub streszczenia popularnonaukowego (18%) oraz tłumaczeniu tekstu (14%).

Ponad połowa badanych (54%) uznała, że narzędzia generatywne nie powinny służyć do tworzenia koncepcji wniosku ani do przygotowywania przeglądu literatury. Niemal co drugi respondent (46%) chce zakazu wykorzystywania AI do opracowywania skróconych wersji wniosku kierowanych do ekspertów.

Widoczne są różnice między konkursami dla badaczy na wczesnym etapie kariery a konkursem otwartym dla wszystkich. W SONATA i PRELUDIUM z GenAI korzystało odpowiednio 49% i 45% wnioskodawców, w OPUS – 37%. Grupy dyscyplin nie różnicują odpowiedzi w istotny sposób, co sugeruje, że narzędzia te funkcjonują już jako element codziennej praktyki badawczej.

Trzy podejścia

Z komentarzy respondentów wyłaniają się trzy stanowiska regulacyjne.

Pierwsza grupa stoi na stanowisku pełnej odpowiedzialności badacza. Argumentacja jest pragmatyczna: zakazy są w praktyce nieegzekwowalne, a agencje finansujące nie dysponują narzędziami pozwalającymi wiarygodnie wykryć użycie AI we wniosku. Wniosek napisany bezrefleksyjnie przez AI będzie nosił ślady schematyczności, które ekspert szybko rozpozna, a przy niskim wskaźniku sukcesu w konkursach NCN taki projekt przepadnie w konkurencji.

Drugie podejście to żądanie całkowitego zakazu. Argumentacja jest etyczna: wniosek grantowy stanowi dowód kompetencji badacza i integralną część jego pracy twórczej. Oddanie pisania maszynie to w ocenie tej grupy forma nieuczciwej konkurencji wobec naukowców pracujących samodzielnie. Jeden z respondentów porównał wykorzystanie GenAI do dopingu w sporcie.

Trzecia, najliczniejsza grupa proponuje „drogę środka". Nie odrzuca technologii, ale oczekuje precyzyjnych zasad jej stosowania i mechanizmów weryfikacji: obowiązkowych deklaracji o użyciu GenAI, rozróżnienia między redakcją językową a generowaniem treści merytorycznych oraz gradacji sankcji za niezgodność deklaracji z rzeczywistym użyciem narzędzi.

Niezależnie od stanowiska regulacyjnego respondenci wskazują to samo ryzyko: wyciek nieopublikowanych pomysłów badawczych do publicznych modeli językowych, które wykorzystują dane użytkowników do dalszego trenowania. Treść wniosku wklejona do publicznego narzędzia w celu korekty językowej może zostać zapamiętana przez jego dostawcę i utracić status poufnej. Środowisko oczekuje rozwiązań gwarantujących kontrolę nad przepływem danych: narzędzi działających w trybie on-premises, z polityką braku retencji danych.

Ocena wniosków: wyraźne „nie"

Stanowisko wobec udziału AI w ocenie wniosków jest znacznie bardziej jednoznaczne niż w przypadku jej użycia przy ich pisaniu. Przeciw jest 67% ogółu respondentów, a wśród laureatów – 72%. Opinia ta jest spójna niezależnie od dyscypliny i wyniku konkursu.

Argumenty wykraczają poza ogólną nieufność. Respondenci powołują się na badania wskazujące, że duże modele językowe powielają uprzedzenia obecne w danych treningowych i preferują treści dopasowane do własnych wzorców, a niekoniecznie wartościowe naukowo. Ocena algorytmiczna premiowałaby wnioski napisane „pod algorytm", a nie wnioski najlepsze merytorycznie. W komentarzach pojawia się też obawa przed nowym rodzajem manipulacji: ukrytymi instrukcjami umieszczanymi w treści wniosku (np. białą czcionką) lub nadmiernym użyciem słów kluczowych.

Jedyne dopuszczalne zastosowania AI po stronie recenzenta to, według respondentów, czynności formalne: sprawdzenie kompletności wniosku, zgodności z kryteriami konkursu, spójności dokumentu. Warunkiem jest pełna odpowiedzialność eksperta za treść recenzji.

Co dalej

Wyniki sondażu będą punktem wyjścia do dalszych prac regulacyjnych NCN. Wskazują trzy obszary, w których środowisko oczekuje doprecyzowania polityki Centrum: mechanizmów jawnego deklarowania użycia GenAI we wnioskach i recenzjach, bezpieczeństwa przetwarzania danych oraz szkoleń dla wnioskodawców i recenzentów, obejmujących także ochronę przed manipulacją narzędziami AI (tzw. prompt injection).

Kierunek przyjęty przez NCN wpisuje się w szerszy europejski standard, w tym rekomendacje Komisji Europejskiej zawarte w dokumencie Responsible Use of Generative AI in Research.

Opracowanie: wyniki sondażu dotyczącego wykorzystania GenAI, przygotowane przez Zespół ds. Analiz i Ewaluacji NCN.