„Ciche poprawki” i wstyd wydawców. Sztuczna inteligencja coraz mocniej kompromituje naukę

W świecie nauki narasta cichy kryzys związany z nieujawnionym wykorzystaniem sztucznej inteligencji. Setki publikacji zawierają fragmenty wygenerowane przez ChatGPT, często bez wiedzy recenzentów i wydawców. Eksperci alarmują: bez pełnej transparentności zaufanie do badań może zostać poważnie podważone. „Nature” alarmuje: ukryte użycie ChatGPT w badaniach Skala wątpliwości dotyczących wykorzystywania sztucznej inteligencji w publikacjach naukowych rośnie. Jak […] Artykuł „Ciche poprawki” i wstyd wydawców. Sztuczna inteligencja coraz mocniej kompromituje naukę pochodzi z serwisu Warszawa W Pigułce.

Kwi 29, 2025 - 17:29
 0
„Ciche poprawki” i wstyd wydawców. Sztuczna inteligencja coraz mocniej kompromituje naukę

W świecie nauki narasta cichy kryzys związany z nieujawnionym wykorzystaniem sztucznej inteligencji. Setki publikacji zawierają fragmenty wygenerowane przez ChatGPT, często bez wiedzy recenzentów i wydawców. Eksperci alarmują: bez pełnej transparentności zaufanie do badań może zostać poważnie podważone.

Fot. Pixabay

„Nature” alarmuje: ukryte użycie ChatGPT w badaniach

Skala wątpliwości dotyczących wykorzystywania sztucznej inteligencji w publikacjach naukowych rośnie. Jak podkreśla prof. Artur Strzelecki z Uniwersytetu Ekonomicznego w Katowicach, coraz lepiej widać, jak poważny jest to problem. Najnowsze ustalenia opublikowało prestiżowe czasopismo „Nature”.

Setki prac z chatbotowymi wstawkami

Dziennikarka „Nature”, Diana Kwon, ujawniła, że w setkach artykułów naukowych pojawiają się charakterystyczne zwroty chatbotów, jak „as an AI language model” czy „as of my last knowledge update”. Często są one wklejane bez żadnej deklaracji o użyciu narzędzi AI. To podważa wiarygodność procesu recenzji naukowej i sieje chaos w środowisku akademickim.

Prof. Strzelecki już w 2024 r. opisał podobne zjawisko na łamach „Learned Publishing”. Wykazał wtedy, że nieoznaczone fragmenty generowane przez AI pojawiają się nawet w prestiżowych czasopismach indeksowanych w bazie Scopus. W analizie znalazł aż 89 takich przypadków.

„Ciche korekty” i brak przejrzystości

Problem nie kończy się na nieujawnionym użyciu AI. „Nature” zwróciło uwagę na praktykę „cichej korekty” – usuwania podejrzanych fragmentów z opublikowanych już artykułów bez oficjalnych sprostowań.

– Wydawnictwa orientują się, że przepuściły błędy, ale zamiast poinformować o zmianach, po prostu poprawiają tekst – mówi prof. Strzelecki. – Udało mi się archiwizować oryginalne wersje takich prac, zanim zostały zmienione.

Efekt domina: fałszywe dane w cytowaniach

Nieujawnione wtręty AI są już cytowane przez kolejnych badaczy. To prowadzi do niebezpiecznego zjawiska – błędne informacje są powielane w literaturze naukowej.

– Jeśli praca powstała z pomocą AI, a jej fragmenty nie zostały oznaczone, kolejne osoby mogą uznać je za w pełni wiarygodne. A sztuczna inteligencja potrafi „zmyślać” – ostrzega profesor.

Wydawnictwa reagują, ale problem narasta

Redaktorzy „Nature” skontaktowali się z największymi wydawcami, takimi jak Springer Nature, Taylor & Francis czy IEEE. Wszyscy zapewnili, że sprawdzają wskazane prace. Jednak w wielu przypadkach polityki wydawnicze nadal nie wymagają ujawniania użycia AI, jeśli dotyczy ono wyłącznie korekty językowej.

Ekspert z USA, Alex Glynn, prowadzi nawet własny rejestr takich przypadków. Obejmuje on już ponad 700 publikacji.

Używać, ale świadomie

Prof. Strzelecki podkreśla: sztuczna inteligencja może być przydatnym narzędziem, zwłaszcza dla autorów nieanglojęzycznych. Jednak kluczowa jest przejrzystość.

– Nie pytajmy już, czy korzystać z AI, tylko jak to robić – mówi. – Tam, gdzie chodzi o pomoc w korekcie gramatyki czy stylistyki, można dopuścić użycie AI bez obowiązku deklaracji. Ale jeśli AI analizuje dane lub pomaga w pisaniu treści merytorycznych, autorzy powinni to jasno zaznaczać.

Nowa era publikacji naukowych

Środowisko naukowe stoi przed dużym wyzwaniem. Szybkie rozprzestrzenianie się narzędzi AI zmienia zasady gry. – Już dziś użytkownicy Google dostają wyniki wygenerowane przez sztuczną inteligencję zamiast surowych informacji – zauważa prof. Strzelecki.

Wnioski są jasne: pełna transparentność w wykorzystaniu AI w publikacjach to nie wybór, lecz konieczność, jeśli chcemy utrzymać zaufanie do nauki.

Artykuł „Ciche poprawki” i wstyd wydawców. Sztuczna inteligencja coraz mocniej kompromituje naukę pochodzi z serwisu Warszawa W Pigułce.