Wydawany przez australijską Narodową Agencję Naukową "Cosmos" wykorzystał chatbot GPT-4 stworzony przez OpenAI do napisania sześciu artykułów opublikowanych w lipcu.

Zaniepokojenie ekspertów

Choć pismo nie ukrywało faktu wykorzystania AI, Stowarzyszenie Dziennikarzy Naukowych Australii oceniło, że użycie tej technologii budzi poważne zaniepokojenie.

Reklama

Prezes Stowarzyszenia Jackson Ryan powiedział agencji AFP, że w wygenerowanym przez AI artykule "Co się dzieje z naszym ciałem po śmierci?" niepoprawnie opisano lub zanadto uproszczono procesy naukowe. Na przykład AI opisała oznaki sztywnienia ciała trzy lub cztery godziny po śmierci. Zdaniem Ryana badania naukowe pozwalają na mniej precyzyjne wnioski.

W artykule opisano też autolizę – proces niszczenia komórek przez ich enzymy – jako "samozniszczenie", co według Ryana niewłaściwie określa to zjawisko.

Podważenie zaufania do pisma

Reklama

Ryan podsumował, że nieścisłości w wygenerowanych przez AI artykułach mogą podważyć zaufanie do pisma.

Rzecznik Narodowej Agencji Naukowej powiedział, że treść wygenerowana przez AI została zweryfikowana przez wyspecjalizowane narzędzie naukowe i wyedytowana przez zespół "Cosmosu".

Szkoda dla dziennikarzy

Pismo skrytykowano również za to, że wykorzystało dotacje dla sektora dziennikarskiego do rozwijania sztucznej inteligencji, co może odbywać się ze szkodą dla samych dziennikarzy.