Eksperymenty z wykorzystaniem sztucznej inteligencji w mediach mogą zakończyć się sukcesem lub katastrofą — wszystko zależy od tego, kto trzyma ster.
W dobie kryzysu lokalnych redakcji, AI kusi obietnicą oszczędności, ale nieostrożne korzystanie z niej prowadzi do utraty wiarygodności. Najnowsze przykłady z USA i Włoch pokazują dwa przeciwstawne oblicza cyfrowej rewolucji w dziennikarstwie.
Algorytm zamiast człowieka – kosztowne złudzenie
Na pierwszy rzut oka wszystko wyglądało obiecująco. Wakacyjna wkładka „Heat Index: Your Guide to the Best of Summer”, stworzona przez King Features z grupy Hearsta i opublikowana w „Chicago Sun-Times” oraz Philadelphia Inquirer, miała być lekka, letnia i informacyjna. Zamiast tego stała się przykładem, jak AI może zawieść, gdy nie towarzyszy jej redakcyjna czujność.
Czytelnicy błyskawicznie wychwycili liczne błędy: fikcyjne cytaty, źródła, które nigdy nie istniały, przypisywanie książek autorom, którzy ich nie napisali. Winowajca? ChatGPT. Autor materiału przyznał, iż większość treści stworzył dzięki tego narzędzia, bez weryfikowania danych. Dziennik nie zaprzeczył — tekst przeszedł minimalną kontrolę redakcyjną.
„Chicago Sun-Times” próbowało załagodzić sprawę, nazywając sytuację „momentem nauki” i zwracając uwagę na gwałtowne zmiany, jakie przechodzi w tej chwili dziennikarstwo. „Nasza praca ma wartość, ponieważ stoi za nią człowiek”, napisano w oświadczeniu redakcji.
Tymczasem to właśnie brak redakcyjnego zaangażowania i całkowite poleganie na AI doprowadziły do jednej z bardziej kompromitujących publikacji ostatnich miesięcy. W realiach, w których redakcje redukują etaty, cięcia budżetowe są normą, a deadline’y coraz ciaśniejsze, pokusa użycia AI jako „łatwego wyjścia” rośnie.
Ale jak pokazuje przykład „Heat Index”, takie rozwiązania są ryzykowne i w dłuższej perspektywie mogą zrujnować reputację medium.
Włoski eksperyment z AI – inne podejście, inny wynik
Całkowicie inny rezultat przyniosła przygoda włoskiego dziennika „Il Foglio” z tą samą technologią. Gazeta jako pierwsza na świecie stworzyła pełne wydanie dziennika wygenerowane przez AI.
Różnica? Projekt trwał miesiąc i był ściśle nadzorowany przez dziennikarzy. To oni formułowali pytania do ChatGPT, weryfikowali odpowiedzi, korygowali stronniczości i dbali o spójność z redakcyjną linią.
Rezultat zyskał przychylność czytelników i fachowców. Redaktor naczelny Claudio Cerasa nie miał wątpliwości: sztuczna inteligencja może być przydatna, jeżeli potraktuje się ją jak redakcyjnego asystenta, a nie taniego substytuta reportera. „Il Foglio” planuje wdrożenie cotygodniowej sekcji tworzonej przez AI, ale każdy artykuł ma być wyraźnie oznaczony jako wygenerowany maszynowo.
Cerasa ostrzega jednocześnie przed pokusą redukowania kosztów kosztem jakości. Wskazuje, iż kryzys dziennikarstwa lokalnego – wynikający z małej liczby etatów, niskich pensji i uzależnienia od freelancerów – nie powinien być powodem do powierzania całej pracy algorytmom.
Jego stanowisko jest jednoznaczne: AI powinna wspierać redakcje, a nie je zastępować. „Każdy, kto myśli, iż to sposób na oszczędzanie pieniędzy, jest w błędzie” – mówi jasno.
AI nie naprawi dziennikarstwa bez ludzi
Przypadek „Heat Index” to nie tylko kompromitacja konkretnego tekstu, ale też sygnał ostrzegawczy dla całej branży. Technologia może zwiększyć efektywność, ale źle wdrożona — zniszczy zaufanie odbiorców. Generatywna sztuczna inteligencja kusi szybkością, ale zbyt często owocuje materiałem chaotycznym, nieprecyzyjnym, a czasem wręcz nieprawdziwym.
Profesor dziennikarstwa Tom Rosenstiel ostrzega przed błędami epoki internetu, które redakcje mogą powtórzyć z AI. Nie chodzi o bezrefleksyjne przyjmowanie treści tworzonych przez maszyny, ale o inteligentne i odpowiedzialne integrowanie narzędzi.
AI powinna wspierać lokalne dziennikarstwo, a nie je zastępować – np. przez tworzenie botów monitorujących lokalne dane o przestępczości, podsumowujących dokumenty publiczne czy wspomagających przeprowadzanie wywiadów.
Rosenstiel wskazuje dwa warunki sukcesu: po pierwsze, gotowość redakcji do odpowiedzialnego wdrażania nowych technologii; po drugie, zachowanie redakcyjnej transparentności i wysokich standardów.
Dopiero wtedy AI może przynieść realne korzyści – uwolnić dziennikarzy od rutynowych zadań i pozwolić im skupić się na istotnych społecznie tematach.
Druga szansa czy pułapka?
Sztuczna inteligencja może być dla lokalnych mediów drugą szansą – ale tylko jeżeli redakcje wyciągną wnioski z błędów przeszłości i nie dadzą się zwieść iluzji automatyzacji jako remedium na wszystko. Prawdziwe dziennikarstwo wymaga odpowiedzialności, doświadczenia i czujności, których algorytmy nie zastąpią.
Ostatecznie nie chodzi o to, czy AI ma miejsce w mediach, ale o to, kto i jak z niej korzysta. Gdy narzędzie jest używane bezmyślnie, kończy się kompromitacją. Gdy za sterami stoją doświadczeni dziennikarze – efektem może być nowa jakość w informowaniu społeczeństwa. Pytanie, czy branża zdecyduje się na trudniejszą, ale odpowiedzialną drogę, pozostaje otwarte.