„AI staje się naszym wirtualnym sparingpartnerem”
Czy dziennikarstwo może skorzystać na wynalazkach takich jak ChatGPT? Menedżerka ds. innowacji DW Marie Kilg mówi o szansach i zagrożeniach związanych ze sztuczną inteligencją.
Od kiedy ChatGPT zaprezentował całemu światu potęgę sztucznej inteligencji, także w Niemczech trwają intensywne dyskusje na temat zastosowania modeli AI. Marie Kilg jest dziennikarką i menedżerką ds. innowacji w Deutsche Welle (DW). Wyjaśnia, co może a czego nie może technologia, jakie kryje w sobie zagrożenia i czy może ona w dłuższej perspektywie zaszkodzić dziennikarstwu.
Pani Kilg, w jaki sposób AI stosowana jest w pracy redakcyjnej?
Na początku ustalmy: Nie istnieje „jedna konkretna AI“. Zautomatyzowane dziennikarstwo istnieje już od dłuższego czasu, korzysta się z niego na przykład podczas opracowywania informacji giełdowych i sportowych. Generatywne narzędzia AI, które zyskały ostatnio na popularności za sprawą ChatGPT, potrafią więcej, mogą redagować teksty, pisać artykuły, a nawet generować zdjęcia. W niemieckim dzienniku taz istnieje obecnie comiesięczna kolumna z tekstami wygenerowanymi przez fikcyjną postać AI, którą stworzyłam wraz z zespołem. Kolejny, mniej codzienny przykład: W audycji „Münchner Runde” Bawarskiego Radia, robot Pepper przy wsparciu programu ChatGPT dyskutował z obecnymi w studiu gośćmi.
Jakie korzyści niesie z sobą sztuczna inteligencja dla dziennikarzy?
Z jednej strony wyręcza nas w części zadań, tych mniej inspirujących i dość czasochłonnych. Pomaga na przykład w transkrypcji nagrań z wywiadów. Odpada więc ręczne przepisywanie. Dzięki temu, mamy więcej czasu na poszukiwanie informacji. Z drugiej strony, ChatGPT może pomóc nam tworzyć skrypty i konspekty tekstów, zawierające najważniejsze informacje w punktach. To bardzo usprawnia pracę, a niektórym osobom pomaga nawet przezwyciężyć brak weny, ponieważ mają już właściwie szkic tekstu, który trzeba tylko indywidualnie dopracować. To wszystko sprawia, że AI staje się naszym wirtualnym sparingpartnerem.
Oprogramowanie AI nie potrafi odróżnić faktów od fikcji. Jakie niesie to z sobą zagrożenia?
Jeżeli trzymamy się dziennikarskich standardów, sztuczna inteligencja nie jest bardziej niebezpieczna od wyszukiwania w Google lub poszukiwania informacji w Wikipedii. Niebezpieczeństwo pojawia się dopiero wówczas, gdy ludzie korzystają z technologii nie rozumiejąc, z czym naprawdę pracują i gdzie leżą jej granice. Poza tym owszem, AI może być wykorzystywana także w złej wierze. Najlepszy przykład: fake newsy. Musimy się przed tym bronić.
Kto odpowiada w przypadku, gdy sztuczna inteligencja się pomyli?
Rozwój postępuje tak szybko, że prawodawstwo wciąż jeszcze za nim nie nadąża. W dyskusjach dotyczących etycznej strony AI oraz w mediach panuje zgodność co do tego, że człowiek nie może całkowicie przerzucić odpowiedzialności na sztuczną inteligencję. Agencja prasowa dpa opublikowała ostatnio wytyczne w zakresie korzystania z AI, które przewidują na przykład, że AI może być stosowana „wyłącznie pod nadzorem człowieka“.
Czy to znaczy, że dziennikarze zostaną w dłuższej perspektywie pozbawieni pracy?
Zawody ciągle się zmieniają, także w dziennikarstwie. Któż by kilka lat temu pomyślał, że twórca TikTokowy może stać się zawodem dziennikarskim? Musimy być świadomi, że sztuczna inteligencja jeszcze silniej wpłynie na sposób pracy dziennikarzy. Jednak istnieje także dobra wiadomość: zasadniczy model dziennikarstwa się utrzyma. W dalszym ciągu potrzebujemy bowiem ludzi, którzy zadadzą sobie trud, by tłumaczyć złożone kwestie w taki sposób, aby inni mogli je zrozumieć i wyrobić sobie na tej podstawie opinię, by aktywnie kształtować społeczeństwo.