Dobry zły algorytm

Algorytmy w coraz większym stopniu determinują nasze życie. Czy są pomocne czy niebezpieczne? Wyjaśnia to najważniejsza niemiecka informatyczka.

Czy sztuczna inteligencja rozwiąże nasze problemy?
Czy sztuczna inteligencja rozwiąże nasze problemy? phonlamaiphoto - stock.adobe.com

Pani Profesor, pracuje Pani w dziedzinie socjoinformatyki i zajmuje się algorytmami. Czy może nam Pani krótko wyjaśnić, czym właściwie są algorytmy?

Algorytmy są ogólnymi instrukcjami rozwiązywania problemów. Dobrym tego przykładem jest mnożenie pisemne: Pańska nauczycielka wyjaśniła Panu, jak należy zasadniczo postępować, niezależnie od tego, które dokładnie liczby mają być pomnożone lub jakie są długie. Ta ogólnikowość charakteryzuje dobry algorytm.

Katharina Zweig, profesor informatyki na Uniwersytecie Technicznym w Kaiserslautern
Katharina Zweig, profesor informatyki na Uniwersytecie Technicznym w Kaiserslaut TU Kaiserslautern

Gdzie stosowanie algorytmów jest przydatne i ma sens?

To, co jest dzisiaj rozumiane jako „algorytm”, zazwyczaj wcale nim nie jest. Same algorytmy są bardzo użyteczne i zasadne, ponieważ, jak udowodniono, zawsze znajdują rozwiązanie. Ta gwarancja jest częścią definicji algorytmu. Dziś jednak termin „algorytm” odnosi się głównie do metod maszynowego uczenia się. Te metody wykorzystują statystykę do wyszukiwania w danych wzorów i przekształcają je w decyzyjne zasady. Mniej więcej tak: jeśli wielu pomyślnie zatrudnionych kandydatów ma od 25 do 30 lat, wówczas ta informacja przekształcona zostaje w jedno z kryteriów decyzyjnych przy kolejnej rekrutacji.

To nie jest problem związany z systemem podejmowania decyzji, lecz ze sposobem jego wykorzystania.

Katharina Zweig, profesor informatyki na Uniwersytecie Technicznym (TU) w Kaiserslautern.

Kiedy stosowanie algorytmów staje się problematyczne?

Już na przykładzie świata pracy można zauważyć, że wspomniana zasada niesie ze sobą niebezpieczeństwo dyskryminacji. Tam, gdzie stanowi to zagrożenie, zwłaszcza w przypadku dostępu do świadczeń państwowych lub w świecie pracy, takie systemy podejmowania decyzji, które opierają się na danych, powinny zostać zbadane pod kątem ewentualnej dyskryminacji. Nawiasem mówiąc znajomość kodu nie jest do tego potrzebna. Wystarczy spojrzeć na wyniki dotyczące osób o różnych cechach, takich jak wiek czy przynależność religijna. Niekoniecznie jest to też problem systemu decyzyjnego, lecz sposobu, w jaki jest wykorzystywany. Równie dobrze można by zastosować znalezione wzorce do zrekompensowania niesprawiedliwości.

Za pomocą swojej aktualnej książki „Ein Algorithmus hat kein Taktgefühl” („Algorytm nie ma poczucia taktu”) chce Pani umożliwić laikom „zachowanie kontroli”. Czy to może funkcjonować? 

Tak, wierzę, że każdy to potrafi. My, informatycy i informatyczki, możemy wprawdzie dokonać technologicznego wdrożenia, ale na pytanie, jakie wzory, na podstawie jakich danych algorytm powinien wyszukiwać i co powinno być w tym procesie zoptymalizowane – na to pytanie nie jesteśmy w stanie odpowiedzieć sami. Jeżeli zatem planowany jest system, który ma przewidywać, czy sprawca przestępstwa stanie się recydywistą, społeczeństwo musi zdecydować, czy naprawdę tego chce. A jeśli tak, to czy system powinien być zaprojektowany w taki sposób, aby wykrywał prawie wszystkich recydywistów, czy też lepiej w taki sposób, aby fałszywie podejrzewać jak najmniej resocjalizowanych przestępców. Wymaga to przybliżonej orientacji odnośnie działania takich metody maszynowego uczenia się - i sporej ilości zdrowego rozsądku. A tym dysponują wszyscy ludzie, którzy obserwują świat szeroko otwartymi oczami.

Prof. dr Katharina Zweig kieruje katedrą „Teoria wykresów i analiza sieci złożonych” na Uniwersytecie Technicznym (TU) w Kaiserslautern i jest odpowiedzialna za przebieg studiów na kierunku „Socjoinformatyka”, który zajmuje się wpływem informatyki na społeczeństwo.

Rozmawiał: Martin Orth

© www.deutschland.de

You would like to receive regular information about Germany? Subscribe here: