Przejdź do treści

Czy sztuczna inteligencja stanie się naszym koszmarem?

08/09/2023 08:00 - AKTUALIZACJA 18/03/2024 13:04
Sztuczna inteligencja może być zagrożeniem

Sztuczna inteligencja stanowi zagrożenie – obecnie bardzo szybko się rozwija i jest w stanie zrobić wiele, a w tym niestety – dyskryminować. Ferda Ataman, niemiecka federalna komisarz ds. przeciwdziałania dyskryminacji, chce stworzyć mechanizm chroniący człowieka przed takim zagrożeniem.
>> Sztuczna inteligencja wychwytuje drogowe wykroczenia. AI coraz bardziej wspiera służby drogowe

Sztuczna inteligencja stanowi zagrożenie

Wszyscy wiemy, że sztuczna inteligencja ułatwia wiele rzeczy, jednak może również stanowić zagrożenie. Tak uważa Ferda Ataman, niemiecka federalna komisarz ds. przeciwdziałania dyskryminacji. Dlatego pod koniec sierpnia przedstawiła w Berlinie raport, którego celem jest udoskonalenie ochrony ludzi przed możliwą dyskryminacją ze strony sztucznej inteligencji.

Powielanie uprzedzeń i stereotypów 

Ataman jako przykłady wykorzystania sztucznej inteligencji przytacza: procedury składania wniosków, uzyskiwanie pożyczek w bankach, ubezpieczenia i dystrybucja świadczeń państwowych, takich jak pomoc społeczna.

„W takich przypadkach decyzje są dokonywane na podstawie cech grupowych” – wskazuje Ataman, opisując sposób działania algorytmów. – To, co na pierwszy rzut oka wydaje się obiektywne, może automatycznie powielać uprzedzenia i stereotypy. Niebezpieczeństwo cyfrowej dyskryminacji nigdy nie należy lekceważyć”.

Tego, do czego może doprowadzić złe wykorzystanie potencjału sztucznej inteligencji doświadczyło w 2019 r. ponad 20 000 mieszkańców Holandii. Zostali oni – pod groźbą wysokich grzywien –  zobowiązani do zwrotu wcześniej otrzymanych zasiłków na dzieci. Częściową winę za ten incydent ponosił algorytm oprogramowania, błąd dotyczył w szczególności osób z podwójnym obywatelstwem.
>> Publikacja zdjęć dzieci w sieci. Dlaczego jest niebezpieczna i jak jest to powiązane z rozwojem sztucznej inteligencji?

Sztuczna inteligencja jest nieprzewidywalna

Raport ekspercki napisany przez prawnika Indrę Spiecker i jej kolegę Emanuela Towfigha opisuje naturę systemów opartych na sztucznej inteligencji jako „czarną skrzynkę”. Niemal niemożliwe jest prześledzenie przyczyn podjętych przez nią decyzji – na przykład w przypadku wspomnianego wcześniej niesłusznego zwrotu zasiłku rodzinnego.

„Specyficznym zjawiskiem związanym z korzystaniem z tego typu systemów jest to, że ich potencjał dyskryminacyjny może być nieodłącznie związany z samym systemem” – czytamy w raporcie. Powodem może być jakościowo wadliwy, błędny, nieodpowiedni do zamierzonych celów lub zniekształcony zestaw danych.

Kod pocztowy przyczyną dyskryminacji? 

W raporcie złożonym przez Ataman możemy przeczytać: „Numer kodu pocztowego, który sam w sobie nie jest cechą dyskryminującą, staje się nią, działając jako swego rodzaju substytut zakazanej cechy pochodzenia – ponieważ z powodów historycznych wielu migrantów mieszka w określonych dzielnicach”.

Może to mieć negatywne konsekwencje dla wszystkich osób, które się tam osiedlają, ponieważ przykładowo przy udzielaniu pożyczek mogą one zostać uznane przez bank za ryzykownych finansowo pożyczkobiorców, którzy mogą nie być w stanie spłacić długu. W rezultacie takie osoby nie otrzymują pożyczki. „Dyskryminacja poprzez statystykę” jest tym, co eksperci nazywają praktyką przypisywania cech i wskaźników za pomocą metod statystycznych, w oparciu o rzeczywiste lub postrzegane średnie dla grupy.

Przeciwdziałanie dyskryminacji

Dla takich i podobnych spraw federalna komisarz ds. przeciwdziałania dyskryminacji chce powołać komisję arbitrażową. Ataman przytacza przerażające przykłady z innych krajów, aby opowiedzieć się za podjęciem pilnych działań. W Stanach Zjednoczonych błędnie zaprogramowane algorytmy w kartach kredytowych systematycznie dyskryminowały kobiety przy udzielaniu im pożyczek. Z kolei w Australii setki tysięcy osób zostało zmuszonych do zwrotu swoich świadczeń socjalnych po błędzie w systemie decyzyjnym wspieranym przez sztuczną inteligencję.

Wniosek Ferdy Ataman z raportu: „Cyfryzacja to przyszłość. Ale nie może stać się naszym koszmarem. Ludzie muszą mieć pewność, że nie będą dyskryminowani przez sztuczną inteligencję”. Dlatego potrzebne są jasne i zrozumiałe zasady, podsumowuje Ataman.
>> Praca z Chatem GPT. Te stanowiska oferują naprawdę wysokie zarobki

Źródło: dw.com, PolishObserver.com