Firmy i instytucje planujące wdrożenie sztucznej inteligencji, oprócz aspektów związanych z etyką i ochroną danych osobowych, muszą również zadbać o standardy, które wyeliminują ryzyko szkodliwych decyzji podejmowanych przez systemy AI.

 REKLAMA 
 SOLEMIS 
 
Sztuczna inteligencja to technologia stworzona przez człowieka, który ma w swojej naturze tendencję do uprzedzeń i bycia stronniczym. Na co dzień korzystamy z konstrukcji myślowych, uproszczonych schematów i wyobrażeń, które pomagają nam porządkować otaczającą nas rzeczywistość. Twórcy rozwiązań AI muszą brać pod uwagę te uwarunkowania, gdyż subiektywna interpretacja danych może mieć wpływ na informacje wyjściowe, którymi zasilane są systemy AI. Dane dobrane w sposób tendencyjny prowadzą do błędnych, a nawet szkodliwych wyników. W związku z dynamicznym rozwojem i rosnącym wykorzystaniem systemów AI w różnych sektorach gospodarki, ważna jest świadomość tych zagrożeń i praca nad ich ograniczeniem.

Błędy w edukacji uczenia maszynowego

Uczenie maszynowe, będące dziedziną sztucznej inteligencji, pozwala na tworzenie samodoskonalących się systemów, które „uczą się” na podstawie dostarczanych danych. Technologia ta początkowo korzysta z danych treningowych, dzięki czemu można dopracowywać modele analityczne, tak aby z biegiem czasu prezentowały coraz bardziej precyzyjne wyniki. Pierwsze pakiety informacji są przygotowywane przez człowieka, który już na początku decyduje o doborze danych wyjściowych i kierunku, w którym będzie ewoluował system. Jeżeli już w początkowej fazie rozwoju modeli system przyjmie błędne założenia, jego późniejsze wnioski również nie będą właściwe.

Zasilenie systemu niepełnymi lub błędnymi danymi, które wpłyną na to, że wyniki analiz będą stronnicze to dopiero początek problemu. Nie udało się jeszcze opracować rozwiązań, które potrafiłyby same się naprawiać. Przeciwnie, istnieje duża szansa, że system będzie stawał się coraz mniej obiektywny. Technologia, którą obecnie dysponujemy, ogromna moc obliczeniowa i zaawansowane algorytmy pozwalają maszynom podejmować tysiące decyzji w ciągu minuty. Niestety oznacza to, że małe błędy szybko się rozrastają i z czasem zaczynają stanowić realne zagrożenie dla wyników analiz, które mogą prowadzić do złych decyzji.

Różnorodność w projektach AI

Odpowiedzialny rozwój sztucznej inteligencji wymaga różnorodności. Wprowadzane dane muszą uwzględniać na przykład różne grupy wiekowe, etniczne czy społeczne. Dlatego już na etapie tworzenia zespołów pracujących przy projektach AI, należy o to zadbać. Takie podejście umożliwia spojrzenie na dany problem z różnych perspektyw, co przełoży się na większą różnorodność wprowadzanych danych.

Brak różnorodności już na etapie zasilania systemu danymi może sprawić, że użytkownicy końcowi nie będą mogli korzystać z rozwiązania AI, np. gdy system nie uwzględnia różnic pomiędzy poszczególnymi akcentami. Użytkownik z Irlandii będzie mówił po angielsku zupełnie inaczej niż Amerykanin. Korzystając z chatbota może mieć trudności z załatwieniem swojej sprawy, gdy system nie rozpozna jego akcentu. Takie doświadczenie skutecznie zniechęci go do dalszych kontaktów z firmą, co w szerszej perspektywie może stanowić poważną przeszkodę w budowaniu dobrych doświadczeń i lojalności klienta. Jak wynika z badania SAS Experience 2030: Has covid-19 created a new kind of customer?, 34% konsumentów w regionie EMEA jest gotowych skorzystać z usług konkurencji już po pierwszym złym doświadczeniu z daną firmą.

To jeden z przykładów, który obrazuje ryzyka i wyzwania, które muszą być brane pod uwagę przy projektowaniu, rozwoju, wdrażaniu i wykorzystaniu sztucznej inteligencji. Dlatego warto być na bieżąco, poszerzać wiedzę i śledzić najlepsze praktyki w zakresie rozwoju rozwiązań AI.

Źródło: SAS Institute

PRZECZYTAJ RÓWNIEŻ:


Back to top