Dlaczego w przypadku AI dochodzi do uprzedzeń i jak to naprawić? Sztuczna inteligencja szybko rozwinęła się w ciągu zaledwie ostatniego roku. Jednak technologia wciąż boryka się z dużym problemem, który może mieć potencjalnie niszczące konsekwencje w rzeczywistym świecie: uprzedzenia.
Ludzie mogą mieć ukryte lub jawne uprzedzenia wobec innych na podstawie różnych czynników, takich jak rasa, płeć czy poziom dochodów. Ponieważ to ludzie tworzą modele AI, uprzedzenia w AI naturalnie będą występowały. Modele projektują później stronnicze lub wypaczone wyniki, które odzwierciedlają i utrwalają ludzkie uprzedzenia w społeczeństwie.
Zobacz: Modele 3D wygenerujesz dziś z AI
Jednym z powodów, dla których uprzedzenia mogą pojawić się w systemie AI są dane, na których został on wytrenowany. Modele AI używają skomplikowanego zestawu algorytmów do przetwarzania ogromnych ilości danych. Uczą się identyfikować wzorce w danych treningowych, aby identyfikować podobne wzorce w nowych zestawach danych.
Dalsza część pod materiałem wideo
Ale jeśli same dane treningowe są stronnicze, model AI może przejąć wypaczone wzorce i wyprodukować podobnie stronnicze wyniki.
Uprzedzenia w AI to poważny problem
Załóżmy, że firma chce użyć systemu AI do przeszukiwania podań o pracę i znalezienia najlepszych kandydatów. Jeśli organizacja zwykle zatrudnia więcej mężczyzn niż kobiet i te historyczne dane są używane do trenowania systemu AI, model może być bardziej skłonny do odrzucenia kobiecych kandydatów i oznaczenia męskich kandydatów jako rekomendowanych.
Podstawowe dane, na których jest wytrenowany system, stanowią efektywnie osobowość tego AI – mówi Theodore Omtzigt, dyrektor techniczny w Lemurian Labs
Mieszanie zestawów danych treningowych niekoniecznie zmniejszy uprzedzenia AI
Zróżnicowanie danych nie naprawi stronniczych modeli AI. Załóżmy, że trenujesz chatbota AI za pomocą zestawu danych “A”, który jest stronniczy w jeden sposób, i zestawu danych “B”, który jest stronniczy w inny sposób. – Nawet jeśli łączysz zestawy danych z osobnymi uprzedzeniami, to nie oznacza, że te uprzedzenia koniecznie się wzajemnie zniwelują – mówi Omtzigt. – Stworzysz po prostu AI z dwoma uprzedzeniami – dodaje.
Każdy zestaw danych jest w pewien sposób ograniczony, a więc stronniczy – mówi Omtzigt
Co zatem zrobić, aby tworzyć AI, która nie będzie stronnicza? Powinny istnieć osoby lub systemy, które sprawdzają odpowiedzi modelu AI pod kątem potencjalnych uprzedzeń i oceniają, czy te wyniki są niemoralne, nieetyczne czy oszukańcze. Kiedy AI otrzyma taką informację zwrotną, może ją wykorzystać do udoskonalenia swoich przyszłych odpowiedzi.
AI nie odróżnia dobra od zła
Uprzedzenia w AI to niel lada wyzwanie, bo sztuczna inteligencja nie rozróżnia dobra od zła. – To ty jako odbiorca tej informacji musisz mieć umiejętności krytycznego myślenia, lub sceptycyzm, aby zapytać: Czy to, co przedstawiasz, to prawda? – mówi ekspert.
Niektóre organizacje technologiczne tworzące systemy AI mówią, że pracują nad ograniczeniem uprzedzeń w swoich modelach.
Sprawdź: Na czym polega praca Prompt Engineera
OpenAI mówi, że wstępnie trenuje swoje modele AI, jak przewidywać najbardziej prawdopodobne następne słowo w zdaniu, używając dużego zestawu danych, który “zawiera części internetu”.
Jednak modele mogą również przejąć “niektóre z uprzedzeń obecnych w tych miliardach zdań”, jakie znajdziemy w sieci. Aby temu zaradzić OpenAI mówi, że używa recenzentów ludzkich, którzy, stosując się do wytycznych, “dopracowują” modele. Recenzenci podsuwają modelom różnorodne przykłady wejściowe, a następnie oceniają i analizują odpowiedzi modelu AI.
Podobnie Google mówi, że używa swoich własnych “Zasad AI” oraz opinii i ocen dokonywanych przez ludzi, aby poprawić swojego chatbota AI Bard. Na razie jednak uprzedzenia to problem, który występuje i w najbliższej przyszłości będzie występował w przypadku AI.
Czytaj też: