Dlaczego w przypadku AI dochodzi do uprzedzeń i jak to naprawić? Sztuczna inteligencja szybko rozwinęła się w ciągu zaledwie ostatniego roku. Jednak technologia wciąż boryka się z dużym problemem, który może mieć potencjalnie niszczące konsekwencje w rzeczywistym świecie: uprzedzenia.

    Ludzie mogą mieć ukryte lub jawne uprzedzenia wobec innych na podstawie różnych czynników, takich jak rasa, płeć czy poziom dochodów. Ponieważ to ludzie tworzą modele AI, uprzedzenia w AI naturalnie będą występowały. Modele projektują później stronnicze lub wypaczone wyniki, które odzwierciedlają i utrwalają ludzkie uprzedzenia w społeczeństwie.

    Zobacz: Modele 3D wygenerujesz dziś z AI

    Jednym z powodów, dla których uprzedzenia mogą pojawić się w systemie AI są dane, na których został on wytrenowany. Modele AI używają skomplikowanego zestawu algorytmów do przetwarzania ogromnych ilości danych. Uczą się identyfikować wzorce w danych treningowych, aby identyfikować podobne wzorce w nowych zestawach danych.

    Dalsza część pod materiałem wideo

    Ale jeśli same dane treningowe są stronnicze, model AI może przejąć wypaczone wzorce i wyprodukować podobnie stronnicze wyniki.

    Uprzedzenia w AI to poważny problem

    Załóżmy, że firma chce użyć systemu AI do przeszukiwania podań o pracę i znalezienia najlepszych kandydatów. Jeśli organizacja zwykle zatrudnia więcej mężczyzn niż kobiet i te historyczne dane są używane do trenowania systemu AI, model może być bardziej skłonny do odrzucenia kobiecych kandydatów i oznaczenia męskich kandydatów jako rekomendowanych.

    Podstawowe dane, na których jest wytrenowany system, stanowią efektywnie osobowość tego AI – mówi Theodore Omtzigt, dyrektor techniczny w Lemurian Labs

    Jeśli wybierzesz zły zestaw danych, projektujesz system ze stronniczością.

    dodaje ekspert Theodore Omtzigt

    Mieszanie zestawów danych treningowych niekoniecznie zmniejszy uprzedzenia AI

    Zróżnicowanie danych nie naprawi stronniczych modeli AI. Załóżmy, że trenujesz chatbota AI za pomocą zestawu danych „A”, który jest stronniczy w jeden sposób, i zestawu danych „B”, który jest stronniczy w inny sposób. – Nawet jeśli łączysz zestawy danych z osobnymi uprzedzeniami, to nie oznacza, że te uprzedzenia koniecznie się wzajemnie zniwelują – mówi Omtzigt. – Stworzysz po prostu AI z dwoma uprzedzeniami – dodaje.

    REKLAMA
    REKLAMA

    Każdy zestaw danych jest w pewien sposób ograniczony, a więc stronniczy – mówi Omtzigt

    Co zatem zrobić, aby tworzyć AI, która nie będzie stronnicza? Powinny istnieć osoby lub systemy, które sprawdzają odpowiedzi modelu AI pod kątem potencjalnych uprzedzeń i oceniają, czy te wyniki są niemoralne, nieetyczne czy oszukańcze. Kiedy AI otrzyma taką informację zwrotną, może ją wykorzystać do udoskonalenia swoich przyszłych odpowiedzi.

    AI nie odróżnia dobra od zła

    Uprzedzenia w AI to niel lada wyzwanie, bo sztuczna inteligencja nie rozróżnia dobra od zła. – To ty jako odbiorca tej informacji musisz mieć umiejętności krytycznego myślenia, lub sceptycyzm, aby zapytać: Czy to, co przedstawiasz, to prawda? – mówi ekspert.

    Niektóre organizacje technologiczne tworzące systemy AI mówią, że pracują nad ograniczeniem uprzedzeń w swoich modelach.

    Sprawdź: Na czym polega praca Prompt Engineera

    OpenAI mówi, że wstępnie trenuje swoje modele AI, jak przewidywać najbardziej prawdopodobne następne słowo w zdaniu, używając dużego zestawu danych, który „zawiera części internetu”.

    Jednak modele mogą również przejąć „niektóre z uprzedzeń obecnych w tych miliardach zdań”, jakie znajdziemy w sieci. Aby temu zaradzić OpenAI mówi, że używa recenzentów ludzkich, którzy, stosując się do wytycznych, „dopracowują” modele. Recenzenci podsuwają modelom różnorodne przykłady wejściowe, a następnie oceniają i analizują odpowiedzi modelu AI.

    Podobnie Google mówi, że używa swoich własnych „Zasad AI” oraz opinii i ocen dokonywanych przez ludzi, aby poprawić swojego chatbota AI Bard. Na razie jednak uprzedzenia to problem, który występuje i w najbliższej przyszłości będzie występował w przypadku AI.

    Czytaj też: