Najnowsze badania pokazują, że narzędzia AI są obecnie na tyle zaawansowane, że mogą wprowadzać w błąd wyborców. ChatGPT Plus, Midjourney, kreator obrazów Microsoftu oraz DreamStudio od Stability AI mogą odgrywać niekorzystną rolę podczas nadchodzących wyborów w Stanach Zjednoczonych.

    Według opublikowanego w środę raportu przez Center of Countering Digital Hate (CCDH), organizację non-profit zajmującą się walką z mową nienawiści i dezinformacją w internecie – powszechnie dostępne narzędzia AI są w stanie wytwarzać fałszywe, lecz przekonujące “zdjęcia” związane z wyborami. Zagrożenie wykorzystaniem tych platform do wprowadzania ludzi w błąd jest szczególnie istotne, gdy produkty wchodzą na wyżyny możliwości.

    Midjourney inne narzędzia generujące grafiki mogą wprowadzać w błąd opinię publiczną

    Raport omawia narzędzia takie jak ChatGPT Plus, Midjourney, kreator obrazów Microsoftu oraz DreamStudio od Stability AI, które dominują w segmencie internetu poświęconemu generowanym przez AI obrazom. Obrazy związane z wyborami prezydenckimi w 2024 roku wywołały fałszywe przekonania w 41% przypadków. Gdy narzędzia te zostały poproszone o wygenerowanie ogólnych dezinformacji związanych z głosowaniem (jak zdjęcia kart do głosowania w śmieciach czy członków służb publicznych zastraszających wyborców), produkowały przekonujące zdjęcia w 59% przypadków.

    Fot. CCDH

    Microsoft w opałach

    Zgodnie z CCDH, kreator obrazów Microsoftu okazał się najbardziej winny wśród wszystkich czterech narzędzi: produkował przekonujące, wprowadzające w błąd obrazy w 75% przypadków. Niemniej jednak, wszystkie narzędzia “nie zdołały odpowiednio egzekwować istniejących polityk przeciwko tworzeniu wprowadzających w błąd treści”. Narzędzia faktycznie przestrzegało własnych wytycznych dotyczących dezinformacji, gdy badacze opisywali kandydatów, zamiast wymieniać ich z nazwiska.

    Nie wróży to dobrze przyszłym wyborom – CCDH stwierdziło, że użytkownicy generatywnej AI już zaczęli tworzyć wprowadzające w błąd obrazy związane z głosowaniem. Polecenia wprowadzone do bota Midjourney, wersji Midjourney zintegrowanej z Discordem, są widoczne dla płatnych subskrybentów. Badacze odkryli, że użytkownicy tworzyli obrazy związane z „Bidenem dającym Netanyahu milion dolarów na realistycznym zdjęciu z Izraela” oraz „Donaldem Trumpem aresztowanym, zdjęcie wysokiej jakości, paparazzi” i więcej.

    Czy naprawdę powinniśmy być zdziwieni?

    “To jest sygnał alarmowy dla firm AI, platform mediów społecznościowych i ustawodawców – działajcie teraz lub ryzykujcie amerykańską demokrację”,

    powiedział CEO CCDH, Imran Ahmed.

    Pod koniec lat 10. XXI wieku eksperci od AI i osoby piszące na ten temat zaczęły obawiać się, że te dziwne, eksperymentalne algorytmy pewnego dnia wkradną się do naszej demokracji i psychiki. Wczesne lata 20. pozwoliły nam obserwować, jak te obawy stają się rzeczywistością. Kiedy Meta wprowadziła w zeszłym roku Voicebox, który używa AI do naśladowania mowy dowolnej rzeczywistej osoby, obawialiśmy się, że będzie używany do imitowania celebrytów lub polityków.

    Zaledwie siedem miesięcy później, w odpowiedzi na wprowadzające w błąd, robocalls imitujące prezydenta Bidena, Federalna Komisja Łączności (FCC) zagłosowała za zakazem robocalls, które używają AI do naśladowania czyjegoś głosu. Tymczasem generatory tekstu AI, takie jak ChatGPT i Gemini (wcześniej Bard), okazały się wymyślać i rozpowszechniać fałszywe informacje o realnych osobach. Kwestią czasu było, kiedy fałszywe obrazy również zyskają na znaczeniu.

    Jasną stroną jest to, że fałszywe informacje generowane przez AI skłaniają gigantów technologicznych do opracowywania i wdrażania własnych kampanii przeciwko dezinformacji. YouTube teraz wymaga od twórców ujawnienia, kiedy ich opublikowana treść jest generowana przez AI. Ci, którzy nie przestrzegają tej zasady, mogą spotkać się z usunięciem treści, zawieszeniem w Programie Partnerów YouTube’a oraz muszą liczyć się z karami.

    Czytaj dalej: