Misją Samurai Labs jest zapobieganie negatywnym zachowaniom w społecznościach online. W tym celu wykorzystujemy proaktywną sztuczną inteligencję (AI), która podejmuje autonomiczne działania w czasie rzeczywistym, aby zapobiec krzywdom zanim się pojawią. Nasza technologia wykrywa i łagodzi różne formy agresji, takie jak cyberprzemoc, nękanie, groźby czy seksizm, zapewniając bezpieczeństwo użytkownikom społeczności online. Dzięki Samurai Labs organizacje mogą prowadzić zautomatyzowaną moderację treści w czasie rzeczywistym, redukując koszty i czas. Oferujemy również rozwiązania, które zmniejszają ryzyko reputacyjne dla reklamodawców, chroniąc społeczności, w których się reklamują.

    Jak to robimy?

    Poleganie wyłącznie na manualnej weryfikacji zgłoszonych naruszeń nie jest skalowalne. Dlatego naszym głównym celem było osiągnięcie wysokiej precyzji wykrywania toksycznych zachowań w społecznościach online, co umożliwia wdrożenie zautomatyzowanych działań mających na celu eliminację szkodliwych interakcji. Gdy wykryjemy cyberprzemoc, możemy natychmiast podjąć działanie, interweniować autonomicznie lub powiadomić moderatorów, zanim zostanie wyrządzona krzywda. To podejście umożliwia szybkie i szeroko zakrojone działania, odróżniające nas od metod opartych na wykrywaniu słów kluczowych czy sztucznej inteligencji opartej na modelach statystycznych, które wymagają manualnej weryfikacji.

    W przeciwieństwie do systemów opartych wyłącznie na dużych modelach językowych lub na słowach kluczowych, w Samurai Labs łączymy duże modele językowe z symbolicznym wnioskowaniem wzbogaconym o wiedzę ekspercką z danej dziedziny. Dzięki temu nasze modele osiągają dziesięciokrotnie niższy poziom wykrywania fałszywie pozytywnych wyników niż powszechnie stosowane rozwiązania. Dzięki czemu możemy reagować w czasie rzeczywistym, niezależnie od rozmiaru chronionej społeczności.

    Z kim współpracujemy?

    Technologia Samurai Labs chroni 59 milionów użytkowników Discorda na ponad 1,3 miliona serwerów, w tym 7. największy serwer – Grand Theft Auto Online, który ma ponad 518 000 użytkowników. Zapewniamy moderację w czasie rzeczywistym podczas największych turniejów esportowych, takich jak IASI 2023, Road to Riyadh i Girl Gamer. W tym roku udzieliliśmy pomocy ponad 25 tysiącom osób w kryzysie samobójczym. Działania te prowadzimy w ramach projektu One Life, który realizujemy we współpracy z serwisem pomocowym „Życie Warte Jest Rozmowy”, przez identyfikowanie osób w kryzysie samobójczym w społecznościach na Reddicie i interweniowanie przez bezpośrednią interakcję z osobą w kryzysie. Interwencje te zaprojektowaliśmy we współpracy z ekspertami z zakresu suicydologii i psychologii (eksperci ZWJR).

    Zmieniający się krajobraz regulacyjny

    26 października 2023 roku brytyjski parlament wprowadził Ustawę o Bezpieczeństwie Online (Online Safety Act), która zobowiązuje platformy do odpowiedzialności za treści, które są publikowane na ich platformach. Ustawa ma na celu ochronę użytkowników przed szkodliwymi treściami, takimi jak materiały promujące wykorzystywanie seksualne dzieci, cyberprzemoc, nakłanianie do samookaleczeń i podsycanie skłonności samobójczych. Platformy będą miały obowiązek podejmować działania wobec nielegalnych lub szkodliwych treści. Niewywiązanie się z tego obowiązku będzie skutkować grzywnami do 18 milionów funtów lub 10% rocznego obrotu, w zależności od tego, która kwota jest wyższa. Obecnie rządowa agencja OFCOM opracowuje przepisy wykonawcze, które wejdą w życie w połowie przyszłego roku. Regulatorzy w USA i UE również pracują nad podobnymi regulacjami mającymi na celu ochronę użytkowników internetu.

    Sprawdź więcej: https://www.samurailabs.ai