Spór prawny między New York Times (NYT) a OpenAI jest jednym z najgłośniejszych procesów w USA dotyczących praw autorskich w erze sztucznej inteligencji. NYT zarzuca OpenAI oraz Microsoftowi nielegalne wykorzystanie swoich materiałów w procesie szkolenia modeli AI. Gdy na jaw wyszło, że dane, które mogłyby być dowodami w sprawie, zostały usunięte, konflikt przybrał na sile.

    Konflikt między OpenAI a New York Times trwa w najlepsze

    Problem dotyczył dostępu do zestawu danych treningowych, które OpenAI musiało udostępnić zgodnie z decyzją sądu. Aby zapewnić NYT możliwość przeanalizowania danych, OpenAI stworzyło tzw. „sandbox”. Jednak w wyniku błędu inżynierowie OpenAI skasowali dane zgromadzone przez prawników NYT, co spowodowało poważne zakłócenia w procesie gromadzenia dowodów.

    Skutki „przypadkowego” usunięcia danych

    Według dokumentów sądowych NYT, ponad 150 godzin pracy zespołu prawniczego i ekspertów poszło na marne, gdyż OpenAI usunęło zapisane dane. Choć firma podjęła próby odzyskania informacji, brak folderów i nazw plików uniemożliwił prawidłowe powiązanie danych z konkretnymi treściami wykorzystanymi w procesie szkolenia modeli AI.

    W odpowiedzi na te wydarzenia OpenAI nazwało incydent „glitchem”, czyli błędem technicznym, który miał być niezamierzony. Zespół prawniczy NYT potwierdził, że nie ma dowodów na celowe działanie, jednak wskazał, że incydent pokazuje, iż to OpenAI powinno samodzielnie przeszukiwać swoje dane w poszukiwaniu materiałów chronionych prawem autorskim. Wymóg ten miałby zmniejszyć ryzyko podobnych problemów w przyszłości.

    Prawa autorskie a szkolenie modeli AI są do pogodzenia?

    Spór z NYT to nie jedyna sytuacja, w której OpenAI zmaga się z oskarżeniami o naruszenie praw autorskich. Firma utrzymuje, że wykorzystanie publicznie dostępnych materiałów w procesie szkolenia modeli mieści się w ramach tzw. dozwolonego użytku („fair use”). Jednak prawnicy i wydawcy podkreślają, że generowanie zysków z modeli, które bazują na treściach chronionych prawami autorskimi, wymaga stosownych licencji.

    Choć OpenAI zawarło już liczne umowy licencyjne z wydawcami, w tym z Associated Press czy Axel Springer, brak przejrzystości co do warunków tych umów wzbudza kontrowersje. Dla porównania, niektóre umowy – jak ta z Dotdash Meredith – gwarantują wydawcom roczne wpływy na poziomie co najmniej 16 milionów dolarów.

    Znaczenie sprawy dla branży AI

    Konflikt między NYT a OpenAI nie dotyczy wyłącznie jednej sprawy sądowej. To także test dla całego sektora technologicznego, który dynamicznie rozwija modele językowe. Wyroki w takich sprawach mogą zdefiniować ramy prawne dla przyszłych działań firm AI, wskazując, czy i w jakim zakresie mogą korzystać z materiałów chronionych prawem autorskim.

    Jednocześnie sprawa podkreśla wyzwania związane z przejrzystością w procesie szkolenia modeli AI. Udostępnienie danych przez OpenAI stanowiło wyjątek od polityki tajemnicy firmy, która dotychczas unikała ujawniania szczegółów na temat źródeł danych. Incydent z usunięciem danych uwypuklił trudności w pogodzeniu wymogów prawnych z ochroną własnych interesów komercyjnych.

    Dylematy sięgają dalej niż przepisy prawa

    Warto również zastanowić się nad etycznymi konsekwencjami działań OpenAI. Usunięcie danych, choć uznane za przypadkowe, wywołało pytania o odpowiedzialność firm technologicznych w kontekście współpracy z wydawcami. Czy takie działania podważają zaufanie do sektora AI? Czy firmy technologiczne powinny przyjąć bardziej proaktywną postawę w zakresie ochrony praw autorskich?

    Sprawa między OpenAI a NYT to ważny moment w daleszej debacie na temat praw autorskich w erze sztucznej inteligencji. Ostateczne rozstrzygnięcie może wpłynąć na sposób, w jaki firmy AI podchodzą do kwestii licencjonowania treści. Jedno jest pewne – dalszy rozwój technologii AI będzie wymagał zarówno transparentności, jak i współpracy z wydawcami, by uniknąć podobnych konfliktów w przyszłości.

    Czytaj dalej: