Raport

    Wyzwania prawne i etyczne związane z zarządzaniem AI są poważne. Massachusetts Institute of Technology (MIT) podkreśla potrzebę wprowadzenia odpowiednich regulacji.

    Badacze i akademicy z MIT stworzyli dokument polityczny wzywający rząd Stanów Zjednoczonych do rozszerzenia zarządzania sztuczną inteligencją i jej rozwojem, wykorzystując istniejące przepisy.

    Sprawdź: AI image generator

    Dziesięciostronicowy dokument, który nazywa się “Tworzenie bezpiecznego i prosperującego sektora AI“, proponuje, aby obecne ramy prawne obejmowały AI – na przykład rozszerzając regulacje opieki zdrowotnej na diagnozy AI. Eksperci z MIT chcą również, aby AI było objęte przepisami regulującymi działania rządowe, w tym działania policyjne, ustalanie kaucji i rekrutację.

    Grupa specjalistów stwierdziła, że prawa i regulacje dotyczące AI powinny być egzekwowane przez tę samą jednostkę, która zarządza działaniami ludzkimi bez AI w tej samej dziedzinie, dodając: “Może to wymagać od tych jednostek rozwijania pewnej wiedzy na temat AI”.

    REKLAMA
    Raport

    Dokument stwierdza:

    Jeśli działalność ludzka bez wykorzystania AI jest regulowana, to również wykorzystanie AI powinno być regulowane. Rozwój, sprzedaż i wykorzystanie systemów AI powinny, ilekroć to możliwe, być regulowane tymi samymi standardami i procedurami, co ludzie działający bez AI w dziedzinach zastosowania AI

    Trzeba przyznać, że ma to jak najbardziej sens.

    Grupa z MIT twierdzi, że zapewniłoby to, że aplikacje AI o wyższym ryzyku byłyby objęte istniejącymi prawami. Jednym z obszarów, w których jest to już badane, a który został wspomniany w dokumencie, są autonomiczne pojazdy, które są traktowane zgodnie z tymi samymi standardami, co te obsługiwane przez ludzi. Jest natomiast wiele problemów, gdzie przepisów brakuje, np. aplikacje do rozbierania kobiet ze zdjęć.

    Autorzy raportu argumentują, że ci, którzy budują systemy AI o ogólnym zastosowaniu, czyli np. OpenAI i chatbot ChatGPT, powinni być zobowiązani do zidentyfikowania zamierzonego celu takiego systemu przed jego wydaniem.

    Proponują również, aby regulatorzy wydawali przepisy dotyczące definiowania zamierzonych zastosowań, aby developerzy mogli upewnić się, że ich systemy odpowiadają temu, co zostało ustalone.

    MIT domaga się większej etyki w rozwoju AI

    Grupa wzywa również do wyjaśnienia kwestii naruszeń własności intelektualnej wynikających z AI, w tym sposobów, w jakie twórcy mogą chronić się przed potencjalnym naruszeniem i je identyfikować. Jednym z sugerowanych sposobów jest obowiązkowe oznaczanie treści generowanych przez AI.

    W dokumencie czytamy:

    Nie jest jasne, czy i w jaki sposób obecne ramy regulacyjne i prawne mają zastosowanie, gdy zaangażowane jest AI, i czy są one wystarczające. Pozostawia to dostawców, użytkowników i ogół społeczeństwa w sytuacji “jeśli kupujesz, to zachowaj ostrożność

    Zobacz: Copilot X z AI

    Dodatkowa jasność i nadzór nad AI są potrzebne, aby ułatwić rozwój i wdrażanie korzystnego AI oraz w pełni i płynnie zrealizować potencjalne korzyści płynących z AI dla wszystkich – stwierdzają eksperci MIT.

    “Jako kraj już regulujemy wiele stosunkowo ryzykownych rzeczy i zapewniamy tam zarządzanie”, powiedział Dan Huttenlocher, dziekan MIT Schwarzman College of Computing w wywiadzie dla MIT News.