Czytanie regulaminów to nie jest interesujące zajęcie. Bywają bardzo długie, napisane skomplikowanym językiem, wydają się przegadane – i to zniechęca, by wczytywać się w nie uważnie. Regulaminy narzędzi AI nie są pod tym względem wyjątkowe. W dodatku to stosunkowo nowe zjawisko, więc nie do końca wiemy, na co zwracać w nich szczególną uwagę.
Ale to właśnie w takich dokumentach zawarte są najważniejsze dla przedsiębiorców i twórców aspekty – związane z odpowiedzialnościami, prawami autorskimi itp. To rodzaj umowy między dostawcą usługi, firmą udostępniającą narzędzie a użytkownikiem. W sytuacji konfliktu z podwykonawcą, zleceniodawcą, innym podmiotem – może się okazać, że to właśnie ten regulamin kształtuje nasze prawa i obowiązki. Przygotowałam krótki tekst o tym, które zapisy w regulaminach sprawdzać bezwzględnie. Bez względu na to, z jakiego narzędzia generatywnej sztucznej inteligencji korzystasz.
Z tego artykułu dowiesz się między innymi:
- Dlaczego mówię ogólnie o regulaminach narzędzi AI i z jakich perspektyw powinniśmy je czytać.
- Co warto wiedzieć o odpowiedzialnościach związanych z korzystaniem z narzędzi AI.
- Do czego modele wykorzystują dane i od czego zależy ich bezpieczeństwo.
- Na co zwracać uwagę w kwestiach związanych z prawami autorskimi.
- Jak chronić się przed halucynowaniem dużych modeli i minimalizować ryzyka.
Regulaminy narzędzi AI – dla kogo są ważne i dlaczego
Dlaczego nie omawiam konkretnych regulaminów punkt po punkcie? Uważam, że to bezcelowe. Detale się zmieniają, narzędzia pojawiają się i znikają z rynku. A my, jako użytkownicy, testujemy kolejne rozwiązania – bo jest ich coraz więcej i dają nowe możliwości.
Na wstępie warto powiedzieć, że sposób, w jaki czytamy regulamin, powinien w dużym stopniu zależeć od tego, jak i w jakich celach korzystamy z narzędzi AI. Wyróżniam tu dwie podstawowe grupy:
1. przedsiębiorcy, właściciele firm, e-commerców korzystający na użytek własnej firmy,
2. pracownicy kreatywni, freelancerzy działający na zlecenie przedsiębiorców, firm i instytucji.
Znaczenie ma też branża. Istnieją bowiem wyraźne zakazy wykorzystywania konkretnych narzędzi do pracy nad treściami marketingowymi, sprzedażowymi dla wyrobów alkoholowych, tytoniowych czy leków.
6 uniwersalnych wskazówek dotyczących czytania regulaminów narzędzi AI
Omówię krótko kluczowe aspekty, na które zawsze należy zwracać uwagę, czytając regulaminy narzędzi AI. I choć w kilku miejscach podam przykład ChatGPT, to zaznaczam, że poszczególne punkty są uniwersalne. A więc dotyczą narzędzi generujących różne rodzaje treści: teksty, grafiki, wideo – i regulaminów wszystkich narzędzi AI.
Odpowiedzialność użytkownika
Dostawca narzędzia odpowiada zazwyczaj za awarie systemu, błędy w kodzie i temu podobne sytuacje. Natomiast za efekt pracy rozpowszechniany, opublikowany w mediach społecznościowych, na stronach internetowych odpowiada użytkownik. Nie możemy powiedzieć, że to nie z naszych danych wygenerowano konkretny tekst czy grafikę, że to ChatGPT „podsunął” nam dane zestawione w konkretny sposób.
Wprowadzanie danych w okienku konwersacyjnym
W narzędziach możemy wprowadzać dane w postaci różnych treści – tekstów, grafik, zdjęć, dokumentów w formacie .pdf itd. Bardzo często regulaminy wymagają, abyśmy mieli prawa autorskie, licencje, zgody, aby dysponować nimi w taki sposób.
Tutaj jeszcze jedna uwaga, która może być ważna dla pracowników kreatywnych, na przykład grafików, copywriterów. Zastanów się, czy – tworząc na potrzeby przedsiębiorców, zewnętrznych podmiotów, zgadzasz się na to, by Twoja praca była wprowadzana do okienek konwersacyjnych narzędzi generatywnej sztucznej inteligencji. W mojej ocenie to kolejne pole eksploatacji, a więc temat do omówienia i zaznaczenia w umowie z klientem, zleceniodawcą.
Trenowanie modeli
To bardzo ważny punkt! Dane wprowadzane do narzędzi służą do trenowania modeli, a więc ulepszaniu zasobów narzędzi AI. W wielu narzędziach, na przykład w ChatGPT, w planach płatnych i najtańszych odpłatnych opcjach, zgoda na trenowanie zaznaczona jest domyślnie. Wówczas warto w ustawieniach prywatności w profilu użytkownika odklikać ten suwak ze zgodą.
Dlaczego to istotne? Nawet jeśli nie operujemy danymi osobowymi, zdarza nam się pracować z innymi ważnymi informacjami, na przykład strategicznymi, know-how organizacji czy klienta.
Poufność danych
To jedna z podstawowych zasad bezpieczeństwa! Warto pamiętać o tym, że zawsze istnieje ryzyko utraty kontroli nad danymi wprowadzanymi do okien konwersacyjnych. To nie są hipotetyczne sytuacje, ale przypadki, które miały miejsce. Między innymi z tego powodu duże firmy technologiczne, korporacje z różnych branż bardzo często zabraniają swoim pracownikom korzystania z zewnętrznych narzędzi. Mając odpowiedni budżet, specjalistów i infrastrukturę, budują swoje systemy.
Prawa autorskie
Do kogo należą treści generowane przez sztuczną inteligencję? Trudno mówić o powstaniu utworu. Natomiast bardzo często mamy w regulaminach zapisy o tym, że dostawcy narzędzi przenoszą prawa na użytkownika. I wszystko byłoby wspaniale, gdyby nie gwiazdka przy takim zapisie. Ponieważ najważniejszy jest dopisek o tym, że prawa takie nie są w mocy, jeśli w procesie generowania treści zostały wykorzystane elementy, do których prawa autorskie mają inne osoby (artyści, pisarze, dziennikarze). Dostawca usługi sam nie ma do tego praw, licencji – a zatem nie może ich przenieść. A zasoby, na których trenują narzędzia takie jak ChatGPT, nie są ujawniane w procesie generowania treści.
Lubię posługiwać się prostym porównaniem, które moim zdaniem dobrze obrazuje tę zależność. Jeśli za treści wygenerowane w narzędziach AI uznamy ciasto, drożdżowy placek, to składnikami użytymi do jego przygotowania mogą okazać się różne treści autorskie.
Zdarzało się, że konkretni twórcy, autorzy odnajdywali w takich wygenerowanych treściach fragmenty swoich utworów – tak, jak znajduje się w cieście rodzynki.
Ilustracja: materiały własne
Halucynacje
To zgrabne określenie na błędy, zmyślenia i naruszenia dóbr osobistych, które zdarzają się w narzędziach generatywnej sztucznej inteligencji. Czy jest możliwość, aby zminimalizować ryzyka związane z halucynacjami? Kto ponosi odpowiedzialność za rozpowszechnienie takich treści? Najczęściej właśnie użytkownik – dlatego warto odszukać taki punkt w regulaminie i mieć świadomość, z jak dużą odpowiedzialnością wiąże się korzystanie z treści, których nie jesteśmy w stanie potwierdzić.
W zaawansowanych wykorzystaniach jest możliwość tzw. zmniejszenia temperatury modelu. Nie eliminuje to wszystkich halucynacji, ale może skutecznie je ograniczać. No i w każdej sytuacji warto pamiętać o weryfikowaniu treści, które generują narzędzia takie jak ChatGPT.
Na co zwracać uwagę w regulaminach narzędzi AI – podsumowanie
Najważniejsze punkty, na które użytkownicy powinni zwracać szczególną uwagę, rozpoczynając korzystanie z nowych narzędzi generatywnej sztucznej inteligencji to:
- Odpowiedzialność użytkownika
- Wprowadzanie rodzaju i zakresu danych w okienku konwersacyjnym
- Trenowanie modeli
- Poufność danych
- Prawa autorskie
- Halucynacje dużych modeli językowych (LLM)
Wspomniałam również, że trenowanie modeli i wykorzystywanie poszczególnych treści do dalszego przetwarzania za pomocą narzędzi tego typu to kolejne pole eksploatacji. A więc dla twórców, podwykonawców, zleceniobiorców – istotny punkt, który powinien zostać uwzględniony w umowie (oraz ewentualnie znaleźć odzwierciedlenie w wynagrodzeniu).
Artykuł „Regulaminy narzędzi AI” powstał na podstawie nagrania udostępnionego uczestniczkom i uczestnikom warsztatów „Przepis rozmowę z ChatGPT”, które przeprowadziłam w styczniu 2025 roku.
Masz pytania? Szukasz prawnego wsparcia dla swojego biznesu? Skontaktuj się ze mną! Interesują Cię kwestie biznesu zgodnego z prawem, zaobserwuj mnie w mediach społecznościowych, na przykład na Instagramie – tam również dzielę się nowinkami, zapowiedziami i wiedzą. Jeśli szukasz więcej artykułów takich jak ten, zapraszam Cię również na mój drugi blog na stronie Dimotely.