MONOLITH LAW OFFICE+81-3-6262-3248Dni powszednie 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Jakie są ryzyka związane z wykorzystaniem ChatGPT w biznesie? Wyjaśnienie kwestii prawnych

IT

Jakie są ryzyka związane z wykorzystaniem ChatGPT w biznesie? Wyjaśnienie kwestii prawnych

Od momentu swojego wydania, ChatGPT zyskał ogromną uwagę na całym świecie ze względu na swoją użyteczność. Jednocześnie stało się znane, że wiąże się on również z różnymi ryzykami. Prawo wciąż jest w trakcie dostosowywania się do nowych technologii, a wielu przedsiębiorców odczuwa niepokój odnośnie ryzyka związanego z wykorzystaniem ChatGPT w biznesie oraz metod jego minimalizacji.

W niniejszym artykule wyjaśniamy prawne ryzyka i środki zaradcze związane z wykorzystaniem ChatGPT w działalności gospodarczej.

Cztery ryzyka związane z wykorzystaniem ChatGPT w biznesie

W przedsiębiorstwach również postępuje wykorzystanie generujących język naturalny AI, takich jak ChatGPT. W roku finansowym 2022 (Reiwa 5 (2023)) wskaźnik wdrożeń w firmach wyniósł 13,5%, a uwzględniając firmy, które planują wdrożenie, liczba ta wzrasta do 24,0%. (Źródło: Japońskie Ministerstwo Spraw Wewnętrznych i Komunikacji | Biała Księga Komunikacji Informacyjnej z roku Reiwa 5 (2023), Badanie trendów wykorzystania komunikacji „Stan wdrożenia systemów i usług IoT oraz AI w przedsiębiorstwach[ja]“)

Rzeczywiście, technologie AI, w tym ChatGPT, są skuteczne w zwiększaniu efektywności operacyjnej firm i mogą przynieść wiele nowych możliwości biznesowych. Jednakże, towarzyszą im również liczne ryzyka prawne. Dlatego też, przed podjęciem decyzji o wykorzystaniu AI w biznesie, konieczne jest pełne zrozumienie tych ryzyk.

Na przykład, eksperci biją na alarm w kwestii potencjalnych ryzyk związanych z AI, takich jak problemy z prawami autorskimi, rozprzestrzenianie się fałszywych informacji, wycieki poufnych danych, kwestie prywatności oraz wykorzystanie do cyberataków.

W tym rozdziale wyjaśniamy cztery ryzyka związane z wykorzystaniem ChatGPT w biznesie.

Ryzyko wycieku informacji związane z funkcją uczenia się

ChatGPT, choć jest wygodny, to jako AI chatbot generowany na podstawie różnorodnych danych z internetu, kryje w sobie ryzyko wykorzystania wprowadzonych informacji do celów uczenia się, co może prowadzić do ich wycieku, jeśli nie zostaną podjęte odpowiednie środki ostrożności.

Zgodnie z polityką wykorzystania danych[ja] OpenAI, dane wprowadzone przez użytkownika do ChatGPT mogą być zbierane i wykorzystywane (do uczenia się) przez OpenAI, chyba że użytkownik skorzysta z opcji „API” lub złoży wniosek o „opt-out”.

Bez podjęcia odpowiednich środków ostrożności, istotne jest, aby nie wprowadzać do ChatGPT informacji osobistych czy poufnych, które wymagają zachowania tajemnicy. Nawet jeśli przypadkowo wprowadzi się do ChatGPT dane osobowe, zostanie wyświetlony komunikat ostrzegawczy, a ChatGPT nie zapisze ani nie będzie śledził tych informacji, co uniemożliwia ich wyświetlenie w czacie.

Z drugiej strony, w przeszłości doszło do incydentu, w którym z powodu błędu w systemie OpenAI, firmy zarządzającej ChatGPT, doszło do wycieku zarejestrowanych danych osobowych użytkowników.

Artykuł powiązany: Jakie są ryzyka wycieku informacji w ChatGPT? Przedstawiamy 4 środki zaradcze[ja]

Ryzyko braku wiarygodności informacji

Ryzyko braku wiarygodności informacji

Od maja 2023 roku, dzięki wdrożeniu funkcji przeglądania stron internetowych przez ChatGPT, narzędzie to zyskało możliwość wyszukiwania i zbierania najnowszych informacji, a następnie odpowiadania na podstawie uzyskanych wyników.

Jednakże, mimo że ChatGPT prezentuje informacje w sposób przypominający prawdę, ich wiarygodność nie jest gwarantowana. Odpowiedzi generowane przez ChatGPT nie opierają się na dokładności danych z materiałów szkoleniowych, lecz są tworzone jako teksty o wysokim prawdopodobieństwie bycia prawdziwymi. Dlatego niezbędne jest przeprowadzenie weryfikacji faktów w odpowiedziach ChatGPT. W przypadku niezamierzonego rozpowszechniania fałszywych informacji opartych na odpowiedziach ChatGPT, reputacja firmy może zostać nadszarpnięta.

3 kwietnia 2023 roku Uniwersytet Tokijski wyraził obawy dotyczące wpływu ChatGPT na przyszłe społeczeństwo, wskazując na techniczne wyzwania związane z tą technologią, i wydał następujące oświadczenie:

“Zasada działania ChatGPT opiera się na tworzeniu prawdopodobnych tekstów poprzez uczenie maszynowe i wzmacniane na podstawie ogromnej ilości istniejących tekstów i treści. W związku z tym, treści generowane przez ChatGPT mogą zawierać nieprawdy. Można to porównać do rozmowy z osobą, która jest bardzo elokwentna, ale jednocześnie udaje, że wie więcej niż w rzeczywistości. (Choć w najnowszej wersji GPT-4 dokładność odpowiedzi znacznie wzrosła, i jako rozmówca jest już naprawdę kompetentny.) Dlatego, aby skutecznie korzystać z ChatGPT, potrzebna jest specjalistyczna wiedza, krytyczne sprawdzanie odpowiedzi i ich odpowiednie korygowanie. Ponadto, ChatGPT nie jest w stanie analizować ani opisywać nowych odkryć, które nie znajdują się w istniejących informacjach. Innymi słowy, pojawienie się ChatGPT nie oznacza, że ludzie mogą zaniedbywać naukę i badania. Jednakże, jeśli osoba posiadająca wiedzę ogólną lub specjalistyczną będzie krytycznie analizować treści i umiejętnie z nich korzystać, możliwe będzie znaczne zwiększenie efektywności rutynowych prac.”

Źródło: Uniwersytet Tokijski | “O generatywnych AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, etc.)[ja]

Prawne ryzyko związane z naruszeniem praw autorskich i prywatności

Ocena naruszenia praw autorskich w ChatGPT dzieli się na etap “rozwoju i uczenia AI” oraz etap “generowania i użytkowania”. Ponieważ działania związane z wykorzystaniem dzieł autorskich różnią się na każdym z tych etapów, różne są również stosowane przepisy Japanese Prawa Autorskiego. Dlatego konieczne jest oddzielne rozpatrywanie obu przypadków.

Referencje: Agencja ds. Kultury | Seminarium Prawa Autorskiego na rok Reiwa 5 (2023)[ja]

W nowelizacji Japanese Prawa Autorskiego, która weszła w życie w styczniu 2019 roku, dodano nowy przepis dotyczący ograniczenia praw – artykuł 30, punkt 4, który odnosi się do etapu “rozwoju i uczenia AI”. Działania takie jak analiza informacji dla rozwoju AI, które nie mają na celu korzystania z wyrażonych w dziełach autorskich myśli lub uczuć, mogą być zasadniczo przeprowadzane bez zgody właściciela praw autorskich.

Z drugiej strony, jeśli wytwory wygenerowane przez ChatGPT wykazują podobieństwo lub zależność (modyfikację) od dzieł autorskich, może to stanowić naruszenie praw autorskich. Dlatego przed publikacją ważne jest, aby sprawdzić prawa właścicieli informacji, na których ChatGPT się opierał, oraz upewnić się, że nie ma podobieństw do treści stworzonych przez ChatGPT. W przypadku cytowania dzieła autorskiego należy wskazać źródło (przepisy ograniczające prawa), a w przypadku reprodukcji uzyskać zgodę właściciela praw autorskich i odpowiednio przetworzyć materiał.

Zgodnie z warunkami użytkowania firmy OpenAI, treści stworzone przez ChatGPT mogą być wykorzystywane komercyjnie, jednak w przypadku trudności z oceną, czy dana treść narusza prawa autorskie, zaleca się konsultację ze specjalistą.

Jeśli właściciel praw autorskich wskaże naruszenie, możliwe jest pociągnięcie do odpowiedzialności cywilnej (odszkodowanie, zadośćuczynienie, zakaz użytkowania, przywrócenie dobrego imienia) lub odpowiedzialności karnej (przestępstwo ścigane na wniosek pokrzywdzonego). W przypadku przedsiębiorstw może być stosowana regulacja obustronna, co oznacza nałożenie sankcji zarówno na osoby fizyczne, jak i prawne, co może skutkować poważnymi konsekwencjami.

Podobnie, w przypadku informacji osobistych i prywatności, należy zachować ostrożność, aby nie wprowadzać ich do ChatGPT. Jak wspomniano powyżej, nawet jeśli przypadkowo wprowadzi się dane osobowe do ChatGPT, system nie przechowuje ani nie śledzi tych informacji i nie może ich wyświetlić w czacie. Jednakże jest to polityka OpenAI i może się różnić w przypadku innych platform lub usług.

Ryzyko wycieku informacji osobowych omówione jest w poniższym artykule, który również zachęcamy do przeczytania.

Powiązane artykuły: Ryzyko wycieku danych osobowych w firmie i związane z tym odszkodowania[ja]

Ryzyko niezamierzonego tworzenia szkodliwych treści

Ryzyko niezamierzonego tworzenia szkodliwych treści

W zależności od danych, na których uczył się ChatGPT, oraz treści wprowadzanych poleceń, istnieje możliwość stworzenia szkodliwych treści. Jeśli treści wygenerowane przez ChatGPT zostaną opublikowane bez weryfikacji, może to zaszkodzić reputacji firmy lub wartości marki i prowadzić do problemów prawnych.

Mimo że ChatGPT jest zaprogramowany, aby nie tworzyć i nie przetwarzać szkodliwych treści, istnieje ryzyko, że trudne do wykrycia szkodliwe kody programistyczne czy oszukańcze usługi mogą zostać wygenerowane. Mając to na uwadze, niezwykle ważne jest, aby zawsze sprawdzać tworzone treści i utrzymywać systematyczną kontrolę.

Zrozumienie regulaminu użytkowania i unikanie ryzyka związanego z korzystaniem z ChatGPT

Przy wykorzystywaniu ChatGPT w biznesie, aby uniknąć ryzyka, należy przede wszystkim korzystać z narzędzia zgodnie z regulaminem użytkowania i polityką prywatności OpenAI. Regulamin jest często aktualizowany, dlatego podczas użytkowania go w celach biznesowych konieczne jest sprawdzenie zmian i zapoznanie się z najnowszą wersją regulaminu.

Powiązany artykuł: Wyjaśnienie regulaminu użytkowania OpenAI, na co zwrócić uwagę przy komercyjnym wykorzystaniu?[ja]

Jak uniknąć ryzyka w korzystaniu z ChatGPT w biznesie

Tworzenie wewnętrznych zasad

Aby uniknąć ryzyka związanego z ChatGPT i korzystać z niego odpowiednio w biznesie, firmy muszą wprowadzić następujące struktury zarządzania.

Tworzenie wewnętrznych zasad

1 maja 2023 roku (rok Reiwa 5), Ogólna Korporacja Stowarzyszenia Japońskiego Głębokiego Uczenia (JDLA) zebrała kwestie etyczne, prawne i społeczne (ELSI) związane z ChatGPT i opublikowała “Wytyczne dotyczące korzystania z AI generatywnego”. Również w różnych sektorach przemysłu, akademii i administracji publicznej trwają prace nad opracowaniem wytycznych.

Przy wdrażaniu ChatGPT w firmie ważne jest nie tylko podnoszenie świadomości pracowników w zakresie bezpieczeństwa informacji, ale także opracowanie własnych wytycznych dotyczących korzystania z ChatGPT. Stworzenie i szerokie rozpowszechnienie wytycznych, które jasno określają zasady korzystania z ChatGPT w firmie, może przyczynić się do uniknięcia pewnych ryzyk.

Referencja: Ogólna Korporacja Stowarzyszenia Japońskiego Głębokiego Uczenia (JDLA) | “Wytyczne dotyczące korzystania z AI generatywnego[ja]

Ustanowienie nadzorcy do spraw korzystania z ChatGPT

Skutecznym sposobem na uniknięcie ryzyka jest również ustanowienie w firmie nadzorcy, który będzie monitorował stosowanie wytycznych i zarządzał ryzykiem związanym z korzystaniem z ChatGPT.

Nadzór nad działaniem ChatGPT, korygowanie wyników generacji i zarządzanie danymi to zadania, które można porównać do audytu systemowego. Audyt systemowy ma na celu obiektywne ocenianie efektywności, bezpieczeństwa i wiarygodności systemów informacyjnych, a także wspieranie efektywności operacyjnej i transformacji organizacyjnej. Ustanowienie nadzorcy do przeprowadzania audytu może również wzmocnić przejrzystość operacji i odpowiedzialność za wyjaśnienia.

Podsumowanie: Niezbędne środki zapobiegawcze przy wykorzystaniu ChatGPT w biznesie

W tym miejscu szczegółowo wyjaśniliśmy ryzyko i środki zaradcze związane z wykorzystaniem ChatGPT w działalności biznesowej.

W przypadku szybko rozwijających się biznesów AI, takich jak ChatGPT, niezbędne jest podjęcie różnorodnych działań prawnych, począwszy od opracowania wewnętrznych wytycznych dotyczących użytkowania, poprzez analizę zgodności modelu biznesowego z prawem, tworzenie umów i regulaminów użytkowania, ochronę praw własności intelektualnej, aż po zapewnienie ochrony prywatności. Wszystko to wymaga współpracy z ekspertami dobrze zorientowanymi w technologiach AI.

Informacje o środkach zaradczych naszej kancelarii

Kancelaria Prawna Monolith to firma z bogatym doświadczeniem w dziedzinie IT, a w szczególności w aspektach prawnych związanych z Internetem. Biznes AI wiąże się z wieloma ryzykami prawnymi, a wsparcie prawników specjalizujących się w problematyce AI jest niezbędne.

Nasza kancelaria oferuje różnorodne wsparcie prawne dla biznesu AI, w tym ChatGPT, dzięki zespołowi prawników specjalizujących się w AI oraz inżynierów. Szczegóły naszych usług opisaliśmy w poniższym artykule.

Obszary praktyki Kancelarii Prawnej Monolith: Prawo AI (w tym ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Wróć do góry