MONOLITH LAW OFFICE+81-3-6262-3248평일 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

ChatGPT를 업무에 활용할 때의 리스크는? 법적 문제에 대해서도 설명합니다

IT

ChatGPT를 업무에 활용할 때의 리스크는? 법적 문제에 대해서도 설명합니다

ChatGPT는 출시 이후 전 세계적으로 그 유용성에 큰 주목을 받고 있습니다. 동시에 다양한 리스크도 함께 알려지고 있습니다. 아직 법적 정비가 진행 중인 단계이며, ChatGPT를 비즈니스에 활용할 때의 리스크나 그에 대한 헤지 방법에 대해 우려하는 경영자들이 많은 것도 사실입니다.

이 기사에서는 ChatGPT를 비즈니스에 활용할 때 발생할 수 있는 법적 리스크와 그 대책에 대해 설명하겠습니다.

ChatGPT를 업무에 활용할 때의 4가지 리스크

기업에서도 활용이 진행되고 있는 자연어 생성 AI인 ChatGPT의 2022년도(레이와 5년) 기업 도입률은 13.5%이며, ‘도입 예정을 포함하면’ 24.0%에 이릅니다. (출처: 일본총무성|레이와 5년(2023년) 정보통신백서 통신 이용 동향 조사「기업에서의 IoT·AI 등의 시스템·서비스 도입 상황[ja]」)

분명, ChatGPT를 비롯한 AI 기술은 기업의 업무 효율화에 유효하며, 더 많은 비즈니스 기회가 기대됩니다. 그러나 동시에 많은 법적 리스크도 수반됩니다. 따라서 리스크를 충분히 이해한 상태에서 비즈니스 활용 여부를 결정할 필요가 있습니다.

예를 들어, 저작권 문제, 잘못된 정보의 확산, 기밀 정보 유출, 프라이버시 문제, 사이버 공격으로의 악용 등 AI의 잠재적 리스크에 대해 전문가들은 경고하고 있습니다.

이 장에서는 ChatGPT를 비즈니스 활용할 때의 4가지 리스크에 대해 설명하겠습니다.

학습 기능에 의한 정보 유출 위험

ChatGPT는 편리하지만, 인터넷 상의 다양한 데이터를 학습하여 생성되는 AI 챗봇이기 때문에, 아무런 대책을 세우지 않으면 입력한 정보가 학습에 사용되어 유출될 위험이 있습니다.

OpenAI의 데이터 이용 정책[ja]에 따르면, ChatGPT의 ‘API’를 통하거나 ‘옵트아웃(opt-out)’을 신청하지 않는 한, 위탁자가 ChatGPT에 입력한 데이터는 OpenAI에 의해 수집 및 활용(학습)됩니다.

대책을 세우지 않고 개인정보나 기밀정보 등 민감한 정보를 입력하지 않도록 주의가 필요합니다. 실수로 ChatGPT에 개인정보를 입력했을 경우에도, 경고 메시지가 표시되며, ChatGPT는 개인정보를 저장하거나 추적하지 않고, 채팅에서 출력할 수 없는 시스템으로 되어 있습니다.

한편, 과거에는 ChatGPT를 운영하는 OpenAI사의 시스템상의 버그가 원인으로, 위탁자가 등록한 개인정보가 유출되는 사건이 있었습니다.

관련 기사:ChatGPT의 정보 유출 위험과 취해야 할 4가지 대책 소개[ja]

정보의 신뢰성 결여 리스크

정보의 신뢰성 결여 리스크

2023년 5월부터 구현된 ChatGPT의 웹 브라우징 기능으로 검색 기능이 탑재되어, ChatGPT는 최신 정보를 수집하고 그 결과에 기반하여 답변할 수 있게 되었습니다.

그러나 ChatGPT는 답변을 할 때 정보를 진실처럼 출력하지만, 그 신뢰성은 보장되지 않습니다. ChatGPT가 생성하는 응답은 학습 데이터에 의한 정보의 정확성에 기반하여 출력하는 것이 아니라, 확률적으로 가장 가능성이 높은 문장을 생성하는 것에 불과합니다. 따라서 ChatGPT의 답변에는 팩트 체크가 필수적입니다. 만약 ChatGPT의 답변을 바탕으로 거짓 정보를 발신하게 되면, 기업 자체의 신용이 손상될 위험이 있습니다.

2023년 4월 3일(2023년), 도쿄대학은 ChatGPT에 기술적인 과제가 있다고 지적하며, 향후 사회에 미칠 영향을 우려하여 아래와 같은 성명을 발표했습니다.

“ChatGPT의 원리는 대량의 기존 문장이나 콘텐츠의 기계 학습과 강화 학습을 통해 확률적으로 가장 그럴듯한 문장을 생성해 나가는 것입니다. 따라서 작성된 내용에는 거짓이 포함되어 있을 가능성이 있습니다. 마치 매우 말솜씨가 좋은 ‘아는 척하는 사람’과 대화를 하는 것 같은 느낌입니다. (물론, 최신 버전 GPT-4에서는 상당히 정확성이 향상되어 상담 상대로서도 상당히 우수한 존재입니다.) 그러므로 ChatGPT를 잘 활용하기 위해서는 전문적인 지식이 필요하며, 답변을 비판적으로 확인하고 적절히 수정하는 것이 필요합니다. 또한, 기존의 정보에 없는 새로운 지식에 대한 분석이나 기술은 할 수 없습니다. 즉, ChatGPT가 나왔다고 해서, 인간 자신이 공부나 연구를 게을리할 수 없다는 것입니다. 하지만, 교양이나 전문 지식을 가진 사람이 답변 내용을 비판적으로 분석하고 잘 활용한다면, 정형적인 업무의 효율을 대폭 향상시킬 수 있을 것입니다.”라고 지적하고 있습니다.

인용: 도쿄대학|「생성계 AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion 등)에 대하여[ja]

저작권 침해 및 프라이버시 침해 등의 법적 리스크

ChatGPT에서의 저작권 침해 판단은 ‘AI 개발·학습 단계’와 ‘생성·이용 단계’에서 판단이 갈립니다. 각 단계에서 이루어지는 저작물의 이용 행위가 다르기 때문에, 저작권법의 조문도 다릅니다. 따라서 두 단계는 분리하여 고려할 필요가 있습니다.

참고:문화청|일본려와(2019) 5년도 저작권 세미나 ‘AI와 저작권'[ja]

2019년 1월에 시행된 개정 저작권법에는, 권리 제한 규정(허가가 필요 없는 예외 규정)의 제30조의4에 ‘AI 개발·학습 단계’가 신설되었습니다. AI 개발을 위한 정보 분석 등, 저작물에 표현된 사상이나 감정의 향유를 목적으로 하지 않는 이용 행위는, 원칙적으로 저작권자의 허가 없이 할 수 있도록 규정되어 있습니다.

한편, ChatGPT로 출력된 생성물에 저작물과의 유사성·의존성(변경)이 인정되는 경우에는, 저작권 침해가 됩니다. 따라서 공개하기 전에는, ChatGPT가 참조한 정보의 권리자를 확인하고, ChatGPT가 생성한 것과 유사한 내용이 없는지 확인하는 것이 중요합니다. 그리고, 저작물을 인용할 경우는 출처를 명기하는(권리 제한 규정), 전재할 경우는 저작권자의 이용 허가를 얻어 적절히 처리해야 합니다.

OpenAI사의 이용 약관에 따르면, ChatGPT가 생성한 콘텐츠는 상업적 이용이 가능하다고 합니다만, ChatGPT를 이용하여 생성한 콘텐츠가 저작권 침해에 해당하는지 판단하기 어려운 경우에는 전문가와 상담하는 것을 권장합니다.

저작권자로부터 저작권 침해를 지적받은 경우에는, 민사 책임(손해배상·위자료·사용 금지·명예회복 등의 법적 조치)뿐만 아니라 형사 책임(친고죄)을 물을 수도 있습니다. 기업의 경우에는 양벌 규정이 적용되어 개인과 법인 양쪽에 처벌이 내려질 수도 있으며, 피해가 커질 가능성도 있습니다.

또한, 개인정보나 프라이버시에 대해서도, ChatGPT에 입력하지 않는 등의 주의가 필요합니다. 앞서 언급한 바와 같이, 만약 ChatGPT에 개인정보를 입력했다 하더라도, ChatGPT는 개인정보를 저장하거나 추적하지 않으며, 채팅에서 출력할 수 없는 구조로 되어 있습니다. 그러나 이는 OpenAI의 방침이며, 다른 플랫폼이나 서비스에서는 다를 수 있습니다.

개인정보 유출의 리스크에 대해서는, 아래 기사에서 설명하고 있으니, 함께 읽어보시기 바랍니다.

관련 기사:기업의 개인정보 유출과 손해배상의 리스크[ja]

의도하지 않게 유해한 콘텐츠를 생성하는 위험

의도하지 않게 유해한 콘텐츠를 생성하는 위험

ChatGPT가 학습한 데이터의 내용이나 프롬프트의 내용에 따라 유해한 콘텐츠를 생성할 가능성이 있습니다. ChatGPT가 생성한 콘텐츠를 검토하지 않고 공개할 경우, 기업의 평판이나 브랜드 가치를 손상시키고 법적 문제로 발전할 가능성도 있습니다.

유해한 콘텐츠는 ChatGPT에서 입력 및 출력할 수 없도록 설정되어 있지만, 유해한 프로그램 코드나 사기성 서비스 등은 판별하기 어렵고 출력될 가능성이 있습니다. 이러한 위험이 있음을 염두에 두고, 항상 생성한 콘텐츠를 검토하는 체계를 갖추는 것이 중요합니다.

ChatGPT 이용 약관을 이해하고 사용으로 인한 리스크 회피하기

ChatGPT를 비즈니스에 활용할 때는 리스크를 회피하기 위해 먼저 OpenAI의 이용 약관 및 개인정보 보호정책을 준수하여 사용해야 합니다. 이용 약관은 자주 개정되므로, 비즈니스에서 활용할 경우 개정 사항을 확인하고 최신의 이용 약관을 파악해 두는 것이 필요합니다.

관련 기사: OpenAI 이용 약관 해설, 상업적 이용 시 주의점은?[ja]

ChatGPT의 업무 활용 시 리스크를 회피하기 위해 필요한 사항

회사 내규를 만드는 것

ChatGPT가 가지고 있는 리스크를 회피하고 비즈니스에서 적절히 활용하기 위해서는 기업에 다음과 같은 거버넌스 체계가 요구됩니다.

회사 내규를 만들기

2023년 5월 1일(2023년), 일반사단법인 일본 딥러닝 협회(JDLA)는 ChatGPT의 윤리적, 법적, 사회적 문제(ELSI)를 정리하고 ‘생성 AI 활용 가이드라인’을 공개했습니다. 산학관 각 분야에서도 가이드라인의 마련을 검토하고 있습니다.

ChatGPT를 기업에 도입할 때는 개인의 정보 보안 리터러시를 높이는 것과 회사 내 교육도 중요하지만, 자사의 ChatGPT 활용 가이드라인을 마련하는 것이 바람직합니다. 자사의 ChatGPT 활용 규칙을 명문화한 가이드라인을 마련하고 이를 철저히 알리면 일정한 리스크 회피를 기대할 수 있습니다.

참고: 일반사단법인 일본 딥러닝 협회(JDLA)|「생성 AI 활용 가이드라인[ja]

ChatGPT 활용 시 감독자를 배치하기

ChatGPT 활용의 감독자를 회사 내에 배치하여 가이드라인의 운영을 지속적으로 모니터링하고 리스크를 관리하는 것도 리스크 회피에 효과적입니다.

ChatGPT의 행동을 감시하고 생성 결과를 수정하며 데이터를 관리하는 감사는 일반적으로 시스템 감사와 유사하다고 할 수 있습니다. 시스템 감사는 정보 시스템의 효율성, 안전성, 신뢰성을 객관적으로 평가하는 것으로, 업무의 효율화나 조직의 변화 지원을 목적으로 실시합니다. 감사를 수행하는 감독자를 배치함으로써 운영의 투명성이나 설명 책임을 강화할 수도 있습니다.

요약: ChatGPT의 업무 활용에는 리스크 회피 대책이 필수

여기에서는 ChatGPT의 업무 활용과 관련된 리스크와 대책에 대해 자세히 설명하였습니다.

ChatGPT와 같은 급속도로 발전하는 AI 비즈니스에는, 사내 사용에 관한 가이드라인 수립부터 비즈니스 모델의 적법성 검토, 계약서 및 이용 약관의 작성, 지적 재산권 보호, 프라이버시 대응 등 다양한 법적 리스크와 AI 기술에 정통한 전문가와의 대책이 없으면 안 됩니다.

우리 법무소의 대책 안내

모노리스 법무소는 IT, 특히 인터넷과 법률 양면에서 풍부한 경험을 가진 법무소입니다. AI 비즈니스에는 많은 법적 리스크가 동반되며, AI 관련 법적 문제에 정통한 변호사의 지원이 필수적입니다.

우리 법무소는 AI에 정통한 변호사와 엔지니어 등의 팀으로, ChatGPT를 포함한 AI 비즈니스에 대해 다양한 법적 지원을 제공하고 있습니다. 아래 기사에서 자세한 내용을 확인하실 수 있습니다.

모노리스 법무소의 취급 분야:AI(ChatGPT 등) 법무[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Return to Top