MONOLITH LAW OFFICE+81-3-6262-3248Будни 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Каковы риски использования ChatGPT в бизнесе? Объяснение юридических проблем

IT

Каковы риски использования ChatGPT в бизнесе? Объяснение юридических проблем

С момента своего выпуска ChatGPT привлек большое внимание по всему миру благодаря своей полезности. В то же время стало известно, что использование этой технологии сопряжено с различными рисками. Поскольку законодательство в этой области все еще находится в стадии разработки, многие руководители компаний испытывают беспокойство по поводу рисков, связанных с использованием ChatGPT в бизнесе, и методов минимизации этих рисков.

В данной статье мы рассмотрим юридические риски и меры предосторожности при использовании ChatGPT в бизнесе.

Четыре риска использования ChatGPT в бизнесе

Использование генеративных AI для обработки естественного языка, таких как ChatGPT, продвигается и в корпоративной среде. Уровень внедрения в компаниях в 2022 финансовом году составил 13,5%, и если включить компании, планирующие внедрение, этот показатель достигает 24,0%. (Источник: Министерство внутренних дел и коммуникаций Японии | Информационно-коммуникационный белый документ за год Рэйва 5 (2023), исследование тенденций использования связи «Состояние внедрения систем и сервисов IoT и AI в компаниях[ja]»)

Безусловно, AI технологии, включая ChatGPT, эффективны для повышения операционной эффективности компаний и могут привести к большему количеству бизнес-возможностей. Однако вместе с этим они несут и множество юридических рисков. Поэтому необходимо полностью понимать эти риски перед тем, как принимать решение об их использовании в бизнесе.

Например, эксперты поднимают тревогу по поводу потенциальных рисков AI, таких как проблемы авторского права, распространение ложной информации, утечки конфиденциальной информации, проблемы с приватностью, злоупотребление в целях кибератак и т.д.

В этой главе мы рассмотрим четыре риска использования ChatGPT в бизнесе.

Риск утечки информации из-за функции обучения

ChatGPT, несмотря на свою удобность, является AI-чатботом, который генерируется на основе обучения различным данным в интернете, и если не предпринять никаких мер, существует риск, что введенная информация может быть использована в процессе обучения и утечь.

Согласно политике использования данных[en] компании OpenAI, данные, введенные пользователями в ChatGPT, будут собираться и использоваться (для обучения) OpenAI, если пользователь не воспользуется API или не подаст заявку на отказ от участия.

Необходимо быть осторожным и не вводить личную или конфиденциальную информацию, требующую секретности, без принятия соответствующих мер. Даже если вы случайно введете личную информацию в ChatGPT, будет отображено предупреждающее сообщение, и ChatGPT не сохранит и не отследит эту информацию, а также не сможет выводить ее в чате.

Тем не менее, в прошлом были случаи, когда из-за ошибок в системе компании OpenAI, управляющей ChatGPT, происходила утечка зарегистрированных пользователем личных данных.

Связанные статьи: Каковы риски утечки информации в ChatGPT? Введение в четыре необходимые меры предосторожности[ja]

Риск недостоверности информации

Риск недостоверности информации

С мая 2023 года (Рэйва 5) функция веб-браузинга ChatGPT была внедрена, что позволило ChatGPT собирать актуальную информацию и отвечать на вопросы, основываясь на этих данных.

Однако, хотя ChatGPT выдает ответы, кажущиеся правдивыми, их достоверность не гарантирована. Ответы, генерируемые ChatGPT, не основаны на точности информации из учебных данных, а представляют собой лишь тексты, которые были выбраны как наиболее вероятные. Поэтому ответы ChatGPT требуют фактчекинга. Если, допустим, на основе ответов ChatGPT будет распространена ложная информация, это может нанести ущерб репутации самой компании.

3 апреля 2023 года (Рэйва 5) Токийский университет выразил озабоченность по поводу технических проблем ChatGPT и его влияния на общество в будущем, выпустив следующее заявление:

«Принцип работы ChatGPT заключается в создании убедительных текстов на основе машинного и усиленного обучения большого объема существующих текстов и контента. Следовательно, содержание может включать неправду. Это похоже на разговор с человеком, который кажется знающим, но на самом деле многое выдумывает. (Хотя в последней версии GPT-4 точность значительно улучшилась, и он является довольно компетентным собеседником.) Поэтому для эффективного использования ChatGPT необходимы специализированные знания, критическая проверка ответов и их соответствующая корректировка. Кроме того, ChatGPT не способен анализировать и описывать новые знания, которых нет в существующей информации. То есть, появление ChatGPT не означает, что люди могут пренебрегать учебой и исследованиями. Однако, если образованный человек с специализированными знаниями будет критически анализировать ответы и умело ими пользоваться, это может значительно повысить эффективность стандартных рабочих процессов.» – отмечено в заявлении.

Цитата: Токийский университет | «О генеративном ИИ (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion и т.д.)[ja]»

Юридические риски, связанные с нарушением авторских прав и приватности

Оценка нарушения авторских прав в ChatGPT делится на два этапа: «Этап разработки и обучения ИИ» и «Этап генерации и использования». Поскольку действия по использованию произведений на каждом этапе различаются, применяются и разные статьи закона об авторском праве. Поэтому необходимо рассматривать их отдельно.

Ссылка: Агентство культурных дел | Семинар по авторскому праву 2023 года (Рейва 5) «ИИ и авторские права»[ja]

В январе 2019 года (Хэйсэй 31) был введен в действие измененный закон об авторских правах, который в статье 30.4 включает новые положения ограничения прав, которые не требуют разрешения (исключения), для «Этапа разработки и обучения ИИ». Действия по использованию произведений, такие как анализ информации для разработки ИИ, которые не предназначены для восприятия выраженных в произведениях идей или эмоций, могут осуществляться без разрешения правообладателя.

С другой стороны, если в материалах, сгенерированных ChatGPT, обнаруживается сходство или зависимость (изменение) от авторских произведений, это может быть признано нарушением авторских прав. Поэтому перед публикацией важно проверить правообладателей информации, на которую ссылается ChatGPT, и убедиться, что нет содержания, схожего с созданным ChatGPT. При цитировании произведений необходимо указывать источник (положения об ограничении прав), а при перепечатке получать разрешение от правообладателя и обрабатывать содержание должным образом.

Согласно условиям использования OpenAI, контент, созданный ChatGPT, может использоваться в коммерческих целях, однако если сложно определить, нарушает ли контент, созданный с помощью ChatGPT, авторские права, рекомендуется проконсультироваться со специалистом.

Если правообладатель указывает на нарушение авторских прав, возможно возникновение гражданской ответственности (компенсация ущерба, моральный ущерб, запрет на использование, восстановление репутации и т.д.) или уголовной ответственности (частное обвинение). В случае компаний может применяться двойное наказание как для физических, так и для юридических лиц, что может привести к большим потерям.

Также необходимо соблюдать осторожность в отношении личной информации и приватности, не вводя их в ChatGPT. Как упоминалось выше, даже если личная информация была введена в ChatGPT, система не сохраняет и не отслеживает личные данные и не может их выводить в чате. Однако это политика OpenAI, и на других платформах или в других сервисах условия могут отличаться.

О рисках утечки личной информации и компенсации ущерба вы можете прочитать в следующей статье.

Связанная статья: Риск утечки личной информации компании и компенсация ущерба[ja]

Риск непреднамеренного создания вредоносного контента

Риск непреднамеренного создания вредоносного контента

В зависимости от содержания данных, на которых обучался ChatGPT, и содержания запросов, существует риск создания вредоносного контента. Если контент, созданный ChatGPT, будет опубликован без проверки, это может нанести ущерб репутации компании и ценности бренда, а также привести к юридическим проблемам.

Хотя вредоносный контент не должен генерироваться и передаваться через ChatGPT, сложно отличить вредоносный программный код, мошеннические услуги и другие подобные элементы, которые могут быть сгенерированы. Учитывая такие риски, важно всегда иметь систему проверки создаваемого контента.

Понимание условий использования и избегание рисков при использовании ChatGPT

При использовании ChatGPT в бизнесе для минимизации рисков необходимо соблюдать условия использования и политику конфиденциальности OpenAI. Поскольку условия использования часто обновляются, при их коммерческом применении важно регулярно проверять изменения и быть в курсе последних требований.

Связанные статьи: Разъяснение условий использования OpenAI и особенности коммерческого использования[ja]

Необходимые меры для избежания рисков при использовании ChatGPT в бизнесе

Создание внутренних правил

Для того чтобы избежать рисков, связанных с использованием ChatGPT и обеспечить его корректное применение в бизнесе, компаниям необходимо установить следующую систему управления.

Создание внутренних правил

1 мая 2023 года (Рейва 5 год) Общественная организация Японской ассоциации глубокого обучения (JDLA) собрала воедино этические, юридические и социальные вопросы (ELSI), связанные с ChatGPT, и опубликовала «Руководство по использованию генеративного ИИ». Разработка руководств по этой теме также активно обсуждается в академических, государственных и промышленных кругах.

При внедрении ChatGPT в компании важно не только повышать информационную безопасность и проводить внутреннее обучение сотрудников, но и желательно разработать собственные руководящие принципы использования ChatGPT. Создание и широкое распространение написанных правил использования ChatGPT в вашей компании позволит ожидать определенного уровня избежания рисков.

Ссылка: Общественная организация Японской ассоциации глубокого обучения (JDLA) | «Руководство по использованию генеративного ИИ[ja]»

Назначение ответственного за использование ChatGPT

Эффективным способом избежания рисков является назначение в компании ответственного за использование ChatGPT, который будет постоянно мониторить выполнение руководящих принципов и управлять рисками.

Мониторинг поведения ChatGPT, корректировка результатов его работы и управление данными можно сравнить с системным аудитом. Системный аудит представляет собой объективную оценку эффективности, безопасности и надежности информационных систем и проводится с целью оптимизации бизнес-процессов и поддержки трансформации организации. Назначение ответственного за аудит поможет усилить прозрачность операций и обеспечить выполнение обязательств по отчетности.

Заключение: Меры по предотвращению рисков необходимы при использовании ChatGPT в бизнесе

В этой статье мы подробно рассмотрели риски и меры по их предотвращению, связанные с использованием ChatGPT в бизнесе.

Внедрение быстро развивающихся AI-технологий, таких как ChatGPT, в бизнес требует комплексного подхода, включая разработку внутренних руководящих принципов, оценку законности бизнес-моделей, составление договоров и пользовательских соглашений, защиту интеллектуальной собственности и обеспечение конфиденциальности. Все это невозможно без привлечения специалистов, хорошо разбирающихся в правовых аспектах и технологиях AI.

Информация о мерах, предпринимаемых нашей юридической фирмой

Юридическая фирма “Монолит” обладает богатым опытом в области IT, особенно в интернете и праве. Бизнес, связанный с искусственным интеллектом (AI), сопряжен с множеством юридических рисков, и поддержка адвокатов, специализирующихся на юридических вопросах AI, является абсолютно необходимой.

Наша фирма предоставляет разнообразную юридическую поддержку для бизнеса, связанного с AI, включая ChatGPT, благодаря команде адвокатов, знакомых с AI, и инженеров. Подробности вы найдете в статье ниже.

Сферы деятельности юридической фирмы “Монолит”: Юридические услуги в области AI (включая ChatGPT и прочее)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Вернуться наверх