MONOLITH LAW OFFICE+81-3-6262-3248Weekdays 10:00-18:00 JST

MONOLITH LAW MAGAZINE

IT

Milline on tehisintellekti reguleerivate seaduste hetkeseis? Jaapani ja ELi võrdlus ning peamised meetmed

IT

Milline on tehisintellekti reguleerivate seaduste hetkeseis? Jaapani ja ELi võrdlus ning peamised meetmed

ChatGPT ja muud generatiivsed tehisintellektid on muutunud suureks buumiks. Tänapäeval on generatiivne tehisintellekt leidnud tee ka ärimaailma ning seda peetakse “neljanda tehisintellekti buumi” käivitajaks. Sellele vastavalt on ülemaailmselt edendatud ka tehisintellekti reguleerivate õigusraamistike väljatöötamist.

Käesolevas artiklis käsitleme tehisintellektiga seotud seadusi ning selgitame intellektuaalomandi õiguste, isikuandmete ja muude konfidentsiaalsete andmete asjakohast käsitlemist.

Tehisintellekti (AI) määratlus ja ajalugu

Tehisintellekt (artificial intelligence, AI) tähendab “tehisintellekti”. Õiguslikult ei ole sellel ranget määratlust ja seda on defineeritud mitmeti. Allpool on toodud mõned näited.

AllikasMääratlus ja selgitus
“Kojien” sõnaraamatArvutisüsteem, millel on järeldamise ja otsustamise intellektuaalsed funktsioonid.
“Britannica entsüklopeedia”Teadus ja tehnoloogia > Arvutid ja AI. Võime, mille abil digitaalarvutid või arvutirobotid täidavad ülesandeid, mis on seotud intellektuaalsete olenditega.
Jaapani Tehisintellekti Ühingu artikkel “AI kui üldteadmised”Küsimusele “Mis on AI?” ei ole lihtne vastata. Isegi AI ekspertide seas on suur arutelu ja erinevad seisukohad, mis võivad täita terve raamatu. Ühisosa kokkuvõttes võib öelda, et AI on tehnoloogia, mis realiseerib inimeste intellektuaalseid ülesandeid mehaaniliselt.
Teadusartikkel “Sügavõpe ja tehisintellekt”AI on teadusvaldkond, mis püüab konstruktiivselt selgitada inimintellekti mehhanisme.
Teadusartikkel “Tehisintellekti ühiskonna ideaalne tulevik”AI ja muud infotehnoloogiad on vaid tööriistad.

AI-d võib kirjeldada kui erinevaid tehnoloogiaid, tarkvarasid, arvutisüsteeme ja algoritme, mis reprodutseerivad inimeste intellektuaalseid võimeid arvutis.

Peamised spetsialiseeritud AI-d hõlmavad järgmist:

  • Looduskeele töötlemine (masintõlge, süntaksianalüüs, morfoloogiline analüüs, RNN jne)
  • Ekspertsüsteemid, mis jäljendavad ekspertide järeldusi ja otsuseid
  • Piltide ja helide tuvastamine ja väljavõtmine andmetest

Tehisintellekti (AI) valdkonda on uuritud ja arendatud alates 1950. aastatest, mis oli arvutite algusaeg. Esimene AI buum kestis 1970. aastateni ja keskendus “otsingule ja järeldamisele”. Teine AI buum toimus 1980. aastatel ja keskendus “teadmiste esindamisele”, mille tulemusena sündisid ekspertsüsteemid. Need kaks paradigmat tõid kaasa AI buumid.

2000. aastatel ilmus suurandmete kontseptsioon ja 2012. aastal Alexneti ilmumisega tunnustati sügavõppe (deep learning) kasulikkust pilditöötluses ülemaailmselt, mis tõi kaasa kolmanda AI buumi.

2016. ja 2017. aastatel ilmusid AI-d, mis kasutasid sügavõpet (deep learning) ja tugevdusõpet (reinforcement learning, Q-õpe, poliitika gradient meetod).

Kolmanda AI buumi peamised uuendused on märgatavad looduskeele töötlemises ja pilditöötluses sensorite abil, kuid need mõjutavad oluliselt ka tehnoloogia arendamist, sotsioloogiat, eetikat ja majandust.

2022. aasta 30. novembril tõi OpenAI turule looduskeele töötlemise generatiivse AI ChatGPT, mis pälvis universaalse tööriistana suurt tähelepanu ja elavdas generatiivse AI äri. Mõned inimesed nimetavad seda sotsiaalset nähtust neljandaks AI buumiks.

Äristsenaariumid, kus tuleks kontrollida AI-ga seotud seadusi

Äristsenaariumid, kus tuleks kontrollida AI-ga seotud seadusi

Generatiivne AI, mis on üks tehisintellekti (AI) liike, on kasulik tööriist, kuid see võib levitada valeinfot, soodustada kuritegevust ja mõnikord isegi ohustada demokraatiat.

Sellised AI-ga seotud riskid on muutunud vältimatuks probleemiks. Seetõttu selgitame, millistes äristsenaariumides tuleks seadusandlust kontrollida, nii kasutaja kui ka pakkuja seisukohalt.

Tekstiloome AI kasutamine

Alates 2022. aasta novembris turule tulnud “ChatGPT” lansseerimisest on tekstiloome AI pälvinud ülemaailmset tähelepanu, kuna see suudab täita keerulisi ülesandeid, pakkudes töö efektiivsust ja kõrget kulutõhusust.

Teisalt on saanud tuntuks ka tekstiloome AI kasutamisega kaasnevad riskid. Nende potentsiaalsete riskide vältimiseks tuleb tähelepanu pöörata sellele, millised riskid eksisteerivad ja milliseid seadusi tuleb järgida.

ChatGPT, mis on tekstiloome AI esindaja, võib ilma meetmeid rakendamata lekkida kasutaja sisestatud teavet (prompt). ChatGPT-l on funktsioon koguda, salvestada ja kasutada prompt’e, mistõttu on oht, et isikuandmed, ettevõtte konfidentsiaalne teave ja konfidentsiaalsuslepingutega (NDA) saadud salajane teave võivad lekkida.

Lisaks on ChatGPT-l ka risk genereerida ja levitada valeinfot (hallutsinatsioon), samuti autoriõiguste rikkumise risk. Seetõttu on oluline kontrollida väljundite faktilist täpsust.

Pildiloome AI kasutamine

Pildiloome AI ärilisel kasutamisel tuleb arvestada autoriõiguste rikkumise riskiga.

ChatGPT ja teiste sarnaste tööriistade abil loodud piltide ja tekstide autoriõigused kuuluvad põhimõtteliselt kasutajale, kes need lõi. OpenAI sõnul võivad kasutajad kasutada ChatGPT-d igasugustel eesmärkidel (sh ärilisel kasutamisel).

Kuid kasutamisel tuleb tähelepanu pöörata järgmistele punktidele.

ChatGPT õppematerjalidesse kuulub suur hulk internetis avaldatud sisu, millest enamik on autoriõigusega kaitstud (tekst, pildid, muusika, videod jne). Seetõttu on võimalik, et loodud sisu rikub teiste autoriõigusi.

AI arendamine ja generatiivse AI teenuste pakkumine

AI-äri hõlmab mitmesuguseid seadusi ja kuna ülemaailmselt on seadusandlik raamistik alles väljatöötamisel, on oluline järgida olemasolevaid seadusi ja olla paindlik uute seaduste suhtes.

Järgmises peatükis selgitame Jaapani AI-ga seotud seadusi ja 2023. aasta detsembris vastu võetud maailma esimest rahvusvahelist ELi “AI regulatsiooni seadust”.

Jaapani AI-seadused

Praegu ei reguleeri Jaapanis AI-d kohustuslikud seadused, vaid järgitakse eneseregulatsiooni põhimõtet. Siin selgitame kehtivaid seadusi, mida tuleb AI kasutamisel arvestada.

Viide: Jaapani Majandus-, Kaubandus- ja Tööstusministeerium|“AI põhimõtete rakendamise juhtnöörid ver. 1.1″[ja]

Autoriõiguse seadus

Heisei 31. aastal (2019) jaanuaris jõustunud “muudetud autoriõiguse seaduses” loodi uus erandite säte “teabe analüüs” (sama seaduse paragrahv 30-4, lõige 1, punkt 2). AI arendamise ja õppimise etapis teabe analüüs, mis ei ole mõeldud teoste väljendatud mõtete või tunnete nautimiseks, on põhimõtteliselt lubatud ilma autoriõiguse omaniku loata.

Selle muudatusega määratleti “teabe analüüs”, mis hõlmab ka AI süvaõpet ja masinõpet.

Teabe analüüs (paljude teoste ja muu suure hulga teabe elementide, nagu keel, heli, piltide jms, eraldamine, võrdlemine, klassifitseerimine ja muu analüüs) kasutamise eesmärgil

Autoriõiguse seaduse paragrahv 30-4, lõige 1, punkt 2

Teisalt, kui AI abil loodud teos sarnaneb või tugineb teiste teostele, võib see olla autoriõiguse rikkumine.

Samuti, kui sisestate teose ChatGPT-sse, võib see rikkuda reprodutseerimisõigust. Kui kasutate generatiivset AI-d teiste teoste muutmiseks, võib see rikkuda kohandamisõigust.

OpenAI kasutustingimuste kohaselt kuuluvad ChatGPT-ga loodud sisu õigused kasutajale ja neid võib kasutada ka äriliselt, kuid kui on raske hinnata, kas sisu rikub autoriõigust, soovitame konsulteerida spetsialistiga.

Kui autoriõiguse omanik süüdistab teid autoriõiguse rikkumises, võite vastutada tsiviilõiguslikult (kasutamise keelamine, kahjutasu, hüvitis, maine taastamine jne) või kriminaalõiguslikult.

Ebaausa konkurentsi tõkestamise seadus

Heisei 31. aastal (2019) 1. juulil jõustus muudetud ebaausa konkurentsi tõkestamise seadus. Varem oli raske takistada ebaausat konkurentsi, kui see ei kuulunud patendiseaduse või autoriõiguse seaduse kaitse alla või ei vastanud ebaausa konkurentsi tõkestamise seaduse “ärisaladuse” määratlusele.

Selle muudatusega kehtestati tsiviilmeetmed (nõudeõigus, kahjutasu eeldus jne) teatud väärtuslike andmete (piiratud juurdepääsuga andmed) ebaseadusliku omandamise ja kasutamise vastu.

ELi tehisintellekti kasutamise seadus

ELi tehisintellekti kasutamise õiguslikud regulatsioonid

ELi õigussüsteem koosneb kolmest osast: esmane õigus (lepingud), teisene õigus (ELi õigusaktid) ja kohtupraktika. Teisene õigus põhineb esmasel õigusel (lepingutel) ja hõlmab õigusakte, mis on ELi liikmesriikidele otseselt või kaudselt siduvad. Seda nimetatakse ELi õiguseks (tuletatud õigus). Teisene õigus jaguneb viide põhikategooriasse, kuid ELi “tehisintellekti regulatsiooniseadus” kuulub määruste (Regulation) alla, mis on otseselt siduvad kõikidele ELi liikmesriikidele.

Teisalt, direktiiv (Directive) on õigusakt, mis kohustab ELi liikmesriike võtma vastu uusi siseriiklikke seadusi või muutma olemasolevaid seadusi, et rakendada direktiivi sisu. Tähtaeg on tavaliselt kolm aastat pärast selle avaldamist ELi Teatajas.

Seotud artikkel: Ettevõtetele, kes plaanivad laieneda Euroopasse: ELi seaduste ja õigussüsteemi põhjalik ülevaade[ja]

Selles peatükis käsitleme ELi tehisintellekti kasutamise õiguslike regulatsioonide uusimaid arenguid, keskendudes “direktiividele” ja “määrustele”.

AI vastutuse direktiivi eelnõu

2022. aasta 28. septembril avaldas Euroopa Komisjon koos “AI vastutuse direktiivi eelnõuga” ka “Toodete vastutuse direktiivi” muudatusettepaneku. See määratleb ELis (Euroopa Liit) kehtivad õiguslikud vastutusreeglid, mis vastavad “AI regulatsiooni seadusele”, ja on oluline õiguslik raamistik. Kuna see kuulub 2023. aasta juunist kehtima hakkava ELi “Kollektiivhagi direktiivi” alla, peavad ka seotud Jaapani ettevõtted selle sisu mõistma.

See muudab oluliselt ELis kehtivaid tsiviilvastutuse õiguslikke reegleid, mis käsitlevad tarkvara, sealhulgas AI süsteeme, et need sobiksid digiajastu ringmajanduse ja globaalse väärtusahelaga.

Seotud artikkel: Milline on AI regulatsiooni seaduse hetkeseis ja väljavaated ELis? Selgitame ka mõju Jaapani ettevõtetele[ja]

“AI vastutuse direktiivi eelnõu” eesmärk on kehtestada reeglid lepinguvälise tsiviilvastutuse kohta AI süsteemidest tuleneva kahju eest ja parandada ELi siseturu toimimist.

Teisisõnu, lepinguline vastutus (lepingurikkumise vastutus ja lepingutingimustele mittevastavuse vastutus) ei kuulu kohaldamisalasse ning tuleb arvestada, et see hõlmab kahju, mis tuleneb hooletusest (nt deliktiõiguslik vastutus), mitte ainult “Toodete vastutuse direktiivi” alla kuuluvat ebapiisavat ohutust.

Näiteks võib see hõlmata ka kahju, mis tuleneb AI värbamissüsteemide diskrimineerimisest.

See eelnõu võtab kasutusele meetmed tõendamiskoormuse leevendamiseks “kõrge riskiga AI süsteemide” arendajatele, mis on sätestatud “AI regulatsiooni seaduses”, et lahendada AI musta kasti probleemi. Samuti on loodud “põhjusliku seose eeldus” ja “tõendite avalikustamise süsteem”.

Tõendite avalikustamise korralduse eiramise korral on “AI vastutuse direktiivi eelnõu” kohaselt kohustus eeldada hoolsuskohustuse rikkumist ja põhjuslikku seost ning “Toodete vastutuse direktiivi muudatusettepaneku” kohaselt kohustus eeldada defekti ja põhjuslikku seost, kehtestades Jaapani tsiviilkohtumenetluse seadusest rangemad karistused.

See eelnõu on esimeses etapis piiratud AI musta kasti ja sellega seotud “tõendamiskoormuse leevendamise meetmetega”, kehtestades uued reeglid hageja sobivuse, tõendite avalikustamise, tõendite säilitamise ja põhjusliku seose eelduse kohta.

Teine etapp käsitleb ülevaatust ja hindamist. Euroopa Komisjon loob seireprogrammi, et üle vaadata juhtumite teave ja hinnata täiendavaid meetmeid, nagu süütu vastutuse (range vastutuse) kehtestamine kõrge riskiga AI süsteemide arendajatele ja kohustusliku kindlustuse vajadus, ning esitab aruande Euroopa Ülemkogule ja Euroopa Parlamendile.

Tootjavastutuse direktiivi muutmise ettepanek

“Tootjavastutuse direktiiv” on 1985. aastal vastu võetud Euroopa Liidu seadus, mis kaitseb tarbijaid ja sätestab tootjate vastutuse, kui defektne toode põhjustab tarbijale kahju.

Muutmise ettepanekus lisatakse “toodete” hulka uus kategooria – “tarkvara”. Kui tarkvara, sealhulgas tehisintellekti (AI) süsteemid, on defektne, kohaldatakse AI-süsteemide operaatoritele süüvaba vastutust. Defekti olemasolu hindamise kriteeriumide hulka lisatakse ka pidev õppimisvõime ja tarkvarauuendused pärast paigaldamist.

Jaapani kehtiva seaduse, “Jaapani Tootjavastutuse Seaduse” kohaselt ei peeta tarkvara üldiselt vallasvaraks ja seetõttu ei kuulu see seaduse kohaldamisalasse. Kuid seaduse muutmise ettepanek muudab “toodete” mõistet. See ettepanek võib samuti kehtestada “tõendamiskoormuse leevendamise meetmed”, mis võivad oluliselt mõjutada AI-süsteeme ja tipptasemel tehnoloogilisi tooteid, sealhulgas tarkvara.

AI regulatsiooniseadus

Jaapani “AI regulatsiooniseadus (AI Act)” on kõikehõlmav EL-i ühtne reegel (teisene õigus) AI-äri jaoks, mis koosneb 85 artiklist ja on maailma esimene rahvusvaheline AI-d reguleeriv seadus. See jõustus 9. detsembril 2023, kui Euroopa Komisjon, Euroopa Parlament ja Euroopa Ülemkogu jõudsid ajutisele kokkuleppele. Eeldatakse, et see jõustub ja rakendub täielikult 2024. aastal.

See seadus on EL-i digistrateegia “A Europe fit for the Digital Age (Euroopa, mis sobib digiajastusse)” keskne osa, mille eesmärk on lahendada areneva digiajastu uusi väljakutseid ja riske. See tagab AI ohutuse ja põhiõigused ning on osa laiemast AI-paketist, mille eesmärk on tugevdada AI-ga seotud tegevusi, investeeringuid ja innovatsiooni kogu EL-is.

EL-i “AI regulatsiooniseadus” kehtib otse EL-i liikmesriikides ja seda kohaldatakse ka piiriüleselt, kui tegutsetakse EL-i territooriumil, sealhulgas välismaal asuvate ettevõtjate suhtes.

Rikkumiste korral määratakse ülemaailmse käibe alusel suured trahvid (kuni 30 miljonit eurot ehk umbes 4,7 miljardit jeeni või 6% ülemaailmsest käibest, olenevalt sellest, kumb on suurem), ning on oht, et AI-äri ei saa EL-i piires jätkata.

Seetõttu peavad Jaapani ettevõtted, kes on juba EL-i turul AI-d kasutusele võtnud või plaanivad tulevikus EL-i turule siseneda, kohanduma EL-i uute AI regulatsioonidega.

“AI regulatsiooniseaduse” põhielemendid jagunevad kolmeks peamiseks omaduseks: “riskipõhine AI klassifikatsioon”, “nõuded ja kohustused” ning “innovatsiooni toetamine”.

Regulatsiooni alla kuuluvad ettevõtjad, kes toovad Euroopa turule AI-süsteeme ja -teenuseid, sealhulgas AI arendajad, juurutajad, pakkujad, importijad, müüjad ja kasutajad.

AI riskitasemed on jaotatud nelja kategooriasse ning vastavalt sellele kohaldatakse regulatsioone. AI põhimõtete saavutamiseks on selgelt määratletud juhised, mis nõuavad AI arendajate, kasutajate ja pakkujate AI kirjaoskuse tagamist. Täpsemat teavet leiate seotud artiklitest.

Seotud artiklid: Milline on AI regulatsiooniseaduse hetkeseis ja väljavaated EL-is? Mõju Jaapani ettevõtetele[ja]

AI-ga seotud seaduste olulised punktid

AI-ga seotud seaduste olulised punktid

Selles peatükis selgitame peamisi juriidilisi punkte, mida ettevõtted peaksid arvestama, kui nad kavatsevad kasutada generatiivset AI-d.

AI loodud teoste autoriõigus

Generatiivse AI poolt loodud teoste puhul tuleks arvestada järgmiste juriidiliste küsimustega:

  • Kas see teos rikub autoriõigust?
  • Kas generatiivse AI poolt loodud teosele saab anda autoriõiguse?

Nagu eelnevalt mainitud, kui ChatGPT poolt loodud teos sarnaneb või tugineb olemasolevale teosele, võib see olla autoriõiguse rikkumine. Teisalt, kas generatiivse AI poolt loodud teosele saab anda autoriõiguse?

Jaapani autoriõiguse seaduse (著作権法) kohaselt on “teos” defineeritud kui “mõtte või tunde loominguline väljendus”. Kuna AI-l puuduvad mõtted ja tunded, on olemas seisukoht, et generatiivse AI poolt loodud sisule ei saa anda autoriõigust.

Teisalt, AI poolt loodud sisu loomise protsess on kasutajale must kast (otsustusprotsess on läbipaistmatu), mistõttu on kasutajal väga keeruline saada AI-lt soovitud sisu. Seetõttu, kui kasutaja loomingulist panust on võimalik tuvastada juba prompti etapis, võib väita, et kasutaja “mõtte või tunde” on generatiivse AI abil “loominguliselt väljendatud”, ja sellisel juhul võib autoriõigus olla tunnustatud.

Isikuandmete käsitlemine AI kasutamisel

AI kasutamisel tuleb arvestada, et see võib rikkuda Jaapani isikuandmete kaitse seadust (個人情報保護法). On vaja võtta meetmeid, näiteks mitte sisestada isikuandmeid või privaatsusega seotud teavet.

Kui prompti sisestatakse isikuandmeid, võib see kvalifitseeruda isikuandmete edastamiseks kolmandale osapoolele teenusepakkujale. Isikuandmete edastamiseks kolmandale osapoolele on põhimõtteliselt vajalik isiku nõusolek, seega ilma isiku nõusolekuta võib see olla isikuandmete kaitse seaduse rikkumine.

ChatGPT puhul on olemas mehhanism, mis takistab isikuandmete väljundit isegi siis, kui need on kogemata sisestatud. See on kooskõlas OpenAI poliitikaga, mille kohaselt ChatGPT ei salvesta ega jälgi isikuandmeid. Teiste teenuste ja platvormide puhul võib see olla erinev, seega tuleb olla ettevaatlik.

Ettevõtete riskide maandamine AI kasutamisel

Riskide maandamine sõltub ettevõtte äristrateegiast, AI kasutamise eesmärgist ja seotud õigusaktidest. Seetõttu on oluline rakendada sobivaid riskide maandamise meetmeid vastavalt olukorrale ja eesmärgile.

Ettevõtted, kes kasutavad generatiivset AI-d, peaksid riskide minimeerimiseks arvestama järgmiste punktidega:

  1. Personalikoolitus: Generatiivse AI nõuetekohaseks kasutamiseks on vaja spetsialiseeritud teadmisi ja oskusi. Töötajate harimine ja koolitamine on oluline, et nad mõistaksid õigeid kasutusviise.
  2. Sisemiste juhiste koostamine, rakendamine ja järgimine: Generatiivse AI kasutamise kohta sisemiste juhiste koostamine ja töötajate järgimise tagamine aitab riske vähendada.
  3. Generatiivse AI kasutamise ja riskide maandamise edendamise organisatsiooni loomine: Generatiivse AI kasutamise edendamiseks organisatsiooni loomine ja riskijuhtimise eest vastutava meeskonna paigutamine organisatsiooni on tõhus.
  4. Süsteemi juurutamine: Generatiivse AI nõuetekohaseks juurutamiseks on vaja hoolikalt valida ja kavandada süsteem.

Lisaks on generatiivse AI kasutamisega seotud riskid mitmekesised, sealhulgas teabe leke, õiguste ja privaatsuse rikkumine, teabe täpsuse ja turvalisuse probleemid ning kallutatuse risk. Nende riskide vältimiseks on hädavajalik rakendada sobiv juhtimis- ja riskijuhtimise raamistik.

Seotud artiklid: “Millised on ChatGPT ettevõttesse juurutamise riskid. Salajase teabe lekitamise juhtumid ja meetmed”[ja]

Kokkuvõte: AI seadused on väljatöötamisel, seega on vaja pidevalt kursis olla

AI-äri puudutavad seadused on väljatöötamisel, alustades maailma esimesest rahvusvahelisest “AI regulatsiooniseadusest” (kehtestatud 9. detsembril 2023) EL-is. Seetõttu peavad ettevõtted järgima olemasolevaid seadusi ja olema paindlikud uute seaduste suhtes.

Jaapanis ei ole veel otseseid AI-d reguleerivaid seadusi, kuid on oluline hästi mõista ja järgida seotud seadusi, nagu Jaapani autoriõigusseadus, Jaapani isikuandmete kaitse seadus ja Jaapani ebaausa konkurentsi tõkestamise seadus. Samuti on oluline jälgida seotud seaduste tulevasi muudatusi ja reageerida neile kiiresti.

Meie büroo meetmete tutvustus

Monolith advokaadibüroo on advokaadibüroo, millel on rikkalik kogemus IT, eriti interneti ja õiguse valdkonnas. AI-äri kaasneb palju õiguslikke riske ning AI-ga seotud õigusprobleemide lahendamiseks on hädavajalik AI-õiguse asjatundlike advokaatide tugi.

Meie büroo pakub AI-õiguse asjatundlike advokaatide ja inseneride meeskonnaga kõrgetasemelist õiguslikku tuge AI-äridele, sealhulgas ChatGPT-le. Pakume lepingute koostamist, ärimudelite seaduslikkuse hindamist, intellektuaalomandi kaitset ja privaatsuse tagamist. Üksikasjad on toodud allpool olevas artiklis.

Monolith advokaadibüroo tegevusvaldkonnad: AI (ChatGPT jne) õigus[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Return to Top