MONOLITH LAW OFFICE+81-3-6262-3248Καθημερινές 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Ο Κανονισμός της ΕΕ για την Τεχνητή Νοημοσύνη και οι Απαραίτητες Αντιδράσεις για τις Ιαπωνικές Επιχειρήσεις

IT

Ο Κανονισμός της ΕΕ για την Τεχνητή Νοημοσύνη και οι Απαραίτητες Αντιδράσεις για τις Ιαπωνικές Επιχειρήσεις

Στις 12 Ιουλίου 2024 (2024年7月12日), στην ΕΕ κυρώθηκε ο “Νόμος Ρύθμισης της Τεχνητής Νοημοσύνης (EU AI Act)”, ο οποίος τέθηκε σε ισχύ από την 1η Αυγούστου του ίδιου έτους.
Αυτός ο νόμος ρυθμίζει τη χρήση και την προσφορά συστημάτων τεχνητής νοημοσύνης εντός της ΕΕ και, από το 2025 και μετά, θα απαιτεί από τις Ιαπωνικές εταιρείες να προβούν σε συγκεκριμένες ενέργειες.

Συγκεκριμένα, όπως οι διαχειριστές ιστοσελίδων e-commerce στην Ιαπωνία πρέπει να συμμορφώνονται με τον “Γενικό Κανονισμό Προστασίας Δεδομένων (GDPR)” της ΕΕ, έτσι και οι Ιαπωνικές εταιρείες που προσφέρουν προϊόντα ή υπηρεσίες σχετικές με την τεχνητή νοημοσύνη σε πελάτες εντός της ΕΕ, μπορεί να υπόκεινται στην εφαρμογή του Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης της ΕΕ.

Εδώ θα αναλύσουμε τις απαιτήσεις που επιβάλλονται στις σχετικές επιχειρήσεις με την εφαρμογή αυτού του νόμου, όπως η κατηγοριοποίηση των κινδύνων των συστημάτων AI και η αξιολόγηση της συμμόρφωσης, καθώς και άλλες ρυθμιστικές απαιτήσεις.

Προϋπόθεση: Η διαφορά μεταξύ “Κανονισμού” και “Οδηγίας” στο Ευρωπαϊκό Δίκαιο

Πριν προχωρήσουμε στην ανάλυση του ίδιου του Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης, είναι απαραίτητο να κατανοήσουμε, ως προϋπόθεση, τη διαφορά μεταξύ “Κανονισμού” και “Οδηγίας” στο δίκαιο της ΕΕ.

Αρχικά, ο “Κανονισμός” είναι ένα νομοθετικό μέσο που εφαρμόζεται άμεσα στα κράτη μέλη, τις επιχειρήσεις και άλλα φορείς εντός της ΕΕ. Αυτό σημαίνει ότι έχει προτεραιότητα έναντι των εθνικών νόμων των κρατών μελών και εφαρμόζεται ένα ενιαίο σύνολο κανόνων σε ολόκληρη την ΕΕ. Έτσι, όταν ένας Κανονισμός τεθεί σε ισχύ, το ίδιο το περιεχόμενο της ρύθμισης εφαρμόζεται σε όλα τα κράτη μέλη.

Από την άλλη πλευρά, η “Οδηγία” είναι ένα νομοθετικό μέσο που στοχεύει στον συντονισμό και την εναρμόνιση του περιεχομένου των ρυθμίσεων μεταξύ των κρατών μελών. Ωστόσο, οι Οδηγίες δεν εφαρμόζονται άμεσα στα κράτη μέλη, αλλά απαιτούν από τα κράτη να μεταφέρουν το περιεχόμενο που ορίζεται στις Οδηγίες στο εθνικό τους δίκαιο. Συνήθως, τα κράτη μέλη πρέπει να θεσπίσουν ή να τροποποιήσουν την εθνική τους νομοθεσία εντός τριών ετών από τη δημοσίευση της Οδηγίας στην Επίσημη Εφημερίδα της ΕΕ.

Ένα χαρακτηριστικό των “Οδηγιών” είναι ότι, κατά τη μεταφορά τους στο εθνικό δίκαιο, παρέχεται στα κράτη μέλη ένας βαθμός ευελιξίας, γεγονός που σημαίνει ότι το περιεχόμενο των εθνικών νόμων μπορεί να διαφέρει. Με άλλα λόγια, οι νόμοι που βασίζονται σε “Οδηγίες” δεν είναι πλήρως εναρμονισμένοι σε όλη την ΕΕ και μπορεί να υπάρχουν μικρές διαφορές ανάμεσα στα διάφορα κράτη μέλη.

Με βάση αυτή τη διάκριση, ο Νόμος Ρύθμισης της Τεχνητής Νοημοσύνης έχει καταρτιστεί ως “Κανονισμός”. Αυτό σημαίνει ότι ο Νόμος Ρύθμισης της Τεχνητής Νοημοσύνης εφαρμόζεται άμεσα στους φορείς που βρίσκονται εντός της ΕΕ.

Σχετικό άρθρο: Απαραίτητο για επιχειρήσεις που επεκτείνονται στην Ευρώπη: Εξήγηση των βασικών σημείων του νομικού και νομοθετικού πλαισίου της ΕΕ[ja]

Ο Νόμος Ρύθμισης της Τεχνητής Νοημοσύνης και η Εξωεδαφική Εφαρμογή του στην Ιαπωνία

Τι είναι η Εξωεδαφική Εφαρμογή

Η “εξωεδαφική εφαρμογή” αναφέρεται στην εφαρμογή ενός νόμου που έχει θεσπιστεί σε μια χώρα, σε πράξεις που λαμβάνουν χώρα εκτός των συνόρων της εδαφικής της κυριαρχίας. Η αναγνώριση της εξωεδαφικής εφαρμογής βασίζεται στην παγκοσμιοποίηση της οικονομίας και τη διεθνοποίηση των επιχειρηματικών δραστηριοτήτων, με στόχο τη δίκαιη και σωστή διεξαγωγή των παγκόσμιων οικονομικών δραστηριοτήτων.

Ένα παράδειγμα που έκανε την έννοια αυτή ευρέως αναγνωρισμένη είναι το GDPR (Γενικός Κανονισμός Προστασίας Δεδομένων της ΕΕ). Σύμφωνα με το GDPR, οι επιχειρήσεις που δεν έχουν έδρα στην ΕΕ μπορεί να υπόκεινται στην εφαρμογή του (εξωεδαφική εφαρμογή), εάν πληρούν τα ακόλουθα κριτήρια:

  • Παροχή υπηρεσιών ή προϊόντων σε άτομα εντός της ΕΕ
  • Επεξεργασία προσωπικών δεδομένων με σκοπό την παρακολούθηση της συμπεριφοράς ατόμων εντός της ΕΕ

Για παράδειγμα, σε περίπτωση που μια εταιρεία εκτός ΕΕ αποστέλλει υπαλλήλους σε επαγγελματικό ταξίδι στην ΕΕ και επεξεργάζεται σχετικά προσωπικά δεδομένα κατά τη διάρκεια αυτού, οι οδηγίες του 2020 ανέφεραν ότι αυτό είναι “εκτός εφαρμογής”, αν και αρχικά συζητήθηκε η εξωεδαφική εφαρμογή του.

Η Εξωεδαφική Εφαρμογή του Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης στην Ιαπωνία

Στον Νόμο Ρύθμισης της Τεχνητής Νοημοσύνης της ΕΕ, η εξωεδαφική εφαρμογή αναγνωρίζεται επίσης για επιχειρήσεις που βρίσκονται εκτός ΕΕ. Οι ακόλουθοι επιχειρηματίες και δραστηριότητες εμπίπτουν στην κατηγορία αυτή:

  • Πάροχοι (Providers): Όσοι αναπτύσσουν συστήματα Τεχνητής Νοημοσύνης ή μοντέλα GPAI, όσοι αναθέτουν την ανάπτυξη και εισάγουν στην αγορά τέτοια συστήματα ή όσοι λειτουργούν συστήματα Τεχνητής Νοημοσύνης υπό το δικό τους όνομα ή εμπορικό σήμα
  • Χρήστες (Users): Όσοι χρησιμοποιούν συστήματα Τεχνητής Νοημοσύνης υπό τη δική τους εξουσία (εξαιρούνται όσοι τα χρησιμοποιούν για προσωπικούς και μη επαγγελματικούς σκοπούς)
  • Εισαγωγείς (Importers): Εισαγωγείς που βρίσκονται ή έχουν ιδρυθεί εντός της ΕΕ και εισάγουν στην αγορά της ΕΕ συστήματα Τεχνητής Νοημοσύνης με το όνομα ή το εμπορικό σήμα φυσικών ή νομικών προσώπων που έχουν ιδρυθεί εκτός ΕΕ
  • Διανομείς (Distributers): Φυσικά ή νομικά πρόσωπα που ανήκουν στην αλυσίδα προμήθειας και παρέχουν συστήματα Τεχνητής Νοημοσύνης στην αγορά της ΕΕ, εκτός από τους παρόχους και τους εισαγωγείς

Όπως φαίνεται παραπάνω, ακόμη και οι επιχειρήσεις που βρίσκονται εκτός ΕΕ, εάν προσφέρουν, λειτουργούν, εισάγουν ή χρησιμοποιούν συστήματα Τεχνητής Νοημοσύνης ή μοντέλα GPAI εντός της ΕΕ, τότε ο Νόμος Ρύθμισης της Τεχνητής Νοημοσύνης της ΕΕ εφαρμόζεται απευθείας σε αυτές.

Χαρακτηριστικά του Ευρωπαϊκού Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης: Προσέγγιση Βασισμένη στον Κίνδυνο

Χαρακτηριστικά του Ευρωπαϊκού Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης: Προσέγγιση Βασισμένη στον Κίνδυνο

Τι είναι η Προσέγγιση Βάσει Κινδύνου

Το κύριο χαρακτηριστικό του Ευρωπαϊκού Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης είναι η “ρύθμιση ανάλογα με το περιεχόμενο και το βαθμό του κινδύνου” (προσέγγιση βάσει κινδύνου).

Η “προσέγγιση βάσει κινδύνου” αναφέρεται στη μέθοδο προσαρμογής της έντασης της ρύθμισης βάσει του περιεχομένου και του βαθμού του κινδύνου. Με αυτή την προσέγγιση, η αυστηρότητα των ρυθμίσεων που εφαρμόζονται σε ένα σύστημα Τεχνητής Νοημοσύνης καθορίζεται ανάλογα με τη σοβαρότητα των κινδύνων που ενδέχεται να προκαλέσει.

Συγκεκριμένα, σε συστήματα Τεχνητής Νοημοσύνης με υψηλό κίνδυνο εφαρμόζονται πιο αυστηρές ρυθμίσεις, ενώ σε συστήματα με χαμηλό κίνδυνο εφαρμόζονται σχετικά ελαστικές ρυθμίσεις. Έτσι, αποφεύγεται η υπερβολική ρύθμιση σε συστήματα με χαμηλό κίνδυνο, ενώ ταυτόχρονα εξασφαλίζεται η κατάλληλη εποπτεία και διαχείριση σε συστήματα με υψηλό κίνδυνο.

Συστήματα Τεχνητής Νοημοσύνης με Απαράδεκτο Ρίσκο Κάτω από το Ιαπωνικό Δίκαιο

Καταρχάς, τα συστήματα τεχνητής νοημοσύνης που θεωρούνται ως έχοντα απαράδεκτο ρίσκο αντιμετωπίζονται ως απειλή για τους ανθρώπους και αρχικά απαγορεύονται.

Για παράδειγμα, συστήματα AI που όπως τα φωνητικά ενεργοποιούμενα παιχνίδια, τα οποία ενθαρρύνουν επικίνδυνες συμπεριφορές στα παιδιά, ή εκείνα που χειραγωγούν την αντίληψη και τη συμπεριφορά συγκεκριμένων ευάλωτων ομάδων χρηστών, εμπίπτουν σε αυτή την κατηγορία. Επίσης, το κοινωνικό σκοράρισμα που κατατάσσει τους ανθρώπους βάσει της συμπεριφοράς τους, της κοινωνικοοικονομικής τους θέσης ή προσωπικών χαρακτηριστικών, απαγορεύεται επίσης. Περαιτέρω, τα συστήματα «ζωντανής και απομακρυσμένης βιομετρικής αναγνώρισης» που χρησιμοποιούν τεχνολογίες όπως η αναγνώριση προσώπου για να συγκρίνουν τα βιομετρικά δεδομένα ενός ανθρώπου με μια βάση δεδομένων αναφοράς και να τον αναγνωρίσουν από απόσταση, απαγορεύονται επίσης αρχικά.

Ωστόσο, υπάρχουν περιπτώσεις όπου η χρήση αυτών των συστημάτων επιτρέπεται ως εξαίρεση. Συγκεκριμένα, τα συστήματα απομακρυσμένης βιομετρικής αναγνώρισης σε πραγματικό χρόνο επιτρέπονται μόνο σε περιορισμένες περιπτώσεις σοβαρών εγκλημάτων. Από την άλλη πλευρά, τα συστήματα απομακρυσμένης βιομετρικής αναγνώρισης μετά το γεγονός επιτρέπονται μόνο εφόσον έχουν λάβει έγκριση από το δικαστήριο για την κατηγορία σοβαρών εγκλημάτων.

Επιπλέον, ως εξαιρέσεις που επιτρέπεται η εφαρμογή, περιλαμβάνονται η αναζήτηση ατόμων που ενδέχεται να είναι θύματα εγκλημάτων, όπως αγνοούμενα παιδιά, η πρόληψη συγκεκριμένων και επείγουσων απειλών για την ασφάλεια της ζωής ή της σωματικής ακεραιότητας των ανθρώπων ή τρομοκρατικών επιθέσεων, καθώς και η ανίχνευση και η εντόπιση τόπου δράσης δραστών ή υπόπτων σοβαρών εγκλημάτων. Αυτές οι εξαιρέσεις υπόκεινται σε αυστηρούς περιορισμούς, με την αρχή της προηγούμενης έγκρισης από το δικαστήριο, και απαιτείται προσεκτική χρήση των συστημάτων AI.

Συστήματα Υψηλού Κινδύνου AI

Στη συνέχεια, τα συστήματα AI που κατατάσσονται ως συστήματα υψηλού κινδύνου είναι εκείνα που μπορεί να έχουν αρνητική επίδραση στην ασφάλεια ή τα βασικά ανθρώπινα δικαιώματα. Η χρήση τους επιτρέπεται μόνο εφόσον πληρούν συγκεκριμένες απαιτήσεις και υποχρεώσεις (αξιολόγηση συμμόρφωσης).

Τα συστήματα υψηλού κινδύνου AI χωρίζονται κυρίως σε δύο κατηγορίες. Πρώτον, σε AI συστήματα που χρησιμοποιούνται σε προϊόντα που υπόκεινται στην νομοθεσία ασφάλειας προϊόντων της ΕΕ, όπως παιχνίδια, αεροσκάφη, αυτοκίνητα, ιατρικές συσκευές, ανελκυστήρες κ.ά. Δεύτερον, σε AI συστήματα που ανήκουν σε συγκεκριμένους τομείς για τους οποίους είναι υποχρεωτική η εγγραφή στην βάση δεδομένων της ΕΕ. Αυτοί οι τομείς περιλαμβάνουν τη διαχείριση και λειτουργία κρίσιμων υποδομών, την εκπαίδευση και την επαγγελματική κατάρτιση, την απασχόληση και τη διαχείριση εργαζομένων, την πρόσβαση σε ουσιώδεις δημόσιες υπηρεσίες και παροχές, την επιβολή του νόμου, τη μετανάστευση και το άσυλο, τη διαχείριση συνόρων, καθώς και την υποστήριξη στην ερμηνεία και εφαρμογή του νόμου.

Τα συστήματα υψηλού κινδύνου AI απαιτούν αξιολόγηση πριν από την είσοδό τους στην αγορά και καθ’ όλη τη διάρκεια του κύκλου ζωής τους. Επιπλέον, παρέχεται το δικαίωμα στους καταναλωτές να υποβάλλουν παράπονα σχετικά με τα AI συστήματα στις αρμόδιες εθνικές αρχές.

Γενικά, μπορούμε να πούμε ότι τα μηχανήματα και τα οχήματα τα οποία η ασφάλεια της ανθρώπινης ζωής και του σώματος αποτελούν προϋπόθεση, εντάσσονται στην κατηγορία των συστημάτων υψηλού κινδύνου AI. Για παράδειγμα, τα AI συστήματα αυτόνομης οδήγησης μπορεί επίσης να υπάγονται σε αυτή την κατηγορία, επομένως όταν μια Ιαπωνική εταιρεία αναπτύσσει AI για αυτόνομη οδήγηση και σχεδιάζει τη διεθνή της επέκταση, πρέπει να εξετάσει προσεκτικά εάν πληροί τις απαιτήσεις για υψηλού κινδύνου AI και να ανταποκριθεί κατάλληλα.

Συστήματα Τεχνητής Νοημοσύνης με Περιορισμένο Κίνδυνο

Στην περίπτωση των συστημάτων τεχνητής νοημοσύνης με περιορισμένο κίνδυνο, προβλέπονται κίνδυνοι όπως η διαφάνεια, η παραποίηση, η χειραγώγηση και η απάτη. Συγκεκριμένα, σε αυτή την κατηγορία ανήκουν τα chatbots, τα deepfakes και η γεννήτρια AI, και σύμφωνα με την άποψη του Ευρωπαϊκού Κοινοβουλίου, η πλειοψηφία των συστημάτων AI που χρησιμοποιούνται σήμερα κατατάσσονται σε αυτή την κατηγορία. Για παράδειγμα, συστήματα αυτόματης μετάφρασης, παιχνιδομηχανές, ρομπότ που εκτελούν επαναλαμβανόμενες διαδικασίες κατασκευής, καθώς και συστήματα AI όπως η «Μηχανή Ευρεκά» περιλαμβάνονται επίσης εδώ.

Όσον αφορά τη γεννήτρια AI, αν και δεν κατατάσσεται ως υψηλού κινδύνου, απαιτείται η συμμόρφωση με τις απαιτήσεις διαφάνειας και την τήρηση της νομοθεσίας περί πνευματικής ιδιοκτησίας της ΕΕ. Συγκεκριμένα, απαιτούνται οι ακόλουθες ενέργειες:

  • Να αποκαλύπτεται σαφώς ότι το περιεχόμενο έχει δημιουργηθεί από AI.
  • Να σχεδιάζονται μοντέλα που δεν παράγουν παράνομο περιεχόμενο.
  • Να δημοσιεύεται μια περίληψη των δεδομένων που προστατεύονται από το δικαίωμα πνευματικής ιδιοκτησίας και χρησιμοποιούνται για την εκπαίδευση του AI.

Επιπλέον, για προηγμένα και επιδραστικά γενικά μοντέλα AI (GPAI μοντέλα) όπως το «GPT-4», τα οποία μπορεί να ενέχουν συστημικούς κινδύνους, απαιτείται μια ενδελεχής αξιολόγηση. Σε περίπτωση που συμβεί ένα σοβαρό περιστατικό, επιβάλλεται η υποχρέωση αναφοράς στην Ευρωπαϊκή Επιτροπή. Επιπρόσθετα, το περιεχόμενο που δημιουργείται ή τροποποιείται από AI (εικόνες, ηχητικά αρχεία, βίντεο, deepfakes κλπ.) πρέπει να επισημαίνεται σαφώς ως παραγόμενο από AI, ώστε οι χρήστες να μπορούν να αναγνωρίζουν το περιεχόμενο αυτό.

Συστήματα Τεχνητής Νοημοσύνης με Ελάχιστο Κίνδυνο στην Ιαπωνία

Τέλος, για τα συστήματα τεχνητής νοημοσύνης (AI) που συνδέονται με ελάχιστο κίνδυνο, δεν έχουν καθοριστεί ειδικοί κανονισμοί στην Ιαπωνία. Ως παραδείγματα αναφέρονται τα συστήματα φιλτραρίσματος ανεπιθύμητων μηνυμάτων (spam filters) και τα συστήματα προτάσεων (recommendation systems). Σε αυτή την κατηγορία, αντί για κανονιστικές παρεμβάσεις, ενθαρρύνεται η δημιουργία και η τήρηση κώδικων δεοντολογίας.

Απαιτήσεις και Υποχρεώσεις για Συστήματα Υψηλού Κινδύνου AI στην Ιαπωνία

Απαιτήσεις και Υποχρεώσεις για Συστήματα Υψηλού Κινδύνου AI στην Ιαπωνία

Υποχρεώσεις Παρόχων, Χρηστών, Εισαγωγέων και Πωλητών

Στη βάση των παραπάνω διακρίσεων, τα συστήματα AI υψηλού κινδύνου υπόκεινται σε ιδιαίτερα αυστηρούς κανονισμούς λόγω της σοβαρότητας των κινδύνων τους, και απαιτούνται συγκεκριμένες υποχρεώσεις από τους παρόχους και τους χρήστες.

Αρχικά, απαιτείται από τους παρόχους, τους χρήστες, τους εισαγωγείς και τους πωλητές να δημιουργήσουν ένα σύστημα διαχείρισης κινδύνων (άρθρο 9). Αυτό σημαίνει την κατασκευή και εφαρμογή ενός συστήματος για τον εντοπισμό και την κατάλληλη διαχείριση των κινδύνων που ενυπάρχουν στα συστήματα AI υψηλού κινδύνου, καθώς και την τεκμηρίωση και συντήρησή του. Επιπλέον, όσον αφορά τη διακυβέρνηση δεδομένων (άρθρο 10), απαιτείται η χρήση σετ δεδομένων για εκπαίδευση, επαλήθευση και δοκιμές που πληρούν τα πρότυπα ποιότητας. Αυτό είναι απαραίτητο γιατί η ποιότητα και η αξιοπιστία των δεδομένων πρέπει να διαχειρίζονται αυστηρά ακόμα και κατά τη φάση ανάπτυξης του AI συστήματος.

Επιπρόσθετα, επιβάλλεται η δημιουργία τεχνικών εγγράφων (άρθρο 11). Αυτά τα τεχνικά έγγραφα πρέπει να περιέχουν πληροφορίες που αποδεικνύουν ότι τα συστήματα AI υψηλού κινδύνου συμμορφώνονται με τις ρυθμιστικές απαιτήσεις και πρέπει να είναι διαθέσιμα για παροχή στις αρμόδιες αρχές των κρατών μελών ή σε τρίτους φορείς πιστοποίησης. Επίσης, απαιτείται ο σχεδιασμός και η ανάπτυξη μιας λειτουργίας καταγραφής συμβάντων που λειτουργεί αυτόματα κατά τη διάρκεια λειτουργίας του AI συστήματος (άρθρο 12). Επιπλέον, τα συστήματα AI υψηλού κινδύνου πρέπει να εγγράφονται σε μια βάση δεδομένων υπό τη διαχείριση της ΕΕ πριν την είσοδό τους στην αγορά, και οι πάροχοι έχουν την ευθύνη να διατηρούν και να τεκμηριώνουν ένα σύστημα διαχείρισης ποιότητας.

Υποχρεώσεις των Παρόχων

Οι πάροχοι έχουν την υποχρέωση να διατηρούν τα τεχνικά έγγραφα, τα έγγραφα σχετικά με το σύστημα διαχείρισης ποιότητας, τα έγγραφα που αφορούν την έγκριση ή τις αποφάσεις από τρίτους φορείς πιστοποίησης και άλλα σχετικά έγγραφα για δέκα χρόνια μετά την είσοδο στην αγορά ή την έναρξη λειτουργίας και να τα υποβάλλουν κατόπιν αιτήματος των εθνικών αρχών. Έτσι, οι πάροχοι φέρουν την ευθύνη να διατηρούν την ποιότητα και την ασφάλεια του AI συστήματος μακροπρόθεσμα και να εξασφαλίζουν τη διαφάνεια.

Υποχρεώσεις των Χρηστών

Από την άλλη πλευρά, συγκεκριμένες υποχρεώσεις επιβάλλονται και στους χρήστες που χρησιμοποιούν συστήματα AI υψηλού κινδύνου. Οι χρήστες πρέπει να διατηρούν τα αυτόματα παραγόμενα αρχεία καταγραφής από το AI σύστημα για μια κατάλληλη περίοδο, σύμφωνα με τον σκοπό για τον οποίο προορίζεται το σύστημα, εκτός αν υπάρχουν ειδικές διατάξεις στο ευρωπαϊκό ή εθνικό δίκαιο. Συγκεκριμένα, απαιτείται η διατήρηση των αρχείων για τουλάχιστον έξι μήνες.

Επιπλέον, όταν ένας χρήστης που είναι εργοδότης ξεκινά τη λειτουργία ή χρησιμοποιεί ένα σύστημα AI υψηλού κινδύνου στον χώρο εργασίας, έχει την υποχρέωση να ενημερώσει εκ των προτέρων τους εκπροσώπους των εργαζομένων και τους εργαζομένους που θα επηρεαστούν για τη χρήση του συστήματος. Αυτό ορίζεται για την προστασία των δικαιωμάτων των εργαζομένων και τη διασφάλιση της διαφάνειας.

Έτσι, τα συστήματα AI υψηλού κινδύνου επιβάλλουν αυστηρές απαιτήσεις και υποχρεώσεις τόσο στους παρόχους όσο και στους χρήστες. Ιδιαίτερα, όταν αντιμετωπίζουμε προηγμένες τεχνολογίες AI όπως ιατρικές συσκευές ή συστήματα αυτόνομης οδήγησης, μπορεί να απαιτηθεί η διενέργεια αξιολόγησης συμμόρφωσης και η εξέταση από τρίτους φορείς πιστοποίησης, λαμβάνοντας υπόψη τη συμβατότητα με τα υφιστάμενα ρυθμιστικά πλαίσια, γεγονός που απαιτεί από τους επιχειρηματίες να ανταποκρίνονται με προσοχή και σχεδιασμό.

Φάσεις Εφαρμογής του Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης στην Ιαπωνία

Φάσεις Εφαρμογής του Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης

Ο Νόμος Ρύθμισης της Τεχνητής Νοημοσύνης της ΕΕ προβλέπει ένα σταδιακό χρονοδιάγραμμα εφαρμογής από τη δημοσίευση μέχρι την εφαρμογή του. Αυτό απαιτεί από τις επιχειρήσεις να προετοιμαστούν και να ανταποκριθούν ανάλογα με κάθε φάση.

Στις 12 Ιουλίου 2024, ο Νόμος Ρύθμισης της Τεχνητής Νοημοσύνης δημοσιεύτηκε στην επίσημη εφημερίδα και τέθηκε σε ισχύ στις 1 Αυγούστου του ίδιου έτους. Σε αυτή τη φάση, απαιτείται από τις επιχειρήσεις να επαληθεύσουν και να εξετάσουν το περιεχόμενο της ρύθμισης.

Στις 2 Φεβρουαρίου 2025, οι διατάξεις που αφορούν το “Γενικό Μέρος” και τα “Συστήματα Τεχνητής Νοημοσύνης με Απαράδεκτο Κίνδυνο” θα τεθούν σε εφαρμογή. Εάν μια επιχείρηση διαχειρίζεται συστήματα με απαράδεκτο κίνδυνο, θα πρέπει να διακόψει αμέσως τη χρήση τους.

Στη συνέχεια, στις 2 Μαΐου 2025, θα δημοσιευτούν οι Κώδικες Πρακτικής για τους παρόχους Γενικών Μοντέλων Τεχνητής Νοημοσύνης (GPAI). Οι επιχειρήσεις θα πρέπει να λάβουν μέτρα σύμφωνα με αυτούς τους κώδικες.

Ακολούθως, στις 2 Αυγούστου 2025, οι διατάξεις που αφορούν τα “Μοντέλα GPAI” και τις “Ποινικές Κυρώσεις” θα τεθούν σε εφαρμογή, και θα διοριστούν οι αρμόδιες αρχές σε κάθε κράτος μέλος. Σε αυτή τη φάση, οι πάροχοι μοντέλων GPAI θα πρέπει να συμμορφώνονται με τις σχετικές ρυθμίσεις.

Στις 2 Φεβρουαρίου 2026, θα δημοσιευτούν οδηγίες σχετικά με τις μεθόδους υλοποίησης των συστημάτων Τεχνητής Νοημοσύνης βάσει του Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης. Ταυτόχρονα, θα επιβληθεί η υποχρέωση μεταπωλητικής παρακολούθησης για τα συστήματα Τεχνητής Νοημοσύνης υψηλού κινδύνου, και θα απαιτηθεί η δημιουργία αντίστοιχων δομών.

Επιπλέον, στις 2 Αυγούστου 2026, οι διατάξεις που αφορούν τα “Συστήματα Τεχνητής Νοημοσύνης Υψηλού Κινδύνου” που αναφέρονται στο Παράρτημα III θα τεθούν σε εφαρμογή. Τα κράτη μέλη θα πρέπει να έχουν εγκαταστήσει τα αντίστοιχα ρυθμιστικά “sandbox” και η συμμόρφωση με τις ρυθμίσεις για τα συγκεκριμένα συστήματα θα είναι υποχρεωτική.

Τέλος, στις 2 Αυγούστου 2027, οι διατάξεις που αφορούν τα “Συστήματα Τεχνητής Νοημοσύνης Υψηλού Κινδύνου” που αναφέρονται στο Παράρτημα I θα τεθούν σε εφαρμογή. Αυτό θα καθιστά υποχρεωτική τη συμμόρφωση με τις ρυθμίσεις για τα συστήματα που καθορίζονται στο Παράρτημα I.

Έτσι, ο Νόμος Ρύθμισης της Τεχνητής Νοημοσύνης θα εφαρμόζεται σταδιακά επί μια σειρά ετών, με την εφαρμογή των ρυθμίσεων να γίνεται σταδιακά ανάλογα με τη σοβαρότητα του κινδύνου. Οι επιχειρήσεις θα πρέπει να κατανοούν ακριβώς τις περιόδους εφαρμογής και να προχωρούν σε αντίστοιχες δράσεις για τα συστήματα Τεχνητής Νοημοσύνης που εμπλέκονται.

Σχετικό άρθρο: Ποια είναι η τρέχουσα κατάσταση και οι προοπτικές του Νόμου Ρύθμισης της Τεχνητής Νοημοσύνης στην ΕΕ; Ανάλυση των επιπτώσεων στις Ιαπωνικές επιχειρήσεις[ja]

Οδηγίες για τα Μέτρα που Προτείνει το Δικηγορικό μας Γραφείο

Το Δικηγορικό Γραφείο Monolith είναι ένα γραφείο με πλούσια εμπειρία στον τομέα της πληροφορικής και ειδικότερα στον συνδυασμό του διαδικτύου και του δικαίου.

Οι επιχειρήσεις AI συνοδεύονται από πολλούς νομικούς κινδύνους και η υποστήριξη από δικηγόρους με ειδίκευση σε νομικά ζητήματα που αφορούν την AI είναι απαραίτητη. Το γραφείο μας παρέχει προηγμένη νομική υποστήριξη σε επιχειρήσεις AI, όπως η ChatGPT, μέσω μιας ομάδας δικηγόρων ειδικευμένων στην AI και μηχανικών, προσφέροντας υπηρεσίες όπως η σύνταξη συμβάσεων, η εξέταση της νομιμότητας των επιχειρηματικών μοντέλων, η προστασία των δικαιωμάτων πνευματικής ιδιοκτησίας και η αντιμετώπιση θεμάτων απορρήτου. Περισσότερες λεπτομέρειες μπορείτε να βρείτε στο παρακάτω άρθρο.

Τομείς εξειδίκευσης του Δικηγορικού Γραφείου Monolith: Νομικά ζητήματα AI (όπως το ChatGPT κ.ά.)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Επιστροφή στην κορυφή