ΡΟΗ ΕΙΔΗΣΕΩΝ
MENOY
ΤΕΧΝΟΛΟΓΙΑ

Περιορισμό της χρήσης τεχνητής νοημοσύνης στην κοινωνία επιδιώκει η Ευρωπαϊκή Ένωση

0

Η χρήση τεχνολογιών αναγνώρισης προσώπου για λόγους παρακολούθησης ή αλγορίθμων που χειραγωγούν την ανθρώπινη συμπεριφορά πρόκειται να απαγορευτεί, στο πλαίσιο των προτεινόμενων κανονισμών που προωθεί η Ευρωπαϊκή Ένωση στον τομέα της τεχνητής νοημοσύνης.

Οι προτάσεις, με ευρύ φάσμα εφαρμογής, οι οποίες διέρρευσαν ενόψει της επίσημης δημοσίευσής τους, υπόσχονται παράλληλα αυστηρούς νέους κανόνες για τα συστήματα τεχνητής νοημοσύνης τα οποία κατατάσσονται στην κατηγορία υψηλού κινδύνου. Σε αυτά, περιλαμβάνονται αλγόριθμοι οι οποίοι χρησιμοποιούνται από την αστυνομία καθώς και στην αναζήτηση στελεχών.

Σύμφωνα με ειδικούς, οι προτεινόμενοι κανονισμοί χαρακτηρίζονται από ασάφειες και συνοδεύονται από παραθυράκια.

Από τους νέους κανονισμούς εξαιρείται η χρήση της τεχνητής νοημοσύνης από τις ένοπλες δυνάμεις, καθώς και τα συστήματα που χρησιμοποιούνται από τις αρχές για την περιφρούρηση της δημόσιας ασφάλειας.

Στον προτεινόμενο κατάλογο απαγορευμένων συστημάτων τεχνητής νοημοσύνης συμπεριλαμβάνονται τα εξής:

  •     συστήματα τα οποία σχεδιάζονται ή χρησιμοποιούνται κατά τρόπο ο οποίος χειραγωγεί την ανθρώπινη συμπεριφορά, τις απόψεις ή αποφάσεις [...] ωθώντας ένα άτομο να συμπεριφέρεται, να σχηματίζει μια άποψη ή να λαμβάνει μια απόφαση επιζήμια για το ίδιο
  •     συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούνται για παρακολούθηση χωρίς διακρίσεις, εφαρμοσμένη κατά γενικευμένο τρόπο
  •     συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούνται για την αξιολόγηση της κοινωνικής επίδρασης του ατόμου
  •     συστήματα τα οποία εκμεταλλεύονται πληροφορίες ή προβλέψεις με στόχο ένα άτομο ή ομάδα ατόμων προκειμένου να εστιάσουν στις αδυναμίες τους

Ο Ντανιέλ Λεφλέρ, αναλυτής ευρωπαϊκής πολιτικής, σε ανάρτησή του στο Twitter επισήμανε πως οι ορισμοί άφηναν μεγάλα περιθώρια ερμηνείας.

"Πώς αποφασίζουμε τι είναι επιζήμιο για ένα άτομο; Και ποιος το αξιολογεί αυτό;" ανέφερε χαρακτηριστικά.

Προκειμένου ένα σύστημα τεχνητής νοημοσύνης να χαρακτηριστεί υψηλού κινδύνου, τα κράτη μέλη θα πρέπει να εντείνουν το πλαίσιο αξιολόγησης, συμπεριλαμβανομένης της ανάγκης συγκρότησης αρμοδίων επιτροπών δοκιμής, έγκρισης και επιθεώρησης αυτών των συστημάτων.

Σύμφωνα με την προτεινόμενη νομοθεσία, όποιες εταιρίες αναπτύσσουν απαγορευμένες υπηρεσίες ή αμελούν να παρουσιάσουν ακριβείς πληροφορίες σχετικά με αυτά, θα μπορούσαν να έρθουν αντιμέτωπες με πρόστιμα ίσα με έως και το 4% των παγκοσμίων εσόδων τους, ανάλογα με τα πρόστιμα που προβλέπονται για παραβίαση της νομοθεσίας GDPR.

Συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θεωρούνται, μεταξύ άλλων:

  •     συστήματα τα οποία αποφασίζουν για την προτεραιότητα στην αποστολή υπηρεσιών αντιμετώπισης εκτάκτων καταστάσεων
  •     συστήματα τα οποία καθορίζουν την πρόσβαση ή την κατανομή των ατόμων σε εκπαιδευτικά ιδρύματα
  •     αλγόριθμοι στελέχωσης
  •     συστήματα αξιολόγησης πιστοληπτικής ικανότητας
  •     συστήματα αξιολόγησης ατομικού ρίσκου
  •     αλγόριθμοι πρόβλεψης διάπραξης αδικημάτων

Ο Ντανιέλ Λεφλέρ θεωρεί πως οι προτάσεις θα πρέπει "να διευρυνθούν ώστε να περιλαμβάνουν όλα τα συστήματα τεχνητής νοημοσύνης του δημοσίου τομέα, ανεξάρτητα από το χαρακτηρισμό τους ως προς το επίπεδο κινδύνου".

"Αυτό πρέπει να συμβεί καθώς οι άνθρωποι συνήθως δεν έχουν το περιθώριο να επιλέξουν αν θα έρθουν σε επαφή με ένα σύστημα τεχνητής νοημοσύνης του δημοσίου τομέα".

Πέρα από το προαπαιτούμενο να υπάρχει ανθρώπινη εποπτεία στα νέα συστήματα τεχνητής νοημοσύνης, η Ευρωπαϊκή Επιτροπή προτείνει επίσης να συστήματα υψηλού κινδύνου να περιλαμβάνουν και κάποιο μηχανισμό άμεσου τερματισμού της λειτουργίας τους, ο οποίος θα μπορούσε να έχει τη μορφή είτε κάποιου διακόπτη, είτε κάποιας διαδικασίας άμεσης απενεργοποίησης του συστήματος, εφόσον παραστεί ανάγκη.

"Οι εταιρίες διάθεσης συστημάτων τεχνητής νοημοσύνης θα εστιάσουν ιδιαίτερα σε αυτές τις προτάσεις, καθώς προϋποθέτουν μια θεμελιώδη αλλαγή στον τρόπο σχεδιασμού της τεχνητής νοημοσύνης", ανέφερε ο Χέρμπερτ Σουόνικερ, στέλεχος της Clifford Chance, δικηγορικής εταιρίας με ειδίκευση στο διεθνές δίκαιο.

Την ίδια ώρα, ο Μάικλ Βιλ, λέκτορας ψηφιακών δικαιωμάτων και κανονισμών, στο University College του Λονδίνου, υπογραμμίζει μια παράμετρο η οποία θα υποχρεώσει τους διάφορους οργανισμούς να γνωστοποιούν τις περιπτώσεις όπου χρησιμοποιούν deepfakes, μια ιδιαίτερα αμφιλεγόμενη χρήση της τεχνητής νοημοσύνης για τη δημιουργία πλαστών ατόμων ή τη χειραγώγηση φωτογραφιών και βίντεο πραγματικών ανθρώπων.

Μιλώντας στο BBC, ανέφερε πως η νομοθεσία κατά κύριο λόγο "στοχεύει σε εκείνες τις εταιρίες και συμβούλους που πωλούν -συχνά ανούσια- τεχνολογία τεχνητής νοημοσύνης σε σχολεία, νοσοκομεία, αστυνομικές αρχές και εργοδότες". Ταυτόχρονα, όμως, θεωρεί πως εκείνες οι τεχνολογικές εταιρίες που χρησιμοποιούσαν την τεχνητή νοημοσύνη "προκειμένου να χειραγωγούν τους χρήστες" ενδέχεται να υποχρεωθούν με τη σειρά τους να αλλάξουν πρακτικές.

Προκειμένου να καταλήξει στις συγκεκριμένες προτάσεις, η Ευρωπαϊκή Επιτροπή κλήθηκε να διατηρήσει μια λεπτή ισορροπία μεταξύ του να διασφαλίσει πως η τεχνητή νοημοσύνη χρησιμοποιείται ως "εργαλείο [...] με τελικό σκοπό την ενίσχυση της ευημερίας του ανθρώπου", χωρίς παράλληλα να εμποδίζει τα κράτη μέλη της Ε.Ε. να συναγωνιστούν τις ΗΠΑ και την Κίνα στον τομέα των τεχνολογικών καινοτομιών.

Παράλληλα, η Ευρωπαϊκή Επιτροπή αναγνωρίζει πως η τεχνητή νοημοσύνη ήδη επιδρά σε πολλές πτυχές της ζωής μας.

Το Ευρωπαϊκό Κέντρο Μη Κερδοσκοπικής Νομοθεσίας, το οποίο συνεργάστηκε με την Ευρωπαϊκή Επιτροπή στη σύνταξη της Λευκής Βίβλου για την τεχνητή νοημοσύνη, δήλωσε στο BBC πως υπήρχαν "πολλές αοριστίες και παραθυράκια" στην προτεινόμενη νομοθεσία.

"Ο τρόπος που προσεγγίζει το ζήτημα η Ε.Ε., με τη διάκριση μεταξύ υψηλού και χαμηλού κινδύνου, είναι άτσαλος στην καλύτερη των περιπτώσεων και επικίνδυνος στη χειρότερη, καθώς στερείται του πλαισίου και των λεπτών διακρίσεων που απαιτούνται για το σύνθετο οικοσύστημα τεχνητής νοημοσύνης που ήδη υφίσταται.

"Κατ' αρχάς, η επιτροπή θα έπρεπε να εξετάσει τους κινδύνους των συστημάτων τεχνητής νοημοσύνης σε ένα πλαίσιο βασισμένο στην προάσπιση των δικαιωμάτων, δηλαδή ως κινδύνους που αυτά συνιστούν για τα ανθρώπινα δικαιώματα, το σεβασμό του νόμου και τη δημοκρατία.

"Δεύτερον, η επιτροπή θα έπρεπε να απορρίψει την υπεραπλουστευμένη διάκριση μεταξύ υψηλού και χαμηλού κινδύνου και να εξετάσει μια κλιμακωτή αξιολόγηση των κινδύνων που προκύπτουν από τα συστήματα τεχνητής νοημοσύνης".

Οι λεπτομέρειες των προτάσεων ενδέχεται να αλλάξουν πριν την επίσημη παρουσίασή τους, την ερχόμενη εβδομάδα. Πέραν αυτού, θεωρείται απίθανο οι προτάσεις αυτές να καταστούν νόμος τα αμέσως επόμενα χρόνια.

insomnia.gr

 

0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ