Dexameni Forum Logo
Sign in

Τεχνητή νοημοσύνη και άσυλο: Ισορροπία ανάμεσα στην καινοτομία και στα ανθρώπινα δικαιώματα.

Η τεχνητή νοημοσύνη εντάσσεται όλο και περισσότερο στις διαδικασίες ασύλου. Παρά τα οφέλη της εγείρει σοβαρά νομικά και ηθικά ζητήματα.

Τεχνητή νοημοσύνη και άσυλο: Ισορροπία ανάμεσα στην καινοτομία και στα ανθρώπινα δικαιώματα.

Εισαγωγή

Η ψηφιακή επανάσταση αναδιαμορφώνει πολλαπλές πτυχές της ζωής μας, μεταβάλλοντας τον τρόπο με τον οποίο επικοινωνούμε, εργαζόμαστε, ακόμα και τον τρόπο που λαμβάνονται πολιτικές αποφάσεις. Ωστόσο, η εξέλιξη αυτή έχει προκαλέσει έντονες αντιδράσεις. Το κύριο επιχείρημα υπέρ του περιορισμού των συγκεκριμένων τεχνολογιών, είναι ότι συγκεντρώνουν μεγάλη δύναμη(είτε πολιτική, είτε στην προσωπική μας ζωή), χωρίς πάντοτε να υπάρχει σαφής αναγκαιότητα. Στον βωμό της ευκολίας και της ταχύτητας, ο ανθρώπινος νους και η κριτική σκέψη περιορίζονται. Στο πλαίσιο αυτό, παρατηρείται ότι τον τελευταίο καιρό γίνεται όλο και πιο έντονη η χρήση της τεχνητής νοημοσύνης στη διαχείριση μεταναστευτικών ροών. Κάτι που εγείρει κρίσιμα νομικά και ηθικά ζητήματα. 

Στόχος του παρόντος άρθρου είναι να εξετάσει την αξιοποίηση της τεχνητής νοημοσύνης στις διαδικασίες ασύλου, καθώς και να εμβαθύνει στο νομικό πλαίσιο γύρω από τη χρήση του AI, στους κινδύνους που μπορεί να παρουσιαστούν από αυτήν, και στις μέχρι τώρα εφαρμογές του στις διαδικασίες ασύλου. 

Το νομοθετικό πλαίσιο

To AI ACT (Regulation (EU) 2024/1689) είναι το πρώτο νομικό πλαίσιο παγκοσμίως που βάζει όρια στη χρήση της τεχνητής νοημοσύνης. Στόχος του είναι να θέσει κανόνες βασισμένους στην εκτίμηση κινδύνου, για να κάνει τη χρήση της τεχνητής νοημοσύνης αξιόπιστη στην Ευρώπη. Ο Κανονισμός θέτει 4 επίπεδα κινδύνων για τα εξής συστήματα:

Το πρώτο, αφορά τα «συστήματα μη αποδεκτού ρίσκου». Ο σχεδιασμός αυτών των συστημάτων αποτελεί εγγενή απειλή, καθώς ο σκοπός τους είναι εξ ορισμού επιθετικός. Πιο συγκεκριμένα, παραβιάζουν τα ανθρώπινα δικαιώματα και τις ελευθερίες των χρηστών τους, ακόμα και όταν λειτουργούν τέλεια. Επομένως, έχουν σχεδιαστεί με σκοπό την καταπάτηση των ανθρωπίνων δικαιωμάτων. Παραδείγματα τέτοιων αλγορίθμων είναι τα συστήματα κοινωνικής βαθμολόγησης και συνεχούς παρακολούθησης. Για αυτόν τον λόγο λοιπόν, η Ε.Ε. τα απαγορεύει πλήρως, κρίνοντας ότι κανένα πιθανό όφελος δεν μπορεί να αντισταθμίσει την ζημιά που προκαλεί η παραβίαση των ανθρωπίνων δικαιωμάτων. 

Στην συνέχεια, ο λόγος για τα συστήματα «υψηλού ρίσκου». Αν και τα συγκεκριμένα έχουν ομοιότητες με τα παραπάνω, παρουσιάζουν και σημαντικές διαφορές. Δηλαδή, ενώ είναι επίσης επίφοβα ως προς την παραβίαση των ανθρωπίνων δικαιωμάτων των χρηστών, ο σκοπός τους είναι συνήθως ωφέλιμος ή απαραίτητος για τη λειτουργία της σύγχρονης κοινωνίας (π.χ. προγράμματα για την διάγνωση ασθενειών, η επιλογή προσωπικού ή η διαχείριση υποδομών). Εδώ η επικινδυνότητα δεν συνδέεται με τη πρόθεση του συστήματος, αλλά με τη πιθανότητα αστοχίας, σφάλματος ή μεροληψίας. Επομένως, η Ε.Ε. επιβάλλει στα συγκεκριμένα συστήματα αυστηρές προϋποθέσεις ασφαλείας, διαφάνειας και κυρίως, συνεχή ανθρώπινη εποπτεία.

Έπειτα, υπάρχουν τα προγράμματα «Ρίσκου διαφάνειας». Όσον αφορά τα συγκεκριμένα, η Ε.Ε. επιβάλλει κάθε φορά που τα χρησιμοποιεί κάποιος, να λαμβάνει ειδοποίηση ότι αλληλεπιδρά με ένα σύστημα τεχνητής νοημοσύνης. Παραδείγματα τέτοιων περιπτώσεων είναι τα AI chatbots και οι AI δημιουργοί φωτογραφιών και βίντεο. Τέλος, οι περισσότεροι αλγόριθμοι τεχνητής νοημοσύνης κατηγοριοποιούνται ως συστήματα με «μειωμένο ή μηδενικό ρίσκο». Σύμφωνα με τον Κανονισμό του Ευρωπαϊκού κοινοβουλίου και του Συμβουλίου ,2024/1689 , τα συστήματα που χρησιμοποιούνται για τις διαδικασίες ασύλου εμπίπτουν στην δεύτερη κατηγορία, «Υψηλό ρίσκο», καθώς χρησιμοποιούνται πάνω σε άτομα που βρίσκονται σε μειονεκτική θέση. 

Η τυπική διαδικασία ασύλου

Η διαδικασία ασύλου σε γενικές γραμμές είναι παρόμοια παντού, ειδικά στις χώρες της Ε.Ε.  Η τυπική διαδικασία ξεκινάει με την υποβολή της αίτησης ασύλου στις αρμόδιες συνοριακές αρχές. Κατόπιν ακολουθεί η καταγραφή και η ταυτοποίηση του ατόμου, μέσω της λήψης δακτυλικών αποτυπωμάτων και της καταγραφής προγενέστερων αιτήσεων σε άλλες χώρες. Έπεται η συνέντευξη του αιτούντα, και εν συνεχεία η εξέταση της αίτησης. Τέλος, λαμβάνεται η τελική απόφαση της χορήγησης, ή μη, του ασύλου. Στην Ε.Ε. οι διαδικασίες ασύλου βασίζονται στον Κανονισμό του Δουβλίνου. Αυτό ουσιαστικά σημαίνει ότι τα βασικά βήματα της διαδικασίας, όπως και τα κριτήρια για το ποιος θεωρείται πρόσφυγας, είναι τα ίδια παντού. (EUAA,Πρακτικό εργαλείο για επιτρόπους,2023) 

Το ευρωπαϊκό σύστημα ασύλου βρίσκεται σε φάση μεταρρύθμισης, καθώς μετακινούμαστε προς την αντικατάσταση του Κανονισμού του Δουβλίνου, από τον Asylum and Migration Management Regulation (AMMR), στο πλαίσιο του Νέου Συμφώνου Μετανάστευσης και Ασύλου. Η μετάβαση στο νέο σύστημα έχει ως στόχο να γίνεται καλύτερη και πιο στοχευμένη διαχείριση των αιτήσεων και να ενισχυθεί η συνεργασία μεταξύ των Κρατών Μελών, ενώ παράλληλα εντείνεται η χρήση των νέων τεχνολογιών και της τεχνητής νοημοσύνης.

Πώς χρησιμοποιείται ήδη το AI στις διαδικασίες ασύλου

Η αξιοποίηση της τεχνητής νοημοσύνης στις διαδικασίες ασύλου έχει αποδειχθεί ως ένας αποτελεσματικός τρόπος για την διαχείριση της γραφειοκρατίας. Προγράμματα AI έχουν χρησιμοποιηθεί τόσο για την ταυτοποίηση, όσο και για την υποδοχή των αιτούντων, την επεξεργασία των αιτήσεων και των ελέγχων ασφαλείας. Τα τελευταία χρόνια πολλά κράτη χρησιμοποιούν αντίστοιχα συστήματα για να αναγνωρίζουν την χώρα προέλευσης των αιτούντων. Πιο συγκεκριμένα, στην Γερμανία, το Ομοσπονδιακό γραφείο για την Μετανάστευση και του Πρόσφυγες (BAMF), χρησιμοποιεί ένα σύστημα αναγνώρισης διαλέκτου. Σκοπός του συστήματος είναι να βοηθήσει στην αγνωρίση της χώρας προέλευσης του αιτούντος(BAMF, n.d.). Την ίδια στιγμή, έχει δημιουργηθεί στην Ιταλία ένα νέο σύστημα AI (S.I.N.D.A.C.A.), το οποίο μετατρέπει απευθείας τις λέξεις σε γραπτό λόγο. Αυτό το οποίο καθιστά το συγκεκριμένο εργαλείο ξεχωριστό, είναι το γεγονός ότι δεν σταματάει απλά στην μετατροπή λόγου σε κείμενο, αλλά μπορεί να αντιληφθεί τα συμφραζόμενα της συζήτησης με πολύ μεγάλη ακρίβεια. Τα τελευταία χρόνια, η Ολλανδία χρησιμοποιεί έναν συγκεκριμένο αλγόριθμο (Case Matcher) ο οποίος αναλύει τις διάφορες αιτήσεις ασύλου και ανάλογα με το περιεχόμενό τους, τις κατηγοριοποιεί. Έτσι, η γραφειοκρατική διαδικασία γίνεται ταχύτερη, ενώ ταυτόχρονα η λήψη αποφάσεων παρουσιάζεται πιο απλή για τους υπευθύνους (Government of the Netherlands, n.d.)

Παράλληλα, ο Ευρωπαϊκός οργανισμός για το άσυλο (EUAA), εφαρμόζει ένα σύστημα πρώιμης προειδοποίησης, το οποίο ονομάζεται «EPS». Μέσω αυτού, το EUAA μπορεί να προβλέπει τον αριθμό των αιτούντων ασύλου, τρεις εβδομάδες πριν την άφιξή τους. Ο αλγόριθμος αναλύει την πολιτική σταθερότητα της περιόδου, και συγκρίνοντάς την με προηγούμενα γεγονότα, έχει την δυνατότητα να εκτιμήσει με αρκετά μεγάλη ακρίβεια το μέγεθος των επικείμενων μεταναστευτικών ροών. 

Μία επιπλέον εφαρμογή της τεχνητής νοημοσύνης αφορά τη συλλογή πληροφοριών από τα κινητά τηλέφωνα των αιτούντων ασύλου. Πιο συγκεκριμένα, στην Γερμανία, οι πρόσφυγες οι οποίοι δεν έχουν μαζί τους διαβατήριο ή τα απαραίτητα νομικά έγγραφα για να εισέλθουν στην χώρα, είναι αναγκασμένοι να παραδώσουν την συσκευή τους στις αρχές, διαφορετικά, η αίτησή τους θα απορριφθεί απευθείας. Έτσι, οι αρχές με τη βοήθεια ενός συστήματος AI, μπορούν να επιβεβαιώσουν την χώρα προέλευσης του αιτούντος και να αποκτήσουν πρόσβαση σε πληροφορίες που αφορούν το άτομο που εισέρχεται στην χώρα τους. (European Parliament, 2025)

Τέλος, μία από τις ίσως πιο υποσχόμενες χρήσεις της τεχνητής νοημοσύνης στις διαδικασίες ασύλου αφορά το σύστημα “Annie™ MOORE ”. Πρόκειται για μία καινοτόμα δημιουργία, από ερευνητές των πανεπιστημίων της Οξφόρδης και του Λουντ. Ουσιαστικά μιλάμε για ένα από τα πρώτα συστήματα εποικισμού προσφύγων. Μέσω ενός μαθηματικού μοντέλου και χρησιμοποιώντας τα προσωπικά στοιχεία του αιτούντος ασύλου (την ηλικία του, την εθνικότητά του, το background του κτλ.) ,ο αλγόριθμος αυξάνει κατακόρυφα τις πιθανότητες των προσφύγων να εγκατασταθούν σε κάποιο μέρος που τους ταιριάζει. To πρόγραμμα χρησιμοποιείται από το 2018 από την HIAS στις ΗΠΑ και έχει αποδειχθεί ότι αυξάνει κατά 20% τις πιθανότητες να βρει κάποιος πρόσφυγας εργασία (University of Oxford, n.d.)

Πιθανοί κίνδυνοι και προβλήματα από τη χρήση του AI 

Είναι πλέον σαφές ότι η τεχνητή νοημοσύνη παρουσιάζει ένα ευρύ φάσμα εφαρμογών στις διαδικασίες ασύλου. Ωστόσο, πολλές οργανώσεις προειδοποιούν ότι υπάρχει σοβαρός κίνδυνος για  παραβίαση των ανθρωπίνων δικαιωμάτων των αιτούντων. Σε μία έκθεση που δημοσίευσε το 2020 η FRA (Agency for Fundamental Rights), αναγνώρισε μία σειρά από πιθανούς κινδύνους που μπορεί να προκύψουν μέσα από τη χρήση του AI. Πιο συγκεκριμένα, η έκθεση εφιστά την προσοχή για πιθανές παραβιάσεις ανθρωπίνων δικαιωμάτων, όπως την ιδιωτική ζωή, τα προσωπικά δεδομένα, την ισότητα και την μη διάκριση. Η πιθανή δυσλειτουργία των συστημάτων μπορεί να οδηγήσει στην άδικη απόρριψη της αίτησης ενός ατόμου. Πρέπει να κατανοήσουμε ότι η πλειοψηφία αυτών των αλγορίθμων δεν είναι ένα κενό, αλλά βασίζεται σε μοντέλα εκπαιδευμένα από ανθρώπους. Καθώς οι δημιουργοί και οι εκπαιδευτές των συστημάτων αυτών φέρουν τις δικές τους πολιτικές απόψεις και πιθανές προκαταλήψεις, ελλοχεύει ο κίνδυνος να τους τις “κληρονομήσουν”. 

Σύμφωνα με διάφορα δημοσιεύματα, η πολυπλοκότητα των συστημάτων τεχνητής νοημοσύνης είναι τόσο μεγάλη, ώστε είναι δύσκολο να κατανοηθεί πλήρως πώς καταλήγουν στις αποφάσεις τους. Αυτό έχει ως αποτέλεσμα να είναι πολύ δύσκολο να τα αμφισβητήσει κανείς (FRA, n.d.). Αυτή η κατάσταση έχει επιπτώσεις που ξεπερνούν το AI ACT, αγγίζοντας ζητήματα προσωπικών δεδομένων. Πιο συγκεκριμένα, σύμφωνα με το Άρθρο 22 του GDPR, όταν λαμβάνεται μία αυτοματοποιημένη, σημαντική απόφαση για την ζωή ενός ατόμου, πρέπει να υπάρχει παράλληλη ανθρώπινη επίβλεψη. 

Αδιαμφισβήτητα, τα συστήματα τεχνητής νοημοσύνης αποτελούν πολύτιμα εργαλεία που μπορούν να συμβάλλουν ουσιαστικά στη βελτίωση των διαδικασιών ασύλου. Παρά ταύτα, η ανθρώπινη ζωή δεν μπορεί να τεθεί σε ψυχρούς αυτοματισμούς. Στο πλαίσιο των διαδικασιών ασύλου, όπου διακυβεύεται η ασφάλεια και η ελευθερία του ατόμου, η ανθρώπινη επανεξέταση δεν είναι απλώς μία δικλείδα ασφαλείας, αλλά ηθική επιταγή. 

WRITTEN BY

Φιλιούσης Βάιος

No description for now.Read more

Responses (0)

Share your thoughts on this article.