Επίκουρος Καθηγητής, Queen’s University Belfast, UK
Σε παλιότερο άρθρο μου, που είχε δημοσιευτεί στο Μilitaire (https://www.militaire.gr/techniti-noimosyni-kai-sygchronos-polemos-dionysios-karavidas/), υπογραμμιζόταν πως τα οπλικά συστήματα που βασίζονται στις νέες τεχνολογίες και δη στην τεχνητή νοημοσύνη κερδίζουν διαρκώς έδαφος και χρησιμοποιούνται στα πεδία επιχειρήσεων τόσο στην Ουκρανία, όσο και στην Γάζα.
Τα Killer Robots, ή αλλιώς Lethal Autonomous Weapon Systems (LAWS) είναι σε γενικές γραμμές συστήματα που δρουν σε μια περιοχή και έχουν εκπαιδευτεί να αναγνωρίζουν στόχους και να τους εξουδετερώνουν. Τέτοιοι στόχοι μπορεί να είναι διάφορες κτηριακές υποδομές και γενικότερες εγκαταστάσεις, οχήματα, αλλά και άνθρωποι.
Τέτοια συστήματα χρησιμοποιούνται ευρέως στην περιοχή της Γάζας από τον Ισραηλινό στρατό. Συγκεκριμένα, οι Ισραηλινές ένοπλες δυνάμεις έχουν αναπτύξει και κάνουν χρήση των συστημάτων Gospel και Lavender. Αναφορικά με το Gospel, πρόκειται για ένα σύστημα που συλλέγει και αναλύει έναν τεράστιο όγκο δεδομένων και πληροφοριών που του επιτρέπουν να εντοπίζει έναν μεγάλο αριθμό στόχων εντός της Γάζας [11]. Σύμφωνα με Ισραηλινούς αξιωματούχους, ο Ισραηλινός στρατός βασιζόμενος μόνο στον ανθρώπινο παράγοντα μπορούσε να εντοπίσει 50 στόχους το χρόνο εντός της Γάζας. Με την χρήση συστημάτων τεχνητής νοημοσύνης, όπως του Gospel, το σύστημα μπορεί να εντοπίσει πάνω από 100 στόχους την ημέρα, εκ των οποίων περίπου το 50% προσβάλλεται από τον Ισραηλινό στρατό.
Το σύστημα Lavender βασίζεται και αυτό πάνω στην τεχνητή νοημοσύνη και λειτουργεί συμπληρωματικά με το σύστημα Gospel. Η βασική διαφορά είναι ότι το Gospel εντοπίζει και προτείνει στόχους που έχουν να κάνουν κυρίως με κτήρια και υποδομές, ενώ το Lavender εξειδικεύεται στον εντοπισμό ανθρώπινων στόχων [12]. Το στατιστικό σφάλμα του Lavender είναι σχετικά υψηλό και αγγίζει το 10%, και σε συνδυασμό με το γεγονός ότι το συγκεκριμένο σύστημα δεν χρησιμοποιεί «έξυπνες» βόμβες, λόγω υψηλού κόστους, οδηγεί στην ύπαρξη μεγάλων παράπλευρων απωλειών.
Οι δαπάνες για όπλα τεχνητής νοημοσύνης βρίσκονται σε ανοδική τροχιά, με περίπου 10 δισεκατομμύρια δολάρια να έχουν δαπανηθεί για AI όπλα το 2023. Εκτιμάται ότι οι δαπάνες για αυτά τα όπλα θα αυξηθούν σε περίπου 40 δισεκατομμύρια δολάρια μέχρι το 2030 [15]. Οι κύριες δυνάμεις που αναπτύσσουν τέτοια συστήματα περιλαμβάνουν τις ΗΠΑ, τη Ρωσία, την Κίνα, τη Βρετανία, την Ευρωπαϊκή Ένωση, τη Νότια Κορέα και το Ισραήλ.
Η ανοδική πορεία δημιουργίας και χρήσης τέτοιων οπλικών συστημάτων έχει εγείρει πολλές ανησυχίες παγκοσμίως. Δεκάδες κράτη, μαζί με μη κυβερνητικές οργανώσεις, έχουν επιδιώξει διαπραγματεύσεις για την απαγόρευση των λεγόμενων ρομπότ-δολοφόνων (Killer Robots), αλλά αντιμετωπίζουν αντίσταση από χώρες όπως το Ισραήλ, τη Ρωσία και τις Ηνωμένες Πολιτείες [13].
Ήδη από το 2018, ο Γενικός Γραμματέας των Ηνωμένων Εθνών Αντόνιο Γκουτέρες έχει κρούσει τον κώδωνα του κινδύνου σχετικά με τα θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS), λέγοντας ότι τέτοια συστήματα είναι πολιτικά και ηθικά απαράδεκτα, ενώ έχει παράλληλα ζητήσει την απαγόρευσή τους βάσει του διεθνούς δικαίου. Στην Νέα Ατζέντα για την Ειρήνη (New Agenda for Peace) του 2023, ο Γενικός Γραμματέας επανέλαβε αυτή την έκκληση, συνιστώντας τα κράτη να καταλήξουν, έως το 2026, σε ένα νομικά δεσμευτικό όργανο για την απαγόρευση των θανατηφόρων αυτόνομων οπλικών συστημάτων (LAWS) που λειτουργούν χωρίς ανθρώπινο έλεγχο ή επίβλεψη. Σημείωσε ότι, ελλείψει συγκεκριμένων κανονισμών, ο σχεδιασμός, η ανάπτυξη και η χρήση αυτών των συστημάτων εγείρουν ανθρωπιστικές, νομικές, και ηθικές ανησυχίες, ενώ αποτελούν άμεση απειλή για τα ανθρώπινα δικαιώματα και τις θεμελιώδεις ελευθερίες [14].
Επομένως, είναι επιτακτική ανάγκη να κατανοήσουμε εάν και σε ποιο βαθμό οι κύριοι παίκτες στην αγορά των θανατηφόρων αυτόνομων οπλικών συστημάτων (LAWS) έχουν αναπτύξει κατάλληλο ρυθμιστικό πλαίσιο για ένα νομικά δεσμευτικό όργανο που θα επιβλέπει την χρήση τέτοιων συστημάτων και θα τα απαγορεύει όταν λειτουργούν χωρίς ανθρώπινο έλεγχο ή επίβλεψη.
Ο παρακάτω πίνακας συνοψίζει τα ευρήματα της έρευνας σχετικά με το βαθμό ανάπτυξης ρυθμιστικών πλαισίων για την παραγωγή και χρήση των LAWS σε έξι πρωτοπόρες χώρες στον τομέα αυτό.
Χώρα Τι ισχύει
ΗΠΑ Η πολιτική των Η.Π.Α. δεν απαγορεύει την ανάπτυξη ή τη χρήση των θανατηφόρων αυτόνομων οπλικών συστημάτων (LAWS). [1]Όλα τα συστήματα, συμπεριλαμβανομένων των θανατηφόρων αυτόνομων οπλικών συστημάτων (LAWS), πρέπει να σχεδιάζονται ώστε να επιτρέπουν τον ανθρώπινο έλεγχο στη χρήση βίας μέσω της ανθρώπινης κρίσης. [1]Η χρήση δυνατοτήτων τεχνητής νοημοσύνης σε αυτόνομα ή ημιαυτόνομα συστήματα θα πρέπει να είναι σύμφωνη με τις Ηθικές Αρχές της Τεχνητής Νοημοσύνης του Υπουργείου Άμυνας (DOD). [1]Δεν υπάρχει μέχρι στιγμής καμία συνθήκη ή άλλο μέσο που να απαγορεύει τη χρήση αυτόνομων όπλων. [1]
Ρωσία Η Ρωσική Ομοσπονδία επαναβεβαιώνει τη δέσμευσή της για την ανάγκη διατήρησης του ανθρώπινου ελέγχου πάνω στα λεγόμενα θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS), ανεξάρτητα από το πόσο προηγμένα μπορεί να είναι αυτά τα συστήματα. [2] [3]Το υφιστάμενο διεθνές δίκαιο, συμπεριλαμβανομένου του διεθνούς ανθρωπιστικού δικαίου (ΔΑΔ), εφαρμόζεται πλήρως στα θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS). Η Ρωσική Ομοσπονδία πιστεύει ότι οι κανόνες και οι αρχές του διεθνούς δικαίου, συμπεριλαμβανομένου του ΔΑΔ, δεν χρειάζεται να εκσυγχρονιστούν ή να προσαρμοστούν στα ειδικά χαρακτηριστικά των LAWS. [2] [3]Προς το παρόν, η Ρωσική Ομοσπονδία δεν βλέπει κανέναν πειστικό λόγο που να απαιτεί άμεσους περιορισμούς και απαγορεύσεις για τέτοιου είδους όπλα. [2] [3]
Κίνα Η αντιπροσωπεία της Κίνας στον ΟΗΕ ανακοίνωσε την «επιθυμία να διαπραγματευτεί και να καταλήξει» σε ένα νέο πρωτόκολλο για τη Σύμβαση για Ορισμένα Συμβατικά Όπλα «για την απαγόρευση της χρήσης πλήρως αυτόνομων θανατηφόρων οπλικών συστημάτων». [4]Το 2016, στα Ηνωμένα Έθνη για Ορισμένα Συμβατικά Όπλα (UN-CCW), η Κίνα ήταν η μόνη χώρα από τις Πέντε Μόνιμες (P5) που κάλεσε για την απαγόρευση και την ανάγκη ενός δεσμευτικού πρωτοκόλλου για τα αυτόνομα όπλα. Η Κίνα δήλωσε ότι τα χαρακτηριστικά των αυτόνομων όπλων δεν είναι σύμφωνα με τις αρχές του Διεθνούς Ανθρωπιστικού Δικαίου (ΔΑΔ), ενώ εξέφρασε τον φόβο για έναν αγώνα εξοπλισμών, που θα ενίσχυε την απειλή του πολέμου. [5]Ωστόσο, το 2017, η Κίνα εξέδωσε το Σχέδιο Ανάπτυξης Νέας Γενιάς Τεχνητής Νοημοσύνης (AIDP), που έγινε η βάση για την ανάπτυξη αυτόνομων όπλων στην Κίνα. [5]
Ηνωμένο Βασίλειο Η Βρετανική Κυβέρνηση δεσμεύτηκε στο κοινοβούλιο ότι η λειτουργία των θανατηφόρων αυτόνομων οπλικών συστημάτων (LAWS) θα παραμείνει πάντα υπό ανθρώπινο έλεγχο. [6]Η κυβέρνηση συνεχίζει να υποστηρίζει ότι δεν χρειάζεται νέο διεθνές δίκαιο για τα αυτόνομα όπλα, παρά το γεγονός ότι επιθυμεί να θεσπίσει “σαφείς διεθνείς κανόνες για την ασφαλή και υπεύθυνη ανάπτυξη και χρήση της τεχνητής νοημοσύνης”. [7]
Ευρωπαϊκή Ένωση Το κρίσιμο σημείο είναι ο ανθρώπινος έλεγχος. Ο σεβασμός των κανόνων του διεθνούς ανθρωπιστικού δικαίου και των ανθρωπίνων δικαιωμάτων μπορεί να εξασφαλιστεί μόνο μέσω της διατήρησης του ανθρώπινου ελέγχου. [8] [9]Πρέπει να είναι δυνατή η θέσπιση νομικής ευθύνης σε περίπτωση δυσλειτουργίας Θανατηφόρου Αυτόνομου Οπλικού Συστήματος. [8]Θα πρέπει να είναι δυνατή η σύνδεση παράνομων ενεργειών που διαπράττονται από ένα Θανατηφόρο Αυτόνομο Οπλικό Σύστημα, προκαλώντας παραβιάσεις του Διεθνούς Δικαίου του Πολέμου. [8]Τα συμβαλλόμενα Κράτη στη Σύμβαση CCW θα πρέπει να αναγνωρίσουν ότι τα θανατηφόρα αυτόνομα οπλικά συστήματα που δεν μπορούν να χρησιμοποιηθούν σύμφωνα με το διεθνές δίκαιο, συμπεριλαμβανομένου του διεθνούς ανθρωπιστικού δικαίου, απαγορεύονται. [8]
Νότια Κορέα Η κυβέρνηση της Νότιας Κορέας έχει αναγνωρίσει τις ηθικές ανησυχίες σχετικά με τα θανατηφόρα αυτόνομα οπλικά συστήματα. [10]Το 2019, η Νοτιοκορεατική κυβέρνηση δήλωσε ότι “η Κορέα… δεσμεύεται να συμμετάσχει σε διεθνείς προσπάθειες μακροπρόθεσμα για την ανάπτυξη ρεαλιστικών διεθνών κανόνων” σχετικά με τη χρήση θανατηφόρων αυτόνομων οπλικών συστημάτων. [10]
Note: Table created by Dionysios Karavidas
Συμπερασματικά, ενώ πολλές χώρες έχουν εκδηλώσει την πρόθεση να συζητήσουν γύρω από την πιθανή ανάπτυξη ενός ρυθμιστικού πλαισίου χρήσης των LAWS, καμία δεν έχει προχωρήσει στην δημιουργία ενός τέτοιου ουσιαστικού πλαισίου, ούτε έχει αναλάβει και κάποια δυναμική πρωτοβουλία προς αυτήν την κατεύθυνση. Επιπλέον, ηγέτιδες χώρες όπως οι ΗΠΑ και η Ρωσία επιμένουν ότι τα LAWS δεν παρουσιάζουν ουσιαστική διαφορά από τα υπόλοιπα οπλικά συστήματα. Ως εκ τούτου, υποστηρίζουν ότι το υφιστάμενο ρυθμιστικό πλαίσιο, που βασίζεται πάνω στους κανόνες και στις αρχές του διεθνούς δικαίου, συμπεριλαμβανομένου του ΔΑΔ, καλύπτει πλήρως την περίπτωση των LAWS, και, επομένως, δεν χρειάζεται να εκσυγχρονιστεί ή να προσαρμοστεί στα ειδικά χαρακτηριστικά των LAWS. Η Ευρωπαϊκή Ένωση φαίνεται να βρίσκεται πιο κοντά στην δημιουργία ενός κατάλληλου ρυθμιστικού πλαισίου για τα LAWS. Προς αυτήν την κατεύθυνση, έχουν εγερθεί εντός ΕΕ νομικά ζητήματα πέραν της χρήσης και του ελέγχου των LAWS που σχετίζονται με την θέσπιση νομικής ευθύνης σε περίπτωση δυσλειτουργίας αυτών των συστημάτων. Τέλος, ενώ όλες οι παραπάνω χώρες συζητούν γύρω από την νομική ρύθμιση των LAWS, η όλη συζήτηση επικεντρώνεται μόνο στην εξασφάλιση ότι η λειτουργία τέτοιων συστημάτων θα παραμείνει πάντα υπό ανθρώπινο έλεγχο. Καμιά ουσιαστική αναφορά δεν γίνεται στο κατά πόσο θα πρέπει να επιτρέπεται, ή όχι η παραγωγή των θανατηφόρων αυτόνομων οπλικών συστημάτων. Εκεί, φαίνεται να υπάρχει μια σιωπηρή συμφωνία.
Διονύσιος Καραβίδας
Επ. Καθηγητής
Queen’s University Belfast, UK
References
[5] Pramudia, P. S. (2022). China’s Strategic Ambiguity on the Issue of Autonomous Weapons Systems. Global: Jurnal Politik Internasional, 24(1), 1-34.
[8] EU.pdf
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου