Δευτέρα 19 Οκτωβρίου 2020

Slaughterbots: Μετά τα drones – καμικάζι... στρατηγοί και ναύαρχοι ρομπότ


H στρατιωτική κούρσα εξοπλισμών που χρησιμοποιεί την τεχνητή νοημοσύνη μόλις αρχίζει και δυνητικά μπορεί να δημιουργήσει τα πιο απεχθή όπλα που θα έχει γνωρίσει ποτέ η ανθρωπότητα.
Οι περισσότεροι ερευνητές της τεχνητής νοημοσύνης προειδοποιούν πως πρέπει να αποφύγουμε αυτό το μέλλον και πιέζουν για την επίτευξη ενός διεθνούς αποκλεισμού των αυτόνομων φονικών όπλων, των αυτόνομων φονικών ρομπότ.
Όπως εξηγούν είναι πολύ εύκολο με την τεχνητή νοημοσύνη να φτιάξεις μικρά drones στο μέγεθος ενός μικρού κουτιού, που θα έχουν GPS και λογισμικό αναγνώρισης προσώπου και θα μπορείς να τα προγραμματίζεις να σκοτώσουν μια συγκεκριμένη ομάδα ή συγκεκριμένους τύπους ανθρώπων, να δολοφονήσουν πολιτικούς σου αντιπάλους ή όποιον άλλον θελήσεις, και μάλιστα αυτά τα όπλα θα είναι απίστευτα φθηνά και ανώνυμα.

Είναι χαρακτηριστικό το βίντεο «Slaughterbots», που δημιουργήθηκε από το «Future of Life Institute», μιας πρωτοβουλίας που στοχεύει, όπως λέει, στην ανάπτυξη της ωφέλιμης κι ασφαλούς τεχνητής νοημοσύνης, και το οποίο προβλήθηκε στα Ηνωμένα Εθνη, προειδοποιώντας για ένα είδος όπλου που ελπίζουν να μη δούμε ποτέ.

Ήδη βέβαια οι ρομποτικές συσκευές γνωστές στον στρατό ως «αυτόνομα οπλικά συστήματα» αντικαθιστούν τα τυπικά όπλα σε συμβατικά πεδία μάχης και περιλαμβάνουν ρομποτικούς φρουρούς, αεροσκάφη επιτήρησης πεδίου μάχης και αυτόνομα υποβρύχια.

Οι μηχανές σε ρόλο στρατηγών και ναυάρχων

Πολλοί στρατιωτικοί υποστηρίζουν ότι η αξιολόγηση του πεδίου μάχης - συμπεριλαμβανομένου του πυρηνικού πολέμου - πρέπει να μεταβιβάζεται όλο και περισσότερο σε μηχανές, ενώ οι στρατοί των μεγάλων δυνάμεων βασίζονται όλο και πιο συχνά σε έξυπνα ρομπότ για τη διεξαγωγή επικίνδυνων μαχητικών επιχειρήσεων.

Τώρα ωστόσο το Αμερικανικό Πεντάγωνο, επιχειρώντας ένα άλμα, επιδιώκει να οδηγήσει αυτήν τη διαδικασία σε ένα εντελώς νέο επίπεδο, αντικαθιστώντας όχι μόνο τους απλούς στρατιώτες και τα όπλα τους, αλλά δυνητικά ναυάρχους και στρατηγούς με ρομποτικά συστήματα. Μάλιστα επιταχύνει τη μελλοντική τους ανάπτυξη ως θέμα επείγον.

Όπως αναφέρει και εκτενές ρεπορτάζ του Guardian, πό το σχεδιασμό μάχης, τη συλλογή πληροφοριών, τον εφοδιασμό, τις επικοινωνίες έως και τη λήψης αποφάσεων πρέπει, σύμφωνα με τα τελευταία σχέδια του Πενταγώνου, να μετατραπεί σε σύνθετες ρυθμίσεις αισθητήρων, υπολογιστών και λογισμικού. Όλα αυτά στη συνέχεια θα ενσωματωθούν σε ένα «σύστημα συστημάτων», το οποίο τώρα ονομάζεται Joint All-Domain Command-and-Control , ή JADC2.

Η έννοια της χρήσης μηχανών για τη λήψη αποφάσεων σε επίπεδο διοίκησης δεν είναι εντελώς νέα. Κατά τη διάρκεια του Ψυχρού Πολέμου, μετά την εισαγωγή διηπειρωτικών βαλλιστικών πυραύλων (ICBM) με εξαιρετικά μικρούς χρόνους πτήσης, τόσο οι στρατιωτικοί όσο και οι συγγραφείς επιστημονικής φαντασίας άρχισαν να φαντάζονται μηχανικά συστήματα που θα ελέγχουν τέτοια πυρηνικά όπλα σε περίπτωση ανθρώπινης ανικανότητας.

Τώρα, ως αποτέλεσμα τεράστιων βελτιώσεων στην τεχνητή νοημοσύνη και στη μηχανική εκμάθηση, οι μηχανές μπορούν να συλλέξουν και να αξιολογήσουν τεράστιες ποσότητες δεδομένων, να ανιχνεύσουν γρήγορα τις βασικές τάσεις και μοτίβα και ενδεχομένως να εκδώσουν εντολές για την καταπολέμηση μονάδων ως προς το πού να επιτεθούν και πότε.

Η αντικατάσταση ανθρώπων από ευφυείς μηχανές σε ανώτερα επίπεδα διοίκησης είναι απαραίτητη, υποστηρίζουν οι αμερικανοί στρατηγοί, επειδή μια εκθετική αύξηση των πληροφοριών των αισθητήρων σε συνδυασμό με την αυξανόμενη ταχύτητα του πολέμου καθιστά σχεδόν αδύνατο για τους ανθρώπους να παρακολουθούν κρίσιμες εξελίξεις στο πεδίο της μάχης.

Εάν τα μελλοντικά σενάρια αποδειχθούν ακριβή, οι μάχες που εκτυλίσσονται σε διάρκεια ημερών ή εβδομάδων θα μπορούσαν να τερματίσουν σε διάστημα ωρών ή ακόμα και λεπτών, καθώς μόνο προηγμένοι υπολογιστές θα μπορούσαν να επεξεργαστούν τόσες πολλές πληροφορίες και να λάβουν ενημερωμένες αποφάσεις μάχης εντός του απαραίτητου χρονικού πλαισίου.

«Είναι απαραίτητο να αναπτυχθεί ένα σύστημα βασισμένο στην τεχνητή νοημοσύνη, με προκαθορισμένες αποφάσεις απόκρισης, που ανιχνεύει, αποφασίζει και κατευθύνει στρατηγικές δυνάμεις με τέτοια ταχύτητα που η πρόκληση συμπίεσης χρόνου-επίθεσης δεν θέτει τις Ηνωμένες Πολιτείες σε μια αδύναμη θέση», υποστηρίζουν στρατιωτικοί αναλυτές, όπως οι Adam Lowther και Curtis McGiffin.

«Τα συστήματα νοημοσύνης που λειτουργούν με τεχνολογία AI μπορούν να παρέχουν τη δυνατότητα ενσωμάτωσης και ταξινόμησης μεγάλων ποσοτήτων δεδομένων από διαφορετικές πηγές και γεωγραφικές τοποθεσίες για τον εντοπισμό προτύπων και την επισήμανση χρήσιμων πληροφοριών», σημείωσε η Ερευνητική Υπηρεσία του Κογκρέσου σε μια σύνοψη της σκέψης του Πενταγώνου τον Νοέμβριο του 2019.

«Καθώς η πολυπλοκότητα των συστημάτων AI ωριμάζει», προσθέτει, «οι αλγόριθμοι AI μπορεί επίσης να είναι σε θέση να παρέχουν στους διοικητές ένα μενού βιώσιμων ενεργειών βασισμένων σε ανάλυση σε πραγματικό χρόνο του χώρου μάχης, επιτρέποντας τη γρηγορότερη προσαρμογή σε σύνθετα γεγονότα».

Η αλγοριθμική ηθική

Αυτή η ιδέα, ότι μια συσκευή που λειτουργεί με τεχνητή νοημοσύνη πρέπει να έχει την εξουσία να αξιολογεί τη συμπεριφορά του εχθρού και, στη συνέχεια, βάσει «προκαθορισμένων επιλογών απόκρισης», να αποφασίζει τη μοίρα της ανθρωπότητας, φυσικά έχει προκαλέσει κάποια ανησυχία στην ευρύτερη κοινότητα στρατιωτικών αναλυτών, ακόμη και σε αυτούς που επικαλούνται μια λογική αποτροπής: φοβούνται ότι θα συνθλιβούν από την τεχνητή νοημοσύνη των αντιπάλων τους εάν δεν μπορούν να εξαπολύσουν μια εξίσου ισχυρή δύναμη.

Δεδομένης της πολυπλοκότητας του σύγχρονου πολέμου και της πρόκλησης της συμπίεσης του χρόνου στη μελλοντική μάχη, είναι κατανοητή η ανάγκη των Αμερικανών στρατηγών να αντικαταστήσουν ανθρώπους διοικητές με ρομπότ. Οι στρατηγοί και οι ναύαρχοι ρομπότ θα μπορούν να επεξεργαστούν εκπληκτικές ποσότητες πληροφοριών σε σύντομο χρόνο, παρακολουθώντας ταυτόχρονα τις φιλικές και εχθρικές δυνάμεις και επινοώντας βέλτιστους τρόπους για την αντιμετώπιση των εχθρικών κινήσεων σε ένα πεδίο μάχης.

Αλλά υπάρχουν πολλοί περισσότεροι λόγοι για να αμφισβητηθεί η αξιοπιστία των υπευθύνων λήψης αποφάσεων και η σοφία της χρήσης τους αντί ανθρώπων αξιωματικών. Κατ 'αρχάς, πολλές από αυτές τις τεχνολογίες βρίσκονται ακόμη στα σπάργανα, και σχεδόν όλες είναι επιρρεπείς σε δυσλειτουργίες που δεν μπορούν εύκολα να προβλεφθούν ούτε να γίνουν κατανοητές, ενώ ακόμη και οι προηγμένοι αλγόριθμοι μπορούν να ξεγελαστούν ή να «πλαστογραφηθούν» από εξειδικευμένους επαγγελματίες.

Επιπλέον, σε αντίθεση με τους ανθρώπους, τα συστήματα λήψης αποφάσεων με δυνατότητα τεχνητής νοημοσύνης δεν θα έχουν την ικανότητα να αξιολογούν την πρόθεση ή το πλαίσιο. Μήπως μια ξαφνική ανάπτυξη στρατευμάτων του εχθρού, για παράδειγμα, υποδεικνύει μια επικείμενη επίθεση, μια μπλόφα ή απλά μια κανονική περιστροφή δυνάμεων; Οι άνθρωποι μπορούν να χρησιμοποιήσουν την κατανόησή τους για την τρέχουσα πολιτική στιγμή και τους εμπλεκόμενους παράγοντες για να βοηθήσουν στην καθοδήγηση της αξιολόγησης της κατάστασης. Τα μηχανήματα στερούνται αυτής της ικανότητας και μπορεί να επιλέξουν το χειρότερο, ξεκινώντας στρατιωτική δράση που θα μπορούσε να αποφευχθεί.

Οποιαδήποτε προσπάθεια κωδικοποίησης νόμου και ηθικής σε εκ των προτέρων δολοφονικά ρομπότ δημιουργεί τεράστιες πρακτικές δυσκολίες. Όπως εξηγεί και ο πανεπιστημιακός στην επιστήμη των υπολογιστών, Noel Sharkey, είναι αδύνατο να προγραμματιστεί ένα ρομπότ πολεμιστής με αντιδράσεις στο άπειρο φάσμα καταστάσεων που θα μπορούσαν να προκύψουν εν μέσω συγκρούσεων. Όπως ένα αυτόνομο αυτοκίνητο που καθίσταται αβοήθητο από το χιόνι που παρεμβαίνει στους αισθητήρες του, ένα αυτόνομο οπλικό σύστημα στην «ομίχλη του πολέμου» είναι άκρως επικίνδυνο.

Επίσης, σύμφωνα με το διεθνές δίκαιο, που διέπει τις ένοπλες συγκρούσεις, μια βασική αρχή του πολέμου είναι η διάκριση: η απαίτηση από τους επιτιθέμενους να κάνουν διάκριση μεταξύ μαχητών και αμάχων. Όμως, όλο και πιο συχνά τις τελευταίες δεκαετίες οι μαχητές αντάρτες σε πολέμους σπάνια φορούν στολές, καθιστώντας πιο δύσκολο να τους διακρίνουν από τους πολίτες. Πως θα τους διακρίνουν τα ρομπότ;

Ρομπότ και στον «εσωτερικό» πόλεμο

Όπως αναφέρει και το Foreign Policy In Focus, σε αυτό το ρομποτικοποιημένο όραμα της «ανθρώπινης κυριαρχίας», ο πόλεμος μοιάζει όλο και περισσότερο σαν μια εξωεδαφική αστυνομική δράση, η οποία μπορεί να εφαρμοστεί βέβαια παντού και οι εχθροί ανά πάσα στιγμή να αντικατασταθούν με ύποπτα άτομα.

Εξάλλου μέσα στο «μενού βιώσιμων ενεργειών» που παρέχονται από τα ρομπότ λήψης αποφάσεων δεν μπορεί παρά να αναπαράγονται κοινωνικές ή ταξικές ή οποιεσδήποτε προκαταλήψεις. Μόλις ενσωματωθούν σε αλγόριθμους λήψης αποφάσεων, τέτοιες προκαταλήψεις θα μπορούν να χρησιμοποιηθούν οπουδήποτε και για ο,τιδήποτε.

Η επιτήρηση από τεχνητή νοημοσύνη δεν χρησιμοποιείται μόνο, ή ακόμη και πρωτίστως, σε ξένους εχθρούς. Έχει ήδη επανατοποθετηθεί για να εντοπίσει και να πολεμήσει τους εχθρούς στο εσωτερικό. Ενώ μετά την 11η Σεπτεμβρίου δεν έχουν απειληθεί στο έδαφός τους οι ΗΠΑ, οι δυνάμεις ασφαλείας της χρησιμοποίησαν τα αντιτρομοκρατικά εργαλεία τεχνητής νοημοσύνης στους «εσωτερικούς εχθρούς», εναντίον εγκληματιών, ακόμη και διαδηλωτών.

Η πρόοδος της χρήσης τεχνητής νοημοσύνης στον στρατό, την αστυνομία, τις φυλακές και τις υπηρεσίες ασφαλείας είναι λιγότερο ένας ανταγωνισμός στρατιωτικού εξοπλισμού μεταξύ των μεγάλων δυνάμεων και περισσότερο ένα κερδοφόρο παγκόσμιο έργο από εταιρικές και κυβερνητικές ελίτ για τη διατήρηση του ελέγχου σε «αναστατωμένους» πληθυσμούς στο εσωτερικό και στο εξωτερικό.

Μόλις αναπτυχθούν σε μακριές μάχες οι στρατιωτικές μέθοδοι τείνουν να εφαρμόζονται και στο σπίτι. Αρχικά αναπτύσσονται εναντίον μη δημοφιλών ή σχετικά αδύναμων μειονοτήτων και μετά διαδίδονται σε άλλες ομάδες. Αξιωματούχοι του Υπουργείου Εσωτερικής Ασφάλειας των ΗΠΑ έχουν χαρίσει στις τοπικές αστυνομικές υπηρεσίες τέτοια εργαλεία. Οι σερίφηδες θα είναι ακόμη πιο ενθουσιώδεις για τη στόχευση και την αξιολόγηση απειλών που βασίζονται σε τεχνητή νοημοσύνη.

Σύμφωνα με τον Michael T. Klare, καθηγητή στο πανεπιστήμιο Five Colleges των ΗΠΑ που ειδικεύεται σε θέματα εξωτερικής πολιτικής και συγγραφέα πολλών σχετικών βιβλίων, πρέπει να υπάρξει κινητοποίηση κι αντίδραση προτού η Αμερική ρίξει δισεκατομμύρια επιπλέον δολάρια φορολογουμένων σε μια επιχείρηση που θα μπορούσε, στην πραγματικότητα, να οδηγήσει στο τέλος του κόσμου όπως τον γνωρίζουμε. Πρέπει επίσης ΗΠΑ, Κίνα και Ρωσία να απαγορεύσουν την ανάπτυξη υπερηχητικών πυραύλων και άλλων «αυτόνομων όπλων» που θα συμπιέσουν τις αποφάσεις ζωής και θανάτου για την ανθρωπότητα σε λίγα μόνο λεπτά.

https://tvxs.gr

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου