Τα όπλα τεχνητής νοημοσύνης και η επικίνδυνη ψευδαίσθηση του ανθρώπινου ελέγχου

«Θα επιστρέψω», υποσχέθηκε περίφημα ο Άρνολντ Σβαρτσενέγκερ το 1984 στην επιτυχία επιστημονικής φαντασίας The Terminator. Δεν αστειευόταν. Σε συνέντευξή του το 2023, ο ηθοποιός που έγινε κυβερνήτης πρότεινε ότι το όραμα της ταινίας για τα αυτόνομα όπλα ήταν πλέον ώρα να γίνει πραγματικότητα. Ή, όπως είπε ο σκηνοθέτης της ταινίας, Τζέιμς Κάμερον, «σας προειδοποίησα το 1984 και δεν ακούσατε».Στο δυστοπικό μέλλον της ταινίας,
οι άνθρωποι σχεδιάζουν ένα στρατιωτικό σύστημα με τεχνητή νοημοσύνη, το οποίο αποστασιοποιείται και καταστρέφει την ανθρωπότητα. Αυστηρά μιλώντας, αυτό δεν έχει συμβεί. Ταυτόχρονα, ο πόλεμος έχει αναμφισβήτητα αλλάξει στα 40 χρόνια που πέρασαν από τότε που ο Εξολοθρευτής βγήκε στις αίθουσες. Όπλα με δυνατότητα τεχνητής νοημοσύνης αναπτύσσονται ενεργά σε πεδία μάχης από την Ουκρανία έως τη Γάζα και πιθανότατα θα διαδραματίσουν καθοριστικό ρόλο σε οποιαδήποτε σύγκρουση μεταξύ των Ηνωμένων Πολιτειών και της Κίνας.Η προειδοποίηση του Εξολοθρευτή ότι οι μηχανές δεν μπορούν να εμπιστευτούν τις σημαντικές αποφάσεις, όπως πότε και ποιον να πυροβολήσουν, επιμένει στη συλλογική ανθρώπινη ψυχή. Ο πραγματικός κίνδυνος, ωστόσο, μπορεί να μην είναι ο πολύ μικρός ανθρώπινος έλεγχος αυτών των συστημάτων, αλλά η ψευδαίσθηση ότι δεν μπορούν να ελεγχθούν καθόλου. Αυτή η ψευδαίσθηση προσφέρει μια “ψεύτικη άνεση" στις δημοκρατικές κυβερνήσεις, τους στρατούς και τις κοινωνίες, τροφοδοτώντας την αφελή ελπίδα ότι μπορούν να σχεδιάσουν καλύτερα συστήματα έχοντας ανθρώπους στο βρόχο - συστήματα που μπορούν να ξεπεράσουν εκείνα των αυταρχικών αντιπάλων που έχουν λιγότερους ενδοιασμούς για την αυτοματοποίηση των πάντων.Ενισχύστε το militaire.gr ,δείτε γιατί ΕΔΩΠαρ' όλα αυτά, όταν πρόκειται για τον ανθρώπινο έλεγχο των οπλικών συστημάτων με τεχνητή νοημοσύνη, η επικρατούσα άποψη παραμένει ότι το περισσότερο είναι καλύτερο. Η κυβερνητική πολιτική των ΗΠΑ, για παράδειγμα, απαιτεί ρητά ότι τα θανατηφόρα αυτόνομα όπλα πρέπει να σχεδιάζονται με τη δυνατότητα κατάλληλης ανθρώπινης παρέμβασης. Ανώτεροι αξιωματούχοι τονίζουν τακτικά αυτό το γεγονός. Στα τέλη του 2023, αφού το Υπουργείο Άμυνας ξεκίνησε την Πρωτοβουλία Replicator, μια προσπάθεια να αναπτυχθούν χιλιάδες αυτόνομα συστήματα σε όλες τις στρατιωτικές υπηρεσίες μέχρι τον Αύγουστο του 2025, η Αναπληρώτρια Υπουργός Άμυνας Κάθλιν Χικς δήλωσε: «Υπάρχει πάντα ένας άνθρωπος υπεύθυνος για τη χρήση βίας, τελεία και παύλα». Τα Ηνωμένα Έθνη επιδιώκουν την απαγόρευση των πλήρως αυτόνομων όπλων και έχουν προτείνει διεθνώς δεσμευτικούς κανόνες που απαιτούν τα συστήματα αυτά να έχουν έναν άνθρωπο στο βρόχο. Πολυάριθμες μη κυβερνητικές οργανώσεις, όπως το Stop Killer Robots, το Future of Life Institute και η Διεθνής Αμνηστία, έχουν υιοθετήσει την υπόθεση του ανθρώπινου ελέγχου των αυτόνομων όπλων.Αν και είναι παρήγορο να φανταζόμαστε ότι οι ζωντανοί, αναπνέοντες άνθρωποι θα συγκρατούν τους ανεγκέφαλους αλγόριθμους από το να σκοτώνουν αδιακρίτως, αυτή η συναίνεση δεν συμβαδίζει με την τεχνολογική πραγματικότητα. Τα μοντέλα τεχνητής νοημοσύνης που οδηγούν τα σύγχρονα αυτόνομα όπλα είναι συχνά πολύ εξελιγμένα για να τα επιβλέπουν ακόμη και οι καλύτερα εκπαιδευμένοι χειριστές. Επιπλέον, κάθε προτεινόμενη χρήση των αυτόνομων όπλων τα φαντάζεται να λειτουργούν σε μαζική κλίμακα, η οποία θα απαιτούσε επίπεδα δεδομένων, ταχύτητας και πολυπλοκότητας που θα καθιστούσαν αδύνατη την ουσιαστική ανθρώπινη παρέμβαση. Υπό κανονικές συνθήκες, το να περιμένουμε από έναν άνθρωπο να σταθμίσει τα πλεονεκτήματα της ανάλυσης ενός συστήματος τεχνητής νοημοσύνης και να προτείνει τρόπους δράσης θα ήταν πρόκληση. Σε συνθήκες μάχης -που χαρακτηρίζονται από έντονο στρες, περιορισμένο χρόνο και διακοπτόμενες ή ανύπαρκτες επικοινωνίες μεταξύ ατόμων, μονάδων και ανώτερων αρχών- κάτι τέτοιο θα ήταν αδύνατο. Επομένως, αντί να ενδίδουν στην ψευδαίσθηση ότι οι άνθρωποι θα έχουν την ικανότητα να ελέγχουν τα αυτόνομα όπλα σε καιρό πολέμου, οι στρατιωτικοί πρέπει να οικοδομήσουν εμπιστοσύνη στα μοντέλα τους για τα αυτόνομα όπλα τώρα -υπό συνθήκες ειρήνης- και να τα αφήσουν να λειτουργήσουν χωρίς υπερβολική ανθρώπινη παρέμβαση όταν αρχίσουν οι πυροβολισμοί.Ο στρατιωτικός ανταγωνισμός μεταξύ των Ηνωμένων Πολιτειών και της Κίνας καθιστά την ανάπτυξη αυτόνομων οπλικών συστημάτων σχεδόν αναπόφευκτη, με τον πόλεμο στην Ουκρανία να αποτελεί πρώιμη απόδειξη αυτής της αλλαγής παραδείγματος. Εν τω μεταξύ, η κυβέρνηση των ΗΠΑ έχει δεσμευτεί να αναπτύξει ευρέως και άμεσα την τεχνητή νοημοσύνη για μια σειρά από σκοπούς ασφαλείας - ανάλυση πληροφοριών, βιοασφάλεια, ασφάλεια στον κυβερνοχώρο και πολλά άλλα.Ενισχύστε το militaire.gr ,δείτε γιατί ΕΔΩΕδώ και χρόνια, το Πεκίνο έχει επενδύσει σε μεγάλο βαθμό σε δυνατότητες που αποσκοπούν στην εξουδετέρωση της προβολής ισχύος των ΗΠΑ στην Ανατολική Ασία, επιτρέποντας ενδεχομένως στην Κίνα να επιβάλει τετελεσμένα γεγονότα στην Ταϊβάν. Μέχρι πρόσφατα, ο αμερικανικός στρατός έδινε προτεραιότητα στη διατήρηση ενός μικρού αριθμού μεγάλων, λεγόμενων «εκλεκτών» οπλικών πλατφορμών, όπως αεροπλανοφόρα και κορυφαία μαχητικά αεροσκάφη και βομβαρδιστικά. Αυτή η προσέγγιση, ωστόσο, δεν είναι πλέον βιώσιμη. Η Κίνα έχει κατασκευάσει και διανείμει έναν μεγάλο αριθμό συγκριτικά φθηνών οπλικών συστημάτων, όπως βαλλιστικούς πυραύλους κατά πλοίων και ντιζελοηλεκτρικά υποβρύχια, που θα μπορούσαν εύκολα να εξουδετερώσουν τις εκλεκτές πλατφόρμες του αμερικανικού στρατού. Για να αποκατασταθεί το πλεονέκτημα των Ηνωμένων Πολιτειών στην Ανατολική Ασία, κάθε κλάδος των ενόπλων δυνάμεων έχει ως εκ τούτου ξεκινήσει προσπάθειες για την ανάπτυξη αρκετών μη επανδρωμένων συστημάτων που θα εξουδετερώσουν τις δυνατότητες άρνησης της Κίνας.Η αυτοματοποίηση, η τεχνητή νοημοσύνη και τα μη επανδρωμένα αεροσκάφη με ποικίλους βαθμούς αυτονομίας αποτελούν θεμελιώδη συστατικά σχεδόν κάθε μιας από τις νεότερες επιχειρησιακές αντιλήψεις των αμερικανικών στρατιωτικών υπηρεσιών: το Force Design 2030 του Σώματος Πεζοναυτών, οι Distributed Maritime Operations του Ναυτικού, οι Large-Scale Combat Operations του Στρατού και το Future Operating Concept της Πολεμικής Αεροπορίας. Καθένα από αυτά με τη σειρά του βασίζεται σε μια συνεχιζόμενη πρωτοβουλία που ξεκίνησε το 2022, γνωστή ως Joint All-domain Command and Control, η οποία κόστισε 1,4 δισεκατομμύρια δολάρια μόνο το 2024. Σύμφωνα με το Υπουργείο Άμυνας, το πρόγραμμα στοχεύει στη σύνδεση «κάθε αισθητήρα, κάθε σκοπευτή» προκειμένου να «ανακαλύπτει, να συλλέγει, να συσχετίζει, να συγκεντρώνει, να επεξεργάζεται και να αξιοποιεί δεδομένα από όλους τους τομείς και τις πηγές» και να δημιουργεί έτσι ένα ενιαίο «ιστό δεδομένων». Με απλά λόγια, οτιδήποτε μπορεί να συλλέξει δεδομένα, από δορυφόρους έως θαλάσσια μη επανδρωμένα αεροσκάφη και από έναν στρατιώτη στο πεδίο, θα πρέπει να είναι σε θέση να τα μοιράζεται και να τα χρησιμοποιεί.Τα μη επανδρωμένα συστήματα αποτελούν απαραίτητο πυλώνα αυτού του ιστού δεδομένων. Στην ξηρά, θα ενισχύσουν τη φονικότητα και θα μειώσουν τις απώλειες φίλων και αμάχων προσφέροντας μεγαλύτερη ακρίβεια. Στον αέρα, τα μη επανδρωμένα αεροσκάφη θα έχουν μεγαλύτερη αντοχή και ευελιξία, θα αναπτύσσονται σε μεγαλύτερους αριθμούς, θα συνεργάζονται για να καλύπτουν μεγαλύτερες περιοχές και θα περιπλέκουν την αντίπαλη αντιπολεμική στόχευση. Και στη θάλασσα, τα μη επανδρωμένα σκάφη θα διεισδύσουν σε περιοχές που ήταν προηγουμένως απρόσιτες.Οι Ηνωμένες Πολιτείες, η Κίνα και η Ρωσία έχουν δαπανήσει δισεκατομμύρια δολάρια για να μετασχηματίσουν ανάλογα τον πόλεμο. Οι πιέσεις του ανταγωνισμού στον τομέα της ασφάλειας δείχνουν προς μία μόνο κατεύθυνση: την ολοένα επιταχυνόμενη αυτοματοποίηση του πολέμου. Και από καθαρά τακτική και επιχειρησιακή άποψη, όσο πιο γρήγορος γίνεται ο πόλεμος, τόσο περισσότερα μειονεκτήματα προκύπτουν από την επιβράδυνση των πραγμάτων με την απαίτηση από τον άνθρωπο να παρεμβαίνει κατά τη διάρκεια της μάχης.Ενισχύστε το militaire.gr ,δείτε γιατί ΕΔΩΦυσικά, η τακτική και οι επιχειρήσεις δεν είναι τα μόνα ζητήματα στον πόλεμο. Από ηθική άποψη, πολλοί παρατηρητές φοβούνται ότι χωρίς επίβλεψη, οι μη σκεπτόμενες μηχανές μπορεί να “ξεσαλώσουν”, παραβιάζοντας πατροπαράδοτες αρχές όπως η αναλογικότητα (που υπαγορεύει ότι η ζημία που προκαλεί μια στρατιωτική δράση δεν πρέπει να υπερβαίνει τα οφέλη της) και η διάκριση (που επιβάλλει στους στρατούς να κάνουν διάκριση μεταξύ μαχητών και αμάχων). Άλλοι ανησυχούν ότι τα αυτόνομα συστήματα μπορεί να θυματοποιήσουν ευάλωτους πληθυσμούς λόγω προκαταλήψεων στα δεδομένα εκπαίδευσής τους ή ότι μη κρατικοί φορείς μπορεί να χακάρουν ή να κλέψουν αυτόνομα όπλα και να τα χρησιμοποιήσουν για κακόβουλους σκοπούς.Από πρακτική άποψη, η κοντόφθαλμη έμφαση στην τακτική ή επιχειρησιακή αποτελεσματικότητα μπορεί επίσης να οδηγήσει σε κακά στρατηγικά αποτελέσματα, όπως η ακούσια κλιμάκωση. Οι επικριτές των αυτόνομων όπλων υποστηρίζουν ότι οι άνθρωποι ενσωματώνουν ένα ευρύτερο πλαίσιο στις αποφάσεις τους, γεγονός που τους καθιστά καλύτερους στο χειρισμό καινοτομιών ή χάους, ενώ οι μηχανές παραμένουν στο σενάριο. Λίγοι άνθρωποι εμπιστεύονται πλήρως τις μηχανές με σοβαρές αποφάσεις όπως η θανάτωση ή η επέκταση του πεδίου εφαρμογής μιας στρατιωτικής εκστρατείας. Μέχρι σήμερα, οι υποθέσεις των περισσότερων ανθρώπων εδράζονται σε αξιομνημόνευτες περιπτώσεις σφαλμάτων υπολογιστών, όπως τα ατυχήματα αυτοκινούμενων αυτοκινήτων ή οι «παραισθήσεις» των chatbot. Οι άνθρωποι είναι λιγότερο πιθανό να κλιμακώσουν τις συγκρούσεις.Αυτά τα ηθικά και πρακτικά επιχειρήματα υποστηρίζονται από τη θεμελιώδη αλήθεια ότι ακόμη και τα πιο προηγμένα αυτόνομα συστήματα με τεχνητή νοημοσύνη θα κάνουν λάθη. Παρ' όλα αυτά, η τεχνητή νοημοσύνη έχει προχωρήσει σε σημείο όπου ο ανθρώπινος έλεγχος είναι συχνά περισσότερο ονομαστικός παρά πραγματικός. Η διογκωμένη αίσθηση της ικανότητας των ανθρώπων να ελέγχουν την ΤΝ μπορεί, στην πραγματικότητα, να επιδεινώσει τους ίδιους τους κινδύνους που φοβούνται οι επικριτές. Η ψευδαίσθηση ότι οι άνθρωποι θα είναι σε θέση να παρεμβαίνουν σε μελλοντικά σενάρια μάχης που υπόσχονται να είναι υψηλής πίεσης και υψηλής ταχύτητας -και κατά τη διάρκεια των οποίων οι επικοινωνίες θα υποβαθμίζονται ή θα διακόπτονται- εμποδίζει τους υπεύθυνους χάραξης πολιτικής, το στρατιωτικό προσωπικό και τους σχεδιαστές συστημάτων να λάβουν τα απαραίτητα μέτρα για την επινόηση, δοκιμή και αξιολόγηση ασφαλών αυτόνομων συστημάτων τώρα.Ο εξαναγκασμός των ανθρώπων να παρεμβαίνουν στις τακτικές αποφάσεις δεν θα καταστήσει αυτόματα τη δολοφονία πιο ηθική στον πόλεμο με τεχνητή νοημοσύνη. Οι σύγχρονοι στρατοί χρησιμοποιούν από καιρό συστήματα με διάφορες μορφές διαβαθμισμένης αυτονομίας, όπως το σύστημα μάχης Aegis του Πολεμικού Ναυτικού, με διακριτά επίπεδα ανθρώπινης εξουσίας που απαιτούνται για την απελευθέρωση όπλων. Ωστόσο, η απόφαση του ανθρώπινου χειριστή για την εκτόξευση βασίζεται σε ένα σύστημα υπολογιστή που αναλύει τα εισερχόμενα δεδομένα και δημιουργεί ένα μενού επιλογών. Σε αυτό το περιβάλλον, η ανθρώπινη επιλογή, με την αντίστοιχη ηθική κρίση, είναι περισσότερο μια σφραγίδα παρά μια τεκμηριωμένη απόφαση: ο χειριστής εμπιστεύεται ήδη τους αισθητήρες που συνέλεξαν τα δεδομένα και τα συστήματα που τα ανέλυσαν και όρισαν τους στόχους.Ο μελλοντικός πόλεμος με τη βοήθεια της ΤΝ θα είναι ακόμη πιο γρήγορος και πιο εξαρτώμενος από τα δεδομένα, καθώς τα οπλικά συστήματα με τη βοήθεια της ΤΝ (π.χ. σμήνη μη επανδρωμένων αεροσκαφών) θα μπορούν να αναπτυχθούν γρήγορα και σε κλίμακα. Οι άνθρωποι δεν θα έχουν ούτε το χρόνο ούτε τη γνωστική ικανότητα να αξιολογήσουν αυτά τα δεδομένα ανεξάρτητα από τη μηχανή. Για παράδειγμα, το Ισραήλ χρησιμοποίησε ένα σύστημα δημιουργίας στόχων με τεχνητή νοημοσύνη κατά τη διάρκεια του πολέμου στη Γάζα. Αυτό το σύστημα, το οποίο χρησιμοποιεί εκατοντάδες χιλιάδες λεπτομέρειες για να ταξινομήσει τους στόχους ως εχθρικούς, είναι πολύ εξελιγμένο για να το αμφισβητήσει κανείς όταν οι αποφάσεις πρέπει να ληφθούν μέσα σε λίγα λεπτά ή δευτερόλεπτα.Επιπλέον, ο ανθρώπινος έλεγχος δεν είναι πλέον καλύτερος από πρακτική άποψη. Οι άνθρωποι δεν έχουν αξιωματικά μεγαλύτερο πλαίσιο από τις μηχανές. Στην εποχή της τεχνητής νοημοσύνης, συχνά θα έχουν πολύ λιγότερα. Σκεφτείτε έναν πιλότο που ηγείται ενός στόλου αυτόνομων αεροσκαφών ή έναν διοικητή που συντονίζει χιλιάδες μη επανδρωμένα αεροσκάφη στον αέρα, στη στεριά και στη θάλασσα, όπως στην ιδέα «Hellscape» του αμερικανικού στρατού. Σύμφωνα με αυτό το σχέδιο, εάν η Κίνα επιχειρούσε να εισβάλει στην Ταϊβάν, το αμερικανικό ναυτικό θα ανέπτυσσε χιλιάδες μη επανδρωμένα σκάφη επιφανείας, υποβρύχια σκάφη και αεροσκάφη για να μετατρέψει τον Πορθμό της Ταϊβάν σε πεδίο βολής, κερδίζοντας χρόνο για να κινητοποιηθεί ο αμερικανικός στόλος. Οι άνθρωποι δεν μπορούν να ερμηνεύσουν τις τεράστιες ποσότητες δεδομένων που συλλέγονται από έναν τέτοιο αστερισμό συστημάτων και να τα αναλύσουν για να λάβουν ορθές αποφάσεις. Αν και τα αυτόνομα συστήματα μπορούν να αναβαθμιστούν ώστε να μπορούν να εξυπηρετήσουν μεγαλύτερο αριθμό διαδραστικών και πολύπλοκων εργασιών, οι ανθρώπινες δυνατότητες είναι σταθερές. Η πίεση για την επιτάχυνση της ανθρώπινης ερμηνείας και ανάλυσης θα οδηγήσει σε λιγότερο μελετημένες και πιο επιρρεπείς αποφάσεις. Ταυτόχρονα, χωρίς την επιτάχυνση της διαδικασίας λήψης αποφάσεων, η επιλογή των ενεργειών θα είναι παρωχημένη σε ένα ταχέως κινούμενο περιβάλλον.Ενισχύστε το militaire.gr ,δείτε γιατί ΕΔΩΣε μελλοντικές συγκρούσεις που χαρακτηρίζονται από διακοπτόμενες ή ανύπαρκτες επικοινωνίες μεταξύ των μονάδων -κάτι που οι περισσότεροι παρατηρητές αναμένουν ότι θα συμβεί σε έναν πόλεμο μεταξύ των Ηνωμένων Πολιτειών και της Κίνας, δεδομένης της ικανότητας της κάθε πλευράς να στοχεύει δορυφόρους και να χακάρει ή να μπλοκάρει το ηλεκτρομαγνητικό φάσμα- οι μεμονωμένοι διοικητές και το προσωπικό στο πεδίο μπορεί κάλλιστα να αποκοπούν από την εποπτεία και την υποστήριξη σε ανώτερο επίπεδο. Πάρτε, για παράδειγμα, την έννοια του Σώματος Πεζοναυτών που είναι γνωστή ως «εφεδρικές δυνάμεις», οι οποίες έχουν σχεδιαστεί για να είναι μικρές και εξαιρετικά κινητές μονάδες μάχης. Οι εφεδρικές δυνάμεις θα λειτουργούν ως κατανεμημένες μικρές ομάδες προσωπικού σε νησιά και εδάφη στον Ειρηνικό, εντός του βεληνεκούς των κινεζικών όπλων. Για να επιβιώσουν, θα πρέπει να ελαχιστοποιήσουν τις ηλεκτρομαγνητικές τους υπογραφές, τις εκπομπές ραδιοσυχνοτήτων που παράγουν οι μονάδες με τη χρήση ραντάρ ή συσκευών επικοινωνίας, τις οποίες μπορεί να εκμεταλλευτεί ένας αντίπαλος για να τις εντοπίσει και να τους επιτεθεί. Αυτό σημαίνει ότι οι εφεδρικές δυνάμεις θα πρέπει συχνά να απενεργοποιούν τις επικοινωνίες τους για να κρυφτούν, αναγκάζοντάς τις να λαμβάνουν αποφάσεις χωρίς εξωτερική συμβολή και χρησιμοποιώντας μόνο δεδομένα που συλλέγουν μόνες τους. Υπό αυτές τις συνθήκες, το προσωπικό δεν θα έχει ένα πλουσιότερο πλαίσιο απλώς και μόνο επειδή είναι άνθρωπος.Οι υπεύθυνοι χάραξης πολιτικής και οι στρατιωτικοί ηγέτες έχουν προτείνει την επιβράδυνση και την κλιμάκωση της χρήσης ή της πολυπλοκότητας των αυτόνομων συστημάτων ώστε να ανταποκρίνονται στην ανθρώπινη ταχύτητα. Το μόνο που επιτυγχάνεται με αυτόν τον τρόπο είναι η πιο αργή ανταπόκριση. Άλλοι υποστηρικτές του μεγαλύτερου ανθρώπινου ελέγχου εκθειάζουν τη σημασία της καλύτερης εκπαίδευσης των χειριστών. Αυτό μπορεί να προσφέρει μόνο οριακά κέρδη, καθώς τα συστήματα τεχνητής νοημοσύνης υπερβαίνουν όλο και περισσότερο το όριο της ανθρώπινης γνωστικής δύναμης, ενώ ο όγκος των παραγόμενων δεδομένων αυξάνεται εκθετικά.Σε δημόσιες δηλώσεις τους, ανώτεροι αξιωματούχοι της αμερικανικής άμυνας υποστηρίζουν ότι τα στρατιωτικά συστήματα τεχνητής νοημοσύνης θα πρέπει να κάνουν μόνο προτάσεις και όχι να αναλαμβάνουν άμεση δράση. Παρόλο που είναι εύκολο να φανταστεί κανείς πώς τα μη επανδρωμένα αεροσκάφη, για παράδειγμα, θα μπορούσαν να ταξιδεύουν αυτόνομα στους στόχους τους και στη συνέχεια να εμπλέκονται μόνο αν τους το διατάξει ο άνθρωπος, αυτό διαψεύδει τον τρόπο με τον οποίο λειτουργεί στην πραγματικότητα ο πόλεμος με τη βοήθεια της τεχνητής νοημοσύνης. Η σύγκρουση στην Ουκρανία έδειξε ότι καθώς τα μη επανδρωμένα αεροσκάφη έχουν πολλαπλασιαστεί, το ίδιο και τα συστήματα για την παρεμπόδιση της επικοινωνίας τους με τους χειριστές- αυτό ανάγκασε τους Ουκρανούς να υιοθετήσουν αυξανόμενα επίπεδα πραγματικής αυτονομίας.Ούτε είναι δυνατόν, όπως προτείνουν ορισμένοι, να διαχωρίσουμε εύκολα τις επιθετικές από τις αμυντικές χρήσεις των θανατηφόρων αυτόνομων όπλων και να επιτρέψουμε την πραγματική αυτονομία μόνο για αυτοάμυνα. Όπως έχουν παρατηρήσει οι στρατηγοί από την εποχή του Πρώσου στρατηγού Καρλ φον Κλάουζεβιτς μια τακτική άμυνα μπορεί να υποστηρίξει μια επιχειρησιακή επίθεση ή μια τακτική επίθεση μια επιχειρησιακή άμυνα.Για όλους αυτούς τους λόγους, οι συστάσεις πολιτικής που βασίζονται στην ικανότητα των ανθρώπων να ελέγχουν τα αυτόνομα όπλα είναι στην καλύτερη περίπτωση παρηγορητικές. Μπορεί να κάνουν τους πάντες να αισθάνονται ασφαλείς ότι τα όπλα δεν θα πυροβολούν ποτέ μόνα τους, αλλά δυσχεραίνουν επίσης τη νίκη των στρατιωτικών δυνάμεων και αφήνουν τα πιο δύσκολα ηθικά και πρακτικά ερωτήματα στο προσωπικό της πρώτης γραμμής που έχει τον λιγότερο χρόνο και τους λιγότερους πόρους για να λάβει αποφάσεις. Αντί να τρέφουν παρηγορητικές ψευδαισθήσεις, οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να υιοθετήσουν μια ρεαλιστική προσέγγιση των αυτόνομων οπλικών συστημάτων - μια προσέγγιση που μπορεί να αποδειχθεί ακόμη και πιο ηθική.Για να γίνει αυτό, οι κυβερνήσεις πρέπει πρώτα να διασφαλίσουν ότι οι βασικές ανθρώπινες αποφάσεις, όπως αυτές που αφορούν την αναλογικότητα και τις διακρίσεις, δεν λαμβάνονται σε καιρό πολέμου, όταν δεν θα υπάρχει χρόνος για σκέψη, αλλά σε καιρό ειρήνης, όταν είναι δυνατή η συμβολή εμπειρογνωμόνων, η δημοκρατική συζήτηση και η εποπτεία υψηλού επιπέδου. Ο στόχος δεν είναι να εξαλειφθεί ο ανθρώπινος έλεγχος και η λογοδοσία, αλλά να διασφαλιστεί ότι ασκούνται με τους κατάλληλους πόρους και την κατάλληλη στιγμή - όχι σε καιρό πολέμου, όταν μπορεί να κοστίσουν μια μάχη.Οι κυβερνήσεις πρέπει επίσης να αναγνωρίσουν ότι ακόμη και το πιο εξελιγμένο σύστημα τεχνητής νοημοσύνης δεν θα έχει πάντα δίκιο. Η μείωση των επιπτώσεων των αποτυχιών με τον έγκαιρο εντοπισμό τους και τη μάθηση από αυτές είναι ζωτικής σημασίας για την εξέλιξη του συστήματος, ώστε να παραμείνει πρακτικό και ηθικό. Δεδομένου ότι οι άνθρωποι δεν μπορούν να επιβλέπουν αυτά τα συστήματα σε καιρό πολέμου, οι στρατοί χρειάζονται γρήγορα, ελαφριά και ποικίλα βοηθητικά συστήματα αστυνόμευσης, όπως αυτά που αναδύονται για να ανιχνεύουν παραβιάσεις των κανόνων οδήγησης από αυτόνομα οχήματα. Και τόσο οι αμυντικοί εργολάβοι όσο και ο στρατός πρέπει να δημιουργήσουν διαδικασίες για να μαθαίνουν από τις αποτυχίες - δηλαδή να διερευνούν τα περιστατικά, να αποδίδουν ευθύνες και να καθοδηγούν την εξέλιξη του συστήματος.Ενισχύστε το militaire.gr ,δείτε γιατί ΕΔΩΤέλος, οι εργολάβοι άμυνας και ο στρατός πρέπει να οικοδομήσουν εμπιστοσύνη στα αυτόνομα συστήματα τώρα. Παρέχοντας αποδείξεις ότι τα σημερινά συστήματα λειτουργούν όπως αναμένεται, μπορούν να ανοίξουν το δρόμο για τον πόλεμο που θα λειτουργήσει με την ταχύτητα των μηχανών αργότερα. Ένα μη αξιόπιστο σύστημα θα απαιτεί περισσότερη ανθρώπινη παρέμβαση, επιβραδύνοντας το. Ο στρατός διαθέτει ώριμες πρακτικές δοκιμών και αξιολόγησης για την οικοδόμηση εμπιστοσύνης στα παραδοσιακά συστήματα. Ωστόσο, τα αυτόνομα συστήματα με τεχνητή νοημοσύνη κατασκευάζονται δραματικά διαφορετικά από τα προηγούμενα συστήματα και συνεπώς απαιτούν νέες μορφές αποδείξεων για την οικοδόμηση εμπιστοσύνης. Δεν προγραμματίζονται από τους προγραμματιστές μέσω λογικών κανόνων λήψης αποφάσεων. Αντιθέτως, για να υλοποιήσουν κάτι που θα απαιτούσε εκατομμύρια κανόνες, αυτά τα νέα συστήματα εκπαιδεύονται για να μάθουν πώς να αντιστοιχίζουν τις εισόδους και τις αναμενόμενες εξόδους σε ένα σύνολο δεδομένων. Αυτή η αλλαγή παραδείγματος στην οικοδόμηση συστημάτων απαιτεί νέες μορφές αποδείξεων. Τα δεδομένα για την εκπαίδευση ενός μοντέλου τεχνητής νοημοσύνης πρέπει να αντικατοπτρίζουν αποδεδειγμένα τις εισροές του πραγματικού κόσμου που θα προσλαμβάνει το σύστημα όταν χρησιμοποιείται στη μάχη- πρέπει να προέρχονται από αξιόπιστη πηγή και να είναι επικαιροποιημένα. Το σύστημα πρέπει να περάσει από μια σειρά ελέγχων διασφάλισης ποιότητας για να διασφαλιστεί ότι τηρεί τους πρακτικούς στόχους και τις ηθικές αρχές. Τελικά, δεδομένης της αδιαφάνειας αυτών των συστημάτων για την ανθρώπινη κατανόηση, πρέπει επίσης να παρέχουν επεξηγηματικά στοιχεία που να δικαιολογούν τις ενέργειές τους.Τις επόμενες δεκαετίες, οι Ηνωμένες Πολιτείες θα βασίζονται όλο και περισσότερο σε αυτόνομα οπλικά συστήματα με τεχνητή νοημοσύνη στον πόλεμο. Η ψευδαίσθηση ότι οι άνθρωποι μπορούν να ελέγχουν αυτά τα συστήματα ενώ ο πόλεμος βρίσκεται σε εξέλιξη, θα δέσει τα χέρια των δημοκρατικών εθνών απέναντι σε αντιπάλους που δεν έχουν τέτοιους ενδοιασμούς. Θα οδηγήσει επίσης δυνητικά σε λιγότερο ηθικές αποφάσεις, καθώς αφήνοντας αυτές τις αποφάσεις σε καιρό πολέμου σχεδόν εγγυάται ότι θα ληφθούν υπό τη μεγαλύτερη δυνατή πίεση, όταν δεν είναι δυνατή η λήψη πραγματικής απόφασης. Οι κυβερνήσεις πρέπει να ενσωματώσουν την ανθρώπινη συμβολή στα συστήματα τώρα, στη συνέχεια να ελέγχουν και να βελτιώνουν αυτά τα συστήματα και να οικοδομούν επιμελώς την εμπιστοσύνη των χρηστών. Διαφορετικά, η επιθυμία για ανθρώπινο έλεγχο της στρατιωτικής τεχνητής νοημοσύνης θα κοστίσει περισσότερες ζωές από όσες σώζει.Πηγή: Foreign Affairs

The post Τα όπλα τεχνητής νοημοσύνης και η επικίνδυνη ψευδαίσθηση του ανθρώπινου ελέγχου appeared first on Militaire.gr.

Keywords
διεθνής αμνηστία, σβαρτσενέγκερ, terminator, ηπα, ρητά, future, life, στρατος, design, joint, ρωσία, δραση, σημαίνει, αποδειξεις, νέα, κινηση στους δρομους, αποτελεσματα δημοτικων εκλογων 2010, εκλογες 2010 αποτελεσματα , τελη ταξινομησης, νεα κυβερνηση, Καλή Χρονιά, αλλαγη ωρας 2012, εκλογες ηπα, τελος του κοσμου, αξιολογηση, αποτελεσματα, ρητά, ρωσία, ηθικη, ηθοποιος, ηνωμενα εθνη, ηπα, θαλασσα, ισραηλ, κινα, νησια, ογκος, ουκρανια, πιεση, πλαισιο, προγραμμα, τα νεα, ωρα, αμυνα, αμνηστια, ανθρωπος, απλα, ασια, ατυχηματα, βοηθεια, βρισκεται, γαζα, γεγονοτα, γεγονος, γινει, γινεται, δυνατοτητα, δειτε, δηλωσεις, διεθνής αμνηστία, εγινε, ευκολο, ευκολα, ειπε, υπαρχει, εκπαιδευση, ελπιδα, ενεργα, εννοια, εξελιξη, εποχη, επιτυχια, επιθυμια, ζημια, ιδεα, ιδιο, ηνωμενες πολιτειες, υπηρεσιες, υποθεση, μηχανες, ηθικο, κυβερνηση, κλιμακα, λαθη, λεπτομερειες, ληψη, λογια, μειωση, μοντελα, μονα, ναυτικο, νικη, νοημοσυνη, ξηρα, παντα, οραμα, οχηματα, πεδια, πεδιο, πεκινο, περιβαλλον, πηγη, πλατφορμες, ψυχη, ρανταρ, ρολο, σβαρτσενέγκερ, σεναριο, συζητηση, συνεχεια, σειρα, σκαφη, σφραγιδα, σχεδιο, χρονος, ψευδαισθησεις, αδυνατο, ασφαλεια, design, δικιο, domain, εκπομπες, εμφαση, future, ηγετες, joint, υπουργειο, life, ομαδες, σημαίνει, scale, terminator, ξεκινησε, χερια
Τυχαία Θέματα