εναντίον της ανάπτυξης
νέων επικίνδυνων όπλων
«Δεν γνωρίζω με τι όπλα θα γίνει ο τρίτος παγκόσμιος πόλεμος, όμως ο τέταρτος παγκόσμιος πόλεμος θα γίνει με ξύλα και πέτρες». Ο Άλμπερτ Αϊνστάιν εξέφρασε από πολύ νωρίς την ανησυχία του για την ανάπτυξη της τεχνολογίας στον τομέα των οπλικών συστημάτων, αναφερόμενος στον κίνδυνο ενός πυρηνικού ολέθρου.
Την άποψη του πασίγνωστου επιστήμονα ενστερνίζονται σήμερα νεότεροι ειδικοί, κάνοντας πλέον λόγο για έναν «πόλεμο» οπλικών συστημάτων, αυτόνομων και αυτοματοποιημένων.
Ομάδα περισσότερων από 1.000 επιστήμονες με επικεφαλής τον Στίβεν Χόκινγκ, προειδοποιούν πως μια νέα παγκόσμια κούρσα εξοπλιστικών ανταγωνισμών, η οποία αυτή τη φορά θα αφορά στα αυτόνομα οπλικά συστήματα -που βασίζονται στην τεχνητή νοημοσύνη- είναι σχεδόν βέβαιο ότι θα ξεσπάσει τα επόμενα χρόνια.
Το μόνο που θα μπορέσει να αποτρέψει μια παρόμοια εξέλιξη είναι η παρέμβαση των κυβερνήσεων.
Τη έκκληση-προειδοποίηση απηύθυναν περισσότεροι από 1.000 επιστήμονες και ειδικοί της τεχνολογίας, με επικεφαλής τον διάσημο αστροφυσικό Στίβεν Χόκινγκ, οι οποίοι έδωσαν στη δημοσιότητα ανοικτή επιστολή προς τα κράτη και κάθε αρμόδιο διεθνή οργανισμό.Όπως γράφει η εφημερίδα «Guardian», μεταξύ άλλων, την επιστολή συνυπογράφουν ο δισεκατομμυριούχος τεχνο-επιχειρηματίας Έλον Μασκ (Tesla, SpaceX, Pay Pal κ.α.), ο συνιδρυτής της Apple Στιβ Βόζνιακ, ο επικεφαλής της Google Deep Mind Ντέμης Χασάμπης, ο καθηγητής γλωσσολογίας του ΜΙΤ Νόαμ Τσόμσκι , ο Jaan Tallinn, συνιδρυτής του Skype, CSER, και FLI, αλλά και ο George Dyson κ.α.
Την πρωτοβουλία είχε η οργάνωση «Future of Life Institute» (Ινστιτούτο για το Μέλλον της Ζωής) και η επιστολή παρουσιάσθηκε σε διεθνή συνδιάσκεψη για την τεχνητή νοημοσύνη στο Μπουένος Άιρες της Αργεντινής.
«Η κατάληξη της σημερινής τεχνολογικής πορείας είναι προφανής: τα αυτόνομα όπλα θα γίνουν τα καλάσνικοφ του αύριο. Το βασικό ερώτημα για την ανθρωπότητα σήμερα, είναι αν θα ξεκινήσει μια παγκόσμια κούρσα εξοπλισμών τεχνητής νοημοσύνης ή αν θα εμποδίσει να αρχίσει κάτι τέτοιο», τονίζεται στην επιστολή-προειδοποίηση.
Οι συνυπογράφοντες επισημαίνουν ότι «η τεχνολογία της τεχνητής νοημοσύνης έχει φθάσει σε σημείο όπου η ανάπτυξη αυτόνομων όπλων είναι -πρακτικά, αν όχι και νομικά- εφικτή μέσα στα επόμενα χρόνια.
Όσα διακυβεύονται, είναι σημαντικά: Τα αυτόνομα όπλα έχουν περιγραφεί ως η τρίτη επανάσταση στους εξοπλισμούς, μετά την πυρίτιδα και τα πυρηνικά όπλα».
Οι επιστήμονες και οι ρομποτιστές αναφέρουν ότι από τη μια η τεχνητή νοημοσύνη μπορεί όντως να χρησιμοποιηθεί για να καταστήσει πιο ασφαλές το πεδίο της μάχης για το στρατιωτικό προσωπικό.
Από την άλλη όμως, τα επιθετικά όπλα που θα λειτουργούν με δική τους πρωτοβουλία, θα οδηγήσουν τελικά σε μεγαλύτερη απώλεια ανθρώπινων ζωών.
Θεωρείται δεδομένο, όπως επισημαίνεται, πως αν μια χώρα αναπτύξει πρώτη τέτοια οπλικά συστήματα, που θα καταστρέφουν τους στόχους τους χωρίς καμία ανθρώπινη παρέμβαση, τότε άλλες χώρες θα απαντήσουν και ένας φαύλος κύκλος ανταγωνιστικών εξοπλισμών θα γίνει πραγματικότητα, με συνέπεια αυτά τα όπλα να διασπαρθούν παντού στη Γη, όπως τα καλάσνικοφ.
Μάλιστα, αντίθετα από τα πυρηνικά όπλα, τα ρομποτικά όπλα θα είναι δύσκολο να ελεγχθούν με παρόμοιο τρόπο, ενώ κάλλιστα μπορεί να πέσουν στα χέρια τρομοκρατών και εγκληματιών.
Ο Χόκινγκ και η «παρέα» του ζητούν να υπάρξει μια απαγόρευση σε επίπεδο Οργανισμού Ηνωμένων Εθνών, προτού είναι πολύ αργά για να μπει ξανά «το τζίνι στο μπουκάλι».
Στο πρόσφατο παρελθόν προσωπικότητες έχουν προειδοποιήσει ότι η τεχνητή νοημοσύνη συνιστά «επίκληση δαιμόνων» και «τη μεγαλύτερη υπαρξιακή απειλή», που μπορεί να φέρει το τέλος της ανθρωπότητας.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου