Στη Γενική Συνέλευση της 15/12/2018 της Ένωσης Πληροφορικών Ελλάδας (ΕΠΕ) υπερψηφίστηκε ομόφωνα η παρακάτω παρέμβαση-πρόταση, σχετικά με τις βασικές αρχές της Τεχνητής Νοημοσύνης (TN), το πλαίσιο εφαρμογής της και τη διεθνή απαγόρευση των αυτόνομων οπλικών συστημάτων.
Ψήφισμα Γενικής Συνέλευσης
Παρέμβαση της ΕΠΕ για την Τεχνητή Νοημοσύνη και την απαγόρευση αυτόνομων οπλικών συστημάτων
Αθήνα, 18-12-2018
Στη Γενική Συνέλευση της 15/12/2018 της Ένωσης Πληροφορικών Ελλάδας (ΕΠΕ) υπερψηφίστηκε ομόφωνα η παρακάτω παρέμβαση-πρόταση, σχετικά με τις βασικές αρχές της Τεχνητής Νοημοσύνης (TN), το πλαίσιο εφαρμογής της και τη διεθνή απαγόρευση των αυτόνομων οπλικών συστημάτων.
Βασικοί ορισμοί και πλαίσιο εφαρμογής
Τεχνητή Νοημοσύνη (Artificial Intelligence – AI)1,2:
Ως έννοια, αναφέρεται γενικά στην ικανότητα ενός αλγορίθμου να παράγει αποτελέσματα που προσομοιάζουν την ακρίβεια, την αξιοπιστία και τη γνωστική αξία “κατανόησης” (cognitive value – “understanding”) της επίλυσης ενός εξειδικευμένου ή γενικότερου προβλήματος, το οποίο συνήθως δεν μπορεί να επιλυθεί με απλές Μαθηματικές ή αναλυτικές μεθόδους και απαιτεί τη συνδρομή ενός ανθρώπου-ειδικού στον τομέα αυτό (domain expert). Για το σκοπό αυτό, ένας τέτοιος αλγόριθμος συχνά απαιτείται να έχει ικανότητα γενίκευσης από παραδείγματα, ανακάλυψης και σύνδεσης γενικών εννοιών (αφαιρετική ικανότητα), κωδικοποίηση γνώσης και εξαγωγής συμπερασμάτων βάσει αυτής, εκμετάλλευση προηγούμενης “εμπειρίας” από το παρελθόν (προσαρμογή στα σφάλματα), κ.ά. Σε πρακτικό επίπεδο, παρόμοιοι αλγόριθμοι κάνουν δυνατή την βέλτιστη επίλυση “κλειστών” προβλημάτων γνωστικής ικανότητας, όπως για παράδειγμα παιχνίδια όπως το σκάκι, αλλά και πολύ πιο σύνθετα προβλήματα στον πραγματικό κόσμο, όπως η αναγνώριση φωνής, η κατανόηση ανθρώπινης γλώσσας, η αναγνώριση προσώπων, η αναγνώριση χειρόγραφων κειμένων, η ανάλυση και αυτόματη διάγνωση σε ιατρική εικόνα, κτλ.
Αυτόνομα οπλικά συστήματα (Autonomous Weapons Systems – AWS)3:
Στην κατηγορία αυτή περιλαμβάνονται οπλικά συστήματα τα οποία ενσωματώνουν σε μικρότερο ή μεγαλύτερο βαθμό την ικανότητα διόρθωσης ή πλήρως αυτόνομης καθοδήγησης με σκοπό τη βέλτιστη στόχευσης και καταστροφή στόχου. Η ικανότητα αυτή περιλαμβάνει ένα ευρύτατο σύνολο λιγότερο ή περισσότερο “έξυπνων” λειτουργιών, από τον αυτόματο πυροκροτητή υψομέτρου (αντιαεροπορικά βλήματα Β'ΠΠ) ή βυθού (ανθυποβρυχιακές βόμβες Β'ΠΠ), μέχρι τους πλήρως αυτόνομους-ρομποτικούς πυραύλους τύπου κρουζ με καθοδήγηση δορυφορική / αδρανειακή / αναγνώρισης εδάφους και πυροκροτητές με μέτρηση διάτρησης (σε συγκεκριμένο σημείο εντός κτιρίων).
Με βάση τα παραπάνω, είναι φανερό ότι η Τεχνητή Νοημοσύνη και τα AWS ή “lethal” AWS (LAWS) εμπλέκονται όλο και περισσότερο μεταξύ τους. Τις τελευταίες τρεις δεκαετίες η ψηφιακή τεχνολογία και οι ολοένα αυξανόμενοι υπολογιστικοί πόροι που γίνονται διαθέσιμοι σε εξαιρετικά μικρή κλίμακα κυκλωμάτων επιτρέπουν την υλοποίηση όλο και πιο σύνθετων, πιο απαιτητικών και πιο “έξυπνων” αλγορίθμων στα σύγχρονα οπλικά συστήματα. Ταυτόχρονα, η πολυπλοκότητα και η απαιτούμενη ταχύτητα επεξεργασίας καθιστά την ανθρώπινη παρέμβαση όχι μόνο λιγότερο απαραίτητη αλλά συχνά αρνητικό παράγοντα (“bottleneck”) στις διαδικασίες λήψης απόφασης, π.χ. στο σύστημα καθοδήγησης ενός πυραύλου που ταξιδεύει με 3-5 την ταχύτητα του ήχου προς το στόχο. Ως αποτέλεσμα, τα τελευταία χρόνια τα σύγχρονα οπλικά συστήματα γίνονται όλο και πιο αυτόνομα4,5, όχι μόνο μετά την βασική απόφαση χρήσης-πυροδότησής τους, αλλά και πριν από αυτή.
Δυστυχώς οι ενδείξεις είναι ότι η επένδυση σε ανάπτυξη όλο και πιο “έξυπνων” αυτόνομων οπλικών συστημάτων συνεχώς θα αυξηθεί τα επόμενα χρόνια. Μόλις τον περασμένο Σεπτέμβριο η υπηρεσία DARPA των ΗΠΑ ανακοίνωσε6 την έναρξη νέου προγράμματος ύψους 2 δις $ έρευνας & ανάπτυξης συστημάτων ΤΝ για την καλύτερη συνεργασία ανθρώπου-μηχανής7,8. Αντίστοιχο πρόγραμμα ύψους 2,1 δις $ ανακοίνωσε9 ήδη και η Κίνα τον Ιανουάριο (2018), ενώ από πέρυσι η κυβέρνηση έχει ξεκινήσει το τριετές πλάνο10,11 αναβάθμισης της χώρας σε παγκόσμιο ηγέτη στον τομέα της ΤΝ. Αξίζει να σημειωθεί πως η υπηρεσία DARPA στο δικό της μακροπρόθεσμο πλάνο12 με το όνομα “A.I. Next” επισημαίνει13 ως βασικό στόχο την αναβάθμιση της ΤΝ από παθητικό εργαλείο υποστήριξης αποφάσεων σε πραγματικό “συνεργάτη” του ανθρώπου – πράγμα που στην περίπτωση ανάπτυξης οπλικών συστημάτων, που είναι ο βασικότερος τομέας επένδυσης της DARPA διαχρονικά, σημαίνει σημαντική αναβάθμιση της αυτονομίας των συστημάτων αυτών σε επίπεδο λήψης αποφάσεων χωρίς τη διαμεσολάβηση ή τον άμεσο έλεγχο από άνθρωπο.
Πέραν των βασικών ζητημάτων που σχετίζονται με τις ηθικές, κοινωνικές και νομικές διαστάσεις της χρήσης κάθε οπλικού συστήματος (π.χ. όπλα μαζικής καταστροφής), σήμερα η τεχνολογία επιτρέπει τη μεταφορά της ευθύνης της απόφασης ή μη ενεργοποίησης-χρήσης τους σχεδόν 100% στη “μηχανή”. Τα σύγχρονα μη επανδρωμένα πολεμικά εναέρια οχήματα (Unmanned Combat Aerial Vehicles – UCAV)14,15 έχουν τη δυνατότητα να αναλύουν το πεδίο της μάχης, να αναγνωρίζουν στόχους, να καθοδηγούν ή να εκτοξεύουν δικούς τους πυραύλους και να τους καταστρέφουν, χωρίς ποτέ σε κανένα στάδιο να έχει παρέμβει ο ανθρώπινος παράγοντας. Τα προβλήματα ηθικής και νομικής ευθύνης που εμφανίζονται σε άλλους μη πολεμικούς τομείς σε περιπτώσεις εσφαλμένης λειτουργίας, όπως για παράδειγμα στα πλήρως αυτόνομα συστήματα οδήγησης σε αυτοκίνητα ή ακόμα και στα τυπικά συστήματα ελέγχου πέδησης ή αερόσακων, στα οπλικά συστήματα καθίστανται πολλαπλάσια σημαντικά καθώς αφορούν την απόφαση ή μη χρήσης μιας εξ' ορισμού θανάσιμης κατασκευής. Η αφαίρεση του ανθρώπινου παράγοντα από τη διαδικασία ελέγχου-ενεργοποίησης (control loop) δημιουργεί το περιθώριο εμφάνισης πολλαπλάσιων και εν γένει θανάσιμων συνεπειών που ακόμα είναι εξαιρετικά δύσκολο να προβλεφθούν. Ήδη, ακόμα και πολύ απλά “παθητικά” ρομποτικά συστήματα, όπως σε υποθέσεις της Uber16,17 και της Amazon18, έχουν καταδείξει τη σοβαρότητα του προβλήματος, τόσο σε τεχνικό-σχεδιαστικό επίπεδο, αλλά κυρίως σε νομικό-ηθικό επίπεδο ως προς την ανάληψη ευθύνης (legal liability / moral hazard).
Το 2018 υπήρξαν μεταξύ άλλων δύο δημόσιες εκκλήσεις για τη διεθνή απαγόρευση των AWS/LAWS: Η πρώτη με τη μορφή ανοικτής επιστολής19,20 την οποία προσυπογράφουν μερικές από τις μεγαλύτερες εταιρίες και ιδιωτικοί οργανισμοί (π.χ. Google DeepMind), καθώς και μια σειρά από ακαδημαϊκά-ερευνητικά ιδρύματα από όλο τον κόσμο. Η δεύτερη με τη μορφή επίσημης δήλωσης-ψηφίσματος21 στον ΟΗΕ (Αύγουστος 2018) εκ μέρους των σχεδόν 4.000 επιστημόνων που συνυπογράφουν την παραπάνω επιστολή. Δυστυχώς, η Ελλάδα δεν υπερψήφισε το αντίστοιχο ψήφισμα που τέθηκε στο Ευρωκοινοβούλιο, ενώ συγκαταλέγεται22 στις χώρες που προς το παρόν δεν έχουν καμία απολύτως επίσημη πολιτική για την ΤΝ και τα AWS.
Ως επιστημονική και επαγγελματική Ένωση, οι βασικές θέσεις και Αρχές μας καθορίζονται από τον Κώδικα Δεοντολογίας της Πληροφορικής23, τον πρώτο που παρουσιάζεται στην Ελλάδα για τον τομέα αυτό. Ακολουθώντας τη διεθνή ανησυχία ακαδημαϊκών, ερευνητικών, κοινωνικών, πολιτικών και κρατικών φορέων σε όλο τον κόσμο και εν όψει της κινητοποίησης που υπάρχει για το θέμα, η ΕΠΕ προτείνει τις παρακάτω θέσεις ως απαράβατους κανόνες για τη σωστή ανάπτυξη και χρήση της Τεχνητής Νοημοσύνης, ιδιαίτερα σε σχέση με τα AWS.
Οι θέσεις-προτάσεις της ΕΠΕ για την Τεχνητή Νοημοσύνη και τα AWS
Λαμβάνοντας υπόψη:
Το ψήφισμα της 16/2/2017 στο Ευρωκοινοβούλιο24 σχετικά με τις “Ρυθμίσεις αστικού δικαίου στον τομέα της ρομποτικής”.
Το ψήφισμα της 12/9/2018 στο Ευρωκοινοβούλιο25,26,27 σχετικά με τη διεθνή απαγόρευση αυτόνομων οπλικών συστημάτων ή “autonomous weapons ban”.
Ενέργειες που βρίσκονται σε εξέλιξη στον ΟΗΕ28,29 προς την κατεύθυνση αυτή.
Την ανοικτή επιστολή30 επιστημόνων και ακαδημαϊκών από όλο τον κόσμο μέσω του Future of Life Institute (FLI), η οποία επικεντρώνεται γενικότερα στο πρόβλημα του “robotic weapons arms race”31.
Συλλογικές δράσεις φορέων και οργανώσεων για τη σωστή χρήση της Τεχνητής Νοημοσύνης32 και της Ρομποτικής, όπως το “Campaign to Stop Killer Robots”33,34.
Γενικά αποδεκτές θέσεις-προϋποθέσεις ασφαλούς ανάπτυξης της σχετικής τεχνολογίας, όπως οι “Τρεις Νόμοι της Ρομποτικής” του I. Asimov35,36.
Προτείνουμε τα εξής:
Βασικές Αρχές
Τεχνητής Νοημοσύνης & Ρομποτικής
Ο σκοπός της ανάπτυξης και εφαρμογής της Τεχνητής Νοημοσύνης & Ρομποτικής (ΤΝ&Ρ) δεν είναι χωρίς στόχευση. Πρέπει να εξυπηρετεί το κοινό καλό και την προστασία της ζωής.
Η επένδυση στην ανάπτυξη και στην εφαρμογή ΤΝ&Ρ πρέπει πάντα να συνοδεύεται από τη διασφάλιση διαφάνειας και της σωστής κατεύθυνσης, σε σχέση με τα ζητήματα ηθικής, ανθρωπιστικής, κοινωνικής, νομικής και οικονομικής διάστασης.
Η πρόσβαση στην επιστημονική, τεχνολογική και παραγωγική διάσταση της ΤΝ&Ρ πρέπει να είναι ισότιμη για όλους, διαχρονικά, ως ανθρώπινο δικαίωμα στη γνώση και στα ανθρώπινα αγαθά.
Τα αποτελέσματα της ανάπτυξης και εφαρμογής της ΤΝ&Ρ πρέπει να αφορούν ισότιμα το σύνολο της κοινωνίας, με ιδιαίτερη μέριμνα στα ζητήματα ασφάλειας, προστασίας των προσωπικών δεδομένων και σεβασμού των ατομικών ελευθεριών.
Η συμμόρφωση με το Νόμο, ιδιαίτερα η προστασία της ζωής, η απόδοση ευθύνης (liability), η ελαχιστοποίηση του ρίσκου και η αποτροπή ζημιών σε περίπτωση εσφαλμένης λειτουργίας (fail-safe) αποτελούν ύψιστη προτεραιότητα.
Ο έλεγχος των συστημάτων ΤΝ&Ρ πρέπει πάντοτε να διατηρείται ή να μπορεί να αναληφθεί κατά προτεραιότητα σε άνθρωπο, για την ολοκλήρωση σκοπών που καθορίζονται από τον άνθρωπο.
Η κατανόηση από άνθρωπο της εσωτερικής λειτουργίας και η δυνατότητα τεκμηρίωσης (auditing) των διαδικασιών λήψης αποφάσεων σε ένα σύστημα ΤΝ&Ρ θα πρέπει να διασφαλίζεται στο μέγιστο δυνατό βαθμό.
Η εφαρμογή συστημάτων ΤΝ&Ρ στην καθημερινή ζωή σε ευρεία κλίμακα θα πρέπει να σέβεται και να διασφαλίζει στο μέγιστο δυνατό βαθμό τη δυνατότητα προσωπικής επιλογής του κάθε ατόμου ως προς το αν επιθυμεί ή όχι να κάνει χρήση αυτής.
Η ενσωμάτωση των επιστημονικών και τεχνολογικών επιτευγμάτων της ΤΝ&Ρ σε πρακτικές εφαρμογές και η χρήση τους για ειρηνικούς σκοπούς είναι υποχρέωση όλων.
Η αυτο-βελτίωση και η αυτο-προστασία των συστημάτων ΤΝ&Ρ, ως βασική παράμετρος της σχεδίασής τους, θα πρέπει πάντα να υπόκειται στην αξιολόγηση από άνθρωπο και να διασφαλίζεται πως πραγματοποιείται προς ωφέλιμη κατεύθυνση.
Ως επιστημονική και επαγγελματική Ένωση Πληροφορικών, αλλά και ως απλοί πολίτες, είμαστε στη διάθεση της Πολιτείας, της Βουλής των Ελλήνων και των μελών του Ευρωκοινοβουλίου για περαιτέρω συνεισφορά στο παραπάνω εξαιρετικά κρίσιμο ζήτημα για τις επόμενες γενιές.
Το Διοικητικό Συμβούλιο
της Ένωσης Πληροφορικών Ελλάδας
https://www.epe.org.gr/index.php?id=19&tx_ttnews%5Btt_news%5D=11822&cHash=3862b95f0a807a90e67a57e17d0a7dd6
Ψήφισμα Γενικής Συνέλευσης
Παρέμβαση της ΕΠΕ για την Τεχνητή Νοημοσύνη και την απαγόρευση αυτόνομων οπλικών συστημάτων
Αθήνα, 18-12-2018
Στη Γενική Συνέλευση της 15/12/2018 της Ένωσης Πληροφορικών Ελλάδας (ΕΠΕ) υπερψηφίστηκε ομόφωνα η παρακάτω παρέμβαση-πρόταση, σχετικά με τις βασικές αρχές της Τεχνητής Νοημοσύνης (TN), το πλαίσιο εφαρμογής της και τη διεθνή απαγόρευση των αυτόνομων οπλικών συστημάτων.
Βασικοί ορισμοί και πλαίσιο εφαρμογής
Τεχνητή Νοημοσύνη (Artificial Intelligence – AI)1,2:
Ως έννοια, αναφέρεται γενικά στην ικανότητα ενός αλγορίθμου να παράγει αποτελέσματα που προσομοιάζουν την ακρίβεια, την αξιοπιστία και τη γνωστική αξία “κατανόησης” (cognitive value – “understanding”) της επίλυσης ενός εξειδικευμένου ή γενικότερου προβλήματος, το οποίο συνήθως δεν μπορεί να επιλυθεί με απλές Μαθηματικές ή αναλυτικές μεθόδους και απαιτεί τη συνδρομή ενός ανθρώπου-ειδικού στον τομέα αυτό (domain expert). Για το σκοπό αυτό, ένας τέτοιος αλγόριθμος συχνά απαιτείται να έχει ικανότητα γενίκευσης από παραδείγματα, ανακάλυψης και σύνδεσης γενικών εννοιών (αφαιρετική ικανότητα), κωδικοποίηση γνώσης και εξαγωγής συμπερασμάτων βάσει αυτής, εκμετάλλευση προηγούμενης “εμπειρίας” από το παρελθόν (προσαρμογή στα σφάλματα), κ.ά. Σε πρακτικό επίπεδο, παρόμοιοι αλγόριθμοι κάνουν δυνατή την βέλτιστη επίλυση “κλειστών” προβλημάτων γνωστικής ικανότητας, όπως για παράδειγμα παιχνίδια όπως το σκάκι, αλλά και πολύ πιο σύνθετα προβλήματα στον πραγματικό κόσμο, όπως η αναγνώριση φωνής, η κατανόηση ανθρώπινης γλώσσας, η αναγνώριση προσώπων, η αναγνώριση χειρόγραφων κειμένων, η ανάλυση και αυτόματη διάγνωση σε ιατρική εικόνα, κτλ.
Αυτόνομα οπλικά συστήματα (Autonomous Weapons Systems – AWS)3:
Στην κατηγορία αυτή περιλαμβάνονται οπλικά συστήματα τα οποία ενσωματώνουν σε μικρότερο ή μεγαλύτερο βαθμό την ικανότητα διόρθωσης ή πλήρως αυτόνομης καθοδήγησης με σκοπό τη βέλτιστη στόχευσης και καταστροφή στόχου. Η ικανότητα αυτή περιλαμβάνει ένα ευρύτατο σύνολο λιγότερο ή περισσότερο “έξυπνων” λειτουργιών, από τον αυτόματο πυροκροτητή υψομέτρου (αντιαεροπορικά βλήματα Β'ΠΠ) ή βυθού (ανθυποβρυχιακές βόμβες Β'ΠΠ), μέχρι τους πλήρως αυτόνομους-ρομποτικούς πυραύλους τύπου κρουζ με καθοδήγηση δορυφορική / αδρανειακή / αναγνώρισης εδάφους και πυροκροτητές με μέτρηση διάτρησης (σε συγκεκριμένο σημείο εντός κτιρίων).
Με βάση τα παραπάνω, είναι φανερό ότι η Τεχνητή Νοημοσύνη και τα AWS ή “lethal” AWS (LAWS) εμπλέκονται όλο και περισσότερο μεταξύ τους. Τις τελευταίες τρεις δεκαετίες η ψηφιακή τεχνολογία και οι ολοένα αυξανόμενοι υπολογιστικοί πόροι που γίνονται διαθέσιμοι σε εξαιρετικά μικρή κλίμακα κυκλωμάτων επιτρέπουν την υλοποίηση όλο και πιο σύνθετων, πιο απαιτητικών και πιο “έξυπνων” αλγορίθμων στα σύγχρονα οπλικά συστήματα. Ταυτόχρονα, η πολυπλοκότητα και η απαιτούμενη ταχύτητα επεξεργασίας καθιστά την ανθρώπινη παρέμβαση όχι μόνο λιγότερο απαραίτητη αλλά συχνά αρνητικό παράγοντα (“bottleneck”) στις διαδικασίες λήψης απόφασης, π.χ. στο σύστημα καθοδήγησης ενός πυραύλου που ταξιδεύει με 3-5 την ταχύτητα του ήχου προς το στόχο. Ως αποτέλεσμα, τα τελευταία χρόνια τα σύγχρονα οπλικά συστήματα γίνονται όλο και πιο αυτόνομα4,5, όχι μόνο μετά την βασική απόφαση χρήσης-πυροδότησής τους, αλλά και πριν από αυτή.
Δυστυχώς οι ενδείξεις είναι ότι η επένδυση σε ανάπτυξη όλο και πιο “έξυπνων” αυτόνομων οπλικών συστημάτων συνεχώς θα αυξηθεί τα επόμενα χρόνια. Μόλις τον περασμένο Σεπτέμβριο η υπηρεσία DARPA των ΗΠΑ ανακοίνωσε6 την έναρξη νέου προγράμματος ύψους 2 δις $ έρευνας & ανάπτυξης συστημάτων ΤΝ για την καλύτερη συνεργασία ανθρώπου-μηχανής7,8. Αντίστοιχο πρόγραμμα ύψους 2,1 δις $ ανακοίνωσε9 ήδη και η Κίνα τον Ιανουάριο (2018), ενώ από πέρυσι η κυβέρνηση έχει ξεκινήσει το τριετές πλάνο10,11 αναβάθμισης της χώρας σε παγκόσμιο ηγέτη στον τομέα της ΤΝ. Αξίζει να σημειωθεί πως η υπηρεσία DARPA στο δικό της μακροπρόθεσμο πλάνο12 με το όνομα “A.I. Next” επισημαίνει13 ως βασικό στόχο την αναβάθμιση της ΤΝ από παθητικό εργαλείο υποστήριξης αποφάσεων σε πραγματικό “συνεργάτη” του ανθρώπου – πράγμα που στην περίπτωση ανάπτυξης οπλικών συστημάτων, που είναι ο βασικότερος τομέας επένδυσης της DARPA διαχρονικά, σημαίνει σημαντική αναβάθμιση της αυτονομίας των συστημάτων αυτών σε επίπεδο λήψης αποφάσεων χωρίς τη διαμεσολάβηση ή τον άμεσο έλεγχο από άνθρωπο.
Πέραν των βασικών ζητημάτων που σχετίζονται με τις ηθικές, κοινωνικές και νομικές διαστάσεις της χρήσης κάθε οπλικού συστήματος (π.χ. όπλα μαζικής καταστροφής), σήμερα η τεχνολογία επιτρέπει τη μεταφορά της ευθύνης της απόφασης ή μη ενεργοποίησης-χρήσης τους σχεδόν 100% στη “μηχανή”. Τα σύγχρονα μη επανδρωμένα πολεμικά εναέρια οχήματα (Unmanned Combat Aerial Vehicles – UCAV)14,15 έχουν τη δυνατότητα να αναλύουν το πεδίο της μάχης, να αναγνωρίζουν στόχους, να καθοδηγούν ή να εκτοξεύουν δικούς τους πυραύλους και να τους καταστρέφουν, χωρίς ποτέ σε κανένα στάδιο να έχει παρέμβει ο ανθρώπινος παράγοντας. Τα προβλήματα ηθικής και νομικής ευθύνης που εμφανίζονται σε άλλους μη πολεμικούς τομείς σε περιπτώσεις εσφαλμένης λειτουργίας, όπως για παράδειγμα στα πλήρως αυτόνομα συστήματα οδήγησης σε αυτοκίνητα ή ακόμα και στα τυπικά συστήματα ελέγχου πέδησης ή αερόσακων, στα οπλικά συστήματα καθίστανται πολλαπλάσια σημαντικά καθώς αφορούν την απόφαση ή μη χρήσης μιας εξ' ορισμού θανάσιμης κατασκευής. Η αφαίρεση του ανθρώπινου παράγοντα από τη διαδικασία ελέγχου-ενεργοποίησης (control loop) δημιουργεί το περιθώριο εμφάνισης πολλαπλάσιων και εν γένει θανάσιμων συνεπειών που ακόμα είναι εξαιρετικά δύσκολο να προβλεφθούν. Ήδη, ακόμα και πολύ απλά “παθητικά” ρομποτικά συστήματα, όπως σε υποθέσεις της Uber16,17 και της Amazon18, έχουν καταδείξει τη σοβαρότητα του προβλήματος, τόσο σε τεχνικό-σχεδιαστικό επίπεδο, αλλά κυρίως σε νομικό-ηθικό επίπεδο ως προς την ανάληψη ευθύνης (legal liability / moral hazard).
Το 2018 υπήρξαν μεταξύ άλλων δύο δημόσιες εκκλήσεις για τη διεθνή απαγόρευση των AWS/LAWS: Η πρώτη με τη μορφή ανοικτής επιστολής19,20 την οποία προσυπογράφουν μερικές από τις μεγαλύτερες εταιρίες και ιδιωτικοί οργανισμοί (π.χ. Google DeepMind), καθώς και μια σειρά από ακαδημαϊκά-ερευνητικά ιδρύματα από όλο τον κόσμο. Η δεύτερη με τη μορφή επίσημης δήλωσης-ψηφίσματος21 στον ΟΗΕ (Αύγουστος 2018) εκ μέρους των σχεδόν 4.000 επιστημόνων που συνυπογράφουν την παραπάνω επιστολή. Δυστυχώς, η Ελλάδα δεν υπερψήφισε το αντίστοιχο ψήφισμα που τέθηκε στο Ευρωκοινοβούλιο, ενώ συγκαταλέγεται22 στις χώρες που προς το παρόν δεν έχουν καμία απολύτως επίσημη πολιτική για την ΤΝ και τα AWS.
Ως επιστημονική και επαγγελματική Ένωση, οι βασικές θέσεις και Αρχές μας καθορίζονται από τον Κώδικα Δεοντολογίας της Πληροφορικής23, τον πρώτο που παρουσιάζεται στην Ελλάδα για τον τομέα αυτό. Ακολουθώντας τη διεθνή ανησυχία ακαδημαϊκών, ερευνητικών, κοινωνικών, πολιτικών και κρατικών φορέων σε όλο τον κόσμο και εν όψει της κινητοποίησης που υπάρχει για το θέμα, η ΕΠΕ προτείνει τις παρακάτω θέσεις ως απαράβατους κανόνες για τη σωστή ανάπτυξη και χρήση της Τεχνητής Νοημοσύνης, ιδιαίτερα σε σχέση με τα AWS.
Οι θέσεις-προτάσεις της ΕΠΕ για την Τεχνητή Νοημοσύνη και τα AWS
Λαμβάνοντας υπόψη:
Το ψήφισμα της 16/2/2017 στο Ευρωκοινοβούλιο24 σχετικά με τις “Ρυθμίσεις αστικού δικαίου στον τομέα της ρομποτικής”.
Το ψήφισμα της 12/9/2018 στο Ευρωκοινοβούλιο25,26,27 σχετικά με τη διεθνή απαγόρευση αυτόνομων οπλικών συστημάτων ή “autonomous weapons ban”.
Ενέργειες που βρίσκονται σε εξέλιξη στον ΟΗΕ28,29 προς την κατεύθυνση αυτή.
Την ανοικτή επιστολή30 επιστημόνων και ακαδημαϊκών από όλο τον κόσμο μέσω του Future of Life Institute (FLI), η οποία επικεντρώνεται γενικότερα στο πρόβλημα του “robotic weapons arms race”31.
Συλλογικές δράσεις φορέων και οργανώσεων για τη σωστή χρήση της Τεχνητής Νοημοσύνης32 και της Ρομποτικής, όπως το “Campaign to Stop Killer Robots”33,34.
Γενικά αποδεκτές θέσεις-προϋποθέσεις ασφαλούς ανάπτυξης της σχετικής τεχνολογίας, όπως οι “Τρεις Νόμοι της Ρομποτικής” του I. Asimov35,36.
Προτείνουμε τα εξής:
Βασικές Αρχές
Τεχνητής Νοημοσύνης & Ρομποτικής
Ο σκοπός της ανάπτυξης και εφαρμογής της Τεχνητής Νοημοσύνης & Ρομποτικής (ΤΝ&Ρ) δεν είναι χωρίς στόχευση. Πρέπει να εξυπηρετεί το κοινό καλό και την προστασία της ζωής.
Η επένδυση στην ανάπτυξη και στην εφαρμογή ΤΝ&Ρ πρέπει πάντα να συνοδεύεται από τη διασφάλιση διαφάνειας και της σωστής κατεύθυνσης, σε σχέση με τα ζητήματα ηθικής, ανθρωπιστικής, κοινωνικής, νομικής και οικονομικής διάστασης.
Η πρόσβαση στην επιστημονική, τεχνολογική και παραγωγική διάσταση της ΤΝ&Ρ πρέπει να είναι ισότιμη για όλους, διαχρονικά, ως ανθρώπινο δικαίωμα στη γνώση και στα ανθρώπινα αγαθά.
Τα αποτελέσματα της ανάπτυξης και εφαρμογής της ΤΝ&Ρ πρέπει να αφορούν ισότιμα το σύνολο της κοινωνίας, με ιδιαίτερη μέριμνα στα ζητήματα ασφάλειας, προστασίας των προσωπικών δεδομένων και σεβασμού των ατομικών ελευθεριών.
Η συμμόρφωση με το Νόμο, ιδιαίτερα η προστασία της ζωής, η απόδοση ευθύνης (liability), η ελαχιστοποίηση του ρίσκου και η αποτροπή ζημιών σε περίπτωση εσφαλμένης λειτουργίας (fail-safe) αποτελούν ύψιστη προτεραιότητα.
Ο έλεγχος των συστημάτων ΤΝ&Ρ πρέπει πάντοτε να διατηρείται ή να μπορεί να αναληφθεί κατά προτεραιότητα σε άνθρωπο, για την ολοκλήρωση σκοπών που καθορίζονται από τον άνθρωπο.
Η κατανόηση από άνθρωπο της εσωτερικής λειτουργίας και η δυνατότητα τεκμηρίωσης (auditing) των διαδικασιών λήψης αποφάσεων σε ένα σύστημα ΤΝ&Ρ θα πρέπει να διασφαλίζεται στο μέγιστο δυνατό βαθμό.
Η εφαρμογή συστημάτων ΤΝ&Ρ στην καθημερινή ζωή σε ευρεία κλίμακα θα πρέπει να σέβεται και να διασφαλίζει στο μέγιστο δυνατό βαθμό τη δυνατότητα προσωπικής επιλογής του κάθε ατόμου ως προς το αν επιθυμεί ή όχι να κάνει χρήση αυτής.
Η ενσωμάτωση των επιστημονικών και τεχνολογικών επιτευγμάτων της ΤΝ&Ρ σε πρακτικές εφαρμογές και η χρήση τους για ειρηνικούς σκοπούς είναι υποχρέωση όλων.
Η αυτο-βελτίωση και η αυτο-προστασία των συστημάτων ΤΝ&Ρ, ως βασική παράμετρος της σχεδίασής τους, θα πρέπει πάντα να υπόκειται στην αξιολόγηση από άνθρωπο και να διασφαλίζεται πως πραγματοποιείται προς ωφέλιμη κατεύθυνση.
Ως επιστημονική και επαγγελματική Ένωση Πληροφορικών, αλλά και ως απλοί πολίτες, είμαστε στη διάθεση της Πολιτείας, της Βουλής των Ελλήνων και των μελών του Ευρωκοινοβουλίου για περαιτέρω συνεισφορά στο παραπάνω εξαιρετικά κρίσιμο ζήτημα για τις επόμενες γενιές.
Το Διοικητικό Συμβούλιο
της Ένωσης Πληροφορικών Ελλάδας
https://www.epe.org.gr/index.php?id=19&tx_ttnews%5Btt_news%5D=11822&cHash=3862b95f0a807a90e67a57e17d0a7dd6