Όσο προχωρά η έρευνα πάνω στην Τεχνητή Νοημοσύνη (Α.Ι.), τόσο εντείνεται και η ανησυχία σχετικά με το τι θα μπορούσε να συμβεί εάν βγει εκτός ελέγχου. Πολλοί ερευνητές εκφράζουν προβληματισμούς που στο παρελθόν μπορεί να παρέπεμπαν σε σενάρια επιστημονικής φαντασίας, ωστόσο σήμερα φαίνονται όλο και πιο απτή πραγματικότητα.
Σε αυτό το πλαίσιο, ερευνητές στον χώρο της Τεχνητής Νοημοσύνης από πανεπιστήμια και εταιρείες συναντήθηκαν στη συνδιάσκεψη ΒΑΙ (Beneficial Artificial Intelligence) 2017 τον Ιανουάριο στις ΗΠΑ, πρωτοβουλία του Future of Life Institute, και συνέταξαν τις Asilomar AI Principles: Μια λίστα 23 αρχών- προτεραιοτήτων για να διέπουν την έρευνα στην τεχνητή νοημοσύνη. Στο ινστιτούτο αυτό συμμετέχουν προσωπικότητες όπως ο Στίβεν Χόκινγκ και ο Έλον Μασκ, που έχουν εκφράσει προβληματισμούς για την τεχνητή νοημοσύνη, και ο οργανισμός επικεντρώνεται στους πιθανούς κινδύνους που μπορούν να προκύψουν για την ανθρωπότητα από τομείς και θέματα όπως η τεχνητή νοημοσύνη, η βιοτεχνολογία, η κλιματική αλλαγή κ.α.
Ακολουθούν οι αρχές, οι οποίες ενδεχομένως στους φίλους της Επιστημονικής Φαντασίας ίσως θυμίσουν τους «Νόμους της Ρομποτικής» στα έργα του Ισαάκ Ασίμοφ.
Θέματα έρευνας
1. Research Goal. Ο στόχος της έρευνας στην τεχνητή νοημοσύνη δεν πρέπει να είναι η δημιουργία μη κατευθυνόμενης νοημοσύνης, αλλά επωφελούς νοημοσύνης.
2. Research Funding. Οι επενδύσεις στην ΑΙ πρέπει να συνοδεύονται από χρηματοδότηση για έρευνα πάνω στη διασφάλιση της επωφελούς χρήσης της, περιλαμβανομένων ερωτημάτων σε τομείς όπως η επιστήμη υπολογιστών, η οικονομία, η νομική, η ηθική και οι κοινωνικές μελέτες.
3. Science-Policy Link. Πρέπει να υπάρχει εποικοδομητική και υγιής ανταλλαγή απόψεων ανάμεσα στους ερευνητές και σε αυτούς που ορίζουν την πολιτική
4. Research Culture. Πρέπει να δημιουργηθεί κουλτούρα συνεργασίας, εμπιστοσύνης και διαφάνειας μεταξύ των ερευνητών ΑΙ
5. Race Avoidance. Οι ομάδες που αναπτύσσουν συστήματα τεχνητής νοημοσύνης πρέπει να συνεργαστούν ενεργά για να διασφαλίζεται η τήρηση των στάνταρ ασφαλείας.
Ηθική και αξίες
6. Safety. Τα συστήματα ΑΙ θα έπρεπε να είναι ασφαλή κατά την επιχειρησιακή ζωή τους και αυτό να μπορεί να επιβεβαιωθεί/ επικυρωθεί όπου αυτό είναι δυνατόν.
7. Failure Transparency. Αν ένα σύστημα ΑΙ βλάψει, πρέπει να μπορεί να διαπιστωθεί γιατί.
8. Judicial Transparency. Οποιαδήποτε εμπλοκή αυτόνομου συστήματος σε δικαστική διαδικασία λήψης αποφάσεων θα έπρεπε να έχει ικανοποιητική εξήγηση, που επικυρώνεται από αξιόπιστες ανθρώπινες αρχές.
9. Responsibility. Οι σχεδιαστές και δημιουργοί προηγμένων συστημάτων ΑΙ είναι «μέτοχοι» στις ηθικές επιπτώσεις της χρήσης τους, την κατάχρησή τους και τις ενέργειές τους, με ευθύνη για διαμόρφωσή τους.
10. Value Alignment. Τα συστήματα ΑΙ υψηλής αυτονομίας θα έπρεπε να είναι έτσι σχεδιασμένα ώστε οι στόχοι και οι συμπεριφορές τους να διασφαλίζεται πως «ευθυγραμμίζονται» με τις ανθρώπινες αξίες κατά τη λειτουργία τους.
11. Human Values. Τα συστήματα Α.Ι. θα έπρεπε να σχεδιάζονται και να λειτουργούν έτσι ώστε να είναι συμβατά με τα ιδανικά της ανθρώπινης αξιοπρέπειας, των δικαιωμάτων, των ελευθεριών και της πολιτισμικής πολυποικιλότητας.
12. Personal Privacy. Οι άνθρωποι πρέπει να έχουν το δικαίωμα να έχουν πρόσβαση, να διαχειρίζονται και να ελέγχουν τα δεδομένα τα οποία παράγουν, δεδομένης της δυνατότητας των συστημάτων Α.Ι. να αναλύουν και να χρησιμοποιούν τα δεδομένα αυτά.
13. Liberty and Privacy. Η εφαρμογή της Α.Ι. στα προσωπικά δεδομένα δεν πρέπει να περιορίζει χωρίς λόγο την αληθινή ή θεωρούμενη ελευθερία των ανθρώπων.
14. Shared Benefit. Οι τεχνολογίες Τεχνητής Νοημοσύνης θα έπρεπε να ωφελούν και ενδυναμώνουν όσο περισσότερους ανθρώπους είναι δυνατόν.
15. Shared Prosperity. Η οικονομική ευημερία που προκύπτει χάρη στην Τεχνητή Νοημοσύνη θα πρέπει να μοιράζεται ευρέως, προς όφελος όλης της ανθρωπότητας.
16. Human Control. Οι άνθρωποι πρέπει να επιλέγουν πώς και αν θα αναθέτουν τη λήψη αποφάσεων σε συστήματα Α.Ι., για να επιτυγχάνονται στόχοι που έχουν τεθεί από ανθρώπους.
17. Non-subversion. Η δύναμη που προκύπτει μέσω του ελέγχου προηγμένων συστημάτων Τεχνητής Νοημοσύνης θα έπρεπε να σέβεται και να βελτιώνει, αντί να υπονομεύει, τις κοινωνικές και πολιτικές διαδικασίες από τις οποίες εξαρτάται η υγεία της κοινωνίας.
18. AI Arms Race. Θα έπρεπε να αποφευχθεί μια κούρσα εξοπλισμών σε θανατηφόρα αυτόνομα όπλα.
Μακροπρόθεσμα ζητήματα
19. Capability Caution. Εφόσον δεν υπάρχει ομοφωνία, θα έπρεπε να αποφευχθούν τολμηρές υποθέσεις σχετικά με τα ανώτατα όρια στις μελλοντικές δυνατότητες Τεχνητής Νοημοσύνης.
20. Importance. Η προηγμένη Τεχνητή Νοημοσύνη θα μπορούσε να αντιπροσωπεύει μια βαθύτατη αλλαγή στην ιστορία της ζωής στη Γη, και θα έπρεπε να γίνεται σχεδιασμός και διαχείριση με ανάλογη φροντίδα και πόρους.
21. Risks. Οι κίνδυνοι που συνιστούν τα συστήματα Τεχνητής Νοημοσύνης, ειδικά ο κίνδυνος καταστροφής ή ο υπαρξιακός κίνδυνος, πρέπει να αντιμετωπίζονται με σχεδιασμό και προσπάθειες αποτροπής ανάλογα με τις εκτιμώμενες επιπτώσεις τους.
22. Recursive Self-Improvement. Συστήματα Τεχνητής Νοημοσύνης που είναι σχεδιασμένα αναδρομικά να αυτοβελτιώνονται ή να αναπαράγονται με τρόπο που θα οδηγούσε σε ταχεία αύξηση ποιότητας ή ποσότητας πρέπει να υποβάλλονται σε αυστηρά μέτρα ασφαλείας και ελέγχου.
23. Common Good. Η υπερ-νοημοσύνη (Superintelligence) θα έπρεπε να αναπτυχθεί μόνο στην υπηρεσία κοινών ηθικών ιδεωδών, και προς όφελος όλης της ανθρωπότητας αντί ενός κράτους ή οργανισμού.