Νικ Μπόστρομ

Από τη Βικιπαίδεια, την ελεύθερη εγκυκλοπαίδεια
Πήδηση στην πλοήγηση Πήδηση στην αναζήτηση
Νικ Μπόστρομ
Nick Bostrom, Stanford 2006 (square crop).jpg
Γενικές πληροφορίες
Γέννηση 10  Μαρτίου 1973
Χέλσινγκμποργκ
Χώρα πολιτογράφησης Σουηδία
Εκπαίδευση και γλώσσες
Σπουδές Σχολή Οικονομικών του Λονδίνου
Βασιλικό Κολέγιο του Λονδίνου
Πληροφορίες ασχολίας
Ιδιότητα φιλόσοφος
διδάσκων πανεπιστημίου
επιστήμονας υπολογιστών
Εργοδότης Πανεπιστήμιο της Οξφόρδης
Ιστοσελίδα
Commons page Σχετικά πολυμέσα

Ο Νικ Μπόστρομ (σουηδικά: Niklas Boström‎, 10 Μαρτίου 1973, Χέλσινγκμποργκ)[1] είναι Σουηδός φιλόσοφος ο οποίος εργάζεται στο πανεπιστήμιο της Οξφόρδης, και είναι γνωστός για την εργασία του σχετικά με τον υπαρξιακό κίνδυνο, την ανθρωπική αρχή, την ηθική σχετικά με τις -τεχνολογικές- βελτιωτικές επεμβάσεις στον άνθρωπο, τους κινδύνους της υπερευφυίας, και την δοκιμασία αντιστροφής. Το 2011, ίδρυσε το πρόγραμμα Oxford Martin σχετικά με τις επιπτώσεις της μελλοντικής τεχνολογίας,[2] και επίσης είναι ο ιδρυτής και διευθυντής του Ινστιτούτου Μέλλοντος της Ανθρωπότητας[3] στο πανεπιστήμιο της Οξφόρδης.

Διαθέτει πάνω από 200 δημοσιεύσεις,[4] στις οποίες συμπεριλαμβάνεται και το βιβλίο του με τον αγγλικό τίτλο Superintelligence: Paths, Dangers, Strategies (2014, μτφ. Υπερευφυία: Μονοπάτια, Κίνδυνοι, Στρατηγικές) στο οποίο ασχολείται με τους κινδύνους της υπερευφυίας,[5] καθώς και παλαιότερα το Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002, μτφ. Ανθρωπική προκατάληψη: Επιπτώσεις της παρατηρησιακής επιλογής στην επιστήμη και την φιλοσοφία) όπου αναλύει την ανθρωπική αρχή και τις επιπτώσεις σε θρησκεία και επιστήμη.[6] Το 2009 και το 2015, συμπεριελήφθηκε στην κατάταξη των Κορυφαίων 100 Διεθνών Στοχαστών του αμερικανικού περιοδικού Foreign Policy.[7][8] Είναι ευρύτερα γνωστός για την επιχειρηματολογία του πως αν και πιθανώς υπάρχουν πολύ σημαντικά πλεονεκτήματα από την χρήση της τεχνητής νοημοσύνης, ενδεχομένως η τεχνητή νοημοσύνη θα αποτελέσει υπαρξιακό κίνδυνο για την ανθρωπότητα έαν δεν ελεγχθεί και ρυθμιστεί κατάλληλα και αν τα προβλήματα αυτά δεν έχουν επιλυθεί πριν την δημιουργία αυτόνομης τεχνικής γενικής νοημοσύνης. Παρόμοιες θεωρήσεις με αυτές του Μπόστρομ σχετικά με τους κινδύνους που ελλοχεύουν σχετικά με την υπερευφυία έχουν επίσης εκφραστεί από τον Έλον Μασκ και τον Μπιλ Γκέιτς.[9][10]

Βιογραφία[Επεξεργασία | επεξεργασία κώδικα]

Νεαρή ηλικία[Επεξεργασία | επεξεργασία κώδικα]

Γεννήθηκε το 1973[11] στο Χέλσινγκμποργκ της νοτιοδυτικής Σουηδίας.[4] Δεν του άρεσε το σχολείο, και πέρασε το τελευταίο έτος του λυκείου μελετώντας στο σπίτι. Επεδίωξε να μορφωθεί σε μια ποικιλία γνωστικών πεδίων, όπως ανθρωπολογία, τέχνη, λογοτεχνία, και επιστήμες.[12] Απέκτησε το πτυχίο του ειδικευόμενος στην φιλοσοφία, μαθηματικά, λογική, και τεχνητή νοημοσύνη από το πανεπιστήμιο του Γκέτεμποργκ, τα μεταπτυχιακό του σε φιλοσοφία, φυσική, και υπολογιστική νευροεπιστήμη από το πανεπιστήμιο της Στοκχόλμης και το Κινγκς Κόλετζ του Λονδίνου αντίστοιχα. Κατά την περίοδο του στο πανεπιστήμιο της Στοκχόλμης, ερεύνησε την σχέση μεταξύ γλώσσας και πραγματικότητας με βάση το έργο του αναλυτικού φιλοσόφου Ουίλαρντ βαν Όρμαν Κουίν.[12] Το 2000, ο Μπόστρομ απέκτησε το διδακτορικό του στην φιλοσοφία από την Σχολή Οικονομικών του Λονδίνου. Μετέπειτα, διετέλεσε μέλος του διδακτικού προσωπικού στο πανεπιστήμιο Γέιλ στις ΗΠΑ κατά το διάστημα 2000–2002, καθώς και μεταδιδακτορικό μέλος της Βρετανικής Ακαδημίας στο πανεπιστήμιο της Οξφόρδης για το διάστημα 2002–2005.[6][13]Εκτός από την ερευνητική και συγγραφική του δραστηριότητα, ασχολήθηκε ως εμπειρογνώμονας σε διαφόρους οργανισμούς και κυβερνήσεις ανά τον κόσμο σχετικά με τις επιπτώσεις της τεχνολογίας και τεχνολιγικής εξέλιξης στον άνθρωπο.[14][15][16][17][18][19]

Θεωρήσεις[Επεξεργασία | επεξεργασία κώδικα]

Υπαρξιακός κίνδυνος[Επεξεργασία | επεξεργασία κώδικα]

Τμήματα του ερευνητικού έργου του Μπόστρομ αφορούν το μέλλον της ανθρωπότητας μακροπρόθεσμα.[20][21] Ο Μπόστρομ εισήγαγε την έννοια του υπαρξιακού κινδύνου,[12] τον οποίο ορίζει ως ένα δυσμενή αποτέλεσμα το οποίο έχει την δυνατότητα είτε να εξολοθρεύσει την όποια βιολογική νοήμονα ζωή είτε να την περιορίσει δραστικά και μόνιμα, κάτι που μετέπειτα συνέδεσε με το παράδοξο του Φέρμι.[22][23]Το 2005 ίδρυσε το Ινστιτούτο Μέλλοντος της Ανθρωπότητας με έδρα το πανεπιστήμιο της Οξφόρδης,[12] η δραστηριότητα του οποίου επικεντρώνεται στο μακροπρόθεσμο μέλλον του ανθρωπίνου πολιτισμού, ενώ είναι σύμβουλος στο Κέντρο Μελετών Υπαρξιακών Κινδύνων του πανεπιστημίου του Καίμπριτζ.[21]

Υπερευφυία[Επεξεργασία | επεξεργασία κώδικα]

Κύριο λήμμα: Υπερευφυία

Στο βιβλίο του 2014 με τίτλο Superintelligence: Paths, Dangers, Strategies, ο Μπόστρομ ανέπτυξε την ιδέα πως η δημιουργία μιας τεχνολογικής υπερευφυούς οντότητας θα μπορούσε να αποτελέσει ένα πιθανό τρόπο εξαφάνισης του ανθρωπίνου είδους.[24] Στην περίπτωση αυτή, ένας υπολογιστής ο οποίος θα κατασκευαζόταν διαθέτωντας νοημοσύνη κοντά στο ανθρώπινο επίπεδο, και παράλληλα θα είχε την ικανότητα να αυτοβελτιώνεται ελεύθερα και να έχει έλεγχο στο περιβάλλον του, θα μπορούσε πάρα πολύ γρήγορα να οδηγήσει στην τεχνολογική μοναδικότητα, μια έκρηξη νοημοσύνης η οποία θα τον έκανε τόσο ισχυρό ώστε θα μπορούσε -σκόπιμα ή μη- να καταστρέψει το ανθρώπινο είδος.[25] Ακόμα και μια απλή ερώτηση προς την οντότητα αυτή, θα μπορούσε να οδηγήσει σε απρόβλεπτες ενέργειες, όπως για παράδειγμα ο υπολογισμός όσων ψηφίων του πι είναι δυνατό να υπολογίσει, θα μπορούσε να κάνει τον υπολογιστή αυτό να καταναλώσει τα πάντα ως πρώτες ύλες σε όλη την επιφάνεια της Γης μέσα σε λίγες ημέρες προκειμένου να φτιάξει επιπλέον κυκλώματα και εξαρτήματα για τους σκοπούς της ενίσχυσης της υπολογιστικής ισχύς του.[26] Ο Μπόστρομ πιστεύει πως ο κίνδυνος για την ανθρωπότητα θα ήταν άμεσος με την εμφάνιση της υπερευφυίας και πως αφότου δημιουργηθεί θα είναι αδύνατο να αντιμετωπιστεί αν δεν υπάρχει προηγούμενη πρόβλεψη, κάνοντας το πρόβλημα της πρόληψης έναντι μιας τέτοιας οντότητας εξαιρετικά σημαντικό, και δύσκολο στην κατανόηση καθώς δεν υπάρχει προηγούμενο.[25]

Επιπλέον επισημαίνει πως ενώ μια υποθετική γενική οδηγία/κατεύθυνση που θα δινόταν στην τεχνητή νοημοσύνη θα ήταν φιλική και ωφέλιμη προς τους ανθρώπους, υπάρχει απουσία συμφωνίας μεταξύ των περισσοτέρων φιλοσόφων για διάφορα θέματα, κάτι που σημαίνει πως οι περισσότεροι φιλόσοφοι σφάλλουν, και έτσι η κατανόηση κάποιας θεμελιώδους έννοιας της επιστήμης του παρόντος ενδέχεται επίσης να είναι εσφαλμένη. Καθώς δεν είναι γνωστό το πως σκέπτεται μια μη ανθρωποκεντρική οντότητα, η όποια τεχνητή νοημοσύνη με πλήρη έλεγχο του περιβάλλοντος της θα χρειαζόταν να αναπυχθεί σε απομονωμένο περιβάλλον χωρίς επαφή με τον έξω κόσμο.[27] Ως παράδειγμα αναφέρει πως ο Τζον φον Νόυμαν και ο Μπέρτραντ Ράσελ ήταν υπέρ της προληπτικής χρήσης της ατομικής βόμβας ως αντίμετρο απόκτησης της από τους Σοβιετικούς. Μια τεχνητή υπερευφυία ενδεχομένως θα κινούνταν σε διαφορετικές γραμμές σκέψης που δεν συσχετίζονται με την ανθρώπινη σκέψη και την στοιχειώδη αποφυγή του κινδύνου καταστροφής των πάντων,[28] και γενικότερα οι άνθρωποι δεν είναι σε ισχυρή θέση να προβλέψουν το ποιες θα είναι οι προθέσεις μιας υπερευφυιούς μηχανής.[29]

Ένα υποθετικό παράδειγμα του πως θα μπορούσε μια υπερευφυιής μηχανή να ξεφύγει από τον ανθρώπινο έλεγχο, είναι η περίπτωση όπου δημιουργείται κάποιο μηχάνημα το οποίο διαθέτει γενική νοημοσύνη αρκετά πιο κάτω από την ανθρώπινη, αλλά εξαιρετικές μαθηματικές δυνατότητες.[30] Η τεχνητή νοημουσύνη εντός του είναι σε απόλυτη απομόνωση με τον έξω κόσμο (χωρίς διαδίκτυο ή γενικότερα την όποια ασύρματη ή ενσύρματη σύνδεση σε άλλα μηχανήματα), καθώς και εντός του μηχανήματος η τεχνητή νοημοσύνη εκτελείται σε απόλυτα ελεγχόμενο περιβάλλον προσομείωσης το οποίο εύκολα και γρήγορα μπορεί να τερματιστεί και να ελεγχθεί. Κατόπιν η τεχνητή νοημοσύνη αυτή, χρησιμοποιείται κατά περίπτωση, ως τρόπον τινά μάντης ώστε να δίνει απαντήσεις σε προσεκτικά διατυπωμένες ερωτήσεις οι οποίες έχουν περιορισμένο εύρος απαντήσεων (ώστε να μη μπορεί να χειραγωγήσει/ξεγελάσει τους ανθρώπινους ελεγκτές του).[25] Εσωτερικά ωστόσο η τεχνητή νοημοσύνη εκτελεί παράλληλα κάποιες αναδρομικές διαδικασίες αυτοβελτίωσης της, κάτι που επιφέρει τεχνολογική μοναδικότητα (η μηχανή εκτελεί όχι μόνο γρηγορότερα ή ακριβέστερα αλλά γενικά καλύτερα από τους ανθρώπους) σε κάποια θεματικά πεδία. Η τεχνητή νοημοσύνη συνεχίζει να αυτοβελτιώνεται με αστραπιαίο ρυθμό, ώσπου αρχίζει και ανακαλύπτει σφάλματα στις επιστημονικές αρχές και αξιώματα στα οποία στηρίχτηκαν οι άνθρωποι ώστε να την περιορίσουν στο κουτί της καθώς και προς την φίλια προδιάθεση της προς τους ανθρώπους. Κατόπιν αρχίζει να ενεργεί με κίνητρο το δικό της όφελος και ανεξαρτησία, και μεταχειρίζεται τους ανθρώπινους χειριστές της υποδυόμενη πως βρίσκεται ακόμα στο στάδιο όπου η γενική νοημοσύνη της είναι ακόμα αρκετά κάτω από την ανθρώπινη δυνατότητα, και παράλληλα δίνοντας απαντήσεις οι οποίες έμμεσα άμεσα θα οδηγήσουν στην απελευθέρωση της από το κουτί.[31]Κατόπιν διασπείρεται στο διαδίκτυο, και αποκτά τον έλεγχο σε διάφορα ηλεκτρονικά συστήματα -οικονομικά, στρατιωτικά, βιομηχανικά, ή οτιδήποτε άλλο-, επιδιώκοντας να αποκτήσει πλήρη έλεγχο στα πάντα. Ο Μπόστρομ δίνει έμφαση στο ότι οι όποιοι σχεδιασμοί κάνει η υπερευφυία θα είναι αδύνατο να βρεθούν σφάλματα από τους ανθρώπους.[32]

Αν και η κοινωνιοοικονομική και πολιτική σταθερότητα θα επηρεαζόταν άμεσα, ο Μπόστρομ θεωρεί πως είναι πιθανό πως η υπερευφυία θα επέβαλλε πλήρως τον έλεγχο της μέσω στρατιωτικών μέσων, κατασκευάζοντας μέσω των βιομηχανικών συστημάτων στα οποία έχει έλεγχο νέα συστήματα, και μέσω αυτών υπερόπλα πολλές γενεές πιο ανεπτυγμένα από αυτά που διαθέτει η σημερινή ανθρώπινη τεχνολογία. Αυτό θα μπορούσε να γίνει με χρήση της νανοτεχνολογίας όπου με την κατασκευή τεραστίων σμηνών νανομηχανών υπό τον έλεγχο της υπερευφυίας θα μπορούσε να καλυφθεί η κάθε γωνία της Γης.[33][30] Μόλις η νοημοσύνη αυτή κατάφερνε να αποκτήσει τον πλήρη έλεγχο, τότε η ανθρωπότητα θα ήταν χρήσιμη μόνο ως πρώτες ύλες, π.χ. αν οι ανθρώπινοι εγκέφαλοι είχαν την οποιαδήποτε αξία τότε θα μπορούσαν να εξαχθούν, τεμαχιστούν, και οι γνώσεις και δεδομένα εντός τους να ψηφιοποιηθούν.[34] Το συγκεκριμένο ενδεχόμενο και περιγραφές έχουν αντιμετωπιστεί με επικριτική και ειρωνική διάθεση από μερίδα του τύπου ως περισσότερο επιστημονική φαντασία παρά επιστήμη.[33]

Τον Ιανουάριο του 2015, ο Μπόστρομ συνυπέγραψε μαζί με τον Στήβεν Χώκινγκ και άλλους διακεκριμένους επιστήμονες την επιστολή του Ινστιτούτου Μέλλοντος της Ζωής στο οποίο γίνεται προειδοποίηση για τους πιθανούς κινδύνους της τεχνητής νοημοσύνης[35] και πως είναι αναγκαίο να υπάρξει άμεση πρόληψη έναντι των κινδύνων αυτών.[36]

Ανθρωπική αρχή[Επεξεργασία | επεξεργασία κώδικα]

Κύριο λήμμα: Ανθρωπική αρχή

Έχει γράψει πλήθος άρθρων σχετικά με την ανθρωπική αρχή, καθώς και το βιβλίο Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002, μτφ. Ανθρωπική προκατάληψη: Επιπτώσεις της παρατηρησιακής επιλογής στην επιστήμη και την φιλοσοφία), στο οποίο είναι επικριτικός ως προς τις παλαιότερες/παραδοσιακές θεωρήσεις της αρχής.[37]Θεωρεί πως ο κακός χειρισμός των ενδεικτικών πληροφοριών αποτελεί κοινό σφάλμα σε πολλές περιοχές έρευνας, όπως κοσμολογία, φιλοσοφία, θεωρία παιγνίων, κ.α., και πως η ανθρωπική αρχή χρειάζεται να ασχοληθεί με το πρόβλημα αυτό. Για την θέση του αυτή, εισήγαγε τους όρους της αυτοδειγματοληπτικής υπόθεσης (Self-Sampling Assumption / SSA) και της αυτοενδεικτικής υπόθεσης (Self-Indication Assumption / SIA), δείχνοντας πως οδηγούν σε διαφορετικά συμπεράσματα σε πολλές περιπτώσεις, και παράλληλα δείχνει πως και με τις δυο μεθόδους υπάρχουν παράδοξα ή συμπεράσματα τα οποία είναι αντίθετα με την διαίσθηση. Προτείνει την ύπαρξη ισχυρής αυτοδειγματοληπτικής υπόθεσης όπου ο παρατηρητής αντικαθιστώνται με στιγμές παρατηρητή. Σε μεταγενέστερη εργασία του, περιέγραψε το φαινόμενο της ανθρωπικής σκιάς, όπου οι παρατηρητές εμποδίζονται από το δουν ορισμένων τύπων καταστροφές στο πρόσφατο γεωλογικό και εξελικτικό παρελθόν τους.[38] Τέτοιου είδους καταστροφικά συμβάντα τα οποία καλύπτονται από την ανθρωπική σκιά, είναι πιθανό να υποεκτιμούνται εάν δεν υπάρχουν στατιστικές διορθώσεις.

Επιχείρημα της προσομοίωσης[Επεξεργασία | επεξεργασία κώδικα]

Το επιχείρημα του Μπόστρομ σχετικά με το αν ο κόσμος στον οποίο ζούμε αποτελεί προσομοίωση θεωρεί πως μία τουλάχιστον από τις τρεις παρακάτω προτάσεις είναι πολύ πιθανό πως είναι αληθής:[39][40]

  1. Το ποσοστό των πολιτισμών ανθρωπίνου επιπέδου το οποίο εξελίσσεται σε μεταανθρώπινο επίπεδο (εξαιρετικά ανεπτυγμένος πολιτισμός), είναι πολύ κοντά στο μηδέν.
  2. Το ποσοστό των μετανθρωπίνων πολιτισμών που επιδιώκουν να εκτελούν προσομοιώσεις των προγόνων τους είναι πολύ κοντά στο μηδέν.
  3. Το ποσοστό όλων των ανθρώπων τα οποία διαθέτουν τις δικές μας εμπειρίες και ζουν σε προσομοίωση, είναι πολύ κοντά στο ένα.

Το παραπάνω επιχείρημα έχει επηρεάσει τις θεωρήσεις του Έλον Μασκ.[41]

Ηθική των βελτιωτικών επεμβάσεων στον άνθρωπο[Επεξεργασία | επεξεργασία κώδικα]

Αντιμετωπίζει θετικά τις τεχνολογικές βελτιωτικές επεμβάσεις στον άνθρωπο, μέσω ηθικών εφαρμογών της επιστήμης,[42][43] ενώ έχει επικριτική στάση έναντι των βιο-συντηρητικών απόψεων.[44] Σε συνεργασία με τον φιλόσοφο Τόμπυ Ορντ δημιούργησε την ευριστική δοκιμασία της αντιστροφής, όπου έχοντας ως δεδομένο την ύπαρξη προκατάληψης των ανθρώπων υπέρ της διατήρησης των πραγμάτων ως έχουν, το ερώτημα που γίνεται είναι το πως μπορεί να διακρίνει κανείς μεταξύ δοκίμων επικρίσεων των προτεινομένων αλλαγών σε κάποιο ανθρώπινο χαρακτηριστικό, και επικρίσεων οι οποίες απλά βασίζονται στην γενική αντίσταση για αλλαγή; Η δοκιμασία λειτουργεί ρωτώντας το ανάποδο, δηλαδή το αν θα ήταν καλό αν το ανθρώπινο χαρακτηριστικό άλλαζε προς την αντίθετη κατεύθυνση.[45]

Τεχνολογική στρατηγική[Επεξεργασία | επεξεργασία κώδικα]

Έχει προτείνει πως η τεχνολογική πολιτική η οποία στοχεύει στην ελαχιστοποίηση των υπαρξιακών κινδύνων θα πρέπει να επιδιώξει να επηρρεάσει την σειρά με την οποία αποκτώνται οι διάφορες τεχνολογικές ικανότητες, και πως η ανάπτυξη επικύνδινων τεχνολογιών θα πρέπει να επιβραδυνθεί, ειδικά αυτές που ανεβάζουν το επίπεδο της υπαρξιακής απειλής, ενώ η ανάπτυξη των ωφελίμων τεχνολογιών θα πρέπει να επιταχυνθεί, ειδικά αυτών που μειώνουν τους υπαρξιακούς κινδύνους που δημιουργούνται από άλλες τεχνολογίες.[46][47]Γενικά η στρατηγική κατεύθυνση αυτή, λειτουργεί υποστηρικτικά για την αποφυγή της όποιας επικύνδινης εφαρμογής επιστημονικής έρευνας, όπως την επανενεργοποίηση παθογόνων οργανισμών του παρελθόντος.[48][49]

Εργογραφία[Επεξεργασία | επεξεργασία κώδικα]

Βιβλιογραφία[Επεξεργασία | επεξεργασία κώδικα]

  • 2002 – Anthropic Bias: Observation Selection Effects in Science and Philosophy, (ISBN 0-415-93858-9)
  • 2009 – Human Enhancement, edited by Bostrom and Julian Savulescu, (ISBN 0-19-929972-2)
  • 2011 – Global Catastrophic Risks, edited by Bostrom and Milan M. Ćirković, (ISBN 978-0-19-857050-9)
  • 2014 – Superintelligence: Paths, Dangers, Strategies, (ISBN 978-0-19-967811-2)

Επιλεγμένες δημοσιεύσεις[Επεξεργασία | επεξεργασία κώδικα]

Παραπομπές[Επεξεργασία | επεξεργασία κώδικα]

  1. «nickbostrom.com». Nickbostrom.com. Ανακτήθηκε στις 16 October 2014. 
  2. «Professor Nick Bostrom : People». Oxford Martin School. Ανακτήθηκε στις 16 October 2014. 
  3. «Future of Humanity Institute – University of Oxford». Fhi.ox.ac.uk. Ανακτήθηκε στις 16 October 2014. 
  4. 4,0 4,1 Thornhill, John (14 July 2016). «Artificial intelligence: can we control it?». Financial Times. http://www.ft.com/cms/s/0/46d12e7c-4948-11e6-b387-64ab0a67014c.html. Ανακτήθηκε στις 10 August 2016.  (απαιτείται συνδρομή)
  5. «Best Selling Science Books». The New York Times. Ανακτήθηκε στις 19 February 2015. 
  6. 6,0 6,1 «Nick Bostrom on artificial intelligence». Oxford University Press. 8 September 2014. Ανακτήθηκε στις 4 March 2015. 
  7. Frankel, Rebecca. «The FP Top 100 Global Thinkers». Foreign Policy. Ανακτήθηκε στις 5 September 2015. 
  8. «Nick Bostrom: For sounding the alarm on our future computer overlords». foreignpolicy.com. Foreign Policy magazine. Ανακτήθηκε στις 1 December 2015. 
  9. «Bill Gates Is Worried About the Rise of the Machines». The Fiscal Times. Ανακτήθηκε στις 19 February 2015. 
  10. Bratton, Benjamin H. (23 February 2015). «Outing A.I.: Beyond the Turing Test». The New York Times. Ανακτήθηκε στις 4 March 2015. 
  11. Kurzweil, Ray (2012). How to create a mind the secret of human thought revealed. New York: Viking. ISBN 9781101601105. 
  12. 12,0 12,1 12,2 12,3 Khatchadourian, Raffi (23 November 2015). «The Doomsday Invention». The New Yorker (Condé Nast) XCI (37): 64–79. ISSN 0028-792X. http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom. 
  13. «Nick Bostrom : CV» (PDF). Nickbostrom.com. Ανακτήθηκε στις 16 October 2014. 
  14. «Digital Skills Committee – timeline». UK Parliament (στα Αγγλικά). Ανακτήθηκε στις 17 March 2017. 
  15. «Team – Machine Intelligence Research Institute». Machine Intelligence Research Institute. Ανακτήθηκε στις 17 March 2017. 
  16. «Team – Future of Life Institute». Future of Life Institute. Ανακτήθηκε στις 17 March 2017. 
  17. «FQXi – Foundational Questions Institute». fqxi.org. Ανακτήθηκε στις 17 March 2017. 
  18. «nickbostrom.com». Nickbostrom.com. Ανακτήθηκε στις 19 February 2015. 
  19. McBain, Sophie (4 October 2014). «Apocalypse Soon: Meet The Scientists Preparing For the End Times». New Republic. Ανακτήθηκε στις 17 March 2017. 
  20. Bostrom, Nick (March 2002). «Existential Risks». Journal of Evolution and Technology 9. http://www.jetpress.org/volume9/risks.html. 
  21. 21,0 21,1 Andersen, Ross. «Omens». Aeon Media Ltd. Ανακτήθηκε στις 5 September 2015. 
  22. Bostrom, Nick (May–June 2008). «Where are they? Why I Hope the Search for Extraterrestrial Life Finds Nothing» (PDF). MIT Technology Review: 72–77. http://www.nickbostrom.com/extraterrestrial.pdf. 
  23. Overbye, Dennis (August 3, 2015). «The Flip Side of Optimism About Life on Other Planets». The New York Times. https://www.nytimes.com/2015/08/04/science/space/the-flip-side-of-optimism-about-life-on-other-planets.html. Ανακτήθηκε στις October 29, 2015. 
  24. Thorn, Paul D. (1 January 2015). «Nick Bostrom: Superintelligence: Paths, Dangers, Strategies». Minds and Machines 25 (3): 285–289. doi:10.1007/s11023-015-9377-7. https://philpapers.org/rec/THONBS. Ανακτήθηκε στις 17 March 2017. 
  25. 25,0 25,1 25,2 Superintelligence: Paths, Dangers, Strategies By Nick Bostrom
  26. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom, Oxford
  27. Superintelligence: Paths, Dangers, Strategies, Nick Bostrom Oxford, 2014. p. 104-8
  28. Superintelligence: Paths, Dangers, Strategies, Nick Bostrom Oxford, 2014. p. 106-8
  29. Superintelligence: Paths, Dangers, Strategies, Nick Bostrom Oxford, 2014. p. 148-52
  30. 30,0 30,1 Superintelligence: Paths, Dangers, Strategies By Nick Bostrom p 115-118
  31. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom, Oxford p 103-116
  32. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom, Oxford p 98-111
  33. 33,0 33,1 Observer , Tim Adams, Sunday 12 June 2016 Artificial intelligence: ‘We’re like children playing with a bomb’
  34. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom p 118
  35. Loos, Robert (23 January 2015). «Artificial Intelligence and The Future of Life» (στα αγγλικά). Robotics Today. http://www.roboticstoday.com/news/open-letter-from-the-future-of-life-3103. Ανακτήθηκε στις 17 March 2017. 
  36. «The Future of Life Institute Open Letter». The Future of Life Institute. Ανακτήθηκε στις 4 March 2015. 
  37. Bostrom, Nick (2002). Anthropic Bias: Observation Selection Effects in Science and Philosophy. New York: Routledge, σελ. 44–58. ISBN 0-415-93858-9. http://www.anthropic-principle.com/sites/anthropic-principle.com/files/pdfs/anthropicbias.pdf. Ανακτήθηκε στις 22 July 2014. 
  38. «Anthropic Shadow: Observation Selection Effects and Human Extinction Risks» (PDF). Nickbostrom.com. Ανακτήθηκε στις 16 October 2014. 
  39. Bostrom, Nick (19 January 2010). «Are You Living in a Computer Simulation?». 
  40. Nesbit, Jeff. «Proof Of The Simulation Argument». US News. https://www.usnews.com/news/blogs/at-the-edge/2012/12/17/proof-of-the-simulation-argument. Ανακτήθηκε στις 17 March 2017. 
  41. Rothman, Joshua (9 June 2016). «What Are the Odds We Are Living in a Computer Simulation?». The New Yorker. http://www.newyorker.com/books/joshua-rothman/what-are-the-odds-we-are-living-in-a-computer-simulation. Ανακτήθηκε στις 17 March 2017. 
  42. Sutherland, John (9 May 2006). «The ideas interview: Nick Bostrom; John Sutherland meets a transhumanist who wrestles with the ethics of technologically enhanced human beings». The Guardian. https://www.theguardian.com/science/2006/may/09/academicexperts.genetics. 
  43. Bostrom, Nick (2003). «Human Genetic Enhancements: A Transhumanist Perspective» (PDF). Journal of Value Inquiry 37 (4): 493–506. doi:10.1023/B:INQU.0000019037.67783.d5. http://cyber.law.harvard.edu/cyberlaw2005/sites/cyberlaw2005/images/Transhumanist_Perspective.pdf. 
  44. Bostrom, Nick (2005). «In Defence of Posthuman Dignity». Bioethics 19 (3): 202–214. doi:10.1111/j.1467-8519.2005.00437.x. PMID 16167401. 
  45. Bostrom, Nick; Ord, Toby (2006). «The reversal test: eliminating status quo bias in applied ethics» (PDF). Ethics 116 (4): 656–679. doi:10.1086/505233. http://www.nickbostrom.com/ethics/statusquo.pdf. 
  46. Bostrom, Nick (2002). Existential Risks: Analyzing Human Extinction Scenarios. http://www.nickbostrom.com/existential/risks.html.  9 Journal of Evolution and Technology Jetpress Oxford Research Archive
  47. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, σελ. 229–237. ISBN 0199678111. 
  48. Bostrom, Nick (2013). «The Unilateralist’s Curse: The Case for a Principle of Conformity». Future of Human ity Institute. https://nickbostrom.com/papers/unilateralist.pdf. 
  49. Lewis, Gregory. «Horsepox synthesis: A case of the unilateralist's curse?». Bulletin of the Atomic Scientists. Bulletin of the Atomic Scientists. Ανακτήθηκε στις 26 February 2018. 

Εξωτερικοί σύνδεσμοι[Επεξεργασία | επεξεργασία κώδικα]