Nick Bostrom
Nick Bostrom | |
---|---|
![]() Bostrom in 2020 | |
Geboren | Niklas Boström 10 March 1973 Helsingborg, Sweden |
Education |
|
Spouse | Susan |
Awards |
|
Era | Contemporary philosophy |
Region | Western philosophy |
School | Analytic philosophy |
Institutions | Yale University University of Oxford Future of Humanity Institute |
Thesis | Observational Selection Effects and Probability (2000) |
Main interests | Philosophy of artificial intelligence Bioethics |
Notable ideas | Anthropic bias Reversal test Simulation hypothesis Existential risk studies Singleton Ancestor simulation Information hazard Infinitarian paralysis Self-indication assumption Self-sampling assumption |
Website | nickbostrom |
Nick Bostrom ( ; Swedish: Niklas Boström ; geboren am 10. März 1973 in Schweden) ist ein Philosoph, der für seine Arbeiten über existenzielle Risiken, das anthropische Prinzip, die Ethik des Human Enhancement, die Emulation des gesamten Gehirns, die Risiken der Superintelligenz und den Umkehrungstest bekannt ist. Er war der Gründungsdirektor des inzwischen aufgelösten Future of Humanity Institute an der Universität Oxford und ist heute Principal Researcher bei der Macrostrategy Research Initiative.
Bostrom ist Autor von Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002), Superintelligenz: Paths, Dangers, Strategies (2014) und Deep Utopia: Leben und Sinn in einer gelösten Welt (2024).
Bostrom glaubt, dass die Fortschritte in der künstlichen Intelligenz (KI) zu einer Superintelligenz führen können, die er als „jede Intelligenz, die die kognitive Leistung des Menschen in praktisch allen Bereichen von Interesse weit übertrifft“ definiert. Er betrachtet dies als eine große Quelle von Chancen und existenziellen Risiken.
Frühes Leben und Ausbildung
Geboren als Niklas Boström im Jahr 1973 in Helsingborg, Schweden,
Er erwarb 1994 einen B.A.-Abschluss an der Universität Göteborg. Er trat auch als Stand-up-Comedian in London auf. Im Jahr 2000 erhielt er einen Doktortitel in Philosophie von der London School of Economics. Seine Doktorarbeit trug den Titel Observational selection effects and probability. Von 2000 bis 2002 hatte er einen Lehrauftrag an der Yale University inne und war von 2002 bis 2005 Postdoctoral Fellow der British Academy an der University of Oxford.
Forschung
Existentielles Risiko
Bostroms Forschung befasst sich mit der Zukunft der Menschheit und den langfristigen Folgen, die er als solche definiert, in denen ein „ungünstiges Ergebnis entweder intelligentes Leben, das von der Erde ausgeht, auslöschen oder sein Potenzial dauerhaft und drastisch einschränken würde“. Bostrom befasst sich vor allem mit anthropogenen Risiken, d. h. mit Risiken, die sich aus menschlichen Aktivitäten ergeben, insbesondere aus neuen Technologien wie fortgeschrittener künstlicher Intelligenz, molekularer Nanotechnologie oder synthetischer Biologie.
Im Jahr 2005 gründete Bostrom das Future of Humanity Institute, das bis zu seiner Schließung im Jahr 2024 die ferne Zukunft der menschlichen Zivilisation erforschte. Er ist auch Berater des Centre for the Study of Existential Risk.
In der 2008 erschienenen Aufsatzsammlung „Global Catastrophic Risks“ charakterisieren die Herausgeber Bostrom und Milan M. Ćirković die Beziehung zwischen dem existenziellen Risiko und der breiteren Klasse der globalen Katastrophenrisiken und stellen eine Verbindung zwischen dem existenziellen Risiko und den Beobachterselektionseffekten sowie dem Fermi-Paradoxon her.
Hypothese der verwundbaren Welt
In einem Papier mit dem Titel „The Vulnerable World Hypothesis“ (Die Hypothese der verletzlichen Welt) schlägt Bostrom vor, dass es einige Technologien geben könnte, die die menschliche Zivilisation standardmäßig zerstören, wenn sie entdeckt werden. Bostrom schlägt einen Rahmen für die Klassifizierung und den Umgang mit diesen Schwachstellen vor. Er führt auch kontrafaktische Gedankenexperimente an, wie solche Schwachstellen in der Vergangenheit hätten auftreten können, z. B. wenn Kernwaffen leichter zu entwickeln gewesen wären oder die Atmosphäre entzündet hätten (wie Robert Oppenheimer befürchtet hatte).
Superintelligenz
Im Jahr 2014 veröffentlichte Bostrom Superintelligenz: Paths, Dangers, Strategies, das ein New York Times Bestseller wurde. Das Buch argumentiert, dass Superintelligenz möglich ist und untersucht verschiedene Arten von Superintelligenzen, ihre Kognition und die damit verbundenen Risiken. Er stellt auch technische und strategische Überlegungen an, wie man sie sicher machen kann.
Merkmale einer Superintelligenz
Bostrom untersucht mehrere mögliche Wege zur Superintelligenz, einschließlich der Emulation ganzer Gehirne und der Steigerung der menschlichen Intelligenz, konzentriert sich jedoch auf die künstliche allgemeine Intelligenz und erklärt, dass elektronische Geräte viele Vorteile gegenüber biologischen Gehirnen haben.
Bostrom unterscheidet zwischen Endzielen und instrumentellen Zielen. Ein Endziel ist das, was ein Agent um seines eigenen Wertes willen zu erreichen versucht. Instrumentelle Ziele sind nur Zwischenschritte auf dem Weg zum Endziel. Bostrom behauptet, dass es instrumentelle Ziele gibt, die von den meisten hinreichend intelligenten Agenten geteilt werden, weil sie im Allgemeinen nützlich sind, um ein beliebiges Ziel zu erreichen (z.B. die Erhaltung der eigenen Existenz oder der aktuellen Ziele des Agenten, die Beschaffung von Ressourcen, die Verbesserung seiner Erkenntnis...), dies ist das Konzept der instrumentellen Konvergenz. Auf der anderen Seite schreibt er, dass praktisch jedes Maß an Intelligenz theoretisch mit praktisch jedem Endziel kombiniert werden kann (sogar mit absurden Endzielen, z.B. Büroklammern herstellen), ein Konzept, das er die Orthogonalitätsthese nennt.
Er argumentiert, dass eine KI mit der Fähigkeit, sich selbst zu verbessern, eine Intelligenzexplosion auslösen könnte, die (möglicherweise rasch) zu einer Superintelligenz führt. Eine solche Superintelligenz könnte über weit überlegene Fähigkeiten verfügen, vor allem in den Bereichen Strategie, soziale Manipulation, Hacking oder wirtschaftliche Produktivität. Mit solchen Fähigkeiten könnte eine Superintelligenz die Menschen überlisten und die Welt übernehmen, indem sie eine Singularität (d.h. „eine Weltordnung, in der es auf globaler Ebene nur eine einzige Entscheidungsinstanz gibt“) errichtet und die Welt nach ihren Endzielen optimiert.
Bostrom argumentiert, dass es katastrophal sein könnte, einer Superintelligenz einfache Endziele zu setzen:
Suppose we give an A.I. the goal to make humans smile. When the A.I. is weak, it performs useful or amusing actions that cause its user to smile. When the A.I. becomes superintelligent, it realizes that there is a more effective way to achieve this goal: take control of the world and stick electrodes into the facial muscles of humans to cause constant, beaming grins.
Abmilderung des Risikos
Bostrom erkundet mehrere Wege, um das existenzielle Risiko der KI zu verringern. Er betont die Bedeutung internationaler Zusammenarbeit, insbesondere um den Wettlauf nach unten und die Dynamik des KI-Rüstungswettlaufs einzudämmen. Er schlägt potenzielle Techniken vor, die helfen, KI zu kontrollieren, einschließlich Eindämmung, Einschränkung der KI-Fähigkeiten oder des Wissens, Verengung des Handlungskontexts (z. Kapitel 9: „Das Kontrollproblem“, Abschnitt „Methoden zur Kontrolle der Fähigkeiten“ --> Bostrom ist jedoch der Ansicht, dass „wir nicht darauf vertrauen sollten, dass wir einen superintelligenten Geist für immer in seiner Flasche einsperren können. Früher oder später wird er herauskommen“. Er schlägt daher vor, dass die Superintelligenz, um für die Menschheit sicher zu sein, mit der Moral oder den menschlichen Werten in Einklang gebracht werden muss, so dass sie „grundsätzlich auf unserer Seite ist“.
Bostrom warnt, dass eine existenzielle Katastrophe auch dadurch entstehen kann, dass KI von Menschen für zerstörerische Zwecke missbraucht wird oder dass Menschen den potenziellen moralischen Status digitaler Köpfe nicht berücksichtigen. Trotz dieser Risiken sagt er, dass maschinelle Superintelligenz irgendwann in „alle plausiblen Wege in eine wirklich große Zukunft“ involviert zu sein scheint.
Öffentlicher Empfang
Superintelligenz: Paths, Dangers, Strategies wurde ein New York Times Bestseller und erhielt positives Feedback von Persönlichkeiten wie Stephen Hawking, Bill Gates, Elon Musk, Peter Singer und Derek Parfit. Es wurde gelobt, weil es klare und überzeugende Argumente zu einem vernachlässigten, aber wichtigen Thema liefert. Manchmal wurde es kritisiert, weil es Pessimismus über das Potenzial der KI verbreitete oder sich auf langfristige und spekulative Risiken konzentrierte. Einige Skeptiker wie Daniel Dennett oder Oren Etzioni vertraten die Ansicht, dass die Superintelligenz noch zu weit entfernt ist, als dass das Risiko signifikant wäre. Yann LeCun ist der Ansicht, dass es kein existenzielles Risiko gibt, da eine superintelligente KI nicht nach Selbsterhaltung streben wird und man darauf vertrauen kann, dass Experten sie sicher machen.
Raffi Khatchadourian schrieb, Bostroms Buch über Superintelligenz „ist nicht als eine Abhandlung von großer Originalität gedacht; Bostroms Beitrag besteht darin, die Strenge der analytischen Philosophie auf einen unordentlichen Ideenkomplex anzuwenden, der am Rande des akademischen Denkens entstanden ist.“
Tiefe Utopie
Obwohl Bostrom den Begriff des existenziellen Risikos durch KI populär gemacht hat, analysierte er auch mögliche Vorteile. In seinem 2024 erschienenen Buch „Deep Utopia: Life and Meaning in a Solved World“ (Leben und Sinn in einer gelösten Welt) erforscht er das Konzept eines idealen Lebens, wenn die Menschheit erfolgreich in eine Welt nach der Superintelligenz übergeht. Bostrom stellt fest, dass die Frage nicht ist, „wie interessant eine Zukunft anzusehen ist, sondern wie gut es ist, in ihr zu leben“. Er skizziert einige Technologien, die er theoretisch für möglich hält und die bei technologischer Reife zur Verfügung stehen, wie z. B. die Verbesserung der kognitiven Fähigkeiten, die Umkehrung des Alterungsprozesses, willkürliche sensorische Eingaben (Geschmack, Geräusche...) oder die präzise Kontrolle von Motivation, Stimmung, Wohlbefinden und Persönlichkeit. Seiner Ansicht nach wären Maschinen nicht nur besser als Menschen bei der Arbeit, sondern sie würden auch den Zweck vieler Freizeitaktivitäten untergraben, indem sie extremen Wohlstand bieten und gleichzeitig die Suche nach Sinn in Frage stellen.
Digitale Empfindsamkeit
Bostrom vertritt das Prinzip der Substratunabhängigkeit, d. h. die Vorstellung, dass Bewusstsein auf verschiedenen Arten von physikalischen Substraten entstehen kann, nicht nur in „kohlenstoffbasierten biologischen neuronalen Netzen“ wie dem menschlichen Gehirn. Er ist der Ansicht, dass „Empfindungsfähigkeit eine Frage des Grades“ ist und dass digitale Gehirne theoretisch so konstruiert werden können, dass sie bei geringerem Ressourcenverbrauch eine viel höhere Rate und Intensität subjektiver Erfahrungen als Menschen aufweisen. Solche hochgradig empfindungsfähigen Maschinen, die er als „Super-Nutznießer“ bezeichnet, wären äußerst effizient beim Erreichen von Glück. Er empfiehlt, „Wege zu finden, die eine Koexistenz von digitalem und biologischem Geist in einer für beide Seiten vorteilhaften Weise ermöglichen, in der all diese verschiedenen Formen gedeihen und sich entwickeln können“.
Anthropes Denken
Bostrom hat zahlreiche Artikel über anthropisches Denken veröffentlicht, sowie das Buch Anthropic Bias: Observation Selection Effects in Science and Philosophy. In diesem Buch kritisiert er frühere Formulierungen des anthropischen Prinzips, darunter die von Brandon Carter, John Leslie, John Barrow und Frank Tipler.
Bostrom ist der Ansicht, dass der falsche Umgang mit indexikalischer Information ein häufiger Fehler in vielen Forschungsbereichen ist (einschließlich Kosmologie, Philosophie, Evolutionstheorie, Spieltheorie und Quantenphysik). Er vertritt die Ansicht, dass eine anthropische Theorie erforderlich ist, um diese Fehler zu beheben. Er stellt die Self-Sampling Assumption (SSA) und die Self-Indication Assumption (SIA) vor, zeigt, wie sie in einer Reihe von Fällen zu unterschiedlichen Schlussfolgerungen führen, und identifiziert, wie beide von Paradoxien oder kontraintuitiven Implikationen in bestimmten Gedankenexperimenten betroffen sind. Er schlägt vor, dass ein Ausweg darin bestehen könnte, die SSA zur Strong Self-Sampling Assumption (SSSA) zu erweitern, bei der die „Beobachter“ in der SSA-Definition durch „Beobachter-Momente“ ersetzt werden.
In späteren Arbeiten hat er das Phänomen des „anthropischen Schattens“ vorgeschlagen, einen Beobachtungsselektionseffekt, der Beobachter daran hindert, bestimmte Arten von Katastrophen in ihrer jüngsten geologischen und evolutionären Vergangenheit zu beobachten. Bostrom behauptet, dass Ereignisse, die im anthropischen Schatten liegen, wahrscheinlich unterschätzt werden, wenn keine statistischen Korrekturen vorgenommen werden.
Simulationsargument
Bostroms Simulationsargument besagt, dass mindestens eine der folgenden Aussagen sehr wahrscheinlich wahr ist:
- Der Anteil der Zivilisationen auf menschlichem Niveau, die ein posthumanes Stadium erreichen, ist sehr nahe bei Null;
- Der Anteil der posthumanen Zivilisationen, die an der Durchführung von Vorfahren-Simulationen interessiert sind, ist sehr nahe bei Null;
- Der Anteil der Menschen mit unserer Art von Erfahrungen, die in einer Simulation leben, ist sehr nahe bei eins.
Ethik des Human Enhancement
Bostrom ist ein Befürworter des „Human Enhancement“ oder der „Selbstverbesserung und Perfektionierung des Menschen durch die ethische Anwendung der Wissenschaft“ und ein Kritiker biokonservativer Ansichten.
Im Jahr 1998 war Bostrom Mitbegründer (zusammen mit David Pearce) der World Transhumanist Association (die inzwischen in Humanity+ umbenannt wurde). Im Jahr 2004 gründete er (zusammen mit James Hughes) das Institute for Ethics and Emerging Technologies (Institut für Ethik und aufkommende Technologien), obwohl er in keiner dieser beiden Organisationen mehr tätig ist.
2005 veröffentlichte Bostrom die Kurzgeschichte „The Fable of the Dragon-Tyrant“ im „Journal of Medical Ethics“. Eine kürzere Version wurde 2012 in „Philosophy Now“ veröffentlicht. Die Fabel personifiziert den Tod als einen Drachen, der täglich den Tribut von Tausenden von Menschen fordert. Die Geschichte untersucht, wie Status-quo-Voreingenommenheit und erlernte Hilflosigkeit Menschen davon abhalten können, etwas gegen das Altern zu unternehmen, selbst wenn ihnen die Mittel dazu zur Verfügung stehen. Der YouTuber CGP Grey hat eine animierte Version der Geschichte erstellt.
Zusammen mit dem Philosophen Toby Ord schlug er 2006 den Umkehrungstest vor. Wie kann man angesichts der irrationalen Vorliebe der Menschen für den Status quo zwischen gültiger Kritik an vorgeschlagenen Änderungen einer menschlichen Eigenschaft und Kritik, die lediglich durch Widerstand gegen Veränderungen motiviert ist, unterscheiden? Der Umkehrungstest versucht dies zu erreichen, indem er fragt, ob es gut wäre, wenn die Eigenschaft in die entgegengesetzte Richtung verändert würde.
Bostrom geht in seiner Arbeit auch auf mögliche dysgene Effekte in menschlichen Populationen ein, glaubt aber, dass die Gentechnik eine Lösung bieten kann und dass „der Zeitrahmen für die natürliche genetische Evolution des Menschen auf jeden Fall viel zu groß ist, als dass solche Entwicklungen irgendeine signifikante Auswirkung haben könnten, bevor andere Entwicklungen die Frage überflüssig gemacht haben“.
Technologische Strategie
Bostrom hat vorgeschlagen, dass eine Technologiepolitik, die darauf abzielt, das existenzielle Risiko zu verringern, versuchen sollte, die Reihenfolge zu beeinflussen, in der verschiedene technologische Fähigkeiten erlangt werden, indem er das Prinzip der differenziellen technologischen Entwicklung vorschlägt. Dieses Prinzip besagt, dass wir die Entwicklung gefährlicher Technologien verzögern sollten, insbesondere solcher, die das Niveau des existenziellen Risikos erhöhen, und die Entwicklung nützlicher Technologien beschleunigen sollten, insbesondere solcher, die vor existenziellen Risiken schützen, die von der Natur oder von anderen Technologien ausgehen.
Im Jahr 2011 gründete Bostrom das Oxford Martin Program on the Impacts of Future Technology.
Bostroms Theorie des Fluchs der Einseitigkeit wurde als Grund für die wissenschaftliche Gemeinschaft angeführt, umstrittene gefährliche Forschungen wie die Reanimation von Krankheitserregern zu vermeiden.
Auszeichnungen
Bostrom wurde 2009 in der Foreign Policy'Liste der besten globalen Denker genannt, „weil er keine Grenzen für das menschliche Potenzial akzeptiert.“ Das Prospect Magazine führte Bostrom 2014 in seiner Liste der World's Top Thinkers' auf.
Öffentliches Engagement
Bostrom hat zahlreiche Regierungen und Organisationen beraten und beratend unterstützt. Er hat vor dem House of Lords, Select Committee on Digital Skills, ausgesagt. Er ist Beiratsmitglied des Machine Intelligence Research Institute, des Future of Life Institute und externer Berater des Cambridge Centre for the Study of Existential Risk.
1996 E-Mail-Kontroverse
Im Januar 2023 entschuldigte sich Bostrom für eine E-Mail aus dem Jahr 1996, die er als Postgraduierter verschickt hatte. Darin hatte er geäußert, dass er der Meinung sei, dass „Schwarze dümmer sind als Weiße“, und er hatte auch das Wort „Nigger“ verwendet, um zu beschreiben, wie diese Aussage seiner Meinung nach von anderen wahrgenommen werden könnte.
Im Januar 2023 teilte die Universität Oxford gegenüber „The Daily Beast“ mit: „Die Universität und die Philosophische Fakultät untersuchen derzeit die Angelegenheit, verurteilen aber auf das Schärfste die Ansichten, die dieser Wissenschaftler in seinen Mitteilungen geäußert hat.“ Ursula Coope, die Vorsitzende des Fakultätsrates der philosophischen Fakultät in Oxford, schickte eine E-Mail an die derzeitigen Studenten und Absolventen, in der sie erklärte, sie sei „entsetzt und bestürzt“ über Bostroms E-Mail von 1996. Laut Bostrom kam die Untersuchung der Universität Oxford am 10. August 2023 zu dem Schluss, dass „wir Sie nicht für einen Rassisten halten oder dass Sie rassistische Ansichten vertreten, und wir sind der Ansicht, dass die Entschuldigung, die Sie im Januar 2023 gepostet haben, aufrichtig war.“
Ausgewählte Werke
Bücher
- 2002 - Anthropic Bias: Observation Selection Effects in Science and Philosophy, ISBN 0-415-93858-9
- 2008 - Global Catastrophic Risks, herausgegeben von Bostrom und Milan M. Ćirković, ISBN 978-0-19-857050-9
- 2009 - Human Enhancement, herausgegeben von Bostrom und Julian Savulescu, ISBN 0-19-929972-2
- 2014 - Superintelligenz: Paths, Dangers, Strategies, ISBN 978-0-19-967811-2
- 2024 - Deep Utopia: Life and Meaning in a Solved World, ISBN 978-1646871643
- Bostrom, Nick (1998). "How Long Before Superintelligence?". Journal of Future Studies. 2.
- — (Januar 2000). "Observer-relative chances in anthropic reasoning?". Erkenntnis. 52 (1): 93–108. doi:10.1023/A:1005551304409. JSTOR 20012969. S2CID 140474848.
- — (Oktober 2001). "The Meta-Newcomb Problem". Analysis. 61 (4): 309–310. doi:10.1111/1467-8284.00310. JSTOR 3329010.
- — (März 2002). "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". Journal of Evolution and Technology. 9 (1).
- — (April 2003). "Are You Living in a Computer Simulation?" (PDF). Philosophical Quarterly. 53 (211): 243–255. doi:10.1111/1467-9213.00309. JSTOR 3542867.
- — (2003). "The Mysteries of Self-Locating Belief and Anthropic Reasoning" (PDF). Harvard Review of Philosophy. 11 (Spring): 59–74. doi:10.5840/harvardreview20031114.
- — (November 2003). "Astronomical Waste: The Opportunity Cost of Delayed Technological Development". Utilitas. 15 (3): 308–314. CiteSeerX 10.1.1.429.2849. doi:10.1017/S0953820800004076. S2CID 15860897.
- — (Juni 2005). "In Defense of Posthuman Dignity". Bioethics. 19 (3): 202–214. doi:10.1111/j.1467-8519.2005.00437.x. PMID 16167401.
- with Tegmark, Max (Dezember 2005). "How Unlikely is a Doomsday Catastrophe?". Nature. 438 (7069): 754. arXiv:astro-ph/0512204. Bibcode:2005Natur.438..754T. doi:10.1038/438754a. PMID 16341005. S2CID 4390013.
- — (2006). "What is a Singleton?". Linguistic and Philosophical Investigations. 5 (2): 48–54.
- with Ord, Toby (Juli 2006). "The Reversal Test: Eliminating Status Quo Bias in Applied Ethics" (PDF). Ethics. 116 (4): 656–680. doi:10.1086/505233. PMID 17039628. S2CID 12861892.
- with Sandberg, Anders (Dezember 2006). "Converging Cognitive Enhancements" (PDF). Annals of the New York Academy of Sciences. 1093 (1): 201–207. Bibcode:2006NYASA1093..201S. CiteSeerX 10.1.1.328.3853. doi:10.1196/annals.1382.015. PMID 17312260. S2CID 10135931.
- — (Januar 2008). "Drugs can be used to treat more than disease" (PDF). Nature. 452 (7178): 520. Bibcode:2008Natur.451..520B. doi:10.1038/451520b. PMID 18235476. S2CID 4426990.
- — (2008). "The doomsday argument". Think. 6 (17–18): 23–28. doi:10.1017/S1477175600002943. S2CID 171035249.
- — (2008). "Where Are They? Why I hope the search for extraterrestrial life finds nothing" (PDF). Technology Review (May/June): 72–77.
- Bostrom, Nick (2008). "Letter from Utopia". Studies in Ethics, Law, and Technology. 2 (1). doi:10.2202/1941-6008.1025.
- with Sandberg, Anders (September 2009). "Cognitive Enhancement: Methods, Ethics, Regulatory Challenges" (PDF). Science and Engineering Ethics. 15 (3): 311–341. CiteSeerX 10.1.1.143.4686. doi:10.1007/s11948-009-9142-5. PMID 19543814. S2CID 6846531.
- — (2009). "Pascal's Mugging" (PDF). Analysis. 69 (3): 443–445. doi:10.1093/analys/anp062. JSTOR 40607655.
- with Ćirković, Milan; Sandberg, Anders (2010). "Anthropic Shadow: Observation Selection Effects and Human Extinction Risks" (PDF). Risk Analysis. 30 (10): 1495–1506. Bibcode:2010RiskA..30.1495C. doi:10.1111/j.1539-6924.2010.01460.x. PMID 20626690. S2CID 6485564.
- — (2011). "Information Hazards: A Typology of Potential Harms from Knowledge" (PDF). Review of Contemporary Philosophy. 10: 44–79. ProQuest 920893069.
- Bostrom, Nick (2011). "THE ETHICS OF ARTIFICIAL INTELLIGENCE" (PDF). Cambridge Handbook of Artificial Intelligence. Archived from the original (PDF) on 4 März 2016. Retrieved 13 Februar 2017.
- Bostrom, Nick (2011). "Infinite Ethics" (PDF). Analysis and Metaphysics. 10: 9–59.
- — (Mai 2012). "The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents" (PDF). Minds and Machines. 22 (2): 71–84. doi:10.1007/s11023-012-9281-3. S2CID 7445963.
- with Armstrong, Stuart; Sandberg, Anders (November 2012). "Thinking Inside the Box: Controlling and Using Oracle AI" (PDF). Minds and Machines. 22 (4): 299–324. CiteSeerX 10.1.1.396.799. doi:10.1007/s11023-012-9282-2. S2CID 9464769.
- — (Februar 2013). "Existential Risk Reduction as Global Priority". Global Policy. 4 (3): 15–31. doi:10.1111/1758-5899.12002.
- with Shulman, Carl (Februar 2014). "Embryo Selection for Cognitive Enhancement: Curiosity or Game-changer?" (PDF). Global Policy. 5 (1): 85–92. CiteSeerX 10.1.1.428.8837. doi:10.1111/1758-5899.12123.
- with Muehlhauser, Luke (2014). "Why we need friendly AI" (PDF). Think. 13 (36): 41–47. doi:10.1017/S1477175613000316. S2CID 143657841.
- Bostrom, Nick (September 2019). "The Vulnerable World Hypothesis". Global Policy. 10 (4): 455–476. doi:10.1111/1758-5899.12718.
Persönliches Leben
Bostrom lernte seine Frau Susan im Jahr 2002 kennen. Ab 2015 lebte sie in Montreal und Bostrom in Oxford. Sie haben einen Sohn.
Siehe auch
- Weltuntergangsargument
- Traum-Argument
- Effektiver Altruismus
- Pascalscher Überfall

- Pages with short description
- Articles with short description
- Short description with empty Wikidata description
- Use dmy dates from November 2021
- Articles with invalid date parameter in template
- Articles without Wikidata item
- Articles with hCards
- Articles containing Swedish-language text
- Pages using Lang-xx templates
- Commons category link is defined as the pagename
- Official website not in Wikidata