Nick Bostrom

Nick Bostrom
Date personale
Nume la naștereNiklas Boström Modificați la Wikidata
Născut (51 de ani)[1] Modificați la Wikidata
Helsingborg, Suedia Modificați la Wikidata
Cetățenie Suedia Modificați la Wikidata
Ocupațiefilozof
cadru didactic universitar[*] Modificați la Wikidata
Limbi vorbitelimba engleză[2][3]
limba suedeză[3] Modificați la Wikidata
Activitate
Alma materȘcoala de Economie și Științe Politice din Londra
King's College
Universitatea din Göteborg[*]  Modificați la Wikidata
OrganizațieUniversitatea Oxford  Modificați la Wikidata
Prezență online
site web oficial
Modifică date / text Consultați documentația formatului

Nick Bostrom (în suedeză Niklas Boström; n. , Helsingborg, Suedia) este un filosof suedez de la Universitatea din Oxford,[4] cunoscut pentru lucrările sale despre riscurile existențiale, principiul antropic, etica îmbunătățirii umane, riscurile superinteligenței și testul inversării. În 2011 a fondat Programul Oxford Martin privind impactul tehnologiei viitoare[5] și este directorul fondator al Institutului Viitorul Umanității (Future of Humanity Institute) de la Universitatea Oxford.[6] În 2009 și 2015, el a fost inclus în lista Top 100 de gânditori a publicației americane Foreign Policy.[7][8]

Bostrom este autorul a peste 200 de publicații[9] și a scris două cărți și a coeditat alte două. Cele două cărți pe care le-a scris sunt Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002)[10] și Superinteligența. Căi, pericole, strategii (2014).[11] A doua carte a fost un bestseller New York Times, a fost recomandată de Elon Musk și Bill Gates, printre alții, și a ajutat la popularizarea termenului de „superinteligență”.

Bostrom consideră că superinteligența, pe care el o definește drept „orice intelect care depășește cu mult performanța cognitivă a oamenilor în practic toate domeniile de interes”, este un rezultat posibil al progreselor înregistrate în inteligența artificială. El consideră ascensiunea superinteligenței ca fiind potențial extrem de periculoasă pentru oameni, dar, totuși, respinge ideea că oamenii ar fi neputincioși în oprirea efectelor negative ale acesteia.[12][13][sursa nu confirmă] În 2017 a cosemnat o listă de 23 de principii pe care ar trebui să le urmeze toți dezvoltatorii de inteligență artificială.[14]

Lucrări scrise

Superintelligence
  • 2002 – Anthropic Bias: Observation Selection Effects in Science and Philosophy, ISBN: 0-415-93858-9
  • 2008 – Global Catastrophic Risks, editori Bostrom și Milan M. Ćirković, ISBN: 978-0-19-857050-9
  • 2009 – Human Enhancement, editori Bostrom și Julian Săvulescu, ISBN: 0-19-929972-2
  • 2014 – Superintelligence: Paths, Dangers, Strategies, ISBN: 978-0-19-967811-2

În cartea sa Superintelligence: Paths, Dangers, Strategies, Nick Bostrom oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scop, o IA suficient de inteligentă va prezenta un comportament convergent⁠(d), respectiv va acumula resurse și se va proteja de la oprire. Dacă scopurile IA nu le reflectă pe cele ale umanității — de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil — ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, totul pentru a-și atinge mai bine scopul.

Note

  1. ^ a b Who's who 
  2. ^ IdRef, accesat în  
  3. ^ a b CONOR[*][[CONOR (authority control file for author and corporate names in Slovene system COBISS)|​]]  Verificați valoarea |titlelink= (ajutor)
  4. ^ „nickbostrom.com”. Nickbostrom.com. Arhivat din original la . Accesat în . 
  5. ^ „Professor Nick Bostrom : People”. Oxford Martin School. Arhivat din original la . Accesat în . 
  6. ^ „Future of Humanity Institute – University of Oxford”. Fhi.ox.ac.uk. Accesat în . 
  7. ^ Frankel, Rebecca. „The FP Top 100 Global Thinkers”. Foreign Policy. Accesat în . 
  8. ^ „Nick Bostrom: For sounding the alarm on our future computer overlords”. foreignpolicy.com. Foreign Policy magazine. Accesat în . 
  9. ^ Eroare la citare: Etichetă <ref> invalidă; niciun text nu a fost furnizat pentru referințele numite ft-control
  10. ^ „Nick Bostrom on artificial intelligence”. Oxford University Press. . Accesat în . 
  11. ^ Times, The New York (). „Best Selling Science Books”. The New York Times. Accesat în . 
  12. ^ „Bill Gates Is Worried About the Rise of the Machines”. The Fiscal Times. Accesat în . 
  13. ^ Bratton, Benjamin H. (). „Outing A.I.: Beyond the Turing Test”. The New York Times. Accesat în . 
  14. ^ Eroare la citare: Etichetă <ref> invalidă; niciun text nu a fost furnizat pentru referințele numite hassabis worries

Legături externe

Commons
Commons
Wikimedia Commons conține materiale multimedia legate de Nick Bostrom
  • Nick Bostrom home page
  • Superintelligence: Paths, Dangers, Strategies
  • Bostrom's Anthropic Principle website, containing information about the anthropic principle and the Doomsday argument.
  • Online copy of book, "Anthropic Bias: Observation Selection Effects in Science and Philosophy" (HTML, PDF)
  • Bostrom's Simulation Argument website
  • Bostrom's Existential Risk website
  • Nick Bostrom la Internet Movie Database
  • Format:Triangulation
  • Format:TED speaker
  • The 10 gatekeepers of humanity against the risks of AI Arhivat în , la Wayback Machine., Hot Topics 2015
  • The A.I. anxiety The Washington Post, December 27, 2015.

Vezi și


v  d  m
Risc existențial cauzat de inteligența artificială
Concepte
Organizații
  • Allen Institute for AI
  • Center for Applied Rationality
  • Center for Human-Compatible Artificial Intelligence
  • Centre for the Study of Existential Risk
  • DeepMind
  • Foundational Questions Institute
  • Future of Humanity Institute
  • Future of Life Institute
  • Humanity+
  • Institute for Ethics and Emerging Technologies
  • Leverhulme Centre for the Future of Intelligence
  • Machine Intelligence Research Institute
  • OpenAI
Persoane
Alte articole
Control de autoritate