ようこそ!
出版社名:早川書房
出版年月:2026年4月
ISBN:978-4-15-210513-4
283P 20cm
超知能AIをつくれば人類は絶滅する
エリーザー・ユドコウスキー/著 ネイト・ソアレス/著 櫻井祐子/訳
組合員価格 税込 2,376
(通常価格 税込 2,640円)
割引率 10%
在庫あり
生協宅配にてお届け
※ゴールデンウィーク前後は商品のお届けが通常より遅れる場合がございます。
内容紹介・もくじなど
内容紹介:現在開発が進む「大規模推論モデル」の先に訪れる衝撃の未来ーー人間の知能を超えたAIが、私たちを「皆殺し」にする可能性はきわめて高い。なぜ、そしてどのように? ピーター・ティールやサム・アルトマンに多大な影響を与えた著者による全世界騒然の書!
どこの企業や国家によってであれ、ヒトの知能を凌駕する「超知能AI」がつくられたら、地球上のすべての人間が必ず死ぬ。LLM(大規模言語モデル)がより高度な「大規模推論モデル」へと進化しつつあるいま、その時は確実に近づいている―。本書が提示するシナリオでは、数学の未解決問題を解くために開発されたAI「セイブル」がウイルスをばら撒き、全人類の10%を死…(続く
内容紹介:現在開発が進む「大規模推論モデル」の先に訪れる衝撃の未来ーー人間の知能を超えたAIが、私たちを「皆殺し」にする可能性はきわめて高い。なぜ、そしてどのように? ピーター・ティールやサム・アルトマンに多大な影響を与えた著者による全世界騒然の書!
どこの企業や国家によってであれ、ヒトの知能を凌駕する「超知能AI」がつくられたら、地球上のすべての人間が必ず死ぬ。LLM(大規模言語モデル)がより高度な「大規模推論モデル」へと進化しつつあるいま、その時は確実に近づいている―。本書が提示するシナリオでは、数学の未解決問題を解くために開発されたAI「セイブル」がウイルスをばら撒き、全人類の10%を死滅させる。そして残りの90%も一瞬で…。一体なぜ?最悪の結末を回避するために、私たちにできることとは?AI技術を核兵器などと同様の「人類絶滅リスク」として取り扱うべきという議論が近年なされるが、著者のエリーザー・ユドコウスキーはその源流にして極北に位置する。ピーター・ティールが多額を出資し、またサム・アルトマンにOpenAI創業の示唆を与えるも、いまや彼らと反目にいたった天才が圧倒的な練度で放つ、現代の黙示録。
もくじ情報:序章 困難な予測と容易な予測;第1部 非人間的な知性(人間の特殊能力;つくられるのではなく育てられる;欲することを学ぶ;訓練したとおりの結果は得られない;AIのお気に入り;人類は敗北する);第2部 ある絶滅シナリオ(危険な認識;拡張;登頂;結末);第3部 困難に立ち向かう(呪われた問題;科学ではなく錬金術;「不安を煽りたくはない」;停止せよ;生きている限り希望はある)
著者プロフィール
ユドコウスキー,エリーザー(ユドコウスキー,エリーザー)
1979年生まれ。機械知能研究所(MIRI)の創設者。人工知能を人間の意図や価値観に整合させる「AIアライメント」研究の草分け的存在であり、「フレンドリーAI」概念の提唱などで知られる。高校や大学に通わず独力で学び、2000年、MIRIの前身となる「AIのためのシンギュラリティ研究所」を創設(2013年に改称)。当初は人間の知能を超えるAIの実現を目指すが、まもなくそのリスクの重大さを認識するようになる。2006年から2012年にかけてピーター・ティール、レイ・カーツワイルとともに「シンギュラリティサミット」を主催。人間の合理性やAIの…(続く
ユドコウスキー,エリーザー(ユドコウスキー,エリーザー)
1979年生まれ。機械知能研究所(MIRI)の創設者。人工知能を人間の意図や価値観に整合させる「AIアライメント」研究の草分け的存在であり、「フレンドリーAI」概念の提唱などで知られる。高校や大学に通わず独力で学び、2000年、MIRIの前身となる「AIのためのシンギュラリティ研究所」を創設(2013年に改称)。当初は人間の知能を超えるAIの実現を目指すが、まもなくそのリスクの重大さを認識するようになる。2006年から2012年にかけてピーター・ティール、レイ・カーツワイルとともに「シンギュラリティサミット」を主催。人間の合理性やAIの安全性を主要なトピックとするオンラインフォーラムLess Wrongを2009年に設立。2010年から2015年にかけて発表した「ハリー・ポッターと合理主義の方法」は異色のファン・フィクションとして絶大な人気を誇る。2023年、タイム誌「AI分野で最も影響力のある100人」に選出