ようこそ!
マイページ
ご利用ガイド
組合員情報の変更
メールアドレスの変更
ログイン
サイトトップ
e
フレンズトップ
すべて
本
雑誌
CD
DVD・Blu-ray
クリア
本 こだわり検索
書名
著者名
商品説明
出版社名
出版年月
―
2027
2026
2025
2024
2023
2022
2021
2020
2019
2018
2017
2016
2015
2014
2013
2012
2011
2010
2009
2008
2007
2006
2005
2004
2003
2002
2001
2000
1999
1998
1997
1996
1995
1994
1993
1992
1991
1990
1989
1988
1987
1986
1985
1984
1983
1982
年
―
1
2
3
4
5
6
7
8
9
10
11
12
月
以前
のみ
以降
ジャンル
選択してください
文庫
新書・選書
文芸
教養
人文
教育
芸術
児童
趣味
生活
地図・ガイド
就職・資格
語学
小学学参
中学学参
高校学参
辞典
コミック
ゲーム攻略本
エンターテイメント
日記手帳
社会
法律
経済
経営
ビジネス
理学
工学
コンピュータ
医学
看護学
薬学
ISBNコード
予約商品を表示しない
検索
クリア
本 >
教養
>
ノンフィクション
>
科学
出版社名:早川書房
出版年月:2026年4月
ISBN:978-4-15-210513-4
283P 20cm
超知能AIをつくれば人類は絶滅する
エリーザー・ユドコウスキー/著 ネイト・ソアレス/著 櫻井祐子/訳
組合員価格 税込
2,376
円
(通常価格 税込 2,640円)
割引率 10%
在庫あり
生協宅配にてお届け
※ゴールデンウィーク前後は商品のお届けが通常より遅れる場合がございます。
内容紹介・もくじなど
内容紹介:現在開発が進む「大規模推論モデル」の先に訪れる衝撃の未来ーー人間の知能を超えたAIが、私たちを「皆殺し」にする可能性はきわめて高い。なぜ、そしてどのように? ピーター・ティールやサム・アルトマンに多大な影響を与えた著者による全世界騒然の書!
どこの企業や国家によってであれ、ヒトの知能を凌駕する「超知能AI」がつくられたら、地球上のすべての人間が必ず死ぬ。LLM(大規模言語モデル)がより高度な「大規模推論モデル」へと進化しつつあるいま、その時は確実に近づいている―。本書が提示するシナリオでは、数学の未解決問題を解くために開発されたAI「セイブル」がウイルスをばら撒き、全人類の10%を死…(
続く
)
内容紹介:現在開発が進む「大規模推論モデル」の先に訪れる衝撃の未来ーー人間の知能を超えたAIが、私たちを「皆殺し」にする可能性はきわめて高い。なぜ、そしてどのように? ピーター・ティールやサム・アルトマンに多大な影響を与えた著者による全世界騒然の書!
どこの企業や国家によってであれ、ヒトの知能を凌駕する「超知能AI」がつくられたら、地球上のすべての人間が必ず死ぬ。LLM(大規模言語モデル)がより高度な「大規模推論モデル」へと進化しつつあるいま、その時は確実に近づいている―。本書が提示するシナリオでは、数学の未解決問題を解くために開発されたAI「セイブル」がウイルスをばら撒き、全人類の10%を死滅させる。そして残りの90%も一瞬で…。一体なぜ?最悪の結末を回避するために、私たちにできることとは?AI技術を核兵器などと同様の「人類絶滅リスク」として取り扱うべきという議論が近年なされるが、著者のエリーザー・ユドコウスキーはその源流にして極北に位置する。ピーター・ティールが多額を出資し、またサム・アルトマンにOpenAI創業の示唆を与えるも、いまや彼らと反目にいたった天才が圧倒的な練度で放つ、現代の黙示録。
もくじ情報:序章 困難な予測と容易な予測;第1部 非人間的な知性(人間の特殊能力;つくられるのではなく育てられる;欲することを学ぶ;訓練したとおりの結果は得られない;AIのお気に入り;人類は敗北する);第2部 ある絶滅シナリオ(危険な認識;拡張;登頂;結末);第3部 困難に立ち向かう(呪われた問題;科学ではなく錬金術;「不安を煽りたくはない」;停止せよ;生きている限り希望はある)
著者プロフィール
ユドコウスキー,エリーザー(ユドコウスキー,エリーザー)
1979年生まれ。機械知能研究所(MIRI)の創設者。人工知能を人間の意図や価値観に整合させる「AIアライメント」研究の草分け的存在であり、「フレンドリーAI」概念の提唱などで知られる。高校や大学に通わず独力で学び、2000年、MIRIの前身となる「AIのためのシンギュラリティ研究所」を創設(2013年に改称)。当初は人間の知能を超えるAIの実現を目指すが、まもなくそのリスクの重大さを認識するようになる。2006年から2012年にかけてピーター・ティール、レイ・カーツワイルとともに「シンギュラリティサミット」を主催。人間の合理性やAIの…(
続く
)
ユドコウスキー,エリーザー(ユドコウスキー,エリーザー)
1979年生まれ。機械知能研究所(MIRI)の創設者。人工知能を人間の意図や価値観に整合させる「AIアライメント」研究の草分け的存在であり、「フレンドリーAI」概念の提唱などで知られる。高校や大学に通わず独力で学び、2000年、MIRIの前身となる「AIのためのシンギュラリティ研究所」を創設(2013年に改称)。当初は人間の知能を超えるAIの実現を目指すが、まもなくそのリスクの重大さを認識するようになる。2006年から2012年にかけてピーター・ティール、レイ・カーツワイルとともに「シンギュラリティサミット」を主催。人間の合理性やAIの安全性を主要なトピックとするオンラインフォーラムLess Wrongを2009年に設立。2010年から2015年にかけて発表した「ハリー・ポッターと合理主義の方法」は異色のファン・フィクションとして絶大な人気を誇る。2023年、タイム誌「AI分野で最も影響力のある100人」に選出
どこの企業や国家によってであれ、ヒトの知能を凌駕する「超知能AI」がつくられたら、地球上のすべての人間が必ず死ぬ。LLM(大規模言語モデル)がより高度な「大規模推論モデル」へと進化しつつあるいま、その時は確実に近づいている―。本書が提示するシナリオでは、数学の未解決問題を解くために開発されたAI「セイブル」がウイルスをばら撒き、全人類の10%を死…(続く)
どこの企業や国家によってであれ、ヒトの知能を凌駕する「超知能AI」がつくられたら、地球上のすべての人間が必ず死ぬ。LLM(大規模言語モデル)がより高度な「大規模推論モデル」へと進化しつつあるいま、その時は確実に近づいている―。本書が提示するシナリオでは、数学の未解決問題を解くために開発されたAI「セイブル」がウイルスをばら撒き、全人類の10%を死滅させる。そして残りの90%も一瞬で…。一体なぜ?最悪の結末を回避するために、私たちにできることとは?AI技術を核兵器などと同様の「人類絶滅リスク」として取り扱うべきという議論が近年なされるが、著者のエリーザー・ユドコウスキーはその源流にして極北に位置する。ピーター・ティールが多額を出資し、またサム・アルトマンにOpenAI創業の示唆を与えるも、いまや彼らと反目にいたった天才が圧倒的な練度で放つ、現代の黙示録。
もくじ情報:序章 困難な予測と容易な予測;第1部 非人間的な知性(人間の特殊能力;つくられるのではなく育てられる;欲することを学ぶ;訓練したとおりの結果は得られない;AIのお気に入り;人類は敗北する);第2部 ある絶滅シナリオ(危険な認識;拡張;登頂;結末);第3部 困難に立ち向かう(呪われた問題;科学ではなく錬金術;「不安を煽りたくはない」;停止せよ;生きている限り希望はある)