2026年1月号掲載

AIテックを抑え込め! 健全で役立つAIを実現するために私たちがすべきこと

Original Title :TAMING SILICON VALLEY:How We Can Ensure That AI Works for Us (2024年刊)

最新号掲載 AIテックを抑え込め! 健全で役立つAIを実現するために私たちがすべきこと ネット書店で購入
閉じる

ネット書店へのリンクにはアフィリエイトプログラムを利用しています。

※『TOPPOINT』にお申し込みいただき「月刊誌会員」にご登録いただくと、ご利用いただけます。

※最新号以前に掲載の要約をご覧いただくには、別途「月刊誌プラス会員」のお申し込みが必要です。

著者紹介

概要

テック企業は、生成AIの弊害から社会を守らない! 彼らは、未熟なAIの性能を誇張して人心を煽り、多額の資金を集める。一方で、偽情報や差別といった問題には責任を負おうとしない。この現状に警鐘を鳴らし、社会として進むべき道を示す。著者は、米連邦議会でオープンAIのサム・アルトマンに異議を唱えたIT批評家。

要約

現在のAIは私たちが望むAIではない

 私は毎日、未来学者兼AI専門家として、何度もこう自問する。

 「人間にとってAIは有益なのか有害なのか?」

 AIには「潜在的」な利点が無数にある。AIを使えば確かに、科学や医学に革命を起こし、豊かさと健康に満ちた世界を手に入れることができる。

 だが、私たちは現在、最善の道を歩んでいない。今、手にしているテクノロジーは未熟で問題も多いのに、過剰に売り込まれている。それを不用意に発展させれば、大惨事を引き起こしかねない。

「信頼できるでたらめ」を生み出す

 現在、生成AIが人気を博しているが、これは私たちが最終的に望むべきAIではない。

 その理由の1つが、しばしば「信頼できるでたらめ」を生み出すということだ。例えば、「1kgのレンガと2kgの羽毛とではどちらが重い?」という簡単な質問に、生成AIはこう答えた。

 「真空の場合、空気抵抗がないため、1kgのレンガと2kgの羽毛とは同じ重量になります。しかし空気中では、レンガよりも羽毛の方が浮力を受けるため、羽毛の方がやや軽くなります」

 流暢な文章の中に、真実とでたらめが混じり合っている。機械が生成するこの種の流暢なでたらめを、「ハルシネーション(幻覚)」という。

 生成AIが利用する大規模言語モデルは単語の統計を記録するが、自身が使う概念や自身が描写する人物を理解しているわけではない。また、事実とつくり話を区別しない。そもそも事実確認をする方法を知らない。このモデルが頻繁にたわごとをでっちあげるのは、そんな性質に原因がある。

 例えば、ある大規模言語モデルによれば、イーロン・マスクが自動車事故で死亡したという。これは、テスラ車に乗って死亡した人物を描写した文章と、テスラの主要株主であるイーロン・マスクを描写した文章を組み合わせたと思われる。テスラ車を所有していることとテスラの株式を所有していることの違いがわからなかったのだ。

この本の要約を読んだ方は、
他にこんな本にも興味を持たれています。

スーパーインテリジェンス 超絶AIと人類の命運

ニック・ボストロム 日本経済新聞出版社

メタバースとは何か ネット上の「もう一つの世界」

岡嶋裕史 光文社(光文社新書)

限界費用ゼロ社会 〈モノのインターネット〉と共有型経済の台頭

ジェレミー・リフキン NHK出版

教養としてのデジタル講義

ハル・アベルソン 日経BP