2026年1月号掲載
AIテックを抑え込め! 健全で役立つAIを実現するために私たちがすべきこと
Original Title :TAMING SILICON VALLEY:How We Can Ensure That AI Works for Us (2024年刊)
著者紹介
概要
テック企業は、生成AIの弊害から社会を守らない! 彼らは、未熟なAIの性能を誇張して人心を煽り、多額の資金を集める。一方で、偽情報や差別といった問題には責任を負おうとしない。この現状に警鐘を鳴らし、社会として進むべき道を示す。著者は、米連邦議会でオープンAIのサム・アルトマンに異議を唱えたIT批評家。
要約
現在のAIは私たちが望むAIではない
私は毎日、未来学者兼AI専門家として、何度もこう自問する。
「人間にとってAIは有益なのか有害なのか?」
AIには「潜在的」な利点が無数にある。AIを使えば確かに、科学や医学に革命を起こし、豊かさと健康に満ちた世界を手に入れることができる。
だが、私たちは現在、最善の道を歩んでいない。今、手にしているテクノロジーは未熟で問題も多いのに、過剰に売り込まれている。それを不用意に発展させれば、大惨事を引き起こしかねない。
「信頼できるでたらめ」を生み出す
現在、生成AIが人気を博しているが、これは私たちが最終的に望むべきAIではない。
その理由の1つが、しばしば「信頼できるでたらめ」を生み出すということだ。例えば、「1kgのレンガと2kgの羽毛とではどちらが重い?」という簡単な質問に、生成AIはこう答えた。
「真空の場合、空気抵抗がないため、1kgのレンガと2kgの羽毛とは同じ重量になります。しかし空気中では、レンガよりも羽毛の方が浮力を受けるため、羽毛の方がやや軽くなります」
流暢な文章の中に、真実とでたらめが混じり合っている。機械が生成するこの種の流暢なでたらめを、「ハルシネーション(幻覚)」という。
どうしてこうなるのか?
生成AIが利用する大規模言語モデルは単語の統計を記録するが、自身が使う概念や自身が描写する人物を理解しているわけではない。また、事実とつくり話を区別しない。そもそも事実確認をする方法を知らない。このモデルが頻繁にたわごとをでっちあげるのは、そんな性質に原因がある。
例えば、ある大規模言語モデルによれば、イーロン・マスクが自動車事故で死亡したという。これは、テスラ車に乗って死亡した人物を描写した文章と、テスラの主要株主であるイーロン・マスクを描写した文章を組み合わせたと思われる。テスラ車を所有していることとテスラの株式を所有していることの違いがわからなかったのだ。