ポストコロナ社会コンソーシアム
・リサーチマップ
・大人のためのゼミ
・異分野融合研究会
・四大学学生による3つの提言
・第1回キックオフシンポジウムのご案内
・四大学連合ポストコロナ研究コンソーシアム覚書
・プレスリリース
リレートーク"生成AI"
企画内容
四大学連合ポストコロナ社会コンソーシアムでは、2020-2022年にかけて様々な学際的な研究ワークショップや連携教育活動等を行って参りました。2023年度は、コロナ禍で加速した社会のデジタル化を受け急速に台頭しつつある生成AIについて考えるリレートークを実施いたします。
この企画では四大学の研究者と学生が、生成AIについて研究分野ごとの観点や今を生きる生活者の視点で自由に議論します。議論の内容は当ウェブサイトで随時公開します。
一連の活動を通じて、異なる組織・異なる専門性の研究者が自由に議論できる土壌をはぐくみ、四大学ならではの自由で緩やかな連携の在り方を社会に発信して参ります。
リレーは、研究者で繋ぐ流れと学生同士で繋ぐ流れの二本立てで進みます。
各回のトークにはテーマを設定しました。それぞれの回の終わりに、次のゲストへの質問を考案し、バトンを繋いでいきます。
研究者と学生、最初は同じテーマから始まる二つのリレートークは、果たしてどのような流れを辿るでしょうか?
※本企画で使用しているイラストは、生成AIを使用して生成したものです。
リレートーク
生成AIリレートーク総括ワークショップ
2023年10月から半年にわたり“生成AI”について研究者と学生によるリレートークを実施しました。リレートークの振り返りとして2024年3月28日、東京工業大学大岡山キャンパスにて「生成AIリレートーク総括ワークショップ」を開催しました。
このワークショップでは、リレートークに参加した研究者と学生の23名が生成AIについて自由に議論を行うことにより、多角的な視点から生成AIに関する深い理解を目指しました。
AIリレートークで関心を集めたトピック
ワークショップでは、これまでのリレートークの内容を振り返り、議論された約30個のトピックから、参加者それぞれが関心を持ったテーマのカードにシールを貼りました。23名の参加者は、思い思いに「興味がある」「共感した」「気づかなかった視点」で色分けされたインタレストを示すシールを張り付けて行きます。
参加者のインタレストを多く集めたテーマは次の8つです。(議論の詳細はぜひ過去記事を御覧ください)
- AIは個体差を集めて集合知を形成する(多様性が失われる)
- 勝者と敗者-AIが公平性の不均衡を加速させる
- 検索結果の品質低下が問題になっている
- 仕事の有無と幸福感は密接に関係している
- 人間特有の「解釈」が重要になる
- 誰もが使いやすいAIの開発が社会の調和を促進する
- AI規制に関する、環境問題との類似した構図
- 現実世界と相互作用するAIの実現までに10年以上かかる
グループ・ディスカッション
次に、参加者にインタレストの多かった4つのテーマから議論したいテーマを選んでもらい、グループ・ディスカッションを2周行いました。
グループ・ディスカッションでは、参加者の自己紹介とともにリレートークの感想を共有し、四大学で話し合うと良いテーマをそれぞれ付箋に記入してもらいました。
付箋をもとにテーマについて議論を深めていきます。
「AIは個体差を集めて集合知を形成する」というテーマでは、多様性が損なわれることによって人間全体の集合知が増えるのか、英語だけで開発することの問題点などが議論されました。
【ワークショップで出た意見】
- 格差はなくなる 結果はある程度のクオリティがある
- 概念の多様性が失われる
- AI以上の価値を人間が出すために何が必要か?
また、「勝者と敗者-AIが公平性の不均衡を加速させる」ではAIが軍事利用され、戦争の不公平な状況を加速していること等が議論されました。
【ワークショップで出た意見】
- AIにも地政学的な面がある
- 四大学でニッチなAI活用やAI倫理について議論してはどうか
各グループでの議論の後、内容を全体へ発表しました。
学生さんの発表に対して四大学の研究者から質疑が盛んに飛び交うと、一連のやり取りの後には盛大な拍手が巻き起こりました。
参加者の声
――普段接することの無い分野の研究者同士で、利害にとらわれず一つのテーマについてじっくり議論できることがとても面白かった。
――他大学の学生や第一線の研究者と議論することができて、貴重な機会だった。帰りには東工大キャンパスを案内してもらい、楽しいひと時を過ごすことができた。
――四大学でこうした対話を続けることが重要だと思う。今後も、文系理系に捉われず、共通のテーマについて議論する場があると良い。
ワークショップの最後に、生成AIリレートークを振り返って参加者それぞれの「生成AIってどんなヤツ?」をイラストやテキストで表現してもらいました。
今後に向けて
東工大が中心となって企画運営を行ってきた「生成AIリレートーク」は2024年度で終了となり、2025年度は一橋大学が新たな企画を運営していきます。
今後の四大学の展開にどうぞご期待ください。
(総括WSの記事に使用した写真は生成AIを使用していません。2024.3.31)
(研究者版)第6回 一橋大学×東京工業大学
「生成AIと人の共創–クリエイティビティとフェイクニュース」
小町 守(一橋大学 ソーシャル・データサイエンス研究科 教授)
笹原 和俊(東京工業大学 環境・社会理工学院 イノベーション科学系 准教授)
2024年3月6日
左から笹原先生(東京工業大学)、小町先生(一橋大学)
小町(一橋大学 教授) 本日はよろしくお願いいたします。一橋大学ソーシャル・データサイエンス研究科の小町です。
(2023年)4月に一橋に着任しまして、その前は都立大のシステムデザイン学部におりました。元々は文系で哲学科にいたのですが、言語学をやっているうちに、コンピュータを使った解析に興味を持ち、情報分野に飛び込みました。
大学院からは自然言語処理、計算言語学の分野で研究を続けています。特にここ10年くらいは言語教育への応用や機械翻訳に関心を持って取り組んでいます。
最近では、生成AIの研究も行っており、GPTを使った研究をしています。よろしくお願いいたします。
笹原 和俊(東京工業大学 准教授) 今日はありがとうございます。東京工業大学の笹原です。私は元々は物理学を専攻していて、博士課程では人工生命の研究をしていました。名古屋大に着任してから計算社会科学という分野の研究を始め、東工大に来てからは本格的にこの分野の研究に取り組んでいます。主にビッグデータと計算モデルを使った社会科学の研究をしています。
生成AIに関しては、フェイクニュースやディープフェイクなど、AIが悪用される観点での研究が多かったのですが、実際に使ってみると、非常に高いクリエイティビティを刺激するツールだと感じています。エージェントとしてのAIという考え方もありますね。今日はそういった観点の議論もできたら楽しいなと思っています。よろしくお願いいたします。
小町 ありがとうございます。実は去年(2023年)、「さきがけ」(JST研究開発事業)に採択されまして、自然言語処理の技術を社会科学に応用するプロジェクトに携わっていることもあって、計算社会科学にはますます関心を持っています。
笹原 そうなんですね。僕は「さきがけ」では社会基盤に関するテーマに取り組んでいました。社会の分断が一つのテーマです。例えばエコーチェンバー現象のように、SNSでは「見たいもの」ばかりが表示され、繋がりたい人とだけと繋がってしまう。結果として、見聞きする情報が偏り、フェイクニュースやヘイトだらけになるというような状況を、どうやったら技術で緩和できるか考えました。その辺りは小町さんのテーマとは近いのかもしれないですね。
エンジニアリングの前提知識の変化
笹原 当時はディープラーニング(深層学習)が出てきたばかりでした。僕は大きな変化を感じていて、私が関わった「さきがけ」が始まった頃は、ディープラーニングをみんなで使おうと提案して、クラウドのGPUワークステーションをみんなで交代でちまちま使っていました(笑)。そんな時代はあっという間に終わって、今や誰でも20ドルで生成AIが使えるようになりましたね。AIが社会に浸透してきたなという印象を受けてます。
小町 そうですね。実は僕は、以前は深層学習がそんなに言語に使えると思っていませんでした。連続的に変化する画像や音声には使いやすいのですが、言語は「記号」なのでネットワークに乗らないんじゃないかと思っていたんですよ。ところが、現在自然言語処理で一般的に使われているトランスフォーマーでも使われているアテンション機構(与えられた文章から文中の「最も」重要な情報はどの単語かを判断し焦点を当てる仕組み)が2015年に登場して、深層学習を用いた自然言語処理の研究をスタートしてみたら、割と日本の中では早めに深層学習をやる研究室になったので、色々と楽しい研究ができたなと思っています。
世界的には自然言語処理ではトランスフォーマーが言語モデルの基盤になってるのですが、日本ではその受容に成功して早めに切り替えた研究室と、しばらく待ってGPTが話題になる頃にようやく切り替えた人たちとに分かれていると思うんです。新しい技術に対する感受性が分野によって違うのかもしれないのですが、日本の言語処理の人には少し保守的な人が多いように思っています。
計算社会科学分野では、日本のコミュニティと世界のコミュニティで温度差や、時間差はありますか。
笹原 世界のコミュニティと日本のは違うという話はよく聞きます。言語の壁により、日本国内で閉じていても業績になっていたも研究もありますが、これからは国際的には通用しないと思います。ただ、そのような状況は変わりつつあります。日本でも、コンピュータを用いた定量分析を得意とする若手の社会科学者が現れ始め、非構造化データを扱う能力が上がってきています。
世界の流れに日本は少し遅れてはいますが、特に政治科学などの分野ではデータが豊富にあり、大規模言語モデルを使えばテキストデータも分析できるようになりました。社会科学は非常にスリリングな時代に突入しています。
感受性が豊かな若い学生たちがドメイン知識を持って社会科学の研究を進めることで、より面白い研究ができるようになると思います。
小町 ディープラーニング以前は、巨大なネットワークの分析のためには、メモリ上での計算方法など、エンジニアリングの知識が非常に重要でした。今はどうなんでしょうか。自然言語処理では学部生でもPythonを使って簡単に分析ができるようになって来ていますが、計算社会科学の学生はどうですか。
笹原 ハードウェアを意識したプログラミングはできてないことが多いですね。C言語から入ったような人がPythonを触るのとは少し違っていて、メモリとか一切無視なので、彼らが書いてくるコードは時として動かない(笑)。そこは少し心配です。
ただ、計算社会科学ではビッグデータを扱うとはいえども、バイオの人が使ってるようなデータほど大きくはありませんから、ちょっと工夫すればメモリ管理やパラレル処理もできるんです。ですから、「何を数えるか。それがリサーチクエスチョンとリンクしているか。」が大事ですよね。
例えば特定の単語を数えるだけでも、何らかの文化現象を表すかもしれません。
小町 なるほど、非常に参考になります。
笹原 私からもお聞きしたいことがあります。トランスフォーマーが出てくる前と後で計算の仕方や考え方が変わりましたよね。バイオインスパイアード(生物が行っている計算様式から発想された)なアプローチから、とにかく大きな計算機で大きなパラメータのモデルを動かせばよい、という方向に。計算機のやり方は人間の計算様式とは違うかもしれないけど、精度が出るならOKという感じです。
そこは何か意図的にやられたことなのでしょうか?
小町 言語処理は工学分野で行われているので、基本的には結果オーライです。深層学習もニューラルネットワーク(人間の脳内にある神経細胞ニューロンの回路を模した数理モデル)ですけれども、あまり気にしていません。微分して最適化出来れば良いと。本質的には巨大な行列演算の塊ですから。
トランスフォーマーも、作った人が試して良かったからそれでいく、というノリのようです。ニューラルアーキテクチャサーチという手法を使うと最適な構造が見つかるんですけど、人間が見てもなぜそれが良いのかはよくわからないんですよね。
空を飛ぶために鳥の構造を真似する必要があるか。ロケットや飛行機の形でも飛べる。それと同様に、理解しているかどうかは別として、有用なアプリケーションをたくさん作れると思っていて、実際に世の中もそうなってきています。
AIが知識をコモディティ化し、人間は違う軸で勝負する
笹原 なるほど。ある種のファンクショナリストですよね。生物学的に妥当かどうかはさておき、便利なら使っていこうという。
その延長で、「AIが人間にとって代わるか」みたいな話がよくありますけれども、これはある意味ナンセンスだと思うんです。AIは人間とは違う形の知識を蓄えていると思うので、この方法で知識を獲得している限りAIは人間にはなり得ないと。「ある日突然、職場に行ったら私の席にAIが座ってる」とかいうことは、当面、無さそうです。なので、どうやってこの便利なものを使っていくかへ思考を変えた方がいいと思っています。
普段の使い方もそうです。知識がコモディティ化(一般化)していて、誰もがGoogle検索を使ってるのと同レベルで、ChatGPT等を使えるようになって、自分の問いに対してそれなりの答えが引き出すことができるようになるとすると、そこでは差別化ができないから、他のところ頑張らないといけません。そういう社会になるはずなんですよね。
ですから、この点に関してはそんなに悲観的にならず、むしろそれと違う軸で頑張ると勝てる世界が広がるんじゃないかという気がするのです。
その辺り小町さんはどういうふうにお考えですか。
小町 非常に同感です。日本語入力だって、かつては専門家の中にすら「日本語のような複雑なものは、コンピュータで扱えるわけがない」と主張する人がいましたが、今は幼稚園児でもタッチパネルで簡単に入れられますよね。特にChatGPTみたいな対話型のインターフェースってやっぱり使いやすい。子供でも使える。
これまでは、エンジニアが頑張ってシステムを作り込まないと使えなかったのが、要約してね、翻訳してねと1行書くだけでやってくれる。そこは「検索」とは違う「生成」の部分で、今後の仕事の仕方はすごく変わると思っています。
AIとのCo-creationという新感覚
笹原 確かに、検索のメタファーで落ちているのは、「生成」の部分ですよね。実際に自分が使っている中でも、要点をただ4行ぐらい書いて、「これを1000文字の文章にしてください」というとそれなりのものができます。それを“壁打ち”のように繰り返していくうちに、自分の中でもちゃんと理解が蓄えられていくし、AIの方も、「なるほど、こういうふうにしてほしいのね」というな、ある種その意識が高められていく。生成する部分をお互いに作っているっていうコ・クリエーション(Co-creation/共創)というのは、これまでにない感覚ですよね。
小町 確かにそうですね。特に論文を書く人は割とトップダウンに書く(論文の大構造から先に決め、そこから詳細な下部構造を作っていく)ことが多いと思うんですけど、トピックセンテンスレベルで箇条書きしたらあとはパラグラフをすぐ作れます。
逆にその、僕は元々文系出身だからボトムアップというか、前から書いているうちに「こういうこと言いたかったのかな」と思って、気分が乗っていっぱい書けるみたいなこともあるんですけど、そういう人は逆に、AIに向いていないですよね。自分で書かないと気分が乗らないのに勝手に生成されると、自分の考えが纏まらない。
そこのアイディアの発想力がある人はすごくブーストかかって、効率よくいろんなものを出せるんですけど、自分の思考を温めないと出せないような人はどんどん出せなくなっているような気がしています。
笹原 そうですね。例えば本を書いている時などに、一文字も書けない自分と向き合っている時間のことですね。「今日は、一気に書くぞ!」と思っていて、ずっとパソコンの画面と2時間睨めっこしているみたいな(笑)。その状態を克服すると一つ二つと言葉が出てきて、その繋がりの中から次のイマジネーションが湧いてくることがあります。そこを勝手に補われてしまうと、助走ができないということはあるかもしれない。
ただ、文章の種類によるっていうのはあると思います。本当に事務的なものは、もうChatGPTで良いと思うんです。なので、小学校の先生こそ、学級日誌みたいなのはもうChatGPTを使ってさっと書いて、業務を楽にしてほしいというのは、私の思いなんですが、なかなか教育の現場は取り入れてくれない・・・ということはありますね。
小町 そうですね。今度は、いかに見せるかっていうようなのを頑張らないといけないと思います。それこそ日本語入力もそうですけど、デスクトップの日本語入力は数十年ほとんど進化していないんですけど、モバイルデバイスだったらみんな予測入力で入れますよね。
ああいうふうな感じで、そのハードウェアの制約によって何ができるのか、できないのかっていうのが変わって、新しい問題がやっぱりその時々に出てきます。
ハードウェアごとに、どういうふうに指示を出したらいいのかが異なっていて、その組み合わせが新しいテクノロジーの登場に繋がっているのかなと思っています。
笹原 なるほど。確かにインターフェースは人の行動にも影響を及ぼすので、そういう可能性がありますね。
クリエイティビティの再定義
笹原ちょっと話題を変えてみます。私が先生に聞きたいなと思っていたのは、「クリエイティビティこそが人間の唯一の砦。今、そこが脅かされてるんじゃないか。」みたいな考え方についてです。
自然言語処理というのはクリエイティビティがあるのかないのか?そもそもクリエイティビティとは?みたいなことがあると思うんですけど、そこに関して小町先生のお考えをお聞きしたいです。
小町 ありがとうございます。クリエイティビティだと皆さんが思っているものの多くは、既存のものの組み合わせでしかないかもしれません。
確かに大規模データを使って言語モデルで文章を生成させてみると、確かに似たようなものばかりなんですが、そこにクリエイティブなものが出ることはあり得ると思っています。
ただ、AIから出てくる案は「尖って」いない。人間が描いた絵や書いた文章の方が、整っていないんですよね。流暢とは言えないところが実は人間らしいと人間が思うようなところに繋がるということもあります。
クリエイティビティには種類がいくつかあると思います。まずは、これまで誰も考えたことがないようなものを作りだしたり、完全に新しいパラダイムを創造するようなクリエイティビティ。これはそう簡単には出てこないでしょう。けれど、例えばデザインの世界で、生成AIでテンプレートのようなものを出力して、その組み合わせを人間が選んで完成させるような、パッケージとしてのクリエイティビティがあります。後者はとても高速かつ簡単になってきています。
笹原 僕も非常に賛成なところがありまして、クリエイティビティは一つじゃないというのは思うところです。
だからAIでいくらでもカバーできるクリエイティビティの領域はむしろどんどん広がっていくだろうなっていうのに、本当に同意します。
一瞬でパターンを作ってくれて、そのパターンに対して人間が「これが良い」というインタラクション(応答)を与える。すると、また新たなもっと人間らしいパターンが出てくる。その試行錯誤を安価で大量に繰り返すことは、イノベーションの根源になっています。ですから、それを高速に回せると間違いなく良いものが出てきて、その類のクリエイティビティは、おそらく共進化するでしょう。
一方で、「こういう概念とこういう概念は絶対に結びつかないよね。なぜならばそこは過去のデータベースに無かったから」という部分、そういう類のクリエイティビティはやっぱりAIでは出てこないのかなと思います。人間が突然変異的に思いついたものなどは、蓄積されたデータの外のことなので難しい。クリエイティビティにも種類があるという点は私も考えが一致しています。
そもそも自然言語自体、有限な数の記号列からなっているわけですが、組合せによっては無限の意味を作り出すことができるという本質があります。それを機械が真似しているのですからある程度できるのは自然ですよね。なので、アーティストの方もそれほど悲観しなくてもいいのかなと思います。
フェイクニュース――流暢なテキスト、平均的な映像を信じやすいクセ
笹原 この問題を別の側面から考えてみたいと思います。
私はフェイクニュースを研究しているのですが、GPTが書いたフェイクニュースは信じられやすいという研究があります。書かれた文章が変に尖っておらず、説明に不備が無いので、より説得されやすいのです。
これはなかなかフェイクニュースの研究者としては大変だなと思うところです。更に今後は画像や映像が伴うようになりました。大量データから学習したAIが作る画像・映像は良い意味で平均的で、より人が親和性を感じやすい傾向があって、ますます人が騙されやすい。ですから人々が共有しやすいフェイクニュースが出てきます。これが、戦争や災害に用いられると問題です。
このような実負の面もあることを知った上で、社会がどう使っていくかを考えなければいけないのかなと思います。それも間違いなくクリエイティビティの範疇だと私は思っています。
小町 その通りですね。僕が最近興味を持っているのは、文章の評価で、人間がどういう文章を良いと思っているのか、悪いと思っているのかの分析です。
人間は流暢な文章に関して高く評価しがちです。実際に人を使って、文章の誤りをきちんと訂正できるかどうかで評価をした場合に、人は流暢性が高いものに対して誤りも直っていると思いがちなのです。
これまでは、流暢な文章が自動で大量に生成できると思っていなかったから騙されなかったと思います。しかし、人間は、自動生成された文章かどうかを言わなければ、結構騙されます。
画像と音声では、人間が知覚できないような小さな違いを電子透かしとして入れることで、悪用できないように自動生成できますが、言語では人間の理解する意味を大きく変えずに自動生成することは難しいです。正しいかどうかを読む側がちゃんと判定する意識で読まないといけないけど、それはすごく負荷が高いですね。
笹原 おっしゃる通りですね。これは情報リテラシー教育にも言えますね。
目の前に不確かな情報があるときに、それがどういうコンテクストなのかを知っているかどうか、そして人間にはどういう認知的な癖やバイアスがあるかを踏まえて見るかどうかで結果は変わりますよね。不確かな情報は増大する一方なので、情報の受け手が頑張るしかありません。
認知バイアスがあると、人は理性的に見ることができません。ですから、技術をもう少し理性の方向に押し戻してあげるナッジ(自発的に望ましい行動を選択するよう促す仕掛けや手法)を入れると、理性の目で物事を評価できるようになり、フェイクニュースを見破ることができるかもしれません。
小町 そうですよね。読む側が真偽を確かめるという、リテラシーが試される部分がありますね。
新田 短い時間の中でとても濃密な議論をありがとうございます。せっかくなので参加されている他の先生方からも質問を受けたいと思います。佐藤先生いかがですか。
AIは普遍的な法則を生み出せるのか
佐藤 ありがとうございます。一橋大学の佐藤です。非常に興味深く伺っていました。
私は経済学者です。去年、『データにのまれる経済学』(前田裕之/日本評論社/2023)という本が話題になりました。経済学は典型的な社会科学であり、社会科学の原則は普遍的な法則を見出すことです。ただ、昨今の経済学を見ていると、データを使って現実を説明できれば良い、という結果オーライの考え方が結構多いです。
明日の株価予想や来年度の成長率を予想するにはそれでいいのかもしれませんが、普遍性は無いですよね。AIが普遍的な法則を生み出せるのか、あるいはそれはやっぱり人間の仕事なのでしょうか、その辺りに興味があります。
もう一つ伺いたいのは、アジャイルに関してです。みんなでアイディアを出し合うアジャイルという考え方が行政の分野でよく出てきますが、生成AIとは少し違いますね。AIは明確な入力と出力があり、それに対してフィードバックをしていく体系だと思いますが、アジャイルはブレーンストーミングをして思いがけないアウトカムを出します。アジャイルのような手法もAIで可能なのか、あるいはそここそが人間の知見が問われるものなのか、ということについて伺いたいです。
笹原 ご質問をありがとうございます。社会科学で普遍性を求めることも、個別の事象を予測することも、どちらも重要だと思っています。因果推論もこれまで重視されてきましたが、コンピュータサイエンスのように予測の精度を上げることで拡がる可能性もあります。両方の性質を知った上で進むことが大切なのではないかと思います。
AIに関しては、それぞれが個別の性格を持つAIエージェントを複数用意して、タスクを投げて勝手に行動させるという研究があります。僕はアジャイル開発も、エージェントAIを使うことで、もっと良いものが作れる可能性を感じています。
小町 前者のご質問についていうと、ちょうど1年前に一橋大学に来たとき、研究室を自然言語処理研究室でなく計算言語研究室にしました。分野としても、自然言語処理は工学的なところで個別の問題を解くようにやるんですが、計算言語学は比較的、普遍的な原則を突き詰めようとしています。たまたま今、深層学習は理屈ではなくできること先行で進んでいますが、後から「これはこういう理屈でできるんだ」とわかることが多いです。
後者の件では、実際に今のGPT-4でもいくつかのモデルの出力の結果を混ぜて出していて、平均的に良い出力ができるようになっています。ただ、尖ったような意見は出しにくくなります。
佐藤 政治の分野でも確かに、マイノリティレポートをどう確保するかということは大切な問題です。ありがとうございました。
ルイス 一橋大学のジョナサン・ルイスです。現在の学生は、自分でPythonなどのプログラミングを学ぶよりも、ChatGPTでタスクを実行するコードを書かせることに慣れています。それによって、自分でアルゴリズムを考える能力が身につかず、本質的な理解が薄れる可能性があります。お二人のお考えはいかがですか。
笹原 確かに、ChatGPTに隷属すると、問題解決能力が低下する可能性があります。しかし、これを契機に、プログラミングを深く学ぶ人もいます。プログラミング教育は変わってきており、基本的なプログラミングスキルを学んだ上で、ライブラリ(よく利用される特定の機能)を使ことが重要だと思います。
小町 僕は文系出身なので、今の流れはすごく良いと思っています。コンピュータサイエンスの人は基礎からしっかりと学ぶべきですが、それ以外の学部の学生たちも起業したい・何かを作りたいというモチベーションがあります。
ChatGPTなどの生成AIによって、デザインやエンジニアリングの部分も自動で行えるようになり、アイディアさえあれば多くのことが実現可能になっています。教育に関しても、確率・統計が小学校で教えられるようになり、情報教育が変わってきていると思います。
ルイス ありがとうございます。
15年後の未来へ――学ぶ楽しさ、産み出す楽しさを残したい
新田 ありがとうございます。このセッションが終了するにあたり、将来の生成AIに対する期待についてお伺いしたいと思います。10年、15年後の未来に、生成AIがどのように発展しているか、どんなことを期待しているかを教えてください。
笹原 10年後には、生成AIという言葉自体が日常的になり、私たちの生活をより良くしていることを期待しています。生産性の向上やクリエイティビティの広がりを望んでいますが、SNSのような弊害も考慮し、セキュアなSNSや新しい形のコミュニケーションが生まれていると良いですね。
小町 先ほど日本語入力が幼稚園児でも使える話をしましたが、今皆さんが使っている生成AIのツールは3歳ぐらいからでも使えるようになっています。そのような世界で育った子供たちがどうなるのかにとても興味があります。
大人になるまでの過程で、自分の手や頭を使って何かを作り出す楽しさを感じてもらえるかが重要です。これからの15年ぐらいで、どう楽しい学び方を伝えていけるか努力したいと思っています。
新田 生成AIが10年、15年後に楽しく使われているように、先生方の研究に期待しています。ぜひよろしくお願いします。本日はありがとうございました。
一同 ありがとうございました。
(研究者版)第5回 東京医科歯科大学×東京工業大学
「多様な学習データベース――人間的に思考・行動するAIの開発」
磯田 健志(東京医科歯科大学 大学院医歯学総合研究科 医歯学専攻 生体環境応答学講座 発生発達病態学分野 講師)
畠山 歓(東京工業大学 物質理工学院 材料系 助教)
2024年2月6日
左から畠山先生(東京工業大学)、磯田先生(東京医科歯科大学)
磯田健志(東京医科歯科大学 講師) 東京医科歯科大学 発生発達病態学分野の磯田健志と申します。
私は小児科医です。特に小児科の中でも、血液腫瘍、免疫疾患を専門にしています。大学卒業後に専門の施設やUCSD(University of California, San Diego)などの施設などで臨床および基礎研究の経験を積みました。その中で免疫異常症・悪性腫瘍の成り立ちに興味を持ちまして、大学で研究をしています。
具体的には、Tリンパ球になるための必須の転写因子がどのように発現制御されているか、ゲノムの3次元構造や非コードRNAに注目して研究を行ってきました。マウスで見出したことを人間でもどのように適用できるか、T細胞の系列決定がどう制御されているのかに着目して研究を続けています。本日はどうぞよろしくお願いいたします。
畠山歓(東京工業大学 助教) 東京工業大学物質理工学院の畠山と申します。
専門は高分子合成です。去年まで早稲田大学におりまして、新しいプラスチックや材料を作ったり、それをリチウムイオン電池など電気系のデバイスに応用したりする研究を行ってきました。これらの材料は、エネルギー関連や環境問題の解決に貢献できると考えています。
研究テーマとしては、5G通信のための新素材や、半導体エッチング用の新素材開発です。現在は、インフォマティクスを用いた研究も趣味的に始めていまして、ここ数年はAI分野の専門家と共同で大規模言語モデルを活用したプロジェクトを進めています。
司会(新田元 東京工業大学上席URA) 司会の東工大新田です。本日はお二人に、現時点でのAIとの対峙のしかたや思いを自由に語って頂けたらと思っています。議論の皮切りに、生成AIと自分の生活もしくは研究教育との関係について、教えていただけますか。
特定のタスクに特化したツールから、柔軟な思考をするAIへの変化
磯田 私は生成AIに関しては素人です。使い方としては、疑問点が出たところを少し投げかけてみる程度です。どういった反応が返ってくるのか見つつ、もちろんそれを鵜呑みにはせず、自分でも他の資料で検索しつつ、参考資料を集めているところです。
その他には、翻訳機能でDeepLやGoogle翻訳を使うことはあります。ただ、出てきたアウトプットを自分で考えた上で使っているという状況です。
畠山 私の研究生活への大きな影響としては、自分で論文を書くときにあまり英作文をしなくなったことですね。英語が割と得意なので昔は自分で書いていたのですが、査読者から英語自体に指摘を受けることがありました。
しかし最近は日本語で書いたものをAIに英訳してもらいます。そうするとほとんど修正無して綺麗な英語が出てくるので、そのまま投稿するようになりました。そして苦情が来なくなりました(笑)。非常に便利ですね。
研究の本筋に関しては、AIを利用した研究を続けています。これまでのAIは特定のタスクに特化したアルゴリズムが主流でしたが、最近では人間のように柔軟な思考が可能なAIが登場し、これまで不可能だった研究が可能になりそうな手応えを感じています。
プログラミングを経ずにAI活用が可能になる時代へ
磯田 先生はご自身の趣味としてもAIを使いながら研究を進められてきたということで、私などはたいぶAIとの関りが少ない立場かと思います。
私も患者さんの研究のことでAIを活用していきたいと感じることがありますが、畠山先生は基本的なスキルを身につけるにあたって、どういったことを意識し、どのように学んでこられたのですか?
畠山 私は小学校ぐらいからプログラミングをやっていたので、その過程で機械学習を身につけました。現時点では同様の傾向があるかもしれません。
つまり今は、情報学の専門家ではないけれどもAIを活用して活躍し始めている人たちは、技術的なバックグラウンドを持っている方が多いです。
ただ、最近はそんなにプログラミングをしなくてもある程度AIを使えるようになってきています。例えば、先日ミーティングでお会いした医師の方も、プログラミングは全然していませんでしたが、疾患を集めてAIに分析させていました。
疾患データの蓄積が重要な時代に
磯田 そうなんですね。私の研究に関連して考えてみますと、小児科領域では、一人ひとりの遺伝子変異が疾患に大きく影響しています。このため、個々の患者の成長と病状の変化を密に追跡し、データを蓄積していく必要があります。
その点で時代が少し変化してきています。近年はデータベースの構築が小児科領域でも意識されていまして、血液腫瘍だけでなく免疫異常症の分野でも蓄積が進みつつあります。
ただ、AIとリンクさせていく方法についてはまだ研究途上の部分があります。畠山先生から、そのアプローチについて何かアドバイスがあればぜひお伺いしたいと思います。
畠山 そうですね。例えば先日、勉強会で拝見した方は、初期診療に取り組む医師でした。その先生は、直接診断するにあたって1人の医師の知見だけでは限界があるという課題について、データベース構築とAI活用で解決しようとされていました。膨大なデータを基に、大規模言語モデルを活用して特定の疾患の可能性を示すシステムの開発を目指しているとおっしゃってました。
磯田 確かにそういったシステムができると良いですね。どうしても医療現場では予期せぬケースに遭遇することがありますので、その際に補助的に使えるツールがあれば非常に役立つのではないかと思います。
畠山 そうですね。ご存知かもしれませんが、現在日本でAI大規模言語モデルを作ろうというプロジェクトが進行中です。その主要なターゲットの一つが医療分野です。
私が聞いた限りでは、国内特有の事情を反映させることで、国際競争でGoogleなどに完全に負けることがないというメリットがありそうです。また、増え続ける需要に応えるため、かなり力が入っているという話を聞きました。
磯田 やはり医療面では各施設で電子カルテのシステムが異なっていたりして、医療情報を均一に扱うシステムがまだできていないという現状がありますね。今後、そういった部分が対応される時代が来るかもしれません。
疾患ごとにしっかりとデータを構築していく流れが世界的にも見られます。イギリスや米国ではレジストリ研究などが行われていて、日本もその方向に進み始めています。いずれにせよ日々の診療がとても重要であり、そこでしっかりとデータを取り、それをデータベースにきちんと入れていくことが、私たち医療従事者として進めていかなければならないと感じています。
人間が書いた言語からの学習で、AIの限界を突破する
新田 ありがとうございます。今の議論に関連して、畠山先生が研究で多様なアプローチを取り入れているそうですが、少し詳しく聞かせて下さい。
ゲノム研究と材料科学は全く異なる分野ですが、両方とも大量かつミクロなデータを扱うという点で、広義には似た面があると考えています。その上で、AIのどのような活用を期待されているのでしょうか?
畠山 そうですね、最終的には私の代わりに研究をしてくれるAIが欲しいです(笑)。
具体的には、今手近なところで何か新しい材料を作ろうとしたとき、それを実際に作ってみないとわからないことが多いです。しかし、AIが「こういう理由で、こういう性能を示しますよ」と予測してくれると非常にありがたいですし、逆に特定の性能を持った新しい材料を作るために、多くの人が悩む問題を提案してくれるといったことは、非常にホットな領域ですね。
材料の提案という点については、科学の世界にもやはりデータベースが存在しており、そことリンクさせて提案をしてくれるというのが現状ですね。基本的には、データベースが重要になります。
これまで、データベースを活用して予測するアプローチが取られてきましたが、多くは単なる数値データであり、テキストデータが不足しているという問題があります。これがある意味でAIの限界点でした。
人間は教科書を読むことで実験の条件と結果の関係性を理論的に学びますが、AIに同じように思考させないと、学習が偏ってしまいがちで、不適切な結論を導き出すことがあります。言語モデルを使うことで、AIが人間的に思考してくれるようになり、精度が上がる可能性があります。ただ、そのためにはテキストデータが必要で、材料科学や化学分野ではテキストデータが少なく、ライフサイエンス分野の方がテキストデータは豊富という現状です。
磯田 その間に言語系の要素を挟まないと、AIがデータだけを扱っていく場合、ずれが生じてしまうということですね。
畠山 医療系の分野において、テキストデータとして最もわかりやすいのは論文ですが、実際にAIが使用できるデータはオープンアクセスの論文に限られています。しかし、多くの論文はオープンアクセスではなく、特に化学系の研究者が多くを占めているため、AIの活用が制限されてしまいます。
そのため、論文や教科書など、人間が理解できるように詳細に説明している資料をAIにも読み込ませ、理解させることが現在非常に必要とされています。言語モデルも、そういった資料から学ぶことが重要です。
磯田 そうなんですね。私の知っている範囲では、過去の論文をサーチしながら関連する論文をピックアップしてサマリーを生成してくれるようなAIが企業によって開発されているようです。そのβ版を使わせていただく機会がありまして、その時は具体的なデータも相互にリンクさせるような機能があると非常に便利だと思いましたが、このような論文データを読み込んでくる機能が今後必要になっていくということなのですね。
畠山 そう思います。現状では、人間が書いた文章の方が、生成AIが作った文章よりも有用です。AIが生成した内容ばかりに頼っていると、現実から乖離してしまうこともあります。人間が書いた、より丁寧な文章を、できるだけ多く持つことが重要です。AI開発ではそれが勝利への鍵となると思います。
実験結果をシミュレーションするAI・結果から法則を類推するAI
新田 ありがとうございます。畠山先生は研究を行ってくれるAIが欲しいという話をされていました。磯田先生の場合は、そういったAIにアシスタント的な役割を担わせるならどのような場面が想定されるでしょうか?
磯田 そうですね、私は患者さんの塩基情報を読むことが多いので、そのデータの解釈を自動的にサポートしてくれるAIがあると非常に良いと思いますね。
また、過去のデータや論文報告を統合することから、注目している分子メカニズムに関わる物質や、DNAの化学変化、特定の変異が一定の頻度で起こったときのゲノムの構造変化やそこにリクルートされる親和性がある物質など、AIをリンクさせて補助しながら予想できることができたら非常に参考になると思います。
実際、それも可能なのでしょうか?
畠山 現在、世界中で高度なシミュレーションと実験結果の予測を組み合わせた研究が行われています。このように、さまざまなデータを総合して実験結果を予測するシステムの開発が世界中で競争されています。
もう一つ、どうしてそういう実験結果になったかをAIに考えさせる手法も研究が進んでいます。実験結果だけのデータがあって、そこから逆になんでそうなったかっていうのを考えさせる方法です。まだ赤ちゃんレベルですが、AIが勝手に何でそうなったかも考えてくれるシステムが赤ちゃんレベルですけど出来始めてるところです。これは中長期的には人間が不要になりますが…。
磯田 それはそうなりますよね。とは言っても実験データの解釈をする際に、過去のデータと紐付けてより深く考察できるという意味では、非常に良いと思います。
AIと創造性――「全く新しいこと」を創造することは苦手
新田 面白いですね。ところで、このリレートークでは前の回からの質問を預かり、次の登壇者に渡しています。
質問は、「人間にできる知的作業――パターン認識だけでなく、人間に近い行動や思考は、AIで出来るようになるのでしょうか。」というものでした。
畠山畠山 AIができることは増えていくとは感じています。創造性に関しては、AI分野の研究者もよくこの点を考えています。例えば東京大学の松尾研究室では、人間の創造性にはいくつかの種類があるとしています。基本的にそのうちの二つは、過去の物事を組み合わせるような形でAIにもできるとされています。
一方で、全く新しいことを思いつくというレベルの創造性は、現在のAIでは難しいようです。ただ、それは普通の一般人にも難しいことです。
新田 最近、赤ちゃんにカメラをつけてその言語処理がどうなっているかをAIで学習させた研究をニュースで見ました。結果、人間は名前と物体の認識に関するアルゴリズムが効率良く機能していることがわかったそうです。人間は学び方が非常に優れている。現在の生成AIやAIの方向性は人間の学び方を模倣しているようにも思えます。
磯田 人の発達についてどこまで研究が進んでいるかについては、私自身も完全には把握していない部分があります。ただ、赤ちゃんの行動記録や、客観的に人の行動を捉えて記録するアプリケーションの開発が進んでいますね。さらに日々の行動や顔認証、表情などから個人のバックグラウンドを探ることができるシステムも存在すると思います。
現実世界との相互作用を可能にする迄には、10年以上
畠山 そうですね、赤ちゃんの話とも関連していますが、本質的な問題の一つは身体性、つまり現実世界との相互作用です。AIは賢くなってきていますが、実際のロボットアームなどはまだ非常に不器用で、実験を行う能力には限界があります。
最終的には、ヒューマノイドロボットや赤ちゃんのようなレベルからさまざまなことを学ぶシステムを作ることが目標です。Googleなどがロボットの開発を進めていますが、基礎的な知識や運動能力を持ったロボットに、人間のように実験の方法を教え、研究できるようにするのが最終目標です。ただ、これは10年、20年かかるような長期的なプロジェクトだと思います。
井上素子(東京工業大学主任URA) 東工大URAの井上と申します。畠山先生が「身体性」と仰いましたが、関連して質問させてください。
第3回のリレートークでは、AIが身体性を持ち殺傷兵器となるリスクについて議論が及びました。自律的殺傷兵器と呼ばれる、AIが自分で考えて相手を攻撃するようになる脅威ですね。先ほど、身体性の獲得までに10年はかかるとのことでしたが、その10年の間に、セーフティネットとして何かできることはあるのでしょうか?
畠山 それは難しい問題です。私は一介の科学者として、作りたいものを作ることに集中していますが、確かに結果として恐ろしいものができてしまう可能性はあります。
これは結局、コンピューターウイルスのようなもので、誰か悪意のある人がそれを作り出したらどうしようもなくて、それがすごく賢くなっちゃったらどうしようもありません。オフィシャルには制約を作ることはできますが、アンダーグラウンドでいくらでも作れてしまいます。ライセンス制にするなどして規制を強化したり、注意を促すことは可能ですが、悪意を持った行動を完全に防ぐことは難しいと思います。
磯田 私も完全に防ぐことは難しいと想像していますが、しっかりとしたセキュリティを持った場所で患者さんの情報を守ることは強く意識しています。
患者さんの個人情報の保護を最大限に行いながらシステムを意識してデータを構築することが重要ではないでしょうか。
井上ありがとうございます。もう一点、先ほどオープンアクセスに関する話が出てきましたが、オープンではない論文があることで情報が限られてしまう、という点について考えさせられました。
オープンアクセスの問題以外に、AIの開発や研究現場への導入が進むために必要な規制緩和や制度、倫理面や社会的合意について、お考えがあれば聞かせていただけますか?
磯田 私は、素人でもAIを学び、使いこなしながら必要なものを開発できるような方向性が大切だと思います。知識を教えてくれる人やルールを明確に伝える必要があるでしょう。各分野で簡単にシステムを構築できるようになれば、発見や融合が進み、さらに前進すると思いますし、将来的には、誰でもアクセスしやすい状況になると良いですね。
学習データのフェアユース
畠山 研究予算がたくさんあるといいなとは思いますが、もう一つの問題は、やはりAIの学習データがほとんど著作権で保護されている点です。
アメリカにはウェブサイトの情報を集める団体があり、そのデータを使用していますが、日本では著作権法の制限があります。アメリカではインターネットでダウンロードしたデータを公開することが、社会的に有益だとされているため、フェアユースとして認められています。このようなオープンな取り組みを認める組織や国でない限り、データセットの共有はかなり難しいと思います。
フェアユースの考え方を日本にも導入しないと、AI研究が困難になります。AI研究者は日本語のデータセットを使用するために、アメリカのサーバーからダウンロードして使用していますが、その後のデータ加工も著作権で保護されており、共有が合法的に難しい状況です。この問題はAI開発の大きな障壁になっています。
井上ありがとうございます。一人の患者としては医療分野の成果だけでも世界でフェアユースしてくれたらいいのにと感じますが、難しいですね。
次回への質問
新田 ありがとうございました。今日の議論を受けまして、次回の登壇者に向けて聞いてみたいということがあったらお聞きしたいと思います。
畠山 人間が行うようなもっと時間がかかる複雑なタスクをこなせるようになるための道筋やスキルのロードマップについての考えを聞きたいと思います。
現状の言語モデルは、トレーニングすれば数学オリンピックで金メダルを取れるぐらいの実力がありますが、短期間で終わるタスクが中心です。
また、現在のAIと人間は、感情を持っているかどうかが大きな違いとなっています。私の子供を見ていても、論理よりも先に感情があると感じます。そのため、将来的に感情的な要素がどのように扱われるのかが非常に気になっています。
磯田 私は今後、ビッグデータ解析やモデリングを医療分野に取り入れていくにあたっての社会的なルール作りについて知りたいと思います。特に患者さんの情報に関して、どのようにレギュレーションを設定していくのかについて考えをお伺いしたいと思います。
新田 次回の先生方にお伺いしたいと思います。
お二人の大学は(2024年)10月からは一つの大学になりますので、今後もネットワークをご活用いただければと思います。有意義な議論をありがとうございました。
一同 ありがとうございました。
(研究者版)第4回 東京外国語大学×一橋大学
「膨大な言語のデータベースから生まれる生成AI――情報の真偽と少数言語への影響は」
髙橋 洋成(東京外国語大学 フィールドサイエンスコモンズ 特任研究員)
欅 惇志(一橋大学 ソーシャル・データサイエンス研究科 准教授)
2024年01月15日
左から髙橋先生(東京外国語大学)、欅先生(一橋大学)
髙橋洋成(東京外国語大学特任研究員) 東京外国語大学の髙橋洋成(よな)と申します。名前からお察しいただけるように、クリスチャンです。
学位は神学で、専門は言語学です。旧約聖書のヘブライ語と、古代オリエントの楔形文字で書かれた言語の研究、それからエチオピアの少数言語のフィールドワークも15年ほどしています。エチオピアには80以上の民族がいますが、ほとんどの言語が十分に調査されていない状態です。
これらの古代の文字言語や現代の音声言語、そういったものをいかにデジタル化するかということにも関心があります。最近は生成AIが出てきましたが、今日はこれによって言語学、あるいは聖書学というものがどういうふうに変わるのかということを考える機会にさせていただこうと考えております。
欅惇志(一橋大学准教授) 初めまして。一橋大学のソーシャル・データサイエンス学部の欅と申します。私のバックグラウンドは情報系で、東京工業大学の情報理工学院にも在籍していたことがあります。民間企業に勤めた後、一橋大学でアカデミックな世界に戻ってきました。
専門は情報検索や自然言語処理です。Google検索のように、正確な検索結果を提示したり、高速に検索結果を提示する研究などを行っています。また、言葉の意味を理解した上でユーザーに情報を提示する研究にも取り組んできました。
2018年にBERTと呼ばれるモデルが登場してから計算機の言語理解能力が急速に進化し、2022年にテキスト生成AIのChatGPTが出てからは一般の方にとっても便利なものが登場したという認識が広まったと思います。
ChatGPTの登場は研究者の間でも衝撃的で、2ヶ月間で1億人ユーザーを突破したという事実もあり、ChatGPTの登場はパラダイムシフトとなったと感じています。
新田元(東京工業大学 上席URA) ありがとうございます。今日はよろしくお願いします。
初めに、ご自身がここ1年で生成AIをどんな使い方をしてきたのかなどをお話いただけますか?
聖書や初学者の学習ツールとしての生成AI
髙橋 はい。私個人としては、聖書のヘブライ語というやや特殊な領域について、ChatGPTの回答はあまり役に立たないなという印象を持っております。ただ、聖書ヘブライ語のクラスの学生には、どんどん使ってほしいとも思っております。
というのは、そもそも聖書のテキスト化やデジタル化は早い段階から着手されておりまして、構造化やタグ付けが行われ、多くの聖書ソフトが販売されています。ちなみに、人文学で最初にデジタル化された文献というのはトマス・アクィナスの『神学大全』だと聞いたことがあります。私としてはもちろん、学生にはきちんと聖書ヘブライ語を学習してほしいわけですが、同時に、すでに存在するツールの使い方を学んでほしいという思いもあります。
ですから、ChatGPTは学生が使えるツールが一つ増えて学習しやすくなったかな、ただし、その内容を鵜呑みにしてはいけないよという見方をしています。
欅 私は、研究で最も利用しているのは、英語の論文をChatGPTに要約させることです。対話形式で論文の概要を説明してもらったり、より詳細な内容についての質問に答えてもらったり。最初から最後まで真剣に読むと疲れちゃいますので、流せる部分は流して、しっかりと読む部分にメリハリをつけられるようになりました。論文を読む時には本当にもう欠かせないツールになっています。
教育については、初学者が「自分が何を理解していないのかすら分からない」状態で試行錯誤するのにはとても良いと思います。情報検索の矛盾というのでしょうか、良質な情報にアクセスするためにはそもそも良質なキーワードが必要です。しかし、良質なキーワードを生成するための前提となる知識がなければ、生成は難しいです。まさに「卵と鶏」ですね。ChatGPTは自分が知りたいことのニュアンスを伝えるだけで、いくつかの候補を出してくれて便利です。
髙橋 欅先生のコメントを受けて、思い出したことがあります。
最近、ウェブ上でギリシア語、ラテン語の貴重な写本なども画像として公開されるようになりました。それをスマートフォンの“Googleレンズ”を通すと、翻訳してくれるんです。ギリシア語やラテン語の翻訳の精度はまだ低いですが、何が書いてあるかの当たりをつけるという点では便利になりました。何しろ外国の図書館まで行って読む必要がない。いい時代になったなと思っております。
検索汚染――正しくない情報でネットが汚染される
欅 そうですね。ネット上にコンテンツが増えることはポジティブな面もありますが、一方で、AIによって生成されたコンテンツが氾濫して、正しくない情報でネットが汚染されるのではないかという懸念もあります。これは「検索汚染」とも言われています。
一時期いろいろな戦国武将や刀が擬人化されたり美少女になったりすることが増えて、その結果、元々の戦国武将の画像を調べても美少女しか出てこないという現象が起こりました。
これと同じようなことが生成AIでも起こるのではないかと思っています。今、Stable Diffusionなどの画像生成AIを使えば簡単に画像生成できます。その結果、ニュース記事のアイキャッチ画像としてAIが生成した画像を使うことが増えてきました。例えばバッタのニュースにAIで生成した画像を使ったところ、本物のバッタではあり得ない足のつき方をしているとか、本当の世界と矛盾する情報が生成されてしまったと話題になっていました。
その点で先生がおっしゃった宗教的なコンテンツ等が、生成AIによって情報汚染されるのではということは、懸念されていますか。
人文学が、出典の明らかな情報を提供する
髙橋 率直に申しまして、私はそれは生成AIに限らず、Webの草創期からある問題だと認識しています。例えば、ある文学作品をフリーで入手できるサイトは多いですが、そのテキストが誰によって確認されたものなのかという情報が書かれていないことが多いです。それを辿っていくと同じ間違いをしてるのできっと元ネタはこうなんだろうと理解することはできるのですが、最終的に出典がわからないデータは山ほどあります。
私自身は技術的なことは理解できませんが、このような問題を防ぐのは難しい、あるいは不可能だと思います。だからこそ、私はここに人文学の仕事の一つがあると思っています。
出典が明確で、誰がどのように確認したのかという情報を付けたデータを提供することが重要だと考えています。これはデジタルであろうとそうでなかろうと、人文学がずっとやってきたことですし、その本分は変わらないと思います。楽観的に過ぎるかもしれませんが。
もちろん、正確な出典情報を提供したとしても、それが剥ぎ取られて流布される可能性はあります。しかし、できることをやっていくしかないと思います。
欅 先生がお話ししていることを聞いて改めて感じるのは、自然言語処理技術は、言語学の専門家たちが整備した大規模なデータベース、コーパスのおかげで大きく進歩したということです。信頼できるリソースがあれば、それを活用することで可能性は広がります。
研究者の人口やデータの生成量には限界がありますが、人文学の多様な分野に情報学の研究者が集まり、良質なコーパスを作るための協力関係が築かれることが、人文学にとっても情報学にとっても良いことなのかなと思います。
髙橋 おっしゃる通りですね。ただ、私の印象では、現在の言語学と自然言語処理の分野は交流が密では無かった部分もあるのではないかと思います。もちろん、これらの分野を両立できる方もいらっしゃいます。
私は少数言語のフィールドワークもやっておりますが、少数言語は当然データが少ないので蓄積していく必要があります。しかし、言語学者と自然言語処理の研究者との連携が、これまであまり見られなかったように思います。
欅 おそらくそうですね。私自身、恥ずかしながら、言語学者の全体像を十分に理解していなかった部分があります。自然言語処理の全国大会などに参加している方は言語学者のうちの一部ですよね。
今後、人文学者と情報学者がより気楽に付き合えるというか、互いの思想を尊重しあえる健全な関係が築けると良いと思います。その意味で、ChatGPTが互いの言葉を翻訳する役割を果たしてくれるかもしれません。
新田 東外大の中山先生はいかがですか。
情報の正確さ、安全性を守る“ガードレール“
中山俊秀(東京外国語大学教授) ありがとうございます。私も長年、少数言語の研究をしてきました。今のお話の中で、AIが生成した情報がたくさん出てきて検索汚染が起きるとか、それに画像が加わってありえない虫などが出来てくるというところに、とても興味を持ちました。
確かに、髙橋先生がおっしゃったように、これはネットが始まって以来多かれ少なかれあったことですね。ただ人間がやる範囲では、ありえない虫の絵がそれほど多く出回るということは無かった。けれども今はそれが起こってしまう。だから人文系の研究の役割は大きい、というのは本当におっしゃる通りだと思います。
たとえ悪意がなくても、情報の正確さや真正性を確保するのは難しい問題ですね。社会的な真正性というものが、結局、社会的な構築物だとすると、我々がその情報が間違っていると知ってそれを叫んでいても、大多数の人がそれを正しいと思ってしまえば、社会全体がそれを真実として受け入れてしまいます。
このような状況をどう止めるか、情報の正確さをどう検証するか。誰かがゲートキーパーのような役割を果たさなければならないと思います。
これが我々の社会にどんな影響を及ぼすのか、お二人にお考えを伺えたらと思います。
欅 生成AIの負の側面が強調されてるなと思うのが、洪水や地震などの災害に関するフェイク画像などです。人命に関わるような問題に対する誤情報は、助けられるはずの人々を助けられなくなる可能性があるため、非常に大きな問題だと思います。
AIのガードレールという考え方があります。例えば、大規模言語モデルを作っているGoogleやLINEなどでは、有害な表現やバイアスを含むコンテンツを生成しないような仕組みや、学習データから有害な表現を排除するフィルターを使っています。
画像認識技術がさらに進化し、画像のより深い理解ができれば、生成された画像の有害性や正確性を判断するガードレールが強固になる可能性があると思います。
また、AIで生成されたテキストや画像が、人間が作ったものなのか、AIが作ったものなのかを判定する技術も進化してきています。これらの技術がさらに発展し、AIツールを提供するプロバイダが社会的な責任を果たすことで、より良い状況が実現することを期待しています。
何が真であり偽であるかという普遍的な問い
髙橋 私からはすごく思弁的な答えにはなりますが、現在の生成AIや大規模言語モデルは、まだ必ずしも人間の言語システムを反映したものではないと認識しています。おそらく次の段階、つまり機械が知覚し、その知覚した情報を自分の知識として蓄積し、それを運動系として出力することでフィードバックしていく段階に入ると、初めて人間の言語と比較することが可能になると思います。
これは、機械が身体性を獲得した、つまり機械自身が記号操作としての言語ではなくて、現実とリンクした言語の使い方を覚える段階に入るということを意味します。
これが実現すれば、事実性の判定が機械自身によってできるようになる可能性があります。現段階では難しいと思いますが、次の段階に進めば、機械自身が有害性の判定をできるようになるという楽観的な予測もあります。
ただ、そもそも人間が誤った知識を全て排除できているわけではなく、むしろ我々はフィクションの中に生きているといっても過言ではありません。そのフィクションが社会にとって有害かどうかという問題は、人間が知覚しているこの現実とは何かという哲学的な問題ともつながります。
そう考えるとですね、哲学の分野では、ある命題が真であるか偽であるかというのは、2000年間、一生懸命頑張って考えてきたわけですよね。
何を真なる命題と見做すか、人間と世界とは何か、という問いに対して、西洋哲学は2000年間にわたって考え続けてきました。ある意味それが達成されたときに出来るのが人造人間なわけです。例えば、ユダヤ神秘主義では神の御業(みわざ)を人間が達成した証として、ゴーレムが作れるとしています。
この2000年間、西洋哲学は人間を作ろうとひたすら頑張ってきたはずです。ようやくそれが、実現可能になりつつある段階において、なぜこんなにみんなあたふたしているのか、私はそこにすごく忸怩たる思いを抱いています。去年、ChatGPTが話題となったとき、私は「今さら」という印象を持ちました。
欅 ありがとうございます。身体性については、情報学的な観点で見ると、五感のうちようやく「視覚」と「聴覚」は得たかなというところです。移動できるChatGPTのようなものは、遠からず出てくると思います。
例えば、Amazon Alexaと連携できるお掃除ロボットのルンバや、ファミレスのネコ型配膳ロボットなど、安全に自立走行できるロボットが既に多く存在しています。これらの物理的な体を持つロボットに生成AIを組み合わせることは今の技術でも可能だと思います。
しかし、触覚や嗅覚や味覚などを追加するとなると、まだステップが必要だと思います。物理的なセンサーで匂いを認識することは可能ですが、まだ学習データがないので、匂いを認識して自律的に情報処理できるかというと難しいです。ただ、五感を持つロボットが出現したとしても、いわゆる「心を持つロボット」を作るにはまだだいぶかかるのではないかと思います。
新田 そうですね。物理的なことで解決できる問題と、あとは内面な問題がありますね。
ルイス先生、何かコメントがあればお願いします。
AIは宗教を生成できるか、人はそれを信仰するか
ルイス こんにちは、一橋大学のルイスです。髙橋先生に質問があります。
例えば宗教の教典、コーランや聖書をChatGPTに入力し、新しい宗教を生成させるということは可能だと思いますか?そして、その新しい教典を信じる信者が出てくるのかどうかはいかがでしょうか?
髙橋 はい、あり得るとは思います。それを信じるかどうかはむしろ人間の心のメカニズムの問題です。
ただし、宗教のテキストは表面だけをなぞっても、なぜこれで宗教が起きたのかを理解することは難しいです。そのテキストの背後には必ず歴史的なコンテキストが積み重なっています。文章の中にさえ、いろいろな歴史の層があって、それを解き明かすことで、その宗教が出現したことがわかるのです。
最近感じたこととして、生成AIで手塚治虫の新しい作品を作る試みがありました。しかし、私の感じたところでは、それは手塚治虫の作品をただなぞっただけで、彼の中にあるもっとドロドロとしたものは再現できていないように思いました。
生成AIで宗教のテキストを書かせるとしても、同じ問題が起こるでしょう。AIはテキストをただなぞるだけで、その奥にあるドロドロとしたものはまだ再現できないだろうなという印象です。
欅 実はその辺りのことが気になっていました。京都大学とスタートアップ企業が仏教の経典をChatGPTに読み込ませて「ブッダボット」というものを作ったのですが、そのとき私自身は何となく畏れ多い、あるいは罰当たりな感じがしました。 髙橋先生は、そういったことをするのは問題だと思われますか?それとも、それをしたところで表層的なものだから意味がない、というスタンスで考えていらっしゃるのでしょうか?
髙橋 「意味がない」とは申しません。答えてくれるということ自体が、宗教的行為にとって大事なことだと思うからです。たとえ全く分からない答えでも、答えをもらったこと自体が嬉しい・助けになるという面は確かに存在します。これはまさに宗教的な心理のあり方だと思います。
人間は必ず何らかのフィクションの中で生きています。私は、そのフィクションを作る最も身近なツールが言語であると思っています。その意味では、言語と宗教はかなり近いものがあります。
そして、「ブッダボット」に関しても、答えてくれるということで、すごく良いツールになるんじゃないかとは思っています。
欅 なるほど、とても興味深いご回答ですね。宗教に関わる方がそう思われているというのは、自分には新鮮でした。もっとネガティブに思われているのではないかと勝手に想像していました。
少数言語とAIの関係
新田 本日のディスカッションは非常に面白く、さまざまなテーマや問いが出てきました。またの機会に一つ一つ深掘りしたいと思います。
このリレートークでは、前の登壇者からの問いに回答した後、次の方に聞きたいと思ったことを話す形で進めています。
前の登壇者からの質問は、「生成AIは膨大なデータベースから生まれています。これが少数言語などに対してはネガティブに働くのではないかと言われますが、お二人の考えはいかがでしょうか?」というものでした。
髙橋 なるほど。髙橋からは調査研究の観点からお答えしますと、現在のテキスト生成は話し言葉ではなく、書き言葉を基にしています。また、機械が音声のパターンを直接認識するのではなく、人間が与えた文字というシンボルをそのまま使用しています。つまり人間と生成AIの言語認識、言語分析の仕方は大きく異なる姿勢でして、これは少数言語を研究するにあたっては信頼できないと感じています。
生成AIを使ったツールが音声自体、言語構造自体を機械的にパターン化し、抽出する段階になれば、初めて生成AIによる少数言語の扱いを議論の俎上に乗せることができます。しかし、現状ではまだそういった段階にはなく、言語世界が分離されているような状況です。ということで、どうなるのかなというのが私の印象です。
欅 これはすごく難しい問いだと思います。
例えば、生成AIの学習データは英語が半分以上を占めていて、ヨーロッパ言語で数十パーセント、次に中国語とロシア語が多くて、日本語は数パーセントと言われています。そのため少数言語は学習データにほとんど含まれてないと思います。学習データに含まれない言語は生成AIで処理できないため、少数言語では生成AIの利便性を享受できません。そうすると、生成AIの利用によって少数言語の使用機会の損失を助長する可能性はあると思います。
そもそも世界には母国語で高等教育を受けられない地域もあると聞きますよね。
ただ、自然言語処理のコミュニティでは、少数言語の利用者も技術の恩恵を受けられるようにという動機で、例えば低リソース言語の翻訳の研究が盛んに取り組まれています。また、日本であれば北海道のアイヌ語や、沖縄の琉球諸語などを、保存したり継承したりする取り組みも行われています。このような活動によってある程度コーパス化できれば、生成 AI と少数言語を繋ぐような、特化した生成AIを作れるかもしれません。そうすれば、現時点ではAI技術を享受できない人たちにも、AIの支援を提供することができるようになるのではないかと思います。ひょっとすると少数言語で高等教育を受けることができる世の中がやってくるかもしれません。
次への質問
新田
ありがとうございます。今日の話を伺って言語というものが果たして何なのだろうと感じました。四大学の今後の議論にも繋がるように思います。
それでは最後に、次回の対談に向けて質問をいただければと思います。
欅 私は髙橋先生のおっしゃったことが気になっています。
ChatGPTや他のAI技術の延長線上に、いわゆる“汎用AI”と言われる「人間ができる知的な作業を全てできるAI」が作れるのかどうか。出来るのは単なるパターン認識でしかないのか。そのあたりを、他の分野の方にも意見を聞いてみたいです。
そこがやはり結構重要なところだと思います。個人的には、今のままChatGPTが賢くなっても、人間と同じ振る舞いできるかというと、ちょっとそれは楽観的過ぎるかなと思っているんです。
髙橋 今の欅先生のご質問に乗っかる形で、せっかく医学とロボット工学の材料科学の先生方ですから、先ほどから話題になっているAIと身体性の連結ということについて伺いたいなと思いました。
新田 はい、ありがとうございます。非常に面白い対談でした。今回はご協力いただきましてありがとうございました。
一同 ありがとうございました。
(研究者版)第3回 東京医科歯科大学×東京外国語大学
「目の前の人を救う医学の視点、自国を守る安全保障の視点――生成AIの活用と規制」
山口久美子(東京医科歯科大学 統合教育機構 事業推進部門 准教授)
吉崎知典(東京外国語大学 大学院総合国際学研究院 特任教授)
2023年12月20日
東京外国語大学 本郷サテライトキャンパス
左から吉崎先生(東京外国語大学)、山口先生(東京医科歯科大学)
生成AIを用いた政策シミュレーション
吉崎知典(東京外国語大学 特任教授) 東京外国語大学の吉崎です。私は今年の4月に外語大に着任したのですが、それまでは36年間、防衛省の防衛研究所で研究をしていました。
防衛研究で生成AIに一番関係するのは、「政策シミュレーション」です。例えば、新型コロナやウクライナ戦争は国際社会にどのような影響を与えるのか、大国ロシアやアメリカの反応はどうか、同盟関係はどうなるのか。さらに、ウクライナ危機は台湾の危機に伝播するのかというようなことは、いろんな形で議論されています。
生成AIに、ウクライナの戦争をどうやって終わらせるかと入力すれば答えが出てきます。しかしその答えは本当に正しいのか?誰も分からないですけれども、それに専門家が警鐘を鳴らす、そんな時代になってきたと思います。
司会(東京工業大学URA 井上素子) シミュレーションというキーワードが出ました。山口先生は、医学でシミュレーションをされることもあるかと思いますが、研究・教育上で何らかの影響を与えているのかどうか、そのあたりはいかがですか。
解剖学実習ではリアルな学びを重視。AIは医学研究ツールとしての活用に期待
山口久美子(東京医科歯科大学 准教授) 東京医科歯科大学の山口です。大学で解剖学を教えています。
シミュレーションについて、私の立場と先生のスタンスは少し異なるかもしれません。
私が教育を担当している低学年の人体解剖学では、「献体」といって医学生の実習にご遺体を提供することを同意してくださった方の、リアルな「ヒトのからだ」を実際に見て学ぶことを重視しているため、AIのシミュレーションに置き換えることは考えません。
生成AIが登場した頃は、学生がこれでレポートを作ってしまうとか、医師の仕事を奪う驚異になるというネガティブなことばかり言われていたような気がします。一段落した最近では、徐々に自分の味方になるツールだという認識が上がってきていますね。
解剖学の研究の一環として、体の一部を非常に薄く切った二次元の組織切片を三次元に構築する際などには、AIの力を借りると短時間で行うことができます。そのため、AIをツールとして使うことに関しては期待しています。
生成AIによる情報革命で、情報戦が身近に――「そこらじゅうが戦場」になる未来
井上 なるほど、確かに「味方になるツール」という面はありますよね。このリレートークのシリーズでも、何人かの方が生成AIは気軽に聞ける相棒だと発言されていました。
いっぽうで、吉崎先生の安全保障の観点から見ると、AIは味方とは言えない面もあるのかなと思いますが、いかがでしょうか?
吉崎 そうですね。生成AIの登場で、未来の戦争はどうなるのかという議論がたくさん出てきています。そこでの結論は、"Everywhere is Battlefield"(そこらじゅうが戦場である)という考え方です。地球の裏側で起きていることが、フェイクニュースも含めて衝撃的な映像として即座に流れて来ます。そうすると過剰反応が起こります。こうして情報戦が誰でも、非常に安くできるようになってしまいました。
これまでにも情報革命は何度もあったでしょう。しかし、これだけ低価格で瞬時に大きなインパクトを持つことができ、静止画だけでなく動画も用いられるようになると、人間の想像力や感性も存在感を増すかもしれません。それを使って相手をコントロールする戦略や戦術がすでに存在しています。"Everywhere is Battlefield"は残念な言葉ですが、どうすれば良いのかを議論したいと思っています。
複雑な情報を処理できるマルチエージェント・シミュレーションの登場
吉崎 私の研究ではシミュレーションそのものは人間ベースで行っていますが、コンピュータシミュレーションとの違いには非常に関心を持っています。
人間は、考えるときに複雑すぎる問題にはなかなか対処できません。囲碁や将棋のように一対一ならば組みやすいのですが、日本の安全保障について考える場合は、ロシア・中国・北朝鮮といった3つの要素を同時に考慮する必要があります。
また、日本の地形は一定で基本的な枠組みは変わりませんが、1940-50年代と比べるとミサイルの数や命中精度、それに対する対抗手段などがどんどん複雑になっています。つまり、地形は一定ですが、それに基づいた戦略や想定は変わってきています。
関係性が複雑に変化する現代では、北朝鮮とロシアが協力関係を築くなど、以前には想像できなかった事態が現実に起こっています。それに対応するためには、複雑な情報を処理できるAIが必要になります。
どうプログラミングするか答えは無いですが、それを可能にすると言われる生成AIを用いたマルチエージェント・シミュレーションには、非常に興味を持っています。試したところ、人間には数種類しか思いつかない手が、30種類くらい出てきて驚きました。
防衛のシミュレーションの場合は、オンライン上のデータには色んな情報が入りますから、限定的なデータを扱うAIを使用します。しかし、ここには問題もあります。どの情報をAIに入力するのかという人間が選択肢を絞り込むとき、無意識のうちにバイアスが入る可能性があることです。そのバイアスがAIの結果に影響を及ぼす可能性があります。
山口 人間にとって想定外の手がたくさん示されることによって、選択肢を与えられる。その選択肢の真偽を議論したり、検証したりすることで幅が広がるということなのですね。
作戦を立てて実行する”Operation”を、生成AIが可視化、高精度化
吉崎 ところで今日、東京医科歯科大学の先生と話をするときに、"オペ"という言葉がキーワードになると思いました。医療では、オペとは「手術」のことですよね。それまでの治療や観察、対話の結果、手術を行っているのだと思います。そこには準備が必要で、関わる人が集中して数時間や半日といった時間を設けて一定の結果を出します。しかし、予想外の事態も多く発生しますよね。
軍や防衛では、オペとは「作戦」のことを指します。そこに防衛と医療の共通点があるのではないでしょうか。防衛や医療のオペ、作戦を立てて実行するということを、生成AIが助けている。この構図がどう変わってくるのかは、興味深く思っています。
山口 私は医療のバックグラウンドとなる解剖学に関心を持っています。以前は、医師は教科書等で習得した「ヒトのからだ」の構造に関する知識と患者さん個人のCTやMRIなど二次元の画像を頭のなかで組み合わせて手術を行っていましたが、現在、AIを一般的な利用してCTやMRIの画像をソフトウェアで解析し、血管や様々な構造等を3次元で描出する技術が開発されています。現在では手術直前に患者の血管や様々な構造の位置等を確認し、それに基づいて手術を行うことが可能になりました。骨の形状等を3Dプリンターで出力し、それを実際に模擬手術してから手術を行うといったことも可能になってきています。このように、医療の世界では、一般的な知識を個別にカスタマイズしていくという過程でAIが使われるようになっています。さらには、自動でロボットがある程度手術をしてくれる時代もそう遠くはないかもしれません。
また、大規模なデータの解析から、それぞれの症例の診断の確率を出すというのは、昔から行われては来ましたが、その精度はどんどん高くなっていっています。これは、救急であったり、医師不足地域であったりというところの補助診断ともなります。
吉崎 素晴らしいですね。実はそこにとても関心があります。2次元の情報が3次元になり、それが3Dプリンターによって具現化される。オペの可視化ですね。これまでは結果を受けて後日続けていたオペを、やりながらできる可能性も出てくるわけですよね。
山口 今はまだ3Dプリンターはリアルタイムで出力するほど速くはないので、手術しながら立体模型を出力するというわけにはいきません。ただ、プリンターで出さなくても、手術室の3次元空間に映し出し、その中に没入しながら、また実際の構造を確認しながら手術ができるということもすでに一部では実用化されていますね。
吉崎 オペレーションの本質の考え方は非常に近いと思います。AIや3Dデータの進化により、空間的な視点から人がどのように変化するかを観察し、その観察結果を多くの人と共有し、それをフィードバックすることが可能になりました。防衛では陸・海・空とか、宇宙・サイバーとか。これは軍事的な作戦と全く同じです。
勝者と敗者、公平性の問題
吉崎 安全にオペレーションができるというのは、パソコンを操作する人にとっては大きな利点です。しかし、それが公平であるかどうかという問題もあります。
私が驚いたのは、アメリカのユタ州でドローンの操作を行っているパイロットが、自宅から数十分で作業場所に到着し、作戦を実行したらすぐに帰宅するという事実です。その操作対象は地球の裏側にあるアフガニスタンです。
山口 まさに”Everywhere”ですね。それでは反撃はできないですよね。
吉崎 その通りです。たとえば、柔道の試合では、一対一で同じ条件下で戦います。しかし、現代の戦争では、一方が見えない場所から攻撃を行い、反撃ができないという状況が生まれています。
これは公平とは言えませんし、勝者からすれば必要な戦略と言えますが、敗者からすれば憤りを感じるでしょう。スポーツマンシップというのは公平でなければなりませんが、現代の戦争は公平ではないという部分が増えてきています。そして、AIの進化により、その傾向はさらに加速するでしょう。
山口 生成AIって、何語で入力しても同じ答えが出るのでしょうか?国によって違う答えが出たら怖いですよね。
井上 前回のリレートーク登壇者はマレー語の研究者でした。多くの人々が話す英語では最先端の結果が出てくるけれども、少数しか話者がいない言語では、文法も間違っていたりして正確な結果が返ってこないのが現状だそうです。それが続くと、皆が多数派の言語に流れて、特定の言語や文化が衰退しやすくなると指摘されていました。
吉崎 そうですよね。一強の時代になって、多様性が無くなる可能性がありますよね。
山口 言語のインプットだけに頼ると多数派の言語一強になりますが、言語だけでなく、画像や立体、音楽など、言語以外のものからもAIへのインプットが広がっていけば、特定の言語の強みがなくなり、多様性が失われにくくなるかもしれません。
生成AIが示す集合知によって、多様性は失われてしまうのか?
新田元(東京工業大学 上席URA) 非常に興味深い議論を聞いていますが、手術の前など、個別に対応をどうすればいいかというのがAIや科学技術の力を経て可能になってきているという話がありました。また、AIが言語の多様性を失わせるけれど、マルチモーダル(編注:テキスト・画像・音声・動画など複数の種類のデータを一度に処理できるAIの技術)になると、取り戻せるかもしれないというお話でした。
一方で、生成AIは原理的には、今まで蓄積してきたものから一番「確からしい」答えを提供するとされています。このような集合知を反映して最適なものを出すという話と、多様性や個別化というものは、両立するのでしょうか。
吉崎 アメリカなどのエリート層では、軍事力やテクノロジー、AIの部分で議題の設定をすることがパワーの源であるという考え方があります。
アメリカでは、例えば人に上手く伝えるプレゼンテーションの方法においても、いわゆるハンバーガー様式と呼ばれる形式を広めるということに組織的に取り組んでいます。これは多様性ではなく、むしろ一つの共通のモデルです。
それが中心になれば応用が出てきても、プラットフォームを提供するところに全ての利益が還元されます。このような議題を設定してビジネスモデルを作っていくと、意識的に多様性は排除すると思います。生成AIは英語で出てくる情報が多いので、そのメインストリームはどんどん広がって、言語の多様性は失われると思います。
言語が脳のネットワークを作るということはよく言われていますが、そうすると英語だけで開発が進むと、皆同じ脳になってしまいますね。
私はその多様性が損なわれることによって人間全体の集合知が増えるのだろうか。私は懐疑的です。ビジネスはうまくいくと思いますが、結果は多分そんなにハッピーではないと思います。
山口 私の研究する解剖学分野では、「ヒトのからだ」に見られる「変異」という多様性を観察し、分類し、その変異のできるメカニズムについて研究しています。その変異のなかで、共通のルールは何なのか、それから共通ルールからどれだけ離れることがあるのかを調査しています。
工業製品や人工物と違ってひとりひとりの「ヒトのからだ」はあくまで多様です。ひとりひとりの変異のパターンや組み合わせは多様であり、解剖学者はその個別の変異を集めて説明しようとしてきました。生成AIがその多様な変異を学習することにより、多様性に一定の説明を与えるような解析は可能になるかもしれないですが、生成AIが発達したからと言って「ヒトのからだ」が単純化するわけでも、集合知の結晶のようなかたちに進化することもないと考えます。
新田 お二人の観点が違っていて興味深いですね。誰かが考えたわけではない集合知の「正しい答えみたいなもの」が、正当化されていく。そんな中、個別の価値をどうやって担保するのか。そのために、生成AIに期待されることは何か、とても興味深いです。ありがとうございます。
人間の脳の働きをAIが代替することはあり得るでしょうか?
伊東幸子(東京工業大学 教授) 山口先生にお伺いしたいのですが、人間の脳の働きをAIが代替することはあり得るでしょうか?意識などを数理モデルで書けるという話がありますね。個別の積み上げがある程度整理できて、それが統一的な理論で説明できる部分が多いとすれば、AIが人間の脳とほぼ同じような働きを果たし得る考え方があると思います。
山口 一つ一つの事象に関してはある程度数理モデルで表現できると思います。しかし、人の脳に匹敵するものにAIが取って代われるかと言うと、まだ遠いのではないかと思います。また、思い込みとか、思い入れとか、人ならではの考え方というのがあるところが面白いのではないかと思います。ただ、これについて私は専門家ではないので、偉そうなことを言うのは適切ではないかもしれません。
伊東 山口先生のご専門から推測すると、まだその話は遠いということですね。ありがとうございます。
【次回以降のテーマ】
井上 ありがとうございます。このあたりで、次回以降のトークにリレーを繋げていくため、今後登壇する先生方への質問をお預かりしたいと思います。
吉崎 AIが仮に兵器化してしまい、世界がどうなってしまうのかという議論が結構あります。特に、「自律型致死兵器システム」(LAWS: Lethal Autonomous Weapons Systems)が出てきて、その規制をどうするのかという議論が国連を中心に行われています。日本の専門家もその議論に参加しています。大体のスタンスは、人間が完全にそれを掌握することは難しいという考え方です。
具体的には、自律的に兵器が自ら兵器化することを予防する方法として、その決定の過程に人間が介在できるメカニズムを持ち続けるという案があります。つまり、生成AIのように人間を超えてしまうようなものには必ずモニターできるようなものをつけるということです。
これはアメリカが核戦争予防として研究してきたことです。問題は、それと同じことをロシアや中国、北朝鮮が認めてくれるかということです。技術を持っている者には責任があると思います。その責任を全うするために、国連でそのルールを作ることが必要だと思います。しかし、アメリカの考え方と他の国の考え方は異なります。開発していない国は、アメリカが規制しようとすることに反発します。技術の進歩はみんな同じように進むわけではないので、先に進んでいる国が規制すると、規制された国は自由にやらせてくれと反発するでしょう。合意はしづらくなります。その問題をどう解決するかは大きな課題です。
山口 ハイテクノロジーは専門的な知識がないと使いこなすことは難しいかもしれません。しかし、パソコンとインターネットがあれば、誰でもウイルスソフトのようなものを作れてしまう可能性があります。
国家レベルの危機だけでなく、カルト宗教のような組織でも何かすごいことができてしまう懸念があります。パソコンやAIが小さく、速く、高度化していく現状では、思いもしないところで思いもしない人がすごいことをやってしまう可能性が増えてきます。
技術の開発側と規制側。専門家のクロスカルチャーを
井上 何らかのミスによって、ハイテクノロジーが壮大な危機を招いてしまうと。無自覚な人がとんでもないゲームチェンジャーになる、恐ろしい話ですね・・・。
吉崎 いえ、むしろ四大学の議論の一番の強みって、こういった部分だと思うんです。私は社会科学ですが、歴史や、テクノロジー、脳科学の方とは見方が違います。
それぞれの専門家が違う視点を共有出来て、技術を開発する側と制限する側の間のクロスカルチャーで議論するのはとても良いですよね。
井上 この企画は生成AIをテーマにしていますが、去年はポストコロナをテーマに別の企画を行ってました。その総括では、ワクチンのことや検査のこと、差別といった議論を、専門家同士が恥じることなく、意見を交わす場が必要だという結論が出ました。そしてそれを受けて、「原発の事故が起きる前にこうした場があれば良かった」というコメントがありました。
吉崎 その通りですね。それこそがシミュレーションですね。
山口 開発する人は無邪気で、これができないからできたらいいなと考えて開発します。それが完成したときの喜びは、それが悪用されるかどうかではなく、山があるから登りたいという感じで、できたこと自体が嬉しいのだと思います。
だからこそ、月並みな言葉かもしれませんが、倫理的・法的・社会的な課題に対する教育(ELSI教育)が重要になってきます。人として何をやって良くて何をやってはいけないのかを教育する必要があるのかもしれません。ヒトの進歩にとって重要なのは、信用ということだと思います。技術があると、それを信用しない、不安であるという漠然とした思いがあると、技術の進歩が止まってしまいます。危険性だけを議論しするより、新たな進歩を作り出すことを考える社会でありたいと思います。
吉崎 フェイクニュースとSNSに関しては、「戦略的コミュニケーション(Strategic Communications)」がパワーになっているというのが、世界の一つの流れなんです。日本もそれを理解し、意識的に取り組んでいます。コミュニケーションはイコールではなくて、悪意もしくは善意を持っているんです。フェイクニュースについて専門家が登壇されるときには関わってくるかもしれませんね。
井上 次回以降に登壇する先生にお伺いしたいと思います。貴重なご議論、ありがとうございました。
一同 ありがとうございました。