
東京科学大学 工学院教授
市瀬 龍太郎 氏
PROFILE
1995年東京工業大学工学部情報工学科卒業。2000年同大学院情報理工学研究科計算工学専攻博士課程修了。博士(工学)。同年より、国立情報学研究所助手、助教授、准教授を経て、現在、東京科学大学 工学院教授。人工知能の研究、特に、機械学習、知識発見、知識共有などの研究に従事。AAAI、人工知能学会、日本認知科学会各会員。電子情報通信学会、情報処理学会、各シニア会員。

01
努力を重視し過ぎる日本。AI普及の大きな壁に
―説明可能性と言う形で、それが担保できるとビジネス界においてはすごく有効です。一気に利用が広がると思います。ただ、企業がAIに対するバイアス、特に日本企業の場合、バイアスを持たれている方が多いと思います。なぜ、米国や中国はどんどんAIの活躍が進んでいるのに、日本は進んでいないのでしょうか。教育現場の目から見たら、産業界の動きをどのようにお考えですか。
日本でも割とものづくりの分野では、AIが結構取り入れられている感じがあります。一方で、いわゆるオフィスワーカーに関しては、まだまだ色々とできるのではないかと、企業の方とやりとりすると感ずることが多いですね。
―私も色々な企業とお話しをすると、いわゆるホワイトカラーと言われる部分の効率は、日本は顕著に低いです。他方、米国や中国はAIをどんどん活用して効率を高めています。一方、日本は製造業が強いです。製造業の現場でロボットを活用したり、AIで画像認識をしたりしています。ただ、日本のカルチャー的な部分があって、それがホワイトカラーの非効率な状況を生んでいるという思いがありますか。それとも、これはもう日本の組織構造上、どうしてもそういう上位下達みたいなところがあるから、AIの活用が進まないということなのでしょうか。これは、市瀬先生の専門からは外れるかもしれませんが、いかがお考えですか。
結果を重視するのか、努力を重視するのかを考えると、日本だと努力を重視するところが大きいのかなと思います。そうすると、AIでできるようなことも一生懸命やったら、それはそれで評価されるところがあったりします。
例えば、最近はだいぶ変わっては来ましたけれども、職場に長く残っている人の方が評価されて、仕事をどんどん片付けて、早く帰る人は評価されないみたいな話があります。やはり、そういうところの感覚から変えていかないといけません。AIを沢山使って効率化すればするほど、仕事をしていないようになってしまう、そういったところもあるという印象を受けています。
―今のお話は、読者の方に刺さると思います。やはり、日本は結果よりも努力している姿勢が評価されたりすることが、まだあります。最近は変わって来てはいるのですが、努力しないでAIばかりを活用していると、「何をやっているんだ」みたいな感じで言われてしまうこともありました。他方、今の生成AIのレベルは、ものすごく進んでいます。市瀬先生もご存知だと思いますが、2025年4月3日に元OpenAIの研究者らで構成されるAI Futures Projectが論文「AI 2027」を公開しました。そこでは、AIに仕事を奪われた労働者がデモを行うと未来予測をしています。これから日本企業がAIを活用していかないと一切残れないと思うのですが、教育者として市瀬先生は人材育成や人材確保について、企業が取り組むポイントがあればお聞かせください。
私が常に感じているのは、AIと一言で全部まとめてしまうのですが、AIでできることとできないことがあるということです。AIでできることは任せれば良いし、できないことは任せられないから人間がやらなければいけません。そこをしっかりと区分けして考えることが、多分労働者にとっても必要ですし、経営者にとっても必要なことなのではないかと常に感じますね。

02
AIにできることとできないことを区分けすべき
―実際には、AIでできるところとできないところの区分けは難しいと思います。自分自身もAIに携わって来ているので、他の経営者と比べると多少区分けはできるし、使える気はしています。一般企業の人たちが、「ここはAIに任せても良い」「ここはAIに任せてはいけない」というところは、何を判断基準にしたら良いのでしょうか。
多分、一番重要なのはAIの仕組みを理解するというところです。後は、基本的にはAIは責任を取ることはできません。そこも非常に重要だと思っています。責任を取るというのは、AIに委譲できない部分です。
例えば、先ほどから話をしている説明可能AIも、結局は誰かが最後に責任を取るというときに、その責任を取る人は当然のことながら、AIを理解した上で判断したというのが前提になります。なので、その部分に関しては責任を取らなければいけません。ただ、責任を取るためには、自分の判断が正しいという確信を持たなければいけないわけです。
例えば、品物を目視で検査することに関して、検査員か機械がやることと、癌があるかないかを目視で検査することに関してして、医師か機械が行うことと、その責任の重さがものすごく違います。だから、そういった部分を意識しながら、結局、AIができる部分とできない部分というのは、区分けするしかないと思います。
―最終的には人が責任を取らないといけないと思います。あくまでもサジェスチョンというか、篩(ふるい)に掛けて異常があったら検知して、それが最終的に人がどうであるかを判断するということです。癌の検査も富士フイルムではレポーティングというか、アラートを出してくれて、医師の長時間労働は軽減できたりするので、非常に素晴らしいと思います。
他方、テスラの車絡みで死亡事故があった場合、そのときに誰が責任を取るのかが問題です。運転手なのか、車の所有者か、もしくはテスラが責任を取るのかは、まだ法整備ができていません。研究者のお立場からするといかがお考えですか。
まさに今おっしゃったみたいに、社会が結局AIを導入するときには、AIを導入できるような環境を整える必要があります。まさに、自動運転の場合もそうです。その辺りを合わせて考えていかないと、なかなか欧米や中国に対抗していくというのは難しい側面があると思います。
―米国は社会の許容度がある意味で進んいます。多様性を受け入れる社会というか。柔軟性があるのでしょうね。日本はどうしてもそういったものを受け入れるのが、なかなか難しい社会背景があったりします。
その辺りは、何を中心に考えるのかというのがあります。例えば、自動運転を導入することによって、事故の数はものすごく減らすことができます。かといって、ゼロにはできません。ならば、ゼロにできなかったときに犠牲者が出て、「その犠牲者をどうするのか」と言ったときに問題になります。犠牲者の全体が1000人だったのが10人に減りましたから、社会としては「それで良いでしょう」と言っても、多分自分の知り合いがその10人の中に入っていたら、許せないはずです。
その人たちに対して、「1000人から10人に減ったから許容してくれ」というのも、話が違う気がします。その辺りは社会で合意をしっかりと取っていかないといけません。技術だけでは、なかなか解決できない部分があるということです。
―私からすると、今は転換期に来ている気がします。先生もおっしゃられる通り、AIで自動運転中に事故があったとしても極端な話、10件のうち一回ぐらいです。本当は、人間が運転した方がもっと事故が多かったりするわけです。これは、統計的にも出ています。AIの場合の方が事故の確率が低いと。ただし、結局テスラは話題性があるので、事故が起きたりすると、それが大きなニュースとして取り上げられてしまいます。しかし、それが普通のことになってくると、AIが社会に入り込んで浸透して、より良い社会が訪れるのではないでしょうか。まさに転換期に来ているような気がします。研究者としては、社会的に変革期であるというイメージをどう捉えておられますか。
その辺りのところは、非常に私自身も感じていますし、周りの人と話しても感じることが多いです。やはり、AIの技術だけで解決できるものと社会と関わって社会制度を含めて変えていく部分が昔と違って非常に大きな問題になってきていると思っています。

03
AIを活用する影響をも理解すべき
―市瀬先生は今、大学院でも教えられています。実際若い世代は価値観が違っていたりします。彼ら・彼女たちは生まれたときからデジタルが日常でした。そこに今、AIが入ってて来ています。この時代に活躍するために学ぶことは何だと思いますか。
AI自身をどうやって活用するかみたいな話と言うのは、若い人たちは、割とすぐに使えるようになるという気がしています。その一方で、それを使ったことによって、どういう影響が出るのかという所までは、想いが至らない部分が結構あるかなと思います。そういったところも含めて、技術だけではなくてAIを使うことによる影響みたいなものを、若い人たちは知っていくと良いです。そうするとAIのより上手い使い方ができるようになって、社会の役に立つようになっていくと思います。
―おっしゃる通りですね。昔で言えば情報リテラシー教育みたいなのがありました。AIに対しても教育が、必要になって来ているのではないかと思います。実際、フェイクニュースとかを、そのまま信じてしまう人は数多いです。音声対話にしても、あたかもその人が話しているように見せかけることができる技術も生れています。教育者としての立場として、そういったAIリテラシー科目があった方が良いと思われますか。
最近は、知り合いの人たちと話しても話題になることが多いですね。情報教育というのはもうあるので、その中でのAIのウェイトは多分大きくなっていくだろうと思います。
―市瀬先生がおっしゃられるように、AIを活用するのはすごく良いことだと思いますし、その成果というのも、人が作るよりも早く、正確なものを出してくれるだけでなく、知識量が圧倒的に多いです。しかし、それが誤情報だったり、悪用されたりで悪い影響が大きく出たりすると思います。なので、結構難しいなと感じることがあります。日本に限らずですが、ビジネスを手掛けていく上で、AIと言うのは本当に今も普通に活用して、例えば提案書やレポートを作ったりするものの、結構内容が間違っていたりします。問題は、それを見抜ける人が少ないということです。見抜けるようになる知識というか、やはりこれは経験しかないですかね。
やはり、AIの原理みたいなものを知らないといけません。そこのところで、騙されてしまうのではないでしょうか。
―AIの原理を一般のビジネスパーソンが知るのは、ハードルが高そうですね。
結局、その原理から何ができて、何ができないのかみたいなのが出て来ます。なので、その辺りの原理、と言ってもなかなか難しいところはあるので、上手く解説していくというのも我々、専門家の重要な役割かもしれないです。

04
人間にない能力をAIに保証してもらう社会へ
―市瀬先生の教え子の皆さんたちが、第一線で今後AIを使って活躍して、日本企業が輝くような社会になると、市瀬先生としても教えがいがあるのではないかと思います。これからのAIを起点とした日本の未来を描くとした場合、市瀬先生が思い描かれる理想的な日本社会や産業の姿、ビジョンがあればお聞かせください。
ビジョンとまで言われると、悩んでしまいますけれど、私達、研究者に言われているのは、「能力補償」という話です。自分にない能力を研究して作りたいみたいな、そういったところが、色々な研究者の人と話をすると動機になっていることがあります。私自身もそうですし、他のAI研究者と話をしていると、物ぐさな人が多いから、その部分を機械が代わりにやってくれたら便利ではないか、そういうことを言っている人が結構います。
そういうことを基本的には考えていて、色々な手間のかかる仕事は、どんどんAIにやってもらう、人間に足りない能力をAIに補償してもらって、それで自分はやりたいことだけをやるぐらいな社会になると幸福な社会になっていくのかなと思います。
―ある意味、問題意識が研究者の方は強いと思ってしまいます。一般的には、問題意識を持っている人は、それほど多くなかったりします。目の前にある事象は、当たり前のものだと思って受け入れてしまっていたりするわけです。たとえ、面倒くさくてもやり続けていくというのが、人間の性としてあったりするじゃないですか。そこで問題意識を持ちながらも、楽をしたいという想いが研究の発端になっているのは、「すごく面白い」と思いました。ところで、市瀬先生はどんなLLMを使われるのですか。
研究で使うのは、割と古いやつです。最近だと、Llama(Large Language Model Meta AI。Meta(旧Facebook)が開発した大規模言語モデル)を使うことが多いです。
―そうですか、何か理由があるのですか。
やはり、研究だと検証のために再現性も必要になってきます。商用サービスの中で使っているクローズドなものだと、突如アップグレードされて再現性が保てなかったりしてしまいます。その意味で、オープンのものを使うことが多いです。
―ハルシネーションを検出する研究を行われていますが、それからハルシネーションを生成した場合は、リアルタイムですか。それとも事後分析ですか。
ハルシネーションの検出に関しては、これはトレーニングを少しした後に、検知ができるようになります。実際に、そのまますぐに検出ができるのですが、その研究のために、ハルシネーションのデータを生成する仕組みの論文も、2025年7月に出しています。LLMが実際に生成するハルシネーションを、データセットとして構築するフレームワークを作成したのですが、実際のLLMから出るハルシネーションを見ると、いろいろな知識がないと検出が困難なハルシネーションもありました。
―まだ、発表から日が浅いですね。そちらの研究も、興味深いです。今回は、色々と貴重なお話をお聞かせいただきありがとうございました。