宇田川氏メインビジュアル_後編

デジタル技術の進歩が加速する一方、人間は考える力が低下していると言われている。もっと言えば、社会で起きていることや発信されている情報に何の疑問すら抱かなくなりつつある。そんな在り方に、問題を提起しているのが武蔵大学 社会学部の准教授・宇田川 敦史氏だ。2025年5月に発売された著書『アルゴリズム・AIを疑う 誰がブラックボックスをつくるのか』(集英社新書)では、メディア・リテラシーをアップデートする重要性を説いている。その宇田川先生に弊社代表の山本がインタビューを試みた。後編では、アルゴリズムとブラックボックス、アルゴリズムのメディア・リテラシーなどについて語ってもらった。 

武蔵大学 社会学部 メディア社会学科 准教授

宇田川 敦史 氏 

 

PROFILE

1977年東京都生まれ。武蔵大学社会学部メディア社会学科准教授。東京大学大学院学際情報学府博士後期課程修了。博士(学際情報学)。京都大学総合人間学部卒。 
メディア研究者。専門はデジタル・メディア論、メディア・リテラシー、メディア・デザイン。 
京都大学総合人間学部を卒業後、日本IBMにてWebシステムの設計・開発に携わる。その後楽天株式会社にてデジタル・マーケティング、SEO、UXデザインに従事したのち現職。デジタル・プラットフォームにおけるアルゴリズムの社会的なあり方について、メディア論・メディア史の視座から研究を行っている。また、アルゴリズムのようなメディアの「仕組み」に着目したメディア・リテラシーの育成プログラムの開発にも取り組んでいる。 
主な著書に『アルゴリズム・AIを疑う: 誰がブラックボックスをつくるのか』(集英社、2025年)、『Google SEOのメディア論: 検索エンジン・アルゴリズムの変容を追う』(青弓社、2025年)、『AI時代を生き抜くデジタル・メディア論』(北樹出版、2024年)、主な論文に「検索プラットフォームと「AI」のダイナミクス」(『メディア研究』106号所収、2025年)などがある。 

 

1263_アルゴリズム・AIを疑う_帯

『アルゴリズム・AIを疑う: 誰がブラックボックスをつくるのか』(著者:宇田川敦史、発行:集英社)

mask-group@2x-1

01

ブラックボックスには二つの種類がある

―次に4章のところで、ブラックボックスを取り上げられています。ブラックボックスの可視化と可能性、説明可能性は期待できると思いますか。 


ブラックボックスには二つあると思っています。先ほど指摘したアルゴリズムと AI の関係にも対応するのですが、ルールベースで予めパラメーターが決まっていて、IPO(入力、処理、出力) の関係に一貫性があるものというのは、社会的に構築されるブラックボックスで、実際にはその中身を知っている人間がどこかにいないと運営できません。それは原理的には説明可能であるわけですから、それがブラックボックスかどうかは視点によって異なるということになります。例えば、 OSS(オープンソースソフトウェア:ソースコードが公開されていて、改変や再配布が自由に認められている無償のソフトウェア)のような考え方をどこまで広げるかや、エンジニアや開発する側のコミュニティをどう育てるかというようなことでむしろエンドユーザーを巻き込んでデザインを良くしていく可能性は色々とあると思います。 

もう一方は、本当の意味での技術的なブラックボックスになっている AI ですよね。機械学習の中身に関して、もちろん「説明可能AI」という研究も進んでいるとは思うのですが、現時点では技術的に非常にハードルが高いだろうというのが、まず大きな課題です。「説明可能なAI」と言いながらも、どうしても後追いというか、後付的なトレースになってしまうところが、原理的に難しいところです。また、アテンション・エコノミーも含めて、どうしてもAI事業者に対してそういうものを説明可能にしていくことへのインセンティブが、社会的に、あるいは経済的に非常に難しいのではないかということも課題でしょう。法的な規制であったり、AI Actのような枠組みの議論も進んでいますが、それが本当に実効的に機能する間に、実はAIの技術の方が先に変わってしまうという難しさがあると思います。 

 
mask-group@2x-Jul-11-2025-05-21-22-2680-AM

02

情報をどう摂取するかはグローバルなプラットフォームに握られている

―そう思いますね。本当にブラックボックスと一言で括ってしまうと簡単ですけれど、それはAmazonのレコメンドや食べログのスコアリングも、もちろんブラックボックスなので、プラットフォーマーの倫理観や責任においてやらないといけません。他方、AIになると、日本にはAIのプラットフォーマーは今ほぼいなかったりします。グローバルレベルだと、欧米にはGoogleやOpenAI、中国にはDeepSeek (ディープシーク)やTikTokがいたりします。結局、彼らがいかようにでもコントロールできてしまうというのは怖いと私は思ってしまいます。日本自体が独自のAIを持っていません。研究はしていますけれど、メジャーになっていないことをどう思われますか。AI研究者としてAIを見た時に、日本の立ち位置についてどうお考えですか。  

 

これは現時点で明確な答えが出せない問題だと思います。考えてみると、それは今に始まった問題ではありません。既存のいわゆるデジタル・プラットフォームであっても、国内のサービスでは、例えば楽天やスマートニュースのようなプラットフォームがいますけれども、いずれもグローバル展開が成功しているか、十分な影響力があるかというと、難しいところです。 

現実には、日本のマーケットにおいても結局日本人ユーザーが、それこそ世界中にある情報をどのように摂取するのかというところは、既にXやGoogle、Facebook、インスタグラムなどのグローバル企業に、もうこの十年・二十年握られてきたというのが、残念ながら事実です。同時に、日本ローカルの情報というものの多様性は、ないがしろにされてきたという側面もあります。 

ただ、今はまさに新しいAI事業者がどんどん出てきている状況の中で、そこの競争環境が活性化し見通しが立ちづらい状態にはなっています。そこに何か入り込める余地はないのかということは、期待はしたいところです。グローバルのプレイヤーが出てくるというよりも、日本ローカルの価値を追求するような動きがもう少しあってよいと思っています。 

 

 
0625chai +_magazine02

03

グローバルなプラットフォームとは違う価値観を提供していく必要がある

―これまで私がお話をお聞きした大学の先生の中には、「日本の立場からすると、メガプラットフォーマーには対抗できない次元まで来ているので、小さな領域、AIの領域で特化するしかない」というお話をされる方が何人かおられました。私も「そうだな」と思っています。Sakana AI(元 グーグル のAI研究者らが東京で設立した生成AIスタートアップ)の話とかも出たりしていましたが、創業者二人は日本人ではないです。敢えて東京で創業しています。 


そうですね。可能性があるのは、広い意味でのローカライズ、グローバルとは異なる観点でのデータの多様性を活かす方向です。やはり、日本語を含む漢字文化であったり、日本も含めたアジアのコンテンツ・カルチャーの多様性をどうAIの中に取り組み、オリジナリティを出していくかということは、一つの可能性としてあると思います。ただ、それはマーケットを拡大するプラットフォーム資本主義とは異なる発想が必要でしょう。 

―おっしゃる通りですよね。日本は素晴らしいカルチャーを持っていると思います。もちろん、歴史というのもあります。それこそ漫画やアニメは、世界中の人たちに影響を与えています。私自身、これまで何人ものAI研究者の方にインタビューしているのですが、やはりドラえもんや鉄腕アトムなどのキーワードが絶対出てきます。「そういったものを作りたい」とか。「そういう世界に刺激を受けている」というのは、日本のカルチャーとして素晴らしいと思います。日本の文化とAI が結びついてくるというのは、他の国ではなかったりするところだと思ったりします。 

そういう意味で言うと、結局グローバル・プラットフォームというのは、どうしてもグローバル・スタンダードという方に持っていくことになるので、ローカライズは効率が悪いものとされがちです。結果的にGoogleもそうでした。Googleもかつては「文化帝国主義」(政治的・軍事的に強力な国が自国の文化を強力でない国家に普及させ、押し付けること)だと批判され、米国文化をグローバルのものとして扱っているという批判もあったりしたわけです。それに対し、アジアだったり、日本のカルチャーというものを、多様なものとしてそのまま扱えるような形でのAIや、プラットフォームというものを構築していければ、既存のグローバル前提のプラットフォームとは違うオルタナティブ(別様のやり方、考え方)な価値観を提供するものとして、十分可能性があると思います。 

―日本人の創造性という部分は、非常に魅力があるものだと思います。手塚治虫先生や藤子不二雄先生などの考え方にAIが入ってくると面白いのではないかと思います。慶應義塾大学の栗原聡教授とのインタビューで、「木を見る西洋人、森を見る東洋人」というお話をされておられました。それと神の存在の部分です。西洋人は絶対神がいて、人間がいてロボットとかは絶対下に見る。一方、日本は自然崇拝もあったりして、全てを神と認めて、また同等と見るところがあります。その価値観に AI とかが加わってくると面白いだろうと思ったりします。 


「木を見る西洋人、森を見る西洋人」というのは、社会を捉える文化的な様式が異なることを示す文化心理学の書籍で、まさに欧米中心主義的なものの見方に対するオルタナティブの可能性を示しているという点で、本当にその通りだと思います。 

 
mask-group@2x-Jun-02-2025-09-13-06-8199-AM

04

情報の流通経路にあるプラットフォームがインフラ化している

―ありがとうございます。では、5章についてお聞きします。ここで「メディア・インフラ・リテラシー」という概念をお話しされています。メディア・リテラシーというのは、もうかなり前から情報教育ということであったと思うのですけれど、敢えて「メディア・インフラ・リテラシー」という概念を挙げられた背景をお話いただけますか。情報リテラシーとの違いも含めていただけるとありがたいです。 


「メディア・リテラシー」という概念に関しては歴史は古く、遡ればそれこそ政府のプロパガンダに騙されないように、というところから始まっています。そのせいもあって、マスメディアに対する批判的な読み解きという視点がどうしても中心化されてしまう概念ですし、未だにそういうイメージが強く残っていると思います。近年は特に偽情報の流通であったり、詐欺に騙されないというような文脈で、情報を批判的にとらえましょうという「情報リテラシー」が言われるようになっています。 

「情報リテラシー」と言ってしまうと、結局情報の中身が嘘なのか本当なのかを問いましょうという話に中心化してしまいます。その情報として書いてあるテキストの中身をずっと眺めて、「嘘なのか、本当なのか」と考えていても分かるわけがありません。その情報のテキストではなく、それがどういう情報源によって発されたものなのか、その取材先が信頼できるのか、あるいは書いた人がどんな人なのか、さらにはどういうチェック工程を経てきたものかというような、メディア上で何が行われてきたのかという、伝達過程に対して批判的に見ることが必要です。それが「情報リテラシー」ではなく「メディア・リテラシー」を考えましょう、ということの意味です。 

それを、マスメディア前提の時代ではなく、現代の情報環境に当てはめて考えてみると、もはやただ単に取材者がどうだとか、発信した機関に信頼性があるかどうかということだけではなくて、その間に入っているアルゴリズムだったり、AI のように、その伝達過程においてプラットフォームが提供しているものによって、情報がどのように選別されて、どのように加工されていて、どういう流通ルートをたどってきたのかまで、きちんと批判的に見る必要が出てきます。 

しかし、単に既存の枠組みで「メディア・リテラシー」と言っても、「情報源を調べましょう」「信頼できるかどうか考えましょう」ということに留まってしまう傾向があります。そもそもそれがどういうアルゴリズムによって自分のところに届いたのか、それはどうしてレコメンドされたのか、みたいなことまではなかなか想像が及びにくいものです。何故かというと、そういう流通経路に入っているプラットフォームがインフラ化し、見えづらくなってしまっているからです。 

例えば、 Google で検索した際に一番上に出てきて、それが何となく「正しい」と思って見たという経験においては、その一番上の情報だけが記憶に残ります。「その情報が本当かどうか」を後から検証しようとしても、それを Google で調べて何も考えずに一番上を選びましたということはもう忘れていて、単にコピペした結果だけを、一生懸命あっているのかどうかを考えるということが起きうるわけです。そうするとそのインフラ化した、検索エンジンであったり、SNSのようなプラットフォームをいかに意識に残しておけるか、さらにはインフラとなって当たり前の存在になっているメディアそのものに対して批判的な意識を醸成していくということが非常に重要になってきます。それを強調する意味で「メディア・インフラ・リテラシー」という呼び方をしたということです。 

 
0929_chai+_magaine02

05

インフラの中核となる部分に対するリテラシーを持つ必要がある

―どうしてもアウトプットされたものに対するリテラシー、正しいか正しくないかというところに寄りがちなのですが、コンテキストの部分でも宇田川先生の場合は、それを生み出しているもの、インフラ自体に対してリテラシーを持つという考えは、「すごく面白い考えだな」と思いました。ただ一方で、そこまでリテラシーを及ぼすには相当な知識が必要になってきます。 


そうですね。そう感じさせてしまうことはこの本の弱点というか、難しいところだと思っています。ただ実際には、全部を知ろうとする必要はないのです。 

どこで境界線を引くかということは難しいのですが、この本でも例を挙げている通り、例えば車を運転するとき、マニュアルで免許を取っていれば、ギアがどういう仕組みになっているかを知っていて、オートマ車に乗ったとしても、下り坂の時にエンジンブレーキ(以下、エンブレ)をかけるのであればギアを落とせば良いみたいなことは、容易に理解することができます。マニュアルの仕組みを経験していればその延長で想像できるのですが、最初からオートマしか知らないと、それをインフラとして扱ってしまうので、エンブレと言われても感覚的にわからないみたいなことが起こります。このエンブレ論争も一時期 SNS で話題になっていましたけれど。そういうことがリテラシーの境界線になったりするわけです。 

坂道のエンブレのように、現実的にはインフラ化してブラックボックス化してしまうと困る水準というものがあります。適切に車を運転するために必要なインフラの知識はやはり持っているべきです。 

だからといって、エンジンのピストンの金属組成がどうなっているかみたいなことは知らなくても、あまり困ることはありません。そうするとインフラやブラックボックスとして扱っている仕組みの一部に関して、知らないままでは困ることがあるということに気づいていられるかどうかが、重要なポイントなのかと思います。 

 
interview_25_img_1@3x

06

世の中にある仕組みには人間が介在していることを知るべき

―ありがとうございます。その質問の流れでお聞きします。宇田川先生は「メディア・インフラ・リテラシー」を育成するワークショップを開催されています。その実践から得られた知見や面白かった点を教えていただけますか。 


ランキング・アルゴリズムを実際に自分で考えてみようということで、何回か類似のワークショップを開催しています。検索エンジンについて参加者の意見を聞いてみると、そもそも機械が出しているものだから間違いがないだろうという思い込みがあるので、ワークショップに参加する前はアルゴリズムや AIはやはり機械的に何かが動いた結果である、つまり、自動販売機と一緒だという感覚が強いようです。 

ワークショップの前に色々と検索エンジンやプラットフォームについて、アンケートを取ったり、聞いてみたりすると、そもそもあまりそういうものがどういうふうに作られているかを想像したことがないし、勝手に自動販売機的に機械が出しているものだから、そこに人の主観だったり、何か偏りが入って来る可能性があるなんて考えたこともないという、そういう学生や参加者が結構います。 

実際に自分でアルゴリズムを設計するという立場に立ってみて、ワークショップでやることはごく簡単なことなんですけれど、自分たちで作ったアンケートの結果を、どうやったらランキングをつけられるかと議論すると、答えが一つに定まらないことに気づくし、色々なロジックがありえるということを他のグループとの対話を通じて分かるようになったりします。そうすると、結局どのアルゴリズムが良いかは主観的な価値判断だということを実感していくわけです。目の前に出てきた、その機械が出したものだけれど、その機械の裏に人間がいることを想像できるようになるというところが、こういうプログラムをやることのメリットです。 

これは特に学生にとっては、自分たちが今後就活するときに、今世の中にある仕組みというのはどういうふうにできているのか、そこに多様な人間がどう介在しているのかということを想像できるようになるという意味でも色々な学びがあります。 

 

―色々拝見していて、面白い取り組みだと思いました。本当にグループ分けしてランキングを自分たちで考えようという仕掛けですよね。多分多様な考え方が出てくると思います。それで気づいていただけると本当に批判的な物の見方が養っていけると思うので、結構手軽にできて実践的なワークショップですよね。 

 

そう言っていただけると有難いです。 

 

 
interview_24-2_img_3@3x

07

コントローラブルな人間をいかに社会に残していくかは大学の役割

―弊社でもグループワークとかで開催すると面白いのではと思っています。 


同じような枠組みで最近学生に試しているのは、ChatGPTを使って偽ニュースを作るというのと、逆に偽ニュースっぽい本物のニュースを見つけてくるというワークショップです。それをお互いにクイズで出して、生成AIの偽ニュースを見破れるか、あるいは人間の本物のニュースを識別できるか、を競うようにすると、「人間らしさとは何か」「AIらしさとは何か」みたいなことを一生懸命考えるようになるんですよね。 

―識別するところが、グループによって色々違うアプローチになってくるわけですね。 


そのようなグループワークでのクイズ合戦をやって、どのニュースが一番騙せたかといった結果をネタバレした後に、今度は、そもそも AI が作った文章と人間が作った文章では、どう違うのかをディスカッションしてもらいます。ワークショップ前後で生成AI で作ったニュースと人間が書いたニュースの識別テストをやるのですが、ワークショップ前はほとんど識別できなかったものが、クイズ作成を経てディスカッションを行うと成績が上がってくるようになるのです。 

―面白いですね。やはり、自分で手を動かして考えるというのが結構、今の時代少なくなっていると思います。もうそれでも以前は Google が良かったし、今も LMM に聞けば良いし、本当に楽になってしまっていて、考える力がどんどん低下しているのではという問題意識が私にもあります。若い人たちも、もう少し自分で考えて手を動かしていくべきなので、宇田川先生が行われているワークショップは、実に面白いアプローチだと思います。やはり、最終的にはアナログでやることによって身についていきますからね。 


そうなのです。そこが本当にアンコントローラブルな領域に対して、どう人間がコントローラブルでいられるか、そのようなコントロールやデザインをできる人間をどのように社会に残していくかという結構大きな課題につながると思っています。それは、大学の役割の一つでもあると考えています。 

 
interview_8_img_1@3x

08

インフラの裏側にある仕組みに視点を向けよう

―おっしゃる通りだと思います。極端な話ですけれど、それがないといつか気がついたら、AI に働かされているという状況に陥る可能性があると思います。そうなってしまわないようにしてもらいたいです。次に、宇田川先生が今回の著書を読み終わった方たちに最も伝えたかったメッセージをお聞かせください。 


5章で書いている通り、敢えて「インフラ」という言葉を強調して使っています。メディアというのは常に目に見えないところに隠れようとする性質があって、一方で情報、すなわちコンテンツはすごく目立つようにできていて、アテンションをいかに集められるかが競われています。それは必ずしも社会的に良いとは言えません。コンテンツに目が行けば行くほど、メディアやインフラに目が行かなくなります。 

メディアやインフラに目が行かなくなると、結局その仕組みを成り立たせているアルゴリズムやAIという構造に対して意識が向かなくなります。どんなに気をつけても、どうしても「このコンテンツが面白い」とか、「このコンテンツは本当だ」とか「嘘だ」という議論にすぐなってしまいます。いかに、その裏にある仕組みに対する視点を忘れないでおくかということが、この本を通じて伝えたかったことの一つです。 

―大変素晴らしいお言葉だったと思います。ところで、もう次の著書のアイデアは思い浮かばれておられるのですか。今度執筆されるとしたら、どのようなテーマを想定されますか。 


今回はどちらかというとプラットフォームを中心にして、アルゴリズムに軸足を置いて書いています。それが AI に軸足を置いたらどういう考え方をしなければいけないかといったところを考えなければいけないと、個人的には思っています。 

 
0401chai +_magazine02

09

価値を提供していくことに人間や資源を投入できるかが鍵

―「AI Future Talks」の読者はビジネスパーソンや経営者が多いです。今、AIはバズワードで、特に経営者の方が 「AI を使わないと時代に遅れる」ということで、AI活用を言い出しています。そうした方々に対して宇田川先生の視点から心構えを一つ挙げていただけると有難いのですが、いかがでしょう。 

AI に限らず、こういった先端のテクノロジーは、それこそ経営的な立場で言うと本来は手段であるはずのものなのですが、すぐ目的化してしまいます。でも、やはりテクノロジーは、それを利用して何か社会的な価値を生み出すことが目的なはずです。使うこと自体は目的ではありません。つまり何を経営上の価値として社会に提供していくのかという、その目的を見失わないように、テクノロジーを上手く適用することが大事なのではないかと思います。 

―素晴らしいですね。本当にバリューを生み出さないと、会社の意味がありません。それなのに、AIを使うことがもう目的になってしまったような発想で動いてしまっています。 

 

逆に言うと、企業が生み出すバリューが何なのかという観点において、人間にしかできないこと、人間こそが生み出せるバリューの要素は何なのかを考えていかないといけません。 

―おっしゃる通りだと思います。やはり、まだ AI にはできない部分が沢山あります。一方で幻想に紛れてしまって、「AI は何でもできる」と思ってしまっている人たちが多いのも事実です。だからこそ、AI でできることだけを AI に任せて、より人らしいことに時間を作れると良いと思います。 

 

そうですね。たとえば身体性や一次情報の検証といった、バリューを生み出すところ、レバレッジを効かせられるところに、人間や資源を投入できるかが鍵になってくると思います。 

―素晴らしいお言葉をいただきました。「AI を利用してレバレッジをする」というのは非常に良い言葉だと思います。宇田川先生、本当に貴重なお話をありがとうございました。