生成AIとウェブ検索は何が違う? 今だからこそ大切なウェブの情報を選別する力を育むには

世の中では生成AIの話題であふれていますが、生成AIが出す情報は、その成り立ちからして、ウェブ検索で得られる情報とは全く性質が違います。生成AIの登場で、これまでの世の中に存在しなかった質の情報が出現したからこそ、改めて、ウェブ検索で情報を得るときの基本的なスタンスを確認しておく必要があります。ウェブ上の大量な情報の受け止め方に慣れておくことが、生成AIとの違いや生成AIとの付き合い方を考える大切なベースになるからです。

ウェブ検索で情報を得る基本的なスタンスと、生成AIの情報っていったいどんなものなのか、どう付き合ったらいいのかについて見ていきましょう。

大量なウェブの情報を選別する目を育む

インターネット上には膨大な数のウェブサイトがあります。ウェブサイトは誰でも自由に作って公開することができます。国でも大企業でも学校でも個人でも、誰もが同等に情報を発信できるのは、インターネットのすばらしいところ。その分、情報の質はさまざまです。

その膨大な情報の海から私たちは検索サイトを使って知りたい情報を探し出しています。複数の情報を見比べて、大量な情報の中からどの情報を信用して自分の情報源として選びとるかということは、私たち自身に任されています。

発信者を確認するのが基本!

では何を基準に選び取ったらいいのでしょうか。ウェブサイトには、必ず作成者、発信者がいますから、「だれが発信している情報なのか」を必ず確認するのが基本です。「インターネットで見た」なんてのは絶対にダメ。必ず、どういうウェブサイトで誰が発信者なのか確認します。そして、発信者を手がかりに、その情報を「どの程度信用するか」を判断します。

例えば「これは大手の新聞社だから掲載前に複数の人がチェックしているはず」とか、「この人はこの分野の専門家だから安心」とか「これは誰が発信してるかどこにも書いてないから不安」とか、その情報をどのくらい信用するかを自分なりの軸で判断する必要があります。

子どものうちは判断軸を持つのは難しくても、とにかく発信者を確認する習慣をまずはつけることが大切。信用していいものかどうか、大人と話したり、社会に対する知識をつけたりするうちに判断の軸ができてきます。一律に線引きすることはできませんが、例えば「博物館のウェブサイトなら安心」という風に、判断の例を大人が示すことも役立ちます。

以上については、以前、「家庭でできるメディア・リテラシー教育〜「どこで知ったの?」を毎日の会話に」という記事で、子供とどんなやりとりをしたらその力を育めるかという視点で書いていますので参照してみてください。2016年に書いたものですが、これは今も変わらず、シンプルでわかりやすい大切な原則です。

なお、判断軸を持つときに、「正しい情報を見分ける」という絶対的な指標を持とうと思いがちですが、それは意外と現実的ではなく、「信頼できそうな発信者を判別して自分の情報源として採用する」という、相対的なスタンスでたくさんの情報に接していくことが大切です。相対的な判断軸を磨いていくことが、情報に対する感度を上げることになります。

生成AIが出力する文章ってどんなもの?

それに対して、昨年一気に広がった生成AIはどうでしょうか。例えば、生成AIが世の中に広がるきっかけになったChatGPTは、会話形式で問いかけると、それにふさわしい返答を整った文章で返します。

ChatGPTを動かすAIモデルはLLM(大規模言語モデル)と呼ばれ、ニューラルネットワークという技術で膨大なテキストデータを学習データにしてできています。LLMは、文章を単語などの単位にわけて、言葉の次にどのような言葉が来る確率が高いか、ということを学習していて、学習が完了したLLMは、入力された文章を解析して返答の文章を作成できるようになります。

LLMは文章を生成するときも、次にどの言葉がくる確率が高いかを予測して、確率が高い言葉をつないで文章を生成しています。確率でつながれた言葉の連なりが、自然な言葉に聞こえ、内容もある程度は正しいというのは驚くばかりの技術です。

会話形式で話が成立するので、つい、AIの側も、「聞いた内容を理解して、自分の知識を引き出して答えを考えて、論理を組み立てて、それを言葉にして表現する」……というプロセスを経ているのではないかと感じてしまいがちなのですが、そうではありません。コンピューターのものすごい計算で言葉と言葉を確率でつないで文章を生成しているのです。だから内容が間違っていることもあります。

AIの研究は人の知能と同じようなことをコンピューターに処理させることを目指していて、その仕組みが人の脳の働きにヒントを得て作られることもあります。LLMもそうです。でも、出力されるものが人と似ているからといって、それができるプロセスも同じというわけではありません。AIが文章を生成するプロセスは、人の思考のプロセスとは違うものなのです。

発信者の存在しない情報との初めての出会い

ChatGPTに問いかけてかえってくる情報には、発信者が存在しません。ウェブ検索で得られる情報のように、発信者を確認してそれを手がかりに情報として採用するかどうか判断するということはできません。

生成AIの登場で、私達は、発信者の存在しない情報とダイレクトに接するようになってしまいました。これは人として初めての経験です。これまでの情報を見るときの原則が適用できない、いわば「新種」の情報が登場してしまったわけです。

これはけっこうな衝撃的な出来事であり、人の思考の意味が揺るがされるような感覚にもなります。世の中の受け止めは比較的素直で前向きで、AIの技術的な見通し、AIに対する懸念、ルール作りなどの現実的な議論は目立ちますが、本当は、もっと根本的に、何をもって思考というのか、何をもって知性といいうのかということが問われる大事件でもあり、哲学やら文学やら心理学やら人類学やらなにか別サイドの専門家がそれぞれの視点で生成AIについて語ったり問題提起をしたり、技術者と対話したりしたらかなり面白いのではないか……と思っています。

この新しい文章生成装置を、どう受け止めて、どう付き合ったらいいのでしょうか。ここは、スパッと答えが出るわけではなく、使ってみながら、困惑してもいいし、どうしようかと悩んでいいと思うのですが、今のところこんな付き合い方が推奨、と思うラインを示しておきます。

ChatGPTは知らないことを調べるために使うものではない

ChatGPTを例にすると、まず、自分が知らない情報を調べるために情報源として使うものではありません。正確な知識を確実に解説してくれるものではないからです。今のところ、「引用元はChatGPTです」と言って通るような情報源としての社会的な信頼性もありません。

ウェブの情報も間違っていることは多々ありますが、それは発信者が存在していて、その発信者が間違った情報を出したという関係性がはっきりしています。発信者がただ勘違いしていたり、いい加減なだけだったり、悪意があったりと理由はいろいろですが、発信者を確かめることで、ある程度、信頼性を予測することができます。

でも、ChatGPTが間違うのは、その仕組み上、間違う可能性があるものだからです。内容の正しさはAIモデルが進化するごとに上がっていて、今後も上がっていくはずですが、どこかのラインを越えたら、情報源として信頼性を得るのかどうか、そのあたりは未知数です。

ChatGPTの文章が正しいかどうかを点検するために調べなければならないので、結局、知らないことを調べるならはじめからウェブ検索した方が早いのです。

そのかわり、未知の分野の知識を得るための情報源としてではなく、他の用途では威力を発揮します。

パートナーのような使い方

例えば、自分が知識のある分野についてならばいろいろな使い方ができます。条件を与えて説明文を書かせて表現方法の参考にしたり、プログラムのコードを書かせてみて使えると思う部分だけを使ったり、問題文と回答をつくらせたり、なんてことが可能です。その過程で自分だけでは思い付かなかった思いがけないヒントをもらえることもあるかもしれません。

他にも、たとえば長文の要約をさせたり、文章を箇条書きにするなどの加工をさせたり、要素と要件だけ示して定型的な文章を作らせたり、手間のかかる作業を肩代わりさせることもできます。アイデア出しの相談相手にするなんて使い方をする人もいます。

総じて、正誤が関係ないような用途や、間違っていたり気に入らなかったら自分で判断して修正できる範囲で、パートナーのように使うのが向いています。

そもそも「真偽を判断」って簡単なことじゃない

生成AIを扱った授業の実践や子ども向けのパンフレットなどの中で、「生成AIは間違うこともあるから」ということを理由に、「真偽を判断する力が大切」と結論づけるのは、少し慎重になった方が良いと思います。

「間違うこともあるから、知らないことを調べるのには向いていない」ならいいのですが、「間違うこともあるから、真偽を判断する力が大切」というのは、じゃぁその真偽を判断する力ってなに? ということを、押さえておかない限り、子どもへの責任の丸投げになってしまうからです。

そもそも、前半で話した通り、ウェブ検索で未知の情報の真偽を判断するのはそう簡単なことではありません。発信者を確認して信頼度を判断して情報源として選びとるということを繰り返すしかない。絶対的な基準を教えられるようなものではなく、相対的な判断軸をもつ練習をして日々じっくり育んでいくものです。

他にも、情報の確らしさを確認するには、複数の情報を見比べたり、URLから分かる情報を読み取ったり、専門家によるファクトチェック情報を参照するなど、いくつかの手段を組み合わせることも大切です。

こうして情報を選定する力は、生成AIなんて誕生するはるか前の、ウェブ検索で情報を得る時代から必要だったはずの力ですから、身についていればその基本に戻ることができます。

情報を選別する訓練はできているか?

ところが多くの学校現場は今まで、このような情報の見方の訓練をしてきていません。もちろんやっている学校、先生方もいますが、やれていないところの方が多い、というのが私の実感値です。そのかわりに、使いづらいほどのフィルターやブラックリストを用意して使える検索サイトの制限をかけて情報の入り口を減らし、子供達が不確かな情報に触れないように「守る」ことをがんばってしまっている学校もまだまだあります。もしくは、大人が「検索すればなんでもわかる」と雑に捉えているせいか、ただ検索させるだけで、子供たちはなんとなく無自覚に検索しているだけ、といいうケースもあります。

こんな現状で、ウェブの情報を自分で選別する訓練すらしていない子どもに、いきなり生成AIを体験させて「自分で真偽を判断しよう」と言ってしまったらどうなるでしょうか。さっと検索サイトで検索して、検索結果の上の方に出てきた情報を無自覚、無批判に信じて受け入れてしまうだけ……という負のループに陥るだけだと思うのです。

まずは、ウェブ上の発信者がわかる大量の不確かな情報を、どうやって自分なりの価値基準を持ってフィルターするかという練習をするのが大切です。そして、その価値基準というのはけっこう相対的なもので、絶対的な真偽判断なんて簡単にはできないという謙虚さを持っているくらいでちょうどいい。判断軸は経験値で変化していくし、個々の考え方を反映するので人によって違い絶対的に正しい軸があるとも言えません。この相対的な判断軸を磨くのに学校で学ぶ知識も経験も全部役立ちます。子ども達が判断軸を繰り返しアップデートし続けて、自分から情報を選び取りに行けるうようにするのが、教育がすべきことなんじゃないかと最近よく感じています。

多様な情報の発信者を確認して自分に取り込む情報を判断する感度を養っておくことは、ウェブに限らず出版物なども含めた情報との付き合い方の基本です。改めて、この基本を意識して日々情報に接することを子ども達と一緒にしてみてほしいと思います。そして、この感度があれば、生成AIのような新しい成り立ちの情報と出会ったときに、どういうスタンスで付き合うか、どういう範囲で自分に役立てるかを一歩立ち止まって考えるのに役立つはずです。


新刊「デジタル世界の歩き方」(狩野さやか著/ほるぷ出版)は、子ども達ひとりひとりがデジタル世界の主人公として、テクノロジーの主体的な使い手となれるように応援する本です。インターネット上のウェブ検索についてウェブページの情報の見方や捉え方についても、子供にわかりやすい表現で解説しています。ぜひチェックしてみてください。

狩野 さやか

株式会社Studio947のライター、ウェブデザイナー。技術書籍の他、学校のICT活用やプログラミング教育に関する記事を多数執筆している。著書に「デジタル世界の歩き方」(ほるぷ出版)、「ひらめき!プログラミングワールド」(小学館)、「見た目にこだわるJimdo入門」(技術評論社)ほか。翻訳・解説に「お話でわかるプログラミング」シリーズ(ほるぷ出版)。

おすすめ

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です