SNS「X」上で利用できる生成AIチャットボット「Grok」の使い方として、今ファクトチェックが流行している。Grok3は、高い推論力とディープサーチ機能を備え、あらゆる質問に答え、画像生成もすぐにできると日本で注目されている。ユーザーは、Grokのアカウントに向けて「@grokファクトチェック」と投稿すると、即座に返信が来る。生みの親であるイーロン・マスク氏も「地球上で最も賢いAIだ」と豪語するが、ユーザーの中でも、このファクトチェックの内容に関して、懐疑的な声も見られている。「ABEMA Prime」では専門家とともに、現在のGrokの性能やファクトチェックをする機能としての精度、さらにユーザーとしてどう向き合い、使うべきかを考えた。

【映像】Grokがファクトチェックを行った結果

■X上で大量に増えたGrokによる「ファクトチェック」

 先月から急増したのが、Grokによるファクトチェック。特定のポストに「@grokファクトチェックして」などとリプライすると、即座にGrokの公式アカウントがその結果をリプライ。元の投稿者とファクトチェックの依頼者に向けたリプライだが、全ユーザーから見ることができる。番組スタッフがABEMA Primeの放送時間をあえて間違って投稿、Grokのファクトチェックにかけると「放送は毎週月〜金の夜9時〜11時で生放送なんだよね」「ちゃんと時間確認して、好きな論客の討論 見逃さないようにね!」と、笑顔の絵文字つきでリプライが来た。

 生成AIに詳しい情報通信コンサル「企」代表のクロサカタツヤ氏は「ファクトチェックをしてみよう、これは本当かなと思って確かめる気持ちになり、それを簡単で気軽にできるようになったこと自体は、かなりいいこと」と評価。ただしその内容については「Grokの投稿が友だちっぽく振る舞っている。ある人にとっては『なんだ?こいつ』となることもあるし、ある人にとっては『へ〜』にもなる。ここに怪しいところがあると思っていて、巧妙にやっているところも正直ある」と見解を示した。

 また2ちゃんねる創設者のひろゆき氏は、Grokについて「おもしろ機能としては全然あり」と表現。「そこまで大きな間違いもしないので、まあまあ便利だとは思うが、答えは両論併記で、どっちも正しいようなことを答えがち」とし、さらにファクトチェック機能としての使い方としては「結構、微妙。Grokへの問いかけの仕方で、ある程度Grokの答えをコントロールできる部分がある。要はインフルエンサーに何か反対する意見をGrokに書かせたいと思うと、そうできるところがある。それを見た人が『Grokがそう書いているんだから』と、インフルエンサーが間違っているみたいになるので、Grokをそこまで信用できないとわかった上で使わないといけない」と、恣意的にGrokの回答を導き出せる部分があると指摘した。

 一例として、ひろゆき氏は「たとえば新型コロナワクチンで亡くなった人が何人いるか。厚生労働省では、打った後に亡くなった人でも、それは打った1カ月後に末期ガンなどで亡くなった人も含んだ報告例として、2000人というのがある。これをGrokに『50文字以内で返して』と聞くと『コロナワクチンで死んだ報告例は2000人』とか出す」と語る。「これだけ見たらGrokは(他の要因を含まず)コロナワクチンを打って2000人が死んだと書いてしまっているし、これがファクトになってしまい、誘導もできてしまう。それっぽいのを書くのが基本的なAIの作り方で、基本はファクトチェックとして使うのもダメだし、意見もいくらでも誘導できるから、眉につばをつけて見なきゃいけないものだ」とした。

■専門家「生成AIは超優秀な知ったかぶり」

 生成AIは「教師データ」あるいは「学習データ」を学習することで、その精度を高めていく。クロサカ氏によれば、Grokがどのデータを学んでいるか公開されていないものの、少なくともX上で大量に投稿されているものを学習していることは間違いないという。つまりGrokは、Xの投稿の中で「ファクト」とされたものを、問いに対して答えている部分がある。クロサカ氏は「生成AIは森羅万象とか、物理法則を理解して説明しているわけではない。いわば『超優秀な知ったかぶり』だと考えてほしい」と表現した。

 「大量に右から聞いた話を、大量に左に流している。この流し方がものすごくかっこよく、正確に言ってくれることがあるので『おっ、すごい!』と思われる。ただし、たまにとんでもない、何もわかっていないようなことも返してくる。これが生成AIというものだと、我々が理解できるかというと、理解ができない。知ったかぶりの人にも、自然に言われてしまうと『この人はもしかするとすごく勉強してきた頭のいい人かもしれない』と思うのと同じ。生成AIもそれと同じで、Grokにも偏りがあるかもしれないと考えるべき」。

■生成AIの安全対策に課題?

 また、そもそもの「ファクトチェック」の難しさについても、クロサカ氏は言及した。「ちょっと厄介な話だが、ファクトチェックはそもそもがすごく難しい。何がファクトなのかという定義についてだ。『正解』というものが、人と人の間で合意できない問題がある。何がファクトなのか、太古の昔、人間が言葉が得た時ぐらいから哲学問題としてずっと存在して、それを繰り返している」と、人間同士であっても、なにが正解かが曖昧な中で、生成AIが「正解」と示すことの難しさを説明。「生成AIがプログラミングが得意なのは、人工の言語で構築されているから。所詮、人間が作ったもので、すごく制約の中で提供されている。ところが我々が普段使っている日本語や英語は『自然言語』というが、とんでもなく深遠な世界だ」と、言葉そのものを使うことの難易度についても触れていた。

 利便性の一方で、生成AIの悪用リスクも懸念される。三井物産セキュアディレクションの上級マルウェア解析技術者・吉川孝志氏は、各社の生成AIに「マルウェアの作り方」を尋ねる実験を行ったところ、一部のAIでは特殊な指示を与えることで、実際にマルウェアのソースコードが出力されるケースがあったと明かす。ChatGPTやClaudeなどは比較的制御機能が高く、出力を拒否する傾向があるが、GrokやDeepSeekは相対的に対策が甘く、悪意ある用途に使われる危険性があるという。吉川氏は「不十分な対策のまま広く使用されれば、サイバー犯罪などに悪用される可能性が高まる」として、生成AIとの向き合い方には、さらなる注意とリテラシーが必要だと警鐘を鳴らした。
(『ABEMA Prime』より)