Smart News幹部、AIがニュースを書くリスクを語る

  • author Mack DeGeurin - Gizmodo US
  • [原文]
  • 福田ミホ
  • X
  • Facebook
  • LINE
  • はてな
  • クリップボードにコピー
  • ×
  • …
Smart News幹部、AIがニュースを書くリスクを語る
Image: Arjun Narayan

大惨事になるのをただ待ってるつもり? と。

コンピューターが説得力あるニュース記事を書くというアイデアは、ほんの数カ月で「ありえないデタラメ」から「現実」になり、すでに読者を混乱させています。

ライターや編集者も、政治家たちも、AIの生み出す文章がニュースに混在する世界でどんな基準を作りいかに信頼を維持するべきか、てんやわんやです。

CNETのような大手メディアでも生成AIに手を出したのを見とがめられ、ChatGPTスタイルのチャットボットが書いた記事を修正させられました。AIチャットボットには、まだまだ間違いが多いのです。

Insiderのように、もっと抑制的な使い方を模索するメディアも存在はします。一方でもっと終末感漂うところでは、低質なコンテンツファームがすでにチャットボットでニュース記事を乱造していて、その中には危険をはらむ誤情報も入っています。

こうしたAIの使用例は、今はもちろん粗削りですが、技術の進化とともにより洗練されていくことでしょう。

AIの透明性・説明責任に関する問題は、SmartNewsの信頼性・安全性担当責任者のアージュン・ナラヤン氏にとってもっとも難しい課題のひとつです。

SmartNewsは今150以上の国でニュース発見アプリを提供していて、その中では「世界の上質な情報を、それを必要とする人々に届ける」という目的で作られた推薦アルゴリズムを使っています。

ナラヤン氏は、SmartNewsの前にはTikTokを運営するByteDanceやGoogle(グーグル)といった会社で信頼・安全性担当リーダーを務めてきました。

AIによるニュース生成が提示する課題は降って湧いたように見えるかもしれませんが、じつはある意味、ナラヤン氏が20年以上見守ってきた推薦アルゴリズムやAIプロダクトの蓄積の結果とも言えます。

ナラヤン氏は米Gizmodoのインタビューに応じ、現状の複雑さや報道機関がAI生成コンテンツに対してとるべきアプローチ、生成AIの近未来といったことを語ってくれました。

AIのふたつのリスク

Q: 信頼や安全と言った観点から見て、生成AIが与える最大かつ未知の課題はどんなものだと思いますか?

A: ふたつのリスクがあります。ひとつはAIシステムが正確に訓練されるか、適切な正解データにより訓練されるかどうかということです。AIの判断をさかのぼって、なぜその判断に至ったかを理解するのは難しいので、AIシステムの訓練に使われるデータすべてを慎重に調整・選択することが非常に重要です。

AIが何か決定するとき、何らかのロジックにその要因を求めることは可能ですが、ほとんどの場合は多少のブラックボックスになります。AIは真実ではないこと、存在すらしないことをでっち上げる可能性がある、と認識することが大事です。

業界用語では「ハルシネーション」と言います。そこですべきなのは、「十分なデータがありません、わかりません」と言うことです。

もうひとつは、社会にもたらす意味です。生成AIがより多くの産業分野に普及するほど、そこには破壊が起こります。

そうした技術的破壊を受け止められるような、適切な社会・経済秩序があるのかどうか、自問すべきです。

排除され、職を失った人はどうなるでしょうか? かつては主流になるために30年、40年かかったことが、今では5年とか10年で起きてしまいます。

だから政府や規制当局には準備する時間がありません。または為政者がガードレールを設置する時間もありません。こういったことは、政府も市民社会も皆でしっかり考え抜く必要があります。

透明性確保と、人間による校正

Q: 報道機関がAIを使ってコンテンツを生成しようとしている最近の動きに関しては、どんな危険や課題があると思いますか?

A:どの記事を完全にAIが書いていて、どの記事はそうでないのか、検知が難しいことを理解することが大事です。違いが薄れつつあるのです。

私がAIモデルを訓練してあなたの記事の書き方を学ばせたら、次にAIが生成する記事はあなたのスタイルになるかもしれません。まだそこまで来てはいないと思いますが、将来的に実現する可能性は高いと言えます。

だとすると、ジャーナリズムの倫理に関する問題があります。それはフェアなことなんでしょうか? 誰が著作権を持ち、誰が知的財産権を持つのでしょうか?

何らかの第一原理が必要なんです。個人的には、AIが記事を生成すること自体はまったく問題ないと思いますが、ユーザーに対してそのコンテンツがAIの生成したものだと開示する、透明性が大事です。

記事の署名部分、またはディスクロージャー部分で、そのコンテンツが部分的にまたは完全にAIによって作られたものだと明示することが重要です。品質基準や編集基準に合致する限り、使ってもいいんじゃないでしょうか?

もうひとつ第一原理を言いますね。AIがハルシネーションしたこと、または出てきたコンテンツが不正確な事実を含むことはたくさんあります。

メディアや発行者でも、またはニュースアグリゲーターであっても、編集チームなり基準チームなりを持って、AIシステムから出てくるものを全部校正する必要がある、と理解すべきです。正確性や政治的偏向についてチェックするのです。まだ人間の監視が必要ですから。

編集基準や価値観に照らすための、チェックやキュレーション作業が必要です。こうした第一原理が満たされる限り、私たちは前に進めると思います。

最終責任は人間に

Q: でもAIが記事を生成し、そこに主張や分析を注入したらどうしますか? 元になったデータをたどれないとしたら、読者はどうやって、その主張の出どころを見分けられるでしょうか?

A: 一般に、人間の著者がAIで記事を書いているとしたら、その人間がやはり著者であると考えられます。組立ラインのようなものです。

トヨタの組立ラインで、ロボットが車を組み立てているとします。最終製品に不良品のエアバッグが組み込まれていたとか、ハンドルが効かなかったとかの問題があった場合、ロボットがエアバッグを作ったという事実とは関係なく、トヨタがその件の責任を負いますよね。

(ニュースの)最終アウトプットにおいては、責任を負うのはニュース発行者です。発行者がそこに名前を載せるのです。

なので著者が誰かとか政治的偏向とかに関しては、AIモデルがどんな主義主張を注入したとしても、ニュース発行者がハンコを押すんです。

自動生成検知手法に投資が必要

Q: まだ黎明期ですが、すでにコンテンツファームがAIモデルを使っているという報告があります。その多くは非常に怠惰なやり方で、低品質な、またはミスリーディングなコンテンツを生み出すことで、広告収入を得ようとしています。

一部の発行者は(記事制作にAIを使っているということの)情報公開に同意していますが、こうした行為がニュース全体への信頼を落としてしまうリスクはありますか?

A: AIの進歩にしたがって、多分AIが書いたものかどうかを検知する方法は出てくるでしょうが、それもまだ技術の初期段階です。正確でもないし、効率的でもありません。

合成メディアと非合成メディアを見分けられるよう、信頼性・安全性の界隈がキャッチアップする必要があります

動画に関しては、ディープフェイクを検知する方法はある程度ありますが、これも正確性がまちまちです。AIの進化とともに検知技術も向上すると思いますが、さらなる投資と探索が必要な分野です。

コンテンツ監視も人とAIの連携で

Q: AIの加速で、ソーシャルメディア企業がますますコンテンツモデレーションにAIを利用するようになると思いますか? 人間のコンテンツモデレーターの役割は、将来的にもずっと存在するのでしょうか?

A: ヘイトスピーチや誤情報、ハラスメントといったそれぞれの課題について、人間のモデレーターと一緒にモデルが使われています

成熟した課題に関してはかなり高精度になっていて、たとえば文章内のヘイトスピーチなどです。AIはかなりの度合いで、ヘイトスピーチが公開されるごとに、または誰かがタイプしている最中に、それを検知することができます。

正確性は、すべての問題分野に関して同じではありません。ヘイトスピーチであれば100年前からあるので、検知モデルもかなり成熟しているのに対し、健康や新型コロナウイルスに関する誤情報に対しては、AIのさらなる訓練が必要かもしれません。

今のところ言えるのは、人間の与える文脈が大量に必要だということです。モデルはまだそこまでできていません。

処理の中にはまだ人間がいて、信頼性・安全性分野においては人間と機械学習の連携が存在し続けるでしょう。技術はつねに、脅威を与える存在にキャッチアップし続けます。

リスクを考え抜くべき

Q: 最近、信頼性・安全性チームのかなりの人員を解雇した大手テック企業についてはどう思いますか?

A: 心配です。信頼性・安全性だけでなく、AI倫理のチームもですね。

テック企業とは、同心円のようなものだと思います。エンジニアリングが一番中心の円ですが、採用やAI倫理、信頼、安全などは一番外側の円なので、手放されてしまうんですね。

我々は投資を引き上げていって、大惨事が起こるのをただ待つのでしょうか? その後再投資したり、軌道修正したりしたくても、手遅れになってしまうんでしょうか?

私が間違ってると証明してもらえたらうれしいのですが、やはり全体的に心配なんです。こういうステップをしっかり考え抜いて、リスク回避のためだけに頭を使う人が、もっと必要です。

でないと、我々の知る社会が、自由な世界が、非常に大きな危険にさらされます。正直、信頼性・安全性にはもっと投資が必要だと思っています。

Q: AIのゴッドファザーとも呼ばれるジェフリー・ヒントン氏が、AIに関する仕事を後悔していると公言しましたネット上の何が本当か判断が難しい時代に急速に近づいているのではないかと恐れている、とも言っています。彼の発言についてどう思いますか?

A: 彼はこの分野におけるレジェンドです。彼こそは自分の発言の意味をしっかりわかっている人物です。彼の言っていることには真実味があります。

慎重に楽観していく

Q: あなたがおもしろいと思う技術に関して、もっとも有望なユースケースにはどんなものがありますか?

A: 私は最近、父をパーキンソン病で亡くしました。13年間の闘病の末です。パーキンソン病やアルツハイマー病について調べると、こうした病気は新しいものではないのですが、研究や投資が十分ではありません。その研究を、人間の研究者に代わってAIがしてくれるならどうでしょう?

または、AIが我々の思考の進化を助けてくれるならどうでしょう? それは素晴らしいんじゃないでしょうか。私はこれこそ技術が人間の生活の向上に大きく役立つところだと思います。

数年前、人間の臓器に関しては、その技術があったとしてもクローンを作らないという世界的宣言がありました。

それには理由があります。そんな技術ができてしまうと、ありとあらゆる倫理的問題が出てくるからです。第三世界の国で、人間の臓器が収穫される事態になってしまいます。

だから私は、政治家がこの技術の使われ方や、どんな分野で利用すべきか、どんな分野では使えないようにすべきかを考えることがきわめて重要だと考えます。民間企業が決めることではありません。これは政府が考えるべきことなんです。

Q: 楽観と悲観のバランスという意味では、AIの現状についてどう感じますか?

A: 私は楽観的な人間です。とはいえ、これは言っておかなくてはいけません。

私には7歳の娘がいて、彼女がどんな仕事をするだろうかと時々自問しています。20年後には、我々が今知っているような「仕事」とは、根本的に変化していることでしょう。

我々は未知の領域に入りつつあるのです。私はワクワクしながら、慎重に楽観視しているのです。