ChatGPTやらMidjourney…生成系AIって今年どうなる?

  • 8,875

  • X
  • Facebook
  • LINE
  • はてな
  • クリップボードにコピー
  • ×
  • …
ChatGPTやらMidjourney…生成系AIって今年どうなる?
画像ジェネレーターは楽しいけど、置き去りになってるものも
Image: local_doctor / Shutterstock

進化が進む一方で、いろんな戦いも表面化していきそう。

OpenAIのChatGPTには、記事の執筆も(一応)頼めるし、「クールなガチョウの子守唄を書いて」なんて頼むこともできます。MidjourneyやStable Diffusion、DALL-E 2などなどの画像AIには、そんなガチョウの絵を描いてもらうこともできます。

米CNET、AIにひっそり書かせた記事が間違いだらけだった

CNETだけの問題じゃない。ネット上から得た知識を元にそれっぽい文章を一瞬で書き上げてくれるAIチャットボット、ChatGPT。きれいな文章を一瞬で編み出せて...

https://www.gizmodo.jp/2023/01/cnet-ai-chatgpt-news-robot.html

でも、そこには倫理的な問題があります。AIがガチョウの絵本を描いてくれたとしても、絵本作家みたいな労力をまったくかけてないのに、普通にその本を売ってもいいんでしょうか? その場合、著作権はどこに帰属すべきでしょうか? AIを学習させるのに使われた絵本の著作権はどうなるんでしょうか?

とはいえ、技術は急速に進化していても、今のところ生成系AIだけで売り物にしていいようなものをコンスタントに作れるかっていうと、それはまだです。でも、それを乗り越えるのがまだまだ先なのかもうすぐなのか、それもわかっていません。アート業界からは、GPTやDiffusionといった生成系AIシステムが画家の仕事を奪うんじゃないか?と懸念の声が挙がってます。アートだけじゃなく、例えばプログラマーやライターといった業界にも大きく影響します。生成系AIはいつ完成形になり、人間はそれに向けてどんな準備をすべきでしょうか?

そんな疑問の答えを求めて、3人の専門家の話を聞いてきました。3人それぞれ立場が違い、AIへの見方も違っています。

Irene Solaiman氏は、2019年から2021年にかけてChatGPTを開発するOpenAIに研究者兼公共政策マネジャーとして参加。言語モデルGPT2とGPT3のAPIのリリースに立ち会い、GPT3の安全性報告書を作成しました。彼女はまた不動産サービスのZillowで住宅予測モデルの倫理対応を担当していたこともあります。現在は機械学習リソースプラットフォームHugging Faceの政策ディレクターとして、倫理を守りながらのAI進化を検討しています。

Alfred Wahlforss氏は、ハーバードの大学院でデータサイエンスを研究しています。彼はStable DiffusionのデータとGoogleのDreamBoothを使い、フェイクのセルフィーを作り出せるアプリ「BeFake」を開発しました。Wahlforss氏はAIについて非常に前のめりで、強気の進化を求めています。

Margaret "Meg" Mitchell氏は、生成系AIが生まれてからの短期間に伝説となったAI研究者です。MicrosoftからAI倫理のリーダーとしてGoogle Researchに移籍しましたが、Googleは2021年「AIをポジティブに語るように」と社員に告げて彼女を解雇しました。Mitchell氏はその後も生成系AIの可能性と課題を発信し続け、現在はHugging FaceのChief Ethics Scientist(倫理担当主席研究員)に就任しています。

著作権をどう考える?

AIが画像やテキストといったコンテンツ生成に長けていくにつれて、人間が作るコンテンツの価値を落としてしまうリスクがあります。

実際、既にリアルな画像の代わりに安いAIを使う企業が出始めています。去年12月、SF・ファンタジー出版社のTorが、ストック画像サイトから買ったAIアートを新刊の表紙に使って大炎上しました。その表紙絵にアーティストのクレジットがなかっただけでなく、表紙に使うにあたって修正した人物の名前すらなかったんです。

ポーランドのファンタジーアーティストGreg Rutkowski氏たちは、彼らの作風を真似たAIアートが彼らのブランドを毀損すると主張しています。Concept Artists Associationなどの団体が、知的財産権・データプライバシー関連の法改正を求めていて、Rutkowski氏もそれを支持しています。Rutkowski氏がロビー活動資金のために立ち上げたGoFundMeには、記事翻訳時点で22万ドル(約2800万円)を超える資金が提供されています。

テキストから画像を生成するオープンソースモデルStable Diffusionを開発したStability AIは、AIに作風をコピーされたとするアーティストに譲歩の姿勢を見せています。Stable Diffusion 2のリリースでは、セレブリティを元にした画像やポルノ、実在アーティストの「画風」を真似たアートを生成しにくくしたのですが、ユーザーからは不満の声が挙がっています。2023年のリリースが見込まれるStable Diffusion 3に関しては、モデルが使う学習データから作品を「オプトアウト」できるようにもなります。

なのでStability AIは、作品を明示的にコピーさせないような対応はしたわけです。それでもアートや肖像画の発注を受けて生活が成り立っている人たちの間では、AIアートが普及すると厳しいという見方が広がっています。

といっても、今すでに悲惨な状況というわけじゃありません。Mitchell氏は、AIのメリットを感じるアーティストも中にはいるといいます。AIが生成するコンテンツをベースにして作品化すれば、作業を早められるからです。

Mitchell氏は言います。

自分の作品が盗まれると訴えるアーティストの中には、AIではないリアルなアーティストいう意味で、価値を高められる人がいるかもしれません。その人は売り上げを増やせるかもしれないし、少なくともオリジナル作品の価格は上げられるでしょう。

AIのウソやバイアス、どうする?

2022年11月、MetaのGalactica AIはリリースからたった2日で公開停止させられました。ウソや誤情報を広めてることが発覚したからです。検証してみたMichael Black氏によれば、「1つの画像か動画から、着衣の人間の3Dアバターを推定する」方法をGalactica AIに聞いてみたところ、実在する人物のものとして、架空の論文とGithubのレポジトリが自信満々で返ってきたそうです。

Mitchell氏はこうも言います。

とにかく何かひねり出そうという強い圧があるんです。間違っていても後で謝ればいいと思ってるか、謝ってすらこないかのです。より安全な作りにするための動機づけは、悪評が立つのが怖い、または高評価を得たいという思いです。それによって推進されるものは、最低限でしかありません。

Stability AIのCEO、Emad Mosteque氏は、彼の言葉を借りると「誰もが思い浮かぶものを作れる状態に対する、あらゆる障害」に反対の立場を表明しています。Stability AIは出力に制限を設けましたが、オープンソースなのでユーザー側で自由に改変して制限を外せます。Mosteque氏は元ヘッジファンドマネジャーで、テクノロジーを限界まで進化させたいと強気です。

でも、進化を急ぎすぎると、システム内部のバイアスが露呈してしまうこともあります。現在ある生成系AIがより洗練されリアルになることはほぼ間違いありませんが、モデルが改善するほど人種差別やヘイトスピーチ推進に使われる可能性も高まります。

生成系AI分野の企業の多くは、一歩間違えば炎上の可能性があることを意識してるようです。Metaの言語モデルBlenderBotは、人種差別の話題を振ると挙動不審になります。そんな事情もあって、Googleもチャットボット LaMDAの公開には後ろ向きでした。つまりGoogleは、自分たちより小規模で軽はずみな会社に先を越されただけともいえます。

Solaiman氏は言います。

あらゆる生成モデルには有害なバイアスがあります。「garbage in, garbage out(訳注:ゴミを入力すれば、出力もゴミになる)」という言葉がありますが、出力の質が向上すれば、害のリスクも高まるのです。

誰がAIに立ち向かう?

Mitchell氏は、AI開発のスピードを緩めるために何が必要か、歯に衣を着せません。

誰かに重大な被害でも出ない限り、例えば子どもがAIの生成した誤情報を元に漂白剤を飲んで死亡といったことがない限り、AIがいかに有害で問題になりうるかという世論は沸き起こらないと思います。

著作権関係の法廷闘争は既に起きています。ニューヨークのアーティストKris Kashtanova氏は去年、AIアート生成のMidjourneyを作品のベースラインに使ったグラフィックノベルの著作権を認められました。生成系AIを使った上で著作権が認められたのは、Kashtanovaが史上初でした。

でも、問題はMidjourneyの使用は表紙に書かれていたのに、著作権局がその意味を理解してなかったことです。10月にKashtanova氏は、著作権局がその作品に関して著作権取り消しを通告してきたことを明かしました。彼らは弁護士を通じて異議を申し立てたんですが、その文書の中では、Midjourneyはあくまで鉛筆や筆と同じような「道具」として使ったのだと説明されています。

別のケースでは、ソフトウェア作者とAIが対立しています。Bloomberg Lawによれば、ソフトウェアデベロッパー2社がOpenAIを相手に集団訴訟を起こしたんです。彼らいわく、OpenAIのCopilotというプログラムはコードをゼロから作ることになっていますが、実際は著作権保護されたコードを借用、またはそのままコピーしています。GitHubのようなサイトにホストされたオープンソースソフトウェアで学習されているからです。

2023年には、似たような訴訟がもっと起こりそうです。ゲーム『Dead by Daylight』のアーティストEric Bourdages氏は、AIが生成したミッキーマウスなど著作権保護されたキャラクターのグッズを販売するキャンペーンをTwitterで立ち上げました。Disneyみたいな訴訟に前向きな会社が、AI画像をどこまで許容するのか試しているんです。彼いわく「法的には、Disneyからは何の要求もできないはずです。AIモデルの利用規約によれば、こういう画像は著作権を超越していて、パブリックドメインだそうなので」。

Solaiman氏は言います。

知的財産権は、特に画像関係では、今後本当に大問題になると思います。オープン性に関する議論の中で考えるべき大きなポイントの1つは、AIモデルには非常に大きな力が集中していること、そして誰がこうしたモデルを学習させられるのかということです。単に持っているリソースが大きいだけではなく、どういうデータにアクセスできるのかということなのです。

これまでの訴訟では、Webから取れる画像を自動的に保存する行為は合法だと認められるのが普通でした。でも、Mitchell氏は今後の訴訟や法整備の中で、著作物のフェアユースの法的枠組みが問い直されると言います。AIが使えなくなるような「透かし」を入れる試みもありますが、「技術の進歩に付いていけていない」ようです。

米国の法整備では、AI技術にブレーキをかけるような動きはなさそうです。EUでは「AI法」が2021年に提案されて、最近制定に向けたヤマ場を越えたのですが、それは社会的スコアリングや生体認証にAIを使うことに焦点を当てたもので、生成系AIに関するものではありません。

生成系AI、次はどうなる?

Mitchell氏によれば、テキスト生成は進歩する一方だし、システムがユーザーの意図を理解する能力も改善します。1年ほどすれば、AIがユーザーのフレーズの文脈を読み取れるようになり、ユーザー側は意図をうまく伝えるためのプロンプトを集めて共有したりする必要はなくなることでしょう。

そうすれば対話のデータがさらに増え、新しいモデルがそのデータを学習できます。するとチャットAIの中で、より長くて詳細な会話が可能になるかもしれません。としたら、健康支援のためのAIベースのチャットReplikaのようなシステムが、より洗練されて増えていくことになるかもしれません。

Wahlforss氏は、学習データを増やすことでAIがもっと成長できる余地が大きいと言います。GPT3はSolaiman氏いわく「考えられない」サイズである43TBのデータで学習していますが、これからのプロジェクトに比べたら、それでもフロッピーディスクみたいなものです。例えばLAION 5BというデータセットはWebから取得した56億件の画像群で、データ量は250TBに及びます。

でも、進化はそんなもんじゃありません。RunwayMLは1枚の画像に基づいて、何もないスペースから新しい画像を生成できます。なのでオリジナルなAI生成に関しても、さらなるイノベーションが期待できます。Solaiman氏はまた、RunwayMLには非常に有能な人材が集まっているとも言っています。

Solaiman氏は、Nvidiaのような企業の動きにも注意を向けています。Nvidiaの高性能なグラフィックスプロセッサーによって、AI開発のスピードを上げられるかもしれないからです。NvidiaはAI用スーパーコンピューターDGXも開発していますが、米国政府が中国への輸出を規制していることがちょっと足枷になるかもしれません。

ハードウェアとAIアーキテクチャの進化により、「来年にはDiffusionモデルの真価が発揮されるかもしれない」と氏は言います。例えばテキストからHD動画を生成するといったことです。現在のモデルは公開されておらず、短くて低解像度な動画しか計算できませんが、より複雑なものが一般向けに使われるのもそんなに遠い日じゃなさそうです。

言語モデルのGPT4がどこまでいけるかも大きな関心を集めてます。GPT4はすでにコードの生成やデジタルアシスタントとして役立つことが証明されました。専門家は、こうした目的のAIは来年にかけて高度化するばかりだと言います。

ChatGPTがGoogle検索の代わりになると言う人もいますが、Mitchell氏はAIモデルをお金にする方法を編み出した人がいないことを指摘します。Googleは検索ページに貼った広告で収入を得ていますが、OpenAIはそのアルゴリズムの中で企業を重視するようになるのでしょうか? 生成系AIでの収益化といったら、今はサブスクリプションくらいしかありません。

これから注目のプロジェクトは?

Solaiman氏は、これからオープンソースのAIプロジェクトがもっと出てくるのが楽しみだと言います。あらゆる集団にマッチする統一されたモデルはないからです。ただ大企業と小企業では、使えるデータ量に大きな差があります。

Solaiman氏は言います。

計算資源のギャップについてはよく考えます。特に研究者は企業ほど計算能力を使えないのです。だから私は、誰でも使える、できれば政府・自治体が提供する計算クレジットというアイデアが良いと思うのです。また、それは西洋中心でなく、グローバルなものであるべきです。

Mitchell氏の注目は、架空のキャラクターや歴史上の人物を模したチャットボットを作り出すCharacter.aiです。それは「ChatGPTのような使われ方になってもいい段階にある」とMitchell氏は評価します。また、GoogleとDeepMind、Metaの元社員たちが作ったAdept.aiも興味深いそうです。ここは例えば普通なら人間を必要とするようなタスクを自動化するAIアシスタントを開発しています

コミュニケーション支援用の新たなシステムへのニーズもあります。Mitchell氏は行動支援技術開発に携わっていた経歴があり、例えば脳性小児まひなどで言葉を話せない子どもの生活を支援するようなAIデバイスの可能性があると言います。

Mitchell氏はこうも言っています。

我々は画像生成、テキスト生成において素晴らしい成長を見てきました。だから発話生成もそんなに遠くないのかもしれませんが、遅れを取っています。それには、今起きていることとは違うアプローチが必要なのです。

GoogleがChatGPT対抗ボットをテスト中、その名も…

ChatGPTの急成長にあわてたように、Google(グーグル)も自前のAIチャットボット公開に向けて動いてるようです。CNBCによれば、Googleは「コード...

https://www.gizmodo.jp/2023/02/google-chatgpt-ai-bing-microsoft.html