「感情認識技術を使わないで」。27の人権団体がZoomに公開書簡を送る

  • 13,253

  • author Mack DeGeurin - Gizmodo US
  • [原文]
  • 福田ミホ
  • Twitter
  • Facebook
  • LINE
  • はてな
  • クリップボードにコピー
  • ×
  • …
「感情認識技術を使わないで」。27の人権団体がZoomに公開書簡を送る
リアルタイムで表情を分析するソフトウェア。こちらは2008年3月ドイツ・ハノーバーでのイベントCeBITで展示されてたもの
Image: John MacDougall - Getty Images

会議へのやる気が可視化されちゃうの、怖い。

27もの人権団体がZoomに対し、感情認識技術の開発を中止するよう求める公開書簡を発表しました。カメラに映る人の感情を自動判別する技術に対しては、今までにも専門家から精度の低さやテストの不十分さを指摘する声が挙がっています。

プライバシー侵害や差別を問題視

ZoomのCEO兼共同創業者Eric S. Yuan氏に宛てた公開書簡の中で、Fight for the Futureを中心とする人権団体グループは、Zoomによる感情データマイニングは「プライバシー及び人権の侵害」だと批判しています。また彼らは、感情認識技術には非白人にとって不利になるような偏りがあるとも主張しています。

人権団体グループはZoomに対し、ビデオ会議業界リーダーとしての役割を果たし、より小規模な会社が従うような基準を設定するよう訴えてます。書簡の中には「あなたなら、この技術がビデオコミュニケーションの中に存在すべきでないことを明確にできます」とあります。

会議参加者の感情を分析する技術

「Zoomがこうした計画を進めれば、この機能は特定の人種や障害のある人を差別し、数百万ものデバイスにステレオタイプを埋め込むことになるでしょう」と、Fight for the Futureのキャンペーンオペレーション担当ディレクターのCaitlin Seely George氏は言います。「ユーザーをマイニングして企業の営利活動に利用させるだけでなく、感情認識技術にはもっとよこしまで残忍な使い方がありえます」

感情認識技術はテック業界でずっと温められてきた技術ですが、最近はZoomのような消費者向けテック企業から新たに注目されるようになりました。今回の書簡は、Zoomが今年4月にProtocolの中で感情AIの活用法を研究中だと明かしたのを受けて書かれました。この記事では、Zoomが会議のホストに対し、会議後に参加者の感情を分析できる「Zoom IQ for Sales」機能をリリースする計画であることも書かれています。Zoom IQ for Salesでは、参加者がどれくらい熱意を持って会議に参加したかを分析できるらしくて、たしかに何かを売り込みたい人にとってはありがたいツールになるんでしょうね。ただ、会議参加者としては、自分のやる気とか意気込みが可視化されちゃいそうで、怖いツールにもなりえます。

Zoomにこの記事へのコメントを求めましたが、記事執筆時点では回答はありません。

そもそも感情は分類できる?という問題

南カリフォルニア大学のKate Crawford教授は、著書『Atlas of AI』の中で感情認識、または「情動認識」とも言いますが、それは「あらゆる顔を分析することで、感情を検知し分類する」ことを目指すもの、と定義しています。Crawford氏は、現在のシステムがその目標を有意義な形で実現できるという証拠はほとんどないと言います。

「顔の動きと基本的な感情カテゴリの間の関連付けを自動化することの難しさは、より大きな問題につながります。つまり、そもそも感情とは、いくつか少数のカテゴリに適切にグループ分けできるものなのかどうかということです」とCrawford氏。「顔の表情は、われわれの正直な内面状態をほとんど映し出さないのではないかという難しい問題があります。それは真にハッピーだと感じていないのに微笑んだことのある人なら誰でも実感できることです」

Zoom以外でも技術利用を検討中

そんな懸念をよそに、テック大手企業たちは感情認識技術を実際に試し始めていて、Intel(インテル)がバーチャル教室の中で使おうとしたとも言われています。感情認識は儲かる技術だと見られていて、最近の予測では、感情検知・認識ソフトウェア関連市場は2024年までに世界全体で560億ドル(約7.2兆円)に達するとされています。

「われわれの感情や最も深い部分の思考は、決して監視されるべきではありません」と、Access Nowのシニア政策アナリストDaniel Leufer氏は声明の中で言っています。「感情認識ソフトウェアは非科学的かつ単純すぎるデタラメであり、社会的に弱い集団を差別していることが繰り返し示されてきました。仮にそのような技術が正しく機能し、正確に感情を検知できたとしても、それはわれわれの社会に存在すべきではなく、Zoomなどの企業がプラットフォームを提供する会議やオンラインレッスン、その他の人間同士の対話の中で使われるべきではありません」

「感情」にペナルティが課される未来って

人権団体グループは書簡の中で、今まで学術関係者が表明してきた懸念を繰り返し、現状の感情認識技術は「差別的」で「エセ科学に基づいている」と主張しています。また、彼らはこの技術を性急に使うことで起こりうる潜在的な問題についても警鐘を鳴らしています。

「このような粗悪技術を使えば、学生や労働者、その他のユーザーにとって危険なことになりえます。彼らの雇用主や学校や他の組織が、このAI技術の判断に基づいて、彼らが『間違った感情を表出』したとしてペナルティを課そうとするかもしれないからです」と書簡にはあります。たとえば校長先生のお話中に「ケッ」みたいな顔をしたから校庭10周みたいなこと、今までもあったのかもしれないけど、自動化されるとそれがすごく簡単になっちゃうんですよね。

人権団体はZoomを批判するだけじゃなく、歩み寄る姿勢も見せ、ビデオ通話のエンドツーエンドの暗号化を組み込んだことや、会議参加者の意識トラッキングを削除したことを高く評価すると言ってます。

「今は、あなたが自身のユーザーと社会的評価に配慮していることを示すさらなる機会です」と、人権団体はZoomのYuan氏に対し書簡で言っています。「Zoomは業界リーダーであり、あなたがわれわれのバーチャルな未来を支えていくことを数百万人が期待しています。あなたにはリーダーとして、この分野の他の企業に対し道筋を示す責任もあります」