1
/
5

個人のプライバシーとAI 〜ABEJA倫理委員会「Ethical Approach to AI」の議論から(下)〜

顔つきなどから支持政党や性的指向が予測できるというAIの研究報告が出ています。技術的に実現可能なことが急増する一方、場合によっては個人を傷つける結果を引き出すことになりかねません。

科学技術社会論研究者の江間有沙さん、情報工学者の松原仁さん、独立研究家の山口周さん、そしてABEJAメンバーが、率直に語り合いました。議論の一部を紹介します。

AIが晒してしまうもの

本人が望まないことまでAIが分析し、晒してしまう可能性があることの是非について、様々な意見が出ました。

松原委員:去年「顔写真から支持政党が分かる」という論文を、スタンフォード大の研究者が発表しました。人種と性別と年齢層で分けても75%は正解らしいのですが、論文によると 顔の向きと感情表現が支持政党によって違うと言っています。「本当かな?」と。

「リベラル派は、顔を真っすぐに向けている」とか「驚きの表情をしているのはリベラル派のほうが多い」とか、研究者は一生懸命、予測の結果が説明可能だと強調しているんですが、説明可能なのはごく一部です。我々人間には分からない何かをAIが分かってしまった、としか今は言いようがありません。

ちなみに、この論文の筆者の一人は2017年、ディープラーニングで性的指向が予測できるという論文も発表しているんですね。

江間委員:性的指向を隠してない人ももちろんいると思いますが、否定したい人や抵抗している人、あるいは曖昧なままにしておきたい人や気づいていない人にも、AIの予測結果で「あなたの性的指向は何々です」と言われてしまうのは、本人の了解を得ずに暴露する「アウティング」行為ともいえます。それができてしまうと、いろいろな主義・信条に、暴力的なまでに侵襲してしまうことになります。

松原委員:今回の議論のテーマにも関わりますが、顔や表情から、他人に知られたくない、プライベートな情報まで分かってしまうんです。本人が公表していない人間関係、例えば「この人はこの人をあまり好きじゃない」「好意を持っている」という情報は、人事においては大事かもしれませんが、だからといってただちに「把握していい」とはならないですよね。

ABEJA山本:例えば面接の候補者を見るだけで「この人はやる気がある」かどうかすぐピンとくる面接の達人がいたとして、それをAI化することの是非も考えないといけませんね。「面接の達人のノウハウをAIにしただけだ」と言えば、そうかもしれない。熟練工のノウハウをAIモデルに移す際の説明と、まったく同じ説明ができるわけですが。

ABEJA古川:検品だとモノが相手ですが、人事は相手が人間だから特別なのだ、という論点を考えるのかどうかですね。

山口委員:ゲノム解析で、その人の特徴を明らかにするサービスがあります。僕も試しに受けました。結果はメールで来るんですが、このデータにはどういう意味があって、統計はどういう誤謬を含む可能性があるかという、統計の基本リテラシーを問うクイズに全問正答しないと結果が見られないんです。

なぜそんな方法をとっているかというと、アメリカで大問題になったからです。20代の男性が、ALS(筋萎縮性側索硬化症)を極めて高い確率で将来発症する可能性があるという遺伝子解析の結果を見て自殺してしまったんです。ご家族がその会社を相手どって訴訟を起こし、結果、その会社は莫大な補償をさせられて潰れました。だから遺伝子解析の結果は、あくまで統計的な傾向の話でしかない、と念を押しているわけですね。

もう1つの例が、その人のSNSの投稿をディープラーニングさせると、精神疾患を発症するリスクがだいたい分かるというもの。

僕はヘッドハンティングの仕事をやっていましたが、新入社員を採るのと、例えば年収2000万円でプロフェッショナルを採る時のリスクには差があります。前職の人に「この人、どんな人ですか?」とリファレンスをとるのは、幹部クラスの採用では当たり前に行われています。でも新入社員にはほとんどされていません。情報収集コストが高いからです。

でも例えばクローラーみたいなロボットで、インターネットやSNS上でその人に関わる情報をザッと集め、そこからある程度のリスクが出るとなれば、当然新入社員にも使う会社が出てくると思うんです。

その人のSNSをスキャンし、「極めて高い確率で一種のサイコパスである可能性がある」「メンタルヘルスを発症する可能性がある」という結果や、「この人、SNSで攻撃的なことを言っている。同僚とうまくやれる確率が標準の50%台より低い」という結果が出たとします。最終面接の合格後、こうした結果が出ていたことを理由に「不合格にしましょう」となった場合、その判断がマズイのか否かという話ですよね。

例えばこの会社が倫理を重視する上場企業で「人間が『いい』と判断したのだから、いったん入社させる」と決め、それが結果的にコンプライアンス違反につながったとする。リスクを把握していたのに、幹部としてその人を入社させてコーポレートバリューを棄損したとなれば、株主から訴訟を起こされる可能性がありますよね。

採用する側とされる側の間に、情報の非対称性は必ずある。その非対称性を埋めるために、ありとあらゆる情報を使って何らかの意味出しをするのは、株主からしたら当然やってほしい「最大限の努力」です。そこをあえて封印する、というマネジメント側のモラルはどうなのかが問われると思います。

ABEJA高橋:採用におけるリファレンス情報は、「なぜ行うのか」「結果をどう意思決定に反映するのか」を決めないまま運用を始めてしまうと、情報が増えたことによってかえって困ったことになってしまいます。ゲノム解析の例で触れられていたように、データや情報が増えるほど使う側のリテラシーが重要になってくると、実感としてもあります。

例えば、出生前診断や遺伝子検査が普及し、結果を受けた当事者のカウンセリングを担当する専門職として遺伝カウンセラーが求められるようになったのと同様、得られる情報の増加に合わせて、取り扱う側のリテラシーやサポート体制も同時に高めていかなければならない。PAの領域でも、同じことが言えると思いました。

山口委員:アカウンタビリティという観点からすると、AIはその意味付けが難しい面があります。「説明に納得できないと処置できない」という話が先ほど出ましたが、説明できないからこそAIやディープラーニングを使う価値があるとも言えます。人間の頭で入力と出力の関係を理解できるのなら、そもそも人工知能を使う意味がない、ということにもなりえます。

データとプライバシーの関係

ABEJA高橋:冒頭議題に上がった、データ取得とプライバシーの関係についてはどう考えるといいですか?

例えば、Slackというコミュニケーションツールでは、オープンチャンネルであれば、個人の発言内容や量を見ることができます。そこまでは「オープンだからいいよね」という感じがしますが、ではDMや個人メールはどうでしょうか?PAに使うべきデータとプライバシーの兼ね合いについて、どう考えればよいでしょうか?

ABEJA古川:法律の世界ですと、会社貸与のパソコンや、会社のメールアドレスで打ったメールは、会社が分析に使っていいだろうと言われています。どこの会社も「私用禁止」となってますから「全部、業務に関するメールでしょ?」が前提です。

本当は勤務中のメールのうち一部は、実際はプライベートなものだと会社も承知しているわけです。でも「規定上そうなっているんだから、会社が必要だと判断したらPAにも使っていい」と。

ただ、不正調査のような場合は事前報告なしに調べてもいいけれど、PAのようなテーマで活用したいのであれば、社内規定に「分析します」と書いておくとか、従業員に事前に告知しておいたほうがよい、とは言われています。

でも、それが倫理的な側面から見て本当に問題がないといっていいのか。例えばそうやって取得されたデータを分析し「この人はこういう行動をしているから、人事評価を落とせ」などと判断していたとしたら、どう考えても駄目だと思います。

データがそもそもの目的から離れ、本人が触れられたくないような領域まで侵すような使われ方になってしまうことを危惧する意見も出ました。

江間委員:人事目的の使用の範囲が、使っているうちに徐々に当初の目的外まで広がっていったらよくないですよね。

最初は採用のためと言っていたことが、育成、人事評価、健康経営、最終的に本人が触れられたくないような領域にまで広がって「全部PAの範囲だ」と言われてしまうと「それは目的外使用ではないか?」と思うんです。

「ピープルアナリティクス」という、このカタカナ語の汎用性の程度が従業員と経営者でズレていると、法的には問題がなかったとしても「そこまでは想定していませんでした」と言われる可能性が出てくると思います。

PAを使う側としては、最初はフワッと「組織をよりよくするために、PAを導入します」と言うだろうなと思います。途中で「仕様変更でこの部分にも使うことにしました」と決めてもそれを従業員一人一人に丁寧に説明はしないと思いますし。

ABEJA古川:勤務時間のあらゆるデータは理論的には会社が取れてしまうし、それによって色々なことが分かってしまう。やろうとおもえば人事評価に何でも紐づけられるわけです。全人格判断という要素もあって「この人は人格がいいから上げてやろう」といったような例もあるわけですよね。ありとあらゆる情報が取れる状況を、形式上は正当化できてしまう。そこはやはりPAが他の分析よりも怖い要素なのではないかと思っています。

ABEJA高橋:データに関するアクセス権限はもちろん、期限も決めたほうがいいと思います。データがあって、それを「こういう倫理観と善意で使おう」と思って集めたとする。その人が在籍している間はいいですが、そうではなくなった時、使う人間とデータが暴走する可能性があると思うんですよね。

人がやること、機械がやること

ABEJA山本:今までの議論を聞いていて「人がやっていいこと」と「機械がやっていいこと」、これに尽きる気がしています。検品ならモノの評価だから機械の評価でいいけれど、人の評価は人がやるべきだ、と。例えばこうした「納得性」が必要だと思います。

しかし「機械のほうが客観的だから納得できる」と思う人もいるかもしれない。例えば、「会社は個人メールを見ていいのか?」といった時に、私個人の感覚では、人から見られるのは気持ち悪いですが、機械に読まれる分には気持ち悪くありません。

だから、どこを人がやってもよくて、どこを機械がやってもいいかというガイドラインを示唆いただけるとありがたいと思いました。

ABEJA古川:AIを使うにあたり「最後は人が見ましょう」という議論は、メタ議論としては「適用範囲はどこまでか」という議論だと思います。

「俺の人生を機械が決めるな。俺を決めていいのは人間だけだ」という考えの人はいるでしょう。一方、自分の評価を伝えられる場面で、人間が判断した結果だと納得しないのに「AIによる分析結果です」と言うと「ほぅ」と納得する人もます。

ABEJA高橋:機械が見るべきか/人間が見るべきかの議論で、個人の快/不快という軸がありそうだということでしょうか。

ABEJA古川:そうですね。ちなみに欧州では人権団体が「人には人に決めてもらう権利がある」というスタンスをとっています。

松原委員:納得感に関して「人間の評価は人間が行う」という考えは、まだ今は多勢を占めていても、徐々に変わっていくと思うんですよね。

機械は機械で偏見を学習してしまうという側面もありますが、上司の好き嫌いが入りにくい機械のほうがいい、という考えだってあります。

AIの評価のほうが社会的により正確だというコンセンサスが得られていけば、入社試験や昇格の判断もAIになっていく。「AIだけで決める」という意味ではなく、AIが役割を果たして、人間との合議で決まるというのが、徐々に普通になっていくと思います。

今は、AIが判断することに不快な人もいれば、AIの方が信用できると思う人もいる。過渡期なので、なかなか結論が出しにくいのかなと思います。

ABEJA古川:「AIがやります、嫌な人は言ってください」とか「AIによる結論が嫌な人は人間が見ます」とか、そういう対応をすれば、一応、両者の需要を満たせるかとは思います。

ABEJA高橋:確かに「本人に選んでもらう」というのは、ひとつの手としてありますね。

AIが判断しても、その結果の責任を取れるのは人間だけ。となると、AIを使いつつも最終的な判断を下すのは人間であるべきなのか。この指摘を受け「責任を取ること」の意味が問われました。

山口委員:人工知能がどこまで人の仕事を食っていくかという議論で、「人と人のコミュニケーションのところに関してはやはり人の仕事だ」という意見があります。

一方、アメリカでは、AIによるカウンセリングがすでに結構導入されています。ある会社では、人よりAIのカウンセラーを頼む人が多いそうなんです。人には、本当の悩みは他人に語りたくないという思いも、やはりあるわけですね。

なぜ嫌なのかと考えると、自分が懸命に作り出した対外的な人格やパーソナリティの、ある種の裏側が、他人に見られてしまうことへの生理的な嫌悪感ではないか、と思うんです。

それから人の判断が必須だという時には、責任問題が関わってくると思うんですね。なぜ責任が必要なのかというと、何かが起こった時に「この人が責任を取ります」と言えるからです。

人間は誰も責任を取ることなどできないというのが哲学の結論ですが、一方で「謝罪は人の仕事として永遠にあり続けるだろう」という話しがあります。

「上司出せ」とAIにクレームをつけて「私の上司はAIなんです」と言われ、「上司」のAIから「これから15時間あなたにごめんなさいと言いますから、許してください」と言われたら「ふざけるな」と、余計に腹が立つ。でも、AIではなく人から同じことを言われたら「いやいや、そこまでじゃないんですよ、もういいです、気持ちだけで」となりますよね。

江間委員:私も、最終的にクレーマー処理や謝罪をするのは人の仕事になっていくだろうと思います。でもクレームのないものは機械が対応し、人のやる仕事は嫌なものばかりになったら、果たしてそれを人はやりたがるでしょうか。
人と機械が仕事を棲み分けるようになると、人事という仕事は今後どう変わっていくのでしょうか。

働き方も変わっていく中で人事の役割を考えていくと、既存の社会システムを前提とした人事評価ではない、「これからの働き方はこうあるべきだ」という社会像とパッケージの商品やビジネスモデルを出していく必要があると思います。

例えば、「多様性を大事にする社会」「持続可能な社会」「誰もが働ける社会」など、これから目指すべき社会に合わせて人事を行っていくことも大事です。

一方で、そもそも人事とは何なのかという基本に立ち返った時に、AIはどのように使えるのかという発想の転換があってもいいのではないかとも思いました。

人工知能の技術がどの分野にも入っていくにしても、既存の体制や利害関係、あるいは権力体制を打破するためのものとしても使われることが多い。そういう見方でPAをとらえていくこともできるだろう、と話を聞いて思いました。

(終わり)

この記事は、ABEJAの倫理委員会「Ethical Approach to AI」での議論の一部を公開しています。ソリューションやプロダクトを設計する過程で、倫理的な課題にぶつかることがあります。そんなとき、ABEJAでは、その課題について、様々な分野に詳しい委員会のメンバーに議論していただき、そこでの意見や知見を事業や開発に反映するよう努めています。

今回のテーマは「ピープルアナリティクス」。従業員に関する様々なデータを集めて分析、本人や組織が抱える課題を可視化し、解決へと導くための手法です。一方、集めるデータによっては、プライバシーや公平性に抵触することもあります。どういった点を踏まえるべきなのか、ご意見をいただきました。

文:錦光山 雅子・高橋 真寿美


(2021年7月30日公開の「テクプレたちの日常 by ABEJA」より転載)

個人のプライバシーとAI 〜ABEJA倫理委員会「Ethical Approach to AI」の議論から(下)〜|テクプレたちの日常 by ABEJA|note
顔つきなどから支持政党や性的指向が予測できるというAIの研究報告が出ています。技術的に実現可能なことが急増する一方、場合によっては個人を傷つける結果を引き出すことになりかねません。 科学技術社会論研究者の江間有沙さん、情報工学者の松原仁さん、独立研究家の山口周さん、そしてABEJAメンバーが、率直に語り合いました。議論の一部を紹介します。 ...
https://note.com/abeja/n/n18938e050e8b
株式会社ABEJA's job postings

DX

Weekly ranking

Show other rankings
Invitation from 株式会社ABEJA
If this story triggered your interest, have a chat with the team?