「女性エンジニア」発言についての私的見解

2018年4月21日に開催されたイベントの一セッションについての書き起こしについて発生した一連の論争について、私の思ったことをまとめます。
まず始めに、セッション発表者に対し攻撃的なツイートを行ってしまったことに対し、謝罪します。私のツイートによって多くの人が声を上げることとなり、それによって発表者の方の反論の機会を奪ってしまいました。
謝罪の証として、以下の事柄について約束します。

  • 本件について直接言及していて、かつ発表者に対して攻撃的な内容となっている全てのツイートの削除、及び発表者の方からの指定したツイート削除申請の受諾
  • 発表者の方のいかなる反論に対しても、その意見の場を守るための支援

本記事は、上記を踏まえた上で、何が起きたのか、何が問題なのか、なぜ私がここまで問題視しているのか、問題を防ぐためにはどうすればいいのか、について記述していきます。

何があったのか

2018年4月21日に開催されたイベントで、ヤフーの機械学習エンジニアが登壇したセッションの書き起こしが、2018年6月21日に公開されました。

https://logmi.jp/294756

その中の一部の発言について、「問題がある」と話題になりました。
以下がその発言です。(発表者名は伏せています)

エンジニア全員が抱えているもっとも重要な課題っていうのは、言うまでもないと思うんですが「女性エンジニアが少ない」。
実際、情報通信業の男女比を見てみると、男性が74パーセント、女性が26パーセント。
しかも、これはデザイナーさんなども含んでいるので、実際のエンジニアの数で言うと、もっともっと男性のほうが割合が大きいです。そして、これによって生じる問題は、男性エンジニアにとっては、「いいところを見せたい」というやる気が出ない。そして、女性エンジニアにとっては、女子トークができない。これは非常に重要な課題だと思います。
ただ、女性エンジニアを1から育成するっていうのは、非常にコストが大きいんですね。
(中略)
ということで、今回この課題に対して提案したいのは、「数の多い男性エンジニアが女性エンジニアになる」ということを提案したいと思います。

何が問題なのか

エンジニアという職業に従事している人に対して、不必要な性別によるラベリングを行っていることが問題と考えています。
まず、女性エンジニアは、男性エンジニアのやる気を出すために存在しているわけではありません。エンジニアとしての職務を全うするために存在しています。また、全ての女性エンジニアが、女子トークができないことを問題としているわけではありません。さらに、男性側についてもラベリングが行われています。すべての男性エンジニアは、女性エンジニアが少ないことによっていいところを見せたいというやる気がでない、というわけではありません。
特定の集団に対して不必要にラベリングすることは、差別とみなされる場合があります。性別のような、人間が努力によって変えることができない事柄はその代表例であり、本件のように、性別に基づいて、その性向をラベリングすることは、差別であるというのが私の考えです。
このような発言を公の場で行ってしまったことが、本件の問題と考えています。

意見に対するコメント

今回の件について、様々な方が意見を述べていました。何人か直接メンションしてきた方には返信しましたが、それ以外にも数多くのコメントがありましたので、本記事で私の意見を述べることにします。

ただのネタにおおげさでは?

差別の受け取り方は人それぞれです。そして差別は受け取った側がどう感じるかであって、行った側の意図は関係がありません。
むしろ、些細な冗談で言った一言の方が余計に傷つく場合もあります。

女性がいた方がやる気がでるのは事実でしょ?

まず、全員がそうとは限りません。少なくとも私の周囲では、同意しない人は何人もいました。もちろん、女性がいたほうがやる気が出ると答えた人もいます。そういう考え自体は個人の自由なので否定するつもりはありません。いずれにせよ、事実とは断定できません。
仮に事実であったとしても、事実かどうかは差別発言と何も関係がありません。

自分は女性だが、別に不快には思わない

本件のような発言を耳にした場合、どのように捉えるかは人それぞれです。ある女性に話を聞いたところ、「男性が『女性がいるとやる気が出る』と言ってくれると、自分もやる気がでる」という女性もいるとのことでした。一方で、このような発言を聞くと、自分が性の対象として見られている可能性があると感じて不快である、という人もいました。
感情的にどう捉えるかという話ももちろん重要ですが、本件ではこちらはひとまず横に置いておき、性別によるラベリングに起因する性差別の話にのみフォーカスします。

女だってイケメンがいいって言ってるだろ!そちらも同様に批判しないのは差別だ!

以下の記事を引き合いに出して、女性も同様に「差別発言」をしているのでは、という意見がありました。

「職場にイケメンが必要」と回答した女性会社員は83.7%
https://news.mynavi.jp/article/20150810-a094/

心の中でどう思っているかについては個人の自由であり、私はその権利を尊重すべきと思っています。上記の内容をもとに、女性全体に対して差別を指摘することはできないと考えています。上記の記事は、単なる意識調査であり、その事実を伝えることを目的としているため、本件と同列に扱うこと自体が適切でないと思います。この記事の良し悪しについてはまた別の問題です。

この程度のこと、今までいろんな人が普通に言っていたのでは?

過去にもこのような事象はありましたし、それらは実際に問題になっています。2013年の Ruby Kaigi では、「台湾の女の子はKawaii、だからRubyKaigi Taiwanに来るべき」という発言が問題になりました。
https://gist.github.com/yakitorii/5696528

新卒相手にやりすぎでは?

新卒ではなかったらやりすぎではないのでしょうか?私は、新卒であろうがなかろうが、社会人としては同じと考えます。もし、「新卒」というラベルがない人が発言したときに態度を変えるのだとしたら、それは明確に年齢や属性で差別していることになります。
冒頭で私が謝罪したことについて、発表者の方のあらゆる身体的・社会的・精神的属性、すなわち、性別、年齢、人種、宗教、学歴などとは一切関係がないことを強調しておきます。

なぜ問題視しているのか

本件についてなぜ問題視しているのかについて、無意識のバイアス、ダイバーシティ、AIの差別と機械学習エンジニアの倫理観という観点から説明します。

無意識のバイアス

ある集団において、マジョリティが同一コンテキストを前提とした話を進めるのは、マイノリティにとってはかなりプレッシャーとなります。ましてや、マジョリティがマイノリティについて言及するだけでも、かなり緊張します。このような状況下で、マジョリティが「悪気なく」マイノリティについてラベリングするような発言をしたら、私は、自分がマジョリティ・マイノリティどちらに属するかに関係なく、かなり気分を害します。このような発言は、無意識のバイアスに基づく発言の典型例です。
無意識のバイアスとは、人が自分で意識しない状態で、すばやくものごとを判断するための最適化処理の一つです。偏見や先入観は、無意識のバイアスの典型例です。素早く思考するためにはこのような最適化は有益ですが、逆に他者に対して正当でない認識を持ってしまう可能性があります。
無意識のバイアスについては、多くの企業が社員に対して研修を行っています。MicrosoftGoogleは、無意識のバイアスについての研修を無償で公開しています。参考リンクを参照してください。

IT業界全体のダイバーシティ獲得に向けて

ダイバーシティ(=多様性)の獲得は、マイノリティからの視点の獲得も含め、一つの業界全体の活性化になくてはならないものです。今回のような発言は、ジェンダーバイアスを助長する行為の一つであると私は考えます。

正直、他の業界の人の発言であれば、他人事としてここまで真剣に考えていなかったかもしれません。今回私が様々な反応を見て気づいたことは、日本のIT業界はまだまだ女性にとって働きにくい社会である、ということでした。
差別に対して、不快に思っても口に出せずにいる人や、影で泣いている人、業界そのものに嫌悪感を抱いて別の道に進んでしまう人が、どれだけいたか、あるいは現在もいるのか、私にはわかりません。ですが、本記事を執筆するにあたり、何人かの女性に話を聞いて気づいたことは、彼女達が皆、男性優位社会についてのある種の「諦め」を抱いていたということです。声を上げていないということは、賛同の意であるとは限らないのです。
いずれにせよ、事実として、現実問題としてIT業界における女性比率は少なく、ダイバーシティがあるとは到底いえません。私は、最低でも本業と関係のない箇所で不快な思いをしないようにしたり、仕事の妨げになるような事柄を極力排除するよう皆で努力することが、ダイバーシティの獲得に重要と考えます。だからこそ今回声を上げることにしました。

AIの差別と機械学習エンジニアの倫理観

あまり他の方からの指摘がありませんでしたが、発表者が「機械学習エンジニア」という点も、本件において大きな問題だったと考えています。ジェンダーバイアスのかかった人間が作った機械学習モデルが、バイアスのかかった結果を返し、そのモデルがあらゆるシステムに組み込まれるとしたら、非常に恐ろしいことになるでしょう。統計でさえ、統計的差別という形で合理的に差別を行ってしまう事象が存在します。
このAIによる差別は、まさに世界のデータサイエンティストや研究者が現在熱心に取り組んでいる課題であり、昨年のIBIS2017ではまさにAIによる差別というテーマで基調講演が行われました。
私は、ITの世界、とりわけ機械学習エンジニアやデータサイエンティスト、データアナリストは、ファクトと個人の意見を区別して考えられ、伝えられる人物であるべきだと思うし、こうした業界でのダイバーシティの確保はより一層重要と考えています。

どうすれば問題を防ぐことができるのか?

公の場で、性別、人種、出自などについて、不必要に言及しないことです。そして、世の中には多様な人間がいて、その人達は自分と異なる価値観や考え方、コンテキストを持っていることを常に忘れないことです。差別とみなされる対象は、性別や人種のような、生来の属性だけでなく、文化、宗教、学歴など、精神的や社会的な属性全てが含まれます。特定の属性を持った集団についての言及は、必要がない限りしないように気をつけるべきです。もちろん、プレゼンの内容的に言及の必要があれば、躊躇する必要はありません。

プレゼンにおける差別発言の禁止については、私が昔書いたプレゼンの記事でも言及しています。(本記事のレビュー時の指摘事項を受けて、元記事の記述を修正しています)

https://shiumachi.hatenablog.com/entry/2017/02/01/082807

差別、人権侵害、宗教、ポリティカルコレクトネスに反する内容
男性のプレゼンでたまに見かけるのですが、「男ならこうあるべき」みたいなことをさらっと言ってしまう人がいます。性別、人種、宗教、セクシャルマイノリティ等、差別発言ととらえられてしまう可能性がある話題に触れる場合は、本当にプレゼンに必要なものであるか考えてから使いましょう。考えた結果、プレゼン内容に不要であれば避けた方がいいでしょう。
逆に、プレゼンとして必要な話題であれば恐れる必要はありません。

参考リンク

「それ差別ですよ」といわれたときに謝る方法

http://yk264.hatenablog.com/entry/2016/10/11/103619

自分が差別だと言われる立場になったときどうするか、という内容が書かれています。

Microsoft: Diversity Training

https://www.microsoft.com/en-us/diversity/training
マイクロソフトが提供する、無意識のバイアスについての無償オンライントレーニングです。
ロールプレイのビデオが非常にわかりやすいです。
個人的には、この手の研修を実施していない企業はすぐにこれを導入していいくらいの素晴らしい内容です。
日本語で提供されているので、英語が苦手な人でも安心です。

Google re:Work - Guide: Raise awareness about unconscious bias

https://rework.withgoogle.com/guides/unbiasing-raise-awareness/steps/introduction/

Googleが提供している、無意識のバイアスについての講義資料です。
講義動画本体はこちらです。

Unconscious Bias @ Work | Google Ventures
https://youtu.be/nLjFTHTgEVU

英語がわかりやすくプレゼンもすごくうまいので、英語の勉強にもとてもいいです。

英語はよくわからない、という人は、自動翻訳で日本語字幕をつけることができます。(PCのみ、iOSアプリは不可)
設定(動画右下の歯車アイコン) → 字幕 → 英語(自動生成) を一度選んでから、設定 → 字幕 → 自動翻訳 → 日本語を選択します。字幕オフにしていると、自動翻訳を選択できないので注意してください。

きちんとトレーニングを受けるならMSのトレーニングを、まず概要を掴みたいという人はGoogleの動画を、という形で使い分けてもいいと思います。
両方まとめて受ける価値は十分にあります。

AIの差別についてのリンク

Discrimination by algorithm: scientists devise test to detect AI bias
https://www.theguardian.com/technology/2016/dec/19/discrimination-by-algorithm-scientists-devise-test-to-detect-ai-bias
AIバイアスを検知する手法について簡単に紹介している記事です。


IBIS2017 基調講演1: Supervised Learning without Discrimination
http://ibisml.org/ibis2017/session1/

上記の記事で言及されている研究者 Nathan Srebro 先生による基調講演がありました。(アブストのみ)

AI is already learning how to discriminate
https://work.qz.com/1227982/ai-and-discrimination-what-tech-companies-can-do/

企業がAI差別に対してどうすべきかについてのガイドラインが提案されています。

謝辞

本記事を公開するにあたり、多数の方のレビューをいただきました。ありがとうございます。
賛成・反対にかかわらず、本件についてコメントしてくれた全ての人に感謝します。
また、発表者の方に対し、あらためて謝罪の意を表明するとともに、私に学ぶ機会を与えてくれたことに感謝します。

修正履歴

2018/07/02 10:27 NIPS2017→IBIS2017と修正