国連教育科学文化機関(ユネスコ、UNESCO)は、米アップルの「Siri」や米アマゾンの「アレクサ」などのAIアシスタントに初期設定で女性の声が使われているが、これが性別に関する固定観念を定着させ、ユーザーの性差別的な発言や暴言を助長するとの内容の報告書をこのほど公表した。
『CNN』『ロイター通信』『CBSニュース』などのメディアが23日までに報じた。本報告書は、AIパーソナルアシスタントの否定的側面について、ユネスコが初めて取り上げたものであり、女性の声を初期設定とする慣行をやめ、暴言や性的な会話が行われないようにすることなどを提言している。
同報告書は、「女性は愛想が良く、従順で、心を込めて手伝いをしてくれる。しかも、ボタンを押す、或いは不愛想な声で命令するだけで利用可能」という固定観念をアシスタントが定着させると指摘した。...
全部読む
『CNN』『ロイター通信』『CBSニュース』などのメディアが23日までに報じた。本報告書は、AIパーソナルアシスタントの否定的側面について、ユネスコが初めて取り上げたものであり、女性の声を初期設定とする慣行をやめ、暴言や性的な会話が行われないようにすることなどを提言している。
同報告書は、「女性は愛想が良く、従順で、心を込めて手伝いをしてくれる。しかも、ボタンを押す、或いは不愛想な声で命令するだけで利用可能」という固定観念をアシスタントが定着させると指摘した。ユネスコは、アシスタントは「命令者の要求以上のことを勝手にする権限はなく、言葉の調子や敵意などに関わらず、命令を尊重する。」「女性は従属的で、不当な扱いも耐えるとの一般的な偏見を助長する。」などと説明している。
ユネスコはまた、ユーザーが性的な暴言を吐いたとしてもアシスタントが受動的で丁寧な反応をすることに着目し、アルゴリズムが性的な表現などについても習熟し、認識を深めるとも警告している。感情もなく非人間的なコンピュータのプログラムが、異性の女性で、男性の性的な誘いや嫌がらせに耐え、時には誘うという幻想を抱かせると指摘した。
AIアシスタントを使用しているユーザーは数百万人に上り、日常生活を送る上で頻繁に利用されている。主要製品であるアップルの「Siri」、アマゾンの「アレクサ(Alexa)」、マイクロソフトの「コルタナ(Cortana)」、グーグルの「グーグル・アシスタント(Google Assistant)」では、全て初期値として女性の声が設定されている。
報告書をまとめたユネスコ・男女共同参画局のサニエ・ギルセル・コラット局長は、「AI技術の性別は決めるのか、いつどのように決めるのか、重大なこととして誰が決めるのか」などについて、さらに注目すべきであるとの見解を示した。
AI業界の影響力は増大している。しかし同業界には女性が少なく、多様性を欠いているとの批判がある。社会的な少数者の参画が進んでいないため、システムに偏見が持ち込まれるなど深刻な影響が出ているとの声も上がっている。
閉じる