AIが差別を行った具体例として、「2022年5月、iTutorGroup傘下の3つの企業(=iTutor Group,Inc.、上海平安智慧教育科技有限公司、Tutor Group Limited)は年齢が高いという理由で200人の求人応募者を不採用にした。iTutor Groupはオンラインソフトウエアでプログラムを組み、55歳以上の女性と60歳以上の男性の応募資格を取り消すよう操作していた」と示したほか、「2020年6月にはフェイスブックのAIが人種差別を行い、黒人を霊長類と誤って認識し表示させた。報道によると、あるフェイスブックユーザーが黒人の登場する動画を見ていた際、『霊長類に関するビデオを見続けますか』という通知が表示されたという。問題の動画は黒人が白人の民間人と警察官が口論している映像で、内容は霊長類とは全く無関係だった」と説明した。
この記事のコメントを見る