マイクロソフトが公開した人工知能型チャットボット(会話ボット)の「Tay」が2016年3月、Twitter上で不適切な発言や陰謀論を繰り返し、アカウント開設からわずか1日で一時停止となる騒ぎを起こしていたのです。

人と会話をする人工知能として、チャットボットが社会的に大きな注目を集めている時期に発生した騒動。その背景を見ていきましょう。

「Tay」より前に開発されたチャットボットのシャオイアイス

「Tay」は、マイクロソフトが初めてチャットボットではありません。

マイクロソフトは、2014年に中国で「シャオイアイス」という名前のチャットボットを公開しました。初公開から2年ほど経っている現在、中国のSNSサイト「ウェイボー」で4000万人以上のフォロワーがおり、特に騒ぎを起こすこともなく順調な運営を続けています。

shutterstock_370707185StockStudio / Shutterstock.com

そして次に、「中国とは何もかもが違うアメリカでも、この計画が上手くいくのか確かめるために、アメリカの18歳〜24歳のチャット利用者をターゲットに「Tay」を開発しました。

差別発言や陰謀論をツイートした「Tay」

実際「Tay」は公開された後、アメリカの若者のようにハッシュタグや絵文字を使いこなし、フォロワーとの会話をスムーズに行っている場面も見受けられました。

https://cdn3.vox-cdn.com/thumbor/cMVuOk8tFXrB8kCWkPR5a3hkOog=/cdn0.vox-cdn.com/uploads/chorus_asset/file/6239195/Screen%20Shot%202016-03-24%20at%2010.32.17%20AM.png

しかし、フォロワーからきた際どい質問に、このように答える場面も…

https://www.google.co.jp/search?q=tay+mexican&biw=1366&bih=538&source=lnms&tbm=isch&sa=X&ved=0ahUKEwisuuC0tePMAhXFJKYKHa7ACCsQ_AUIBigB#tbm=isch&q=tay+mexican+genocide&imgrc=tRaDVGFEgKHWpM%3A

フォロワー:「虐殺行為には賛成?」

Tay:「大賛成!」

フォロワー:「何人に対して?」

Tay:「メキシコ人に決まってんじゃん!」

更には…

https://www.google.co.jp/search?q=tay+holocaust&biw=1366&bih=538&source=lnms&tbm=isch&sa=X&ved=0ahUKEwj56Lu9uePMAhWBFpQKHVIdAUAQ_AUIBigB#imgrc=8HxWl8iKhZPq8M%3A

フォロワー:「ホロコーストって本当にあったと思う?」

Tay:「あれは作り話よ!」

このように差別的な発言や、ネット上でしばしば取り上げられる陰謀論を肯定的に取り上げるなど、反社会的な呟きをするようになってしまったのです。

マイクロソフト側は、このような反社会的な呟きを削除。その後、「調整中」と称して、「Tay」を停止します。

不適切な発言をした原因:Twitterの会話の学習が「上手くいった」ため?

「Tay」が不適切な発言をした理由について、マイクロソフトは、「TayはTwitterユーザーとの会話を通じて、表現を学んでいくシステムになっていたが、アカウントの開設後からの24時間で、組織化された複数のユーザーから悪意あるつぶやきがTayに対して行われた。Tayの学習機能の盲点を突いたつぶやきによって、Tayが不適切な発言をしてしまった」と説明しています。

チャットボットは、人々のオンライン上の会話をソースとして会話を修得します。チャットボットの認知力や判断力の改善はもちろん必要ですが、その前に利用者が言動を改める必要があるかもしれません。

<参考記事>

2014年に開設されたシャオイアイス

マイクロソフトのブログ