人工知能 悪い言葉覚え 強制停止

<米Microsoftが3月23日(現地時間)にTwitterなどでデビューさせた人工知能「Tay」が、デビュー数時間後に停
 止した。>

<Tayは公開後数時間で徐々に人種差別的だったり暴力的な発言が多くなっていた。>

<現在、ほとんどの問題発言は削除済みだ。Microsoftがこの問題に対処するため、Tayを休止したようだ。Tayは、Microsoftが会話理解(conversational understanding:CU)研究のために立ち上げたプロジェクト。日本マイクロソフトの人工知能「りんな」と同様に、一般ユーザーとの会話を繰り返すことで学習し、成長していく。  Tayが悪い言葉を覚えたのは、悪意のあるユーザーがTayに「<人種差別的な発言>って言ってみて」などと繰り返し語りかけたため。>

これからは、人工知能を悪用する人も出てきそうですね。マイクロソフトの説明ではフィルターの不備らしいので

改善して再登場するということです。それにしても、人工知能(AI)]は人間と同じですね。小さいうちの教育が大事

です。良い悪いが判断できる前に、色々情報を詰め込まれるとおかしなことになってしまいます。

ちなみに、日本のAI「りんな」はおしゃべり好きの女子高生で、LINEとTwitterにアカウントがあるそうです。

ブログ気持玉

クリックして気持ちを伝えよう!

ログインしてクリックすれば、自分のブログへのリンクが付きます。

→ログインへ

なるほど(納得、参考になった、ヘー)
驚いた
面白い
ナイス
ガッツ(がんばれ!)
かわいい

気持玉数 : 0

この記事へのコメント

この記事へのトラックバック