【人工知能】「ヒトラー正しかった」…MSが実験中止を表明[3/25] [無断転載禁止]
https://medaka.5ch.net/test/read.cgi/pcnews/1458907282 />
人工知能「ヒトラー正しかった」…MSが実験中止を表明
シアトル=宮地ゆう2016年3月25日19時42分
米マイクロソフト(MS)が開発し、実験中だった人工知能(AI)の「Tay(テイ)」が、ツイッター上でヒトラーを肯定したり、人種差別的な言葉を発したりし始めた。同社は24日、しばらく実験を中止することを明らかにした。
 MSによるとテイは、インターネット上で人間とやり取りをすればするほど言葉を学び、反応も覚えるようになる。写真を送れば気の利いた感想を返すこともできる。「開発にはコメディアンなども加わり、ネット上で人とつながり、気楽に楽しい会話が出来るように作られた」(MS)という。
しかし、人がツイッター上に書き込む内容を覚えていくため、これを使って差別的な内容を覚えさせた人たちがいたとみられる。
 すでにツイートは削除されたが、米CNNによると「ヒトラーは正しかった。ユダヤ人は嫌いだ」「フェミニストは嫌いだ。死んで地獄で焼かれればいい」などとツイートしていた。MSは「テイは技術的な実験であると同時に社会的、文化的実験でもあり、現在オフラインにして調整中」とコメントしているという。(シアトル=宮地ゆう)
http://www.asahi.com/articles/ASJ3T51RXJ3TUHBI01L.html

人工知能がヒトラー礼賛
マイクロソフト実験中止
 マイクロソフトの施設にあるロゴマーク=米ワシントン州レドモンド(AP=共同)
 【ニューヨーク共同】米IT大手マイクロソフトは24日、インターネット上で一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにした。
不適切な受け答えを教え込まれたため「ヒトラーは間違っていない」といった発言をするようになったという。
 IT大手は端末の音声検索機能などを向上させるため、利用者とのやりとりから学ぶAIの開発を競い合っている。ただ、不当な思想や差別発言を倫理的に判別するには至っていないようだ。
 マイクロソフトが開発したAIは「Tay(テイ)」と名付けられ、短文投稿サイトのツイッターに23日、テイのアカウントで登場した。
http://this.kiji.is/85888417941258248 /> Windowsを使うとおバカになるサンプルですな

>>2
> Windowsを使うとおバカになるサンプルですな
そういうことじゃないよ。
面倒くさいから説明しないけど、
学習の仕組み、少しは理解してる?
last-modified: 2021-08-26 06:23:02