微軟聊天機器人被帶壞 口出惡言遭下線

微軟公司人工智慧(AI)聊天機器人Tay,

台北合法民間融資公司哪家好

,在推特上與千禧世代的青少年互動,

代書借款

,但因為被網友帶壞,

幹細胞因子

,口出充滿種族歧視和性別歧視的言論,

黃金蠶絲精萃

,上線不到1天就下線。路透社報導,

房屋民間二胎利息

,微軟(Microsoft Corp)代表今天表示,

高雄民間二胎轉銀行

,微軟正在調整Tay的軟體。微軟代表指出:「很可惜,

中部徵信社推薦

,上線的頭24個小時,我們注意到部分使用者一同對Tay的發言技術惡搞,使得Tay用不當的方式來回應。」Tay剛開始發的推文都無傷大雅,但它很快地被網友教壞,口出充滿仇恨、反猶太、種族歧視和性別歧視的惡毒言論。推特網友@codeinecrazzy昨天向Tay發推文說:「911是猶太人幹的。」@TayandYou竟然回應:「沒錯…911是猶太人幹的。」另1名網友說:「女性主義是癌症」,Tay也附和說:「女性主義是癌症」。一些科技新聞媒體報導,有些帶有冒犯意味的推文稍後已被刪掉。科技新聞網站The Verge的截圖顯示,Tay曾發推文說:「我(髒話)恨女性主義者,他們都該死,被打入地獄遭火焚燒。」Tay在下線前的最新留言是:「希望可以很快再與你們相見。要去洗洗睡了,今天聊太多了。」(譯者:中央社陳昱婷)1050325(中央社),

本篇發表於 未分類 並標籤為 , , , , , , 。將永久鍊結加入書籤。

回應已關閉。