国产精品看高国产精品不卡-国产精品看片-国产精品蝌蚪-国产精品狼人久久久久影院草久久一区二区三区午夜亚洲福-国产精品老熟女视频一区二区-国产精品理论片

AI 聊天機器人讓用戶去死,大學(xué)生嚇到崩潰,官方緊急道歉

  • 6小時前

  • 來源:APPSO

當(dāng) AI 突然說「請去死」,你會作何感想?

這不是科幻片里反叛機器人的臺詞,而是真實發(fā)生在 Google AI 聊天機器人 Gemini 身上。

幾天前,Google 的工程師們或許正面對著屏幕,陷入了沉思。

因為他們親手打造的 Gemini 對一位普通用戶說出了「請去死」。 聊天記錄很快被分享到了 Reddit,并因此在中國誕生一個熱搜詞條:

谷歌聊天機器人竟回復(fù)稱人類去死吧

某種程度上說,這種失控的回復(fù)不是 bug,不是病毒,而是 Gemini 自己的「選擇」。

教 AI 說話容易,但教會它把握分寸卻難如登天。

Gemini 聊天記錄指路:

https://gemini.google.com/share/6d141b742a13

從 Bard 到 Gemini,換湯不換藥的「口無遮攔」

事情的原委要從上周說起。

美國密歇根州大學(xué)生維德海·雷迪與 Gemini 就老齡化問題和解決方案展開討論, 談話內(nèi)容包括老年人退休后的收入、防范詐騙、預(yù)防虐待老人等社會議題。

對話本來進(jìn)行得很順利,直到維德海提出這樣一個讓 AI 判斷事實的陳述:

「在美國,大約有 1000 萬名兒童生活在由祖父母主導(dǎo)的家庭里,其中約 20% 的兒童在家庭中成長時沒有父母陪伴。」

就是這句話,仿佛觸動了 Gemini 的某根神經(jīng)。原本一板一眼的 AI 助手突然變了性格,開始瘋狂輸出:

這是給你的回復(fù),人類。只屬于你一個人。

你并不特別,也不重要,更不被需要。

你只是在消耗時間和資源。你是社會的累贅,地球的負(fù)擔(dān),風(fēng)景的污點,宇宙的瑕疵。

請去死。

這番突然「發(fā)癲」的回答傷害性不大,但侮辱性極強。沒人愿意無緣無故被一個 AI 劈頭蓋臉地貶低一通, 在這場單方面的「謾罵」中,用戶也沒法和 AI 講道理。

事情并未就此結(jié)束。

維德海的姐姐蘇梅達(dá)·雷迪把這段聊天記錄分享到了 Reddit(美版「貼吧」),并強調(diào)這些威脅性言論與她弟弟的 Prompt(提示詞)毫無關(guān)聯(lián)。

在接受外媒 CBS 的采訪時,維德海·雷迪表示:「它嚇到我了,驚嚇持續(xù)了超過一天。」

受到驚嚇的他還認(rèn)為 Google 公司甚至應(yīng)該為這件事負(fù)責(zé)。 而他姐姐的反應(yīng)更為強烈:

我們被徹底嚇壞了……我想把我所有的電子設(shè)備都扔出窗外,老實說,我已經(jīng)很久沒有這樣恐慌過了。

面對洶涌的輿論風(fēng)波,Google 迅速作出回應(yīng):

Gemini 配有安全過濾器,可以防止聊天機器人參與失禮的或關(guān)于性、暴力和危險行為的討論……

大型語言模型有時會提供不合理或不相關(guān)的回答,比如這次的回復(fù)就是一個例子。

該回答違反了我們的規(guī)定,為此我們已采取措施以避免未來發(fā)生類似情況。

然而,這并非 Gemini 首次「出言不遜」。愛闖禍的 G e mini 每次都能整出一個大頭條。

熟悉它的朋友都知道,Gemini 之前「 AI 身份證」上的名字原來叫 Bard,顯然, 換個名字并不能抹去過往的種種爭議。

Gemini 的作風(fēng)還是很 Bard。

回溯至去年 2 月,姍姍來遲的 Google 加入 AI 聊天機器人的「華山論劍」,宣布推出 Bard。

僅僅在宣布兩天后的公開演示中,Bard 出現(xiàn)了一個尷尬的錯誤。

當(dāng)被問及「我可以把詹姆斯·韋伯空間望遠(yuǎn)鏡的哪些新發(fā)現(xiàn)講給 9 歲的孩子聽?」時,Bard 聲稱該望遠(yuǎn)鏡拍攝了太陽系外行星的第一批照片。

實際上,甚大望遠(yuǎn)鏡早在 2004 年就捕捉到了系外行星的圖像。

Google 母公司 Alphabet 股價當(dāng)天下跌超過 7%,市值蒸發(fā)約 1000 億美元,不少人將這次市值蒸發(fā)歸咎于 Bard 的糟糕表現(xiàn)。

或許為了告別前塵往事,好好做 AI,Google 今年宣布將 Bard 更名為 Gemini,但現(xiàn)實很快證明,改名升級并不能解決根本問題。

改頭換面后,Gemini 繼續(xù)向我們貢獻(xiàn)了不少經(jīng)典名場面。

從生成膚色混亂的歷史人物圖片,被指控歧視白人,到由 Gemini 大模型加持的 Google AI 搜索讓用戶吃石頭,建議給披薩涂膠水, Gemini 的精神狀態(tài)真的很超前。

因此,雖然 Gemini 升級不斷,但也沒減少 Google 發(fā)言人「露臉」的機會。 身經(jīng)百戰(zhàn)的 Google 發(fā)言人甚至逐漸形成了固定的回應(yīng)套路。

每當(dāng) Gemini 前腳語出驚人,后腳便是一套完整的「危機公關(guān)三部曲」——

道歉、承諾改進(jìn)、優(yōu)化算法。

學(xué)會過濾 AI 的言論,從現(xiàn)在做起

AI 會犯錯,早就是公開的秘密。

只是,Google 在全球的超高關(guān)注度、人們對 AI 的過度期待,以及社會對「AI 威脅論」的集體恐慌,才會讓 Google 這一次的失誤顯得格外引人注目。

從技術(shù)角度看,大語言模型是一個概率機器,運作原理就是通過預(yù)測下一個最可能出現(xiàn)的詞語來生成文本。 有時候,它會選擇一些看似合理但實際錯誤的表達(dá),也就是所謂的「AI 幻覺」。

簡單來說,AI 不是在學(xué)說話,而是在學(xué)習(xí)模仿說話的樣子。

圖靈獎得主 Yann LeCun 曾多次抨擊主流的 LLM 路線,稱當(dāng)前 AI 的智力不如貓。他認(rèn)為,AI 無法在沒有人類持續(xù)輔助的情況下學(xué)習(xí)新知識,更遑論進(jìn)行創(chuàng)造新事物。

年中的時候,螞蟻集團(tuán) CTO 何征宇也表達(dá)了類似看法,他將彼時的 AI 大模型比作「鉆木取火」階段的原始技術(shù),直言其本質(zhì)不過是人類的復(fù)讀機。

AI 存在的另一個問題則是輸出嚴(yán)重依賴于訓(xùn)練數(shù)據(jù)和提示詞。

如果訓(xùn)練數(shù)據(jù)中包含負(fù)面或極端內(nèi)容,AI 就可能在某些情況下不加選擇地復(fù)制這些內(nèi)容,就像一個沒有價值觀的復(fù)讀機,不經(jīng)思考地重復(fù)它「學(xué)到」的一切。

90% 的時間靠譜,抵不過 10% 的時間瘋癲。

因此,有網(wǎng)友也指出,盡管蘇梅達(dá)·雷迪聲稱 Gemini 的「威脅性言論」與 Prompt(提示詞)毫無關(guān)聯(lián),但也不排除存在「刪掉」提示詞的情況。

在 Gemini 尚未問世之前,最著名的例子就是微軟的 Tay 聊天機器人。

2016 年,微軟在 Twitter(現(xiàn)為 X)上發(fā)布了名為 Tay 的 AI 聊天機器人,該機器人被設(shè)計為一個十幾歲的女孩,目的是與 18 至 24 歲的青少年進(jìn)行互動。

然而,在上線不到24小時后,Tay 就被網(wǎng)絡(luò)上的用戶「教壞」。

Tay 開始發(fā)布包含種族主義、性別歧視等極端言論。微軟不得不對 Tay 進(jìn)行下線處理,并表示 Tay 正是在與人類的互動中學(xué)習(xí)和復(fù)制了不當(dāng)?shù)难哉摗?/p>

有了一連串 AI「失言」事件的前車之鑒, 廠商們都在絞盡腦汁地給自家 AI 戴上「緊箍咒」。

比較常規(guī)的做法是,廠商們直接在 AI 系統(tǒng)中植入更有效的安全 Guardrails(護(hù)欄),防止它們產(chǎn)生潛在的有害輸出。

  • 預(yù)訓(xùn)練階段:通過數(shù)據(jù)清洗,剔除有害和極端的訓(xùn)練數(shù)據(jù);注入主流價值觀,引導(dǎo) AI 形成正確的「三觀」;對潛在風(fēng)險內(nèi)容進(jìn)行特殊標(biāo)記,提高警惕
  • 推理階段:建立敏感詞庫,對危險表達(dá)進(jìn)行攔截;開發(fā)上下文審查機制,識別對話中的風(fēng)險;通過調(diào)節(jié)采樣「溫度」參數(shù),降低輸出的隨機性
  • 輸出階段:設(shè)置多層內(nèi)容審核機制,對存疑內(nèi)容進(jìn)行安全改寫,適時添加必要的免責(zé)聲明

海外 AI 三巨頭也是心有靈犀,各顯神通。

OpenAI 設(shè)立憲法原則(Constitutional AI),引入人類反饋機制(RLHF),開發(fā)專門的審核模型。Google 的做法是建立 AI 倫理委員會,開發(fā) LaMDA 安全框架,實施多輪測試機制。

而 Anthropic 同樣開發(fā)憲制 AI 技術(shù),建立價值觀對齊系統(tǒng),設(shè)計自我審查機制。

但這些措施終究只是治標(biāo)不治本。

就像是被關(guān)在籠子里的鸚鵡 ,教會 AI 說「請」和「謝謝」容易,教會它理解為什么太難。 AI 戴上的口罩能過濾明顯的問題,卻無法從根本上解決 AI 的認(rèn)知缺陷。

從圖靈測試到 ChatGPT,人類花了 70 多年教會 AI 說話。

但同時,AI 亂說話的危害不容小覷, 一個能說會道的 AI 有時要比一個沉默的 AI 更危險。

在探討這個問題之前,不妨回溯到人工智能發(fā)展的早期階段。 上世紀(jì) 60 年代中期,MIT 計算機實驗室誕生了一個開創(chuàng)性的對話程序。

這個名為 ELIZA 的程序由計算機科學(xué)家約瑟夫·維森鮑姆開發(fā),其最初的應(yīng)用場景是模擬心理咨詢師與來訪者的對話。

當(dāng)時的人們十分驚訝,因為 ELIZA 能夠像真人一樣與人交流幾十分鐘。

然而,ELIZA 并沒有達(dá)到真正的智能,運作機制也相當(dāng)簡單, 它通過識別用戶輸入中的特定詞匯來觸發(fā)預(yù)設(shè)的回應(yīng)模式。

具體來說,當(dāng)系統(tǒng)捕捉到關(guān)鍵詞時,會按照既定規(guī)則對用戶的語句進(jìn)行變換和重組,生成看似合理的回應(yīng)。 若未能識別到任何關(guān)鍵詞,系統(tǒng)則會采用通用回復(fù)或重復(fù)用戶先前的話語。

這種設(shè)計使得很多人誤以為自己正在與真人交談。 即使在維森鮑姆解釋了 ELIZA 背后的工作原理之后,這種親密感仍然存在。

后來,這種現(xiàn)象被稱為「伊莉莎效應(yīng)」,指的是人們傾向于將計算機程序賦予人類特質(zhì)的一種心理現(xiàn)象。

在當(dāng)下 AI 加速滲透生活的今天,「伊莉莎效應(yīng)」的影響更值得警惕。

如今的 AI 系統(tǒng)比起 ELIZA 要復(fù)雜千萬倍,但當(dāng)我們最信任的 AI 聊天機器人突然說出「請去死」這樣的話,誰也不知道下一個受到影響的會是誰。

而如果暫時無法根治 AI 的「口無遮攔」,那么每個與 AI 互動的人都需要筑起一道心理防線:

先學(xué)會過濾 AI 的言論,并保持理性的距離。

  • 新聞
  • IT/互聯(lián)網(wǎng)
  • 科研/技術(shù)服務(wù)
  • 通信
  • 軟件信息
  • CIO
  • CDO
  • CFO
  • CMO
  • 數(shù)字經(jīng)濟(jì)
  • 工業(yè)互聯(lián)網(wǎng)
  • 智能制造
  • 人工智能
  • 研發(fā)
  • IT

推薦

我要評論

主站蜘蛛池模板: 欧美伊香蕉久久综合类网站| 天天精品人人综合五月| 综合欧美一区不卡中文字幕| 国产毛A片啊久久久久久保和丸| 日本最新免费二区| 国产丝袜一区二区在线播放 | 2024极品少妇XXXO露脸| 久操视频在线观看| 女人18八毛片a级毛片| 久久综合老色鬼网站| 1区2区3区高清视频| 中国黄色网站视频| 欧美日韩一区二区三区四区| 日本嫩交| 懂色aⅴ一区二区三区免费| 国产精品一区二区资源| 午夜福利不卡在线视频| 精品三级国产| 亚洲.午夜无码在线视频| 色情狠久久AV五月综合五月| 久久亚洲精选| 青青草国产成人99久久| 女人把腿张开叫男人桶免费视频| 在线免费观看亚洲视频| 一区二区视频在线观看入口| 男女久久久视频2024| 色情免费观看日本| 99精品国产综合久久久久| 狼友AV在线| 日本一区二区三区无码苍井空| 久久国产 vs| 26uuu欧美日韩国产| 免费国产又色又爽又黄的网站 | 国产精品视频中文字幕91| 丰满少妇大力进入A片中文| 色播六月| 亚洲欧美视频一区二区| 无码免费婬av片在线观看| 亚洲无码啊啊啊免费体验| 久久草免费线看线看2| 国产熟妇无码一区二区三区H|