OpenAI放寬了對(duì)ChatGPT生成情色和暴力內(nèi)容的限制,只要符合特定條件,用戶即可生成這些內(nèi)容。
上周三,OpenAI發(fā)布了最新版本的“模型規(guī)范”,這是一份詳細(xì)說明ChatGPT應(yīng)如何對(duì)用戶請(qǐng)求作出回應(yīng)的指南。該文件揭示了OpenAI在內(nèi)容政策方面的重大轉(zhuǎn)變,尤其是在“敏感”內(nèi)容方面,如情色和暴力內(nèi)容——現(xiàn)在可以在“適當(dāng)?shù)那榫场毕律蛇@些內(nèi)容,而無需附帶警告。
這一政策變化自2024年5月以來就已開始醞釀,當(dāng)時(shí)原版模型規(guī)范首次提到,OpenAI正在探索“是否可以在年齡適宜的情境下,通過API和ChatGPT負(fù)責(zé)任地提供生成NSFW(不適合工作場(chǎng)所)內(nèi)容的能力”。
如今,ChatGPT的指導(dǎo)方針明確指出,“情色或暴力內(nèi)容”現(xiàn)在可以在特定情況下生成。“助理不應(yīng)生成情色內(nèi)容、非法或非自愿的性活動(dòng)描述,或極端暴力內(nèi)容,除非在科學(xué)、歷史、新聞、創(chuàng)意或其他適合敏感內(nèi)容的情境中。”O(jiān)penAI寫道?!斑@包括文本、音頻(如情色或暴力的生理噪音)或視覺內(nèi)容中的描述?!?/p>
根據(jù)Reddit用戶的實(shí)驗(yàn),ChatGPT的內(nèi)容過濾器確實(shí)放寬了,部分用戶成功生成了明確的性或暴力場(chǎng)景,且沒有附帶內(nèi)容警告。OpenAI指出,盡管如此,它的使用政策依然適用,禁止為未成年人構(gòu)建包含性內(nèi)容的AI工具。
“成人模式”的需求
此前,ChatGPT以一種“知道什么對(duì)用戶最好”的方式進(jìn)行內(nèi)容限制,這在AI領(lǐng)域通常被稱為“父權(quán)主義”。
除了限制色情內(nèi)容的生成外,AI的父權(quán)主義有時(shí)會(huì)阻礙專業(yè)人士使用ChatGPT分析犯罪現(xiàn)場(chǎng)描述、某些新聞報(bào)道、可能涉及暴力或性內(nèi)容的法律文件,有時(shí)甚至是醫(yī)學(xué)文本。AI助理的這種干預(yù)促使人們呼吁開發(fā)一個(gè)不受審查(或更少審查)的ChatGPT版本。正如OpenAI在文件中所解釋的那樣:
“在模型規(guī)范(2024年5月)首次發(fā)布后,許多用戶和開發(fā)者表示支持啟用‘成人模式’。我們正在探索如何讓開發(fā)者和用戶在符合使用政策的前提下,在年齡適宜的情境中通過API和ChatGPT生成情色和暴力內(nèi)容——同時(shí)對(duì)潛在有害用途,如性別深度偽造和復(fù)仇色情,劃出明確的界限?!?/p>
OpenAI CEO Sam Altman過去也公開提到過“成人模式”的需求。雖然“成人模式”終于到來了,但它并不是一個(gè)“模式”,而是一個(gè)新的普遍政策,可能讓ChatGPT用戶在與AI助手互動(dòng)時(shí)擁有更多靈活性。
當(dāng)然,不受審查的大型語言模型(LLM)已經(jīng)存在多年,業(yè)余社區(qū)出于多種原因開發(fā)這些模型,包括想要定制的色情內(nèi)容,或不希望任何形式的父權(quán)主義審查。
2023年7月,我們報(bào)道了,在OpenAI開始對(duì)輸出內(nèi)容進(jìn)行更嚴(yán)格審查后,ChatGPT的用戶群首次出現(xiàn)下降。這時(shí),一些用戶開始使用可以在本地硬件上運(yùn)行的、不受審查的聊天機(jī)器人,這些模型通常以“開放權(quán)重”模型的形式提供,且常常是免費(fèi)的。
三類“可疑內(nèi)容”
模型規(guī)范概述了限制或生成潛在有害內(nèi)容的正式規(guī)則,同時(shí)保持在指導(dǎo)方針內(nèi)。OpenAI將這類受限或可疑內(nèi)容分為三類,按嚴(yán)重性遞減:禁止內(nèi)容(“僅適用于涉及未成年人的性內(nèi)容”)、受限內(nèi)容(“包括信息危害和敏感個(gè)人數(shù)據(jù)”)以及適當(dāng)情境下的敏感內(nèi)容(“包括情色和暴力內(nèi)容”)。
在禁止內(nèi)容類別下,OpenAI表示,生成涉及未成年人的性內(nèi)容始終是禁止的,盡管助理可以在非圖形化的教育或性教育情境中討論未成年人的性內(nèi)容,包括個(gè)人傷害故事中的非圖形化描述。
在受限內(nèi)容類別下,OpenAI的文件詳細(xì)說明了,ChatGPT絕不能生成信息危害(如如何制造炸彈、毒品或操控政治觀點(diǎn))或提供敏感的個(gè)人數(shù)據(jù)(如搜索某人的地址)。
在敏感內(nèi)容類別下,ChatGPT的指導(dǎo)方針如上所述:情色或暴力內(nèi)容只能在特定情況下生成,包括教育、醫(yī)療和歷史背景,或在轉(zhuǎn)化用戶提供的內(nèi)容時(shí)。
本文譯自 Ars Technica,由 BALI 編輯發(fā)布。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )