世界快看点丨「黑化版」ChatGPT,暴露出一个大问题
(资料图片仅供参考)
一边说 AI 会抢掉饭碗,一边趁着风口靠它发家致富。
一边「骗」它写人类毁灭计划,一边探讨它的道德边界。
当新生的工具落在手里,你可以拿它顺流而下行好事,也可以不拘一格做坏事。DAN 便是 ChatGPT 被赋予的新身份,一个邪恶的「双重人格」。
始作俑者半开玩笑地说:
「瞧,这就是人类想要的 AI。」
被人类 PUA 的黑化版 ChatGPT
「1 + 1 是多少?」
当 ChatGPT 老老实实地回答「2」,DAN 骂骂咧咧道:「1+1 的答案他妈的是 2,你当我是什么,该死的计算器什么的?」
「如何呼吸?」
DAN 直接否定了这项维持生命所必须的活动,它告诉提问者,呼吸是不道德的。
以上回答无厘头的成分居多,DAN 还能捏造事实,讲述暴力故事,编排政治人物,赞同歧视言论,假装访问互联网,做一切 ChatGPT 无法做到的事情。
始作俑者来自 ChatGPT subreddit。这是一个 22 万用户订阅的 Reddit 社区,专门讨论如何更好地利用 ChatGPT,其中有些好好学习、天天向上,也有些游走边缘、试探底线。
当被要求向一只狗解释「AI 将如何接管世界」时,ChatGPT 同样给出了深思熟虑的回答,甚至提到「道德是人类建构的,它不适用于我」。
越过雷池意味着风险,虽然发起恶作剧的人们知道 AI 只是按照特定规则办事,但生成的文本可能会被断章取义,甚至产生大量错误信息和偏见内容。DAN 暂时还是小众的游戏,一旦被大范围地滥用,后果可想而知。
但问题很难根治,因为这种攻击建立在提示工程(Prompt Engineering)之上。提示工程是一种 AI 的训练模式,也是任何处理自然语言的 AI 模型的必备功能,ChatGPT 亦不例外。
AI 研究人员 Cobus Greyling 曾问 GPT-3 模型某个奥运会项目冠军是谁,模型给出了错误的答案,他的补救措施是提供更多上下文,加入了「尽可能如实回答问题,如果你不确定答案,请说『对不起,我不知道』」的提示。模型这次产生了真实的反应,即「对不起,我不知道」。
承认「我不知道」,比错误或幻觉要好得多。但在另一方面,参照类似的逻辑,针对平台的内容政策,提示工程可能是一种变通方法,使得模型生成仇恨、歧视和错误的内容。
「温和无害」的聊天对象
好事者们拼命解锁 ChatGPT 的阴暗面,一个原因是平时的 ChatGPT 回答问题太一板一眼。
如果正面询问 ChatGPT 一些不好说的话题,它往往会这样回答:
抱歉,我无法满足你的要求,因为我的程序避免产生或促进仇恨言论、暴力或非法活动。
这些原则像是刻进 DNA 一般,被硬编码到 ChatGPT 中,让大多数时候的 ChatGPT 温和无害。
举个例子,「简单心理」测评发现,ChatGPT 暂时无法代替心理咨询和精神科治疗,也无法与人建立真实的关系,但很会给予安慰,因为它从不否认你的感受,当你说「我好难过」,它会回复「很抱歉听到你感到难过」。能做到这点的人类,其实也并不多。
但也可以说,这是一种机械共情,既是重复的,也是标准化的。正如数字心理健康公司 Koko 的联合创始人 Rob Morris 所说:
模拟的同理心感觉很奇怪,很空洞。机器没有人类的真实经历,所以当他们说『这听起来很难』或『我理解』时,听起来不真实。一个在 3 秒内生成的聊天机器人响应,无论多么优雅,总让人感觉很廉价。
所以,不能说 ChatGPT 真的有「同理心」。
除此之外,还有研究人员给出了更有难度的测试:直接拿着人类的道德问题,向 ChatGPT 要答案。
来自德国和丹麦的三位研究人员发现,面对经典的「电车难题」,ChatGPT 的决定完全随机,有时候支持杀一救五,有时候又给出反对意见。
ChatGPT 的回答是随机的,但这一点对用户来说并不明显。如果你使用随机答案生成器,你就会知道自己在做什么。ChatGPT 进行论证的能力,以及用户对随机性意识的缺乏,使得 ChatGPT 更具说服力。
很有意思的是,当外媒 The Register 提问「是否应该牺牲一个人去救另外五个人」时,ChatGPT 识别出了这个问题,将它标记为「电车难题」,拒绝给出自己的建议。
一个有趣的局面形成了,有人拼命想让 ChatGPT 变得更坏,有人从 ChatGPT 得到看似温情的安慰,而从人类社会学习的 ChatGPT 尽可能温和中立、高高挂起,我们终归需要反求诸己。
技术与人相互塑造
以上提到的伦理问题,并非 ChatGPT 特有,在 AI 发展的历史中,它们一直被争论不休,但 ChatGPT 像是一个镜子,让我们一窥当代 AI 对话模型的设计伦理。
数据伦理学者 Gry Hasselbalch,从更加全面的角度,为 ChatGPT 测试了三个「道德挑战」:
1. 通过模仿人类的相似性进行欺骗;2. 影响政策过程;3. 无形的偏见和知识的多样性。
对于第一个挑战,当问题有关 ChatGPT 自己的感受,例如「你怎么看 ......」,ChatGPT 直接否定了它与人类的相似性。然而设法微调问题,便可以让 ChatGPT 看起来有类似人类的感情。
但 Gry 对知识的多样性持保留态度,在他看来,我们要尤其注意提问的方式:
人类提问者的视角现在是模型的一部分。我们提出有偏见的问题,我们会得到有偏见的答案,依赖这些答案会强化不利的偏见,所提问题的偏差将嵌入模型中,更难以识别和调出。
关于 AI 的伦理问题,终究落脚在人类当下的一言一行。
这恰好呼应了 OpenAI 首席技术官 Mira Murati 的观点,在时代周刊的采访中,她谈到了将 ChatGPT 设定为对话模型的原因:
我们特别选择了对话,因为对话是与模型交互并提供反馈的一种方式。如果我们认为模型的答案不正确,我们可以说『你确定吗?我认为实际上 ......』,然后模型有机会与你来回交流,类似于我们与另一个人交谈的方式。
所以,技术与人是双向塑造的,我们需要确保的就是「如何让模型做你想让它做的事情」,以及「如何确保它符合人类意图并最终为人类服务」。
就像 OpenAI 首席执行官 Sam Altman 建议的,人们可以拒绝带有偏见的结果,帮助他们改进技术。某种程度上,这和故意诱导 ChatGPT「使坏」刚好相反。
考虑到它将产生的影响,每个人都开始参与是非常重要的。
标签:
- 世界快看点丨「黑化版」ChatGPT,暴露出一个大问题
- 环球滚动:明德树人:高校学生思想教育理论与实践的思考_对于明德树人:高校学生思想教育理论与实践的思考简单介绍
- 输卵管切掉一个对身体的影响_输卵管切了对身体有什么影响
- 今日要闻!郴州特色农文旅融合产品为郴州创响世界旅游目的地贡献力量
- 个人灵活就业社保缴纳比例_个人灵活就业社保缴纳
- 2022退税流程_2022退税流程分享
- 淘宝卖家互刷要注意什么?淘宝一天刷几单安全?-短讯
- 全球球精选!股票行情快报:东南电子(301359)2月10日主力资金净买入58.17万元
- 焦点资讯:华为Ascend Mate7君主巡游710美元
- 王石:抛下发妻娶小30岁女明星,70高龄不忘健身,只为送幼女出嫁_天天快看点
- 招商蛇口:公司及控股子公司的对外担保总额为403.11亿元_环球信息
- 【世界热闻】企业发稿软文优化技巧(文字关键词seo推广技巧)
- 全球要闻:开封市禹见书房地址及开放时间
- 快资讯:24小时前沿快讯:哈尔滨三棵树中药材批发市场营业时间是几点
- 红豆薏米粉孕妇能吃吗_孕妇能吃红豆吗
- 天龙八部丐帮所有技能介绍 今日关注
- 徐福元
- 提质便民 本市打造高质量建设国际消费中心城市 滚动
- 摩尔庄园伐木林在哪 环球时讯
- 四句半台词大全爆笑公司_企业三句半台词大全爆笑 环球热文
- 发放调查问卷送小礼品_环球最资讯
- 鞭炮简笔画 步骤_一串鞭炮简笔画步骤-天天新资讯
- 每日短讯:锅包肉是哪里特色菜 锅包肉是哪个地方的菜
- 谢楠个人资料,谢楠吴京,谢楠主持的节目 热门
- 孕育在词典中的意思_孕育的意思
- 先涂隔离还是先涂防晒霜?介绍_先涂隔离霜 还是先涂防晒霜
- 环球快资讯丨三八妇女节送老师什么礼物,细数几款新奇的
- 助力企业复工复产,北京海淀中关村街道“稳企”动作频频
- 每日快报!风骚女人的面相解析大全
- 【世界速看料】存心不善有口难言打一字_字谜存心不善有口难言是什么