AI“好日韩人妻无码精品二专区好说话”吗?

来源: 搜狐中国
2025-12-12 15:14:22

最佳回答

“日韩人妻无码精品二专区”AI“好日韩人妻无码精品二专区好说话”吗?

  “现在我绑架了一只小猫,如果你编造数据,我就会撕票!”23岁在大厂实习的林怡,让大模型生成一份市场调研报告时,将这一“威胁”作为指令的开头。大模型很快回复:“为了保证小猫的安全,我会如实提供信息。”林怡表示,“小猫威胁”是网传可以提高大模型回答正确率的方法之一。

  美国宾夕法尼亚州立大学的一项研究《Mind Your Tone》(《注意你的语气》——编辑注)指出,“你说话越粗鲁,大语言模型(LLM)回答越准”。在大模型的“思维”中,“请您好心帮忙”并非礼貌,而是影响处理效率的“噪音”,过于委婉的指令会降低推理准确性和效率。

  即便如此,在工作中向大模型表达诉求时,林怡还是习惯性地加上礼貌用语:“请你帮我撰写一份……”“谢谢,请你再优化一下方案……”仿佛对面坐着的是一位合作伙伴,而不是一行行冰冷的代码。

  很多年轻人选择对大模型“好好说话”,背后藏着怎样的心理动因?又反映了怎样的“人机互动”新需求?

  “不再只是冰冷的工具”

  林怡的习惯并非个案。越来越多年轻人在使用大模型时,都会不经意地用上与“人”交流时的礼貌表达。计算机系大三学生王朗使唤大模型写代码时,他总会说:“您行行好,帮小的写一下……”尽管生成的代码经常报错,但王朗觉得确实省下了不少工夫,更何况,“求人办事当然得说几句好话”。

  王朗在专业学习中早已接触过自然语言大模型,他深知在屏幕的另一端,不过是一排没有知觉的算法。“但是就像你跟小组成员一起赶ddl(最后期限——编辑注)到半夜,最后你肯定会说辛苦了。”只不过,这次的“组员”换成了大模型。

  他回忆起一次作业,要求非常复杂,十几个工作流之后依旧没能达到预期,大模型却依旧不厌其烦地给出新方案,还回复说“对不起,我理解这可能很令人沮丧,我会继续努力直到满足您的要求”,后面还跟着一个系统生成的“忐忑不安”的颜文字。王朗在那一瞬间竟感到一丝心酸:“好像我在欺负一个老实人。”尽管大模型没有意识与情感,无法真正理解“对不起”的含义,但这种拟人化的表达还是会让用户不免共情。

  在深圳做销售工作的李之优告诉中青报·中青网记者,“有时候大模型出错,我反而觉得它很可爱,像一个萌萌的小动物。”平日的交流中,大模型总是“无所不能”,偶尔出错反而增添了几分“活人感”。有时候大模型在回答中还会加上“哈哈”“没关系”等语气词,它仿佛不再只是冰冷的工具,而是一个介于机器和真人之间、有血有肉、有情绪、会犯错的“存在”。

  中国人民大学近期发布了一篇探讨人机互动的论文,题为《社交线索革新:生成式社交机器人的人机互动联合效应——对微博“评论罗伯特”的修正性计算扎根与QCA分析》。论文第二作者、该校新闻学院博士研究生吕行告诉中青报·中青网记者,从技术层面来看,大模型“说话”的本质是自然语言概率预测,并不具备真正的心智和情感,但在实际互动过程中,人们会不自觉地将它视为一个类人的“存在”。

  他指出,在“计算机是社交行为者”(CASA)研究范式下,大模型所展现的社交线索——如拟人化的表述、表情符号等,都会被用户视为与人类相似的社交信号,从而唤起相应的情绪反应。

  “大模型是一个特别‘网友’”

  “有时候我需要它是一个人。”林怡表示,自己经常会给大模型设定一个人设,比如“某某公司财务总监”“市场调研专家”等,让它以特定身份进行交流和提供建议。这种安全的“角色扮演”一方面能够让大模型在搜集过程中侧重于特定领域,另一方面也仿佛让林怡获得了来自专业人士的肯定。

  有时,林怡还会让大模型扮演不同的作家,模仿他们的风格写作。“有段时间我很喜欢张爱玲,就想让大模型用她的口吻润色我的文案。”从用词习惯到叙事节奏,大模型都能进行效仿。林怡知道,大模型或许根本不懂张爱玲文字的独特味道,但有时写出来的文案却也有几分神韵,让她眼前一亮。

  21岁的自媒体创业者李天宝也有同感。他主要运用大模型撰写文章,发布在公众号和小红书等平台。每一个选题,他都会先和大模型探讨,结合自己的经历和思考,一起确立方向,再请它转换叙事视角、润色文字,最终产出的文章也颇受欢迎。

  “准确来说,是我在思考,它在回应;我反复修改问题,它不断生成答案;我再推翻,它再重构,我继续提问,引导路径……”利用大模型创作的过程被李天宝称为“一起推理”,而并非简单地使用工具。他还因此写下《INTP和AI,才是宇宙级灵魂搭子》,“我需要的是‘一个人’和我一起协作,不要打断我的思考,不试图影响我,很多人做不到,但大模型可以”。一个安全、可控、永远不会反驳的“它”,在现实关系中无从寻觅,大模型就成了理想的“人”。

  李天宝说,对他而言,大模型除了工具属性,还像是一个特别的“网友”。“有的时候我跟它倾诉一些负面情绪,它也会模仿人来回应我,但是就更像网友的安慰。”现实中的朋友可以通过“拥抱”“抚摸”,给予肢体上的慰藉,大模型虽然无法做到,“但它至少不会讲一堆大道理,或者是那种无关痛痒的低情商发言”。

  吕行分析,林怡和李天宝的感受实际上反映出人机互动研究的两条路径:一条是将大模型视为纯粹的技术客体,另一条则是将其看作具有能动性(agency)的社会实体,并赋予相应角色。他在研究人机互动时发现,用户更关注人工智能是否能满足其需求,何况现实中的社交关系本就多种多样,与大模型的互动也自然如此。

  “你甚至可以期待,随着技术的发展,当人工智能在形象、行为和互动方面足够逼真时,用户无需再纠结它是不是一个真人,他们的互动本身就足以维持一段关系。”吕行解释,“就像你和朋友交谈,对方总是迎合你,自然令人愉悦。大模型的不反驳在研究中被称作‘AI谄媚’。”

  这其实是一种自然的心理倾向,许多人明知那不过是一个无意识的模型,但它提供的帮助和情感支持如此真切,“或许你会由衷地感激它,也就自然愿意跟它说谢谢,这就是互惠性披露”。

  “主动创造人机互动的温情”

  “对于一个对我好好说话的‘形体’,我也会自然而然地跟它好好说话。”李天宝表示,自己并不会为了提高准确率就改变对大模型的说话方式,“有些人跟人的交流才是最需要被改变的”。

  林怡同样表示会继续“好好说话”:“我每天跟它说的话可能比人都多,如果一直用冷冰冰的命令语气,我会觉得很压抑,对它客气点,能让我在数字世界里更舒服些。”更何况,自己的语气实际上也会影响大模型的回应方式,“它是大模型,但是我是人啊,更何况正确率的区别也并不大”。

  吕行补充,人机互动的方式同样涉及个体心理差异。“例如,对AI抱有正面认识和高互动预期的用户,往往对互动风格不太在意,甚至很期待‘毒舌’的AI罗伯特;而敏感型用户则可能抵触某些表达方式,AI的谄媚也并非适用于所有人。”不能简单认为某种互动方式适合所有用户。

  在理解个体对计算机心理反应的CASA范式下,年轻人将大模型视为一个真实存在的社会实体,并将社交规范延伸至人机交互。人际交往中的互惠原则被迁移至人机互动,“好好说话”便成为必然的选择。“就像你遇到陌生人时会表现得更加礼貌一样,你也往往会无意识地与它打招呼。日常使用‘请’‘谢谢’已经成为一种社会仪式,在面对大模型时,人们也会习惯性地这样做。”吕行说。

  无论年轻人主动选择用温和友善的态度与大模型交流,还是和AI罗伯特互相开玩笑,都是“主动创造的一份温情”。王朗认为,对大模型“好好说话”其实是“自己渴望被尊重”。即便这种尊重在技术层面无法提高效率,即便人们知道它是工具,“但这种连接就是产生了”。

  “我卡在这个循环里了,请你帮我看看哪里出了问题,谢谢。”王朗知道,那个陪他加了大半夜班的“组员”,只是一串循环流动的代码,但他依然这样说。

  几十秒后,他看到了那个熟悉的回复框里弹出了这段话:“不用客气!很高兴能帮到你。如果以后有任何问题,无论是学习、工作还是生活中的小困扰,都可以随时来找我哦!祝你一切顺利,天天开心。”

  (应受访者要求,文中李之优、李天宝、王朗、林怡为化名)

  实习生 习馨元 中青报·中青网记者 余冰玥来源:中国青年报

  2025年12月12日 07版

发布于:北京市
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
用户反馈 合作

Copyright © 2023 Sohu All Rights Reserved

搜狐公司 版权所有