IT之家 11月10日 16:24
研究:AI 生成社交媒体内容易被识别
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一项最新研究揭示,尽管人工智能在多领域已超越人类,但在互联网上展现真正恶意方面仍有待突破。研究人员测试了包括Llama、Mistral在内的九个开源大语言模型在Bluesky、Reddit和X平台上的表现。结果显示,AI生成的社交媒体帖子“容易被区分”,准确率高达70%-80%。研究发现,“毒性评分”是区分AI与人类内容的关键,AI回复的“毒性”普遍低于人类。AI在模仿技术性特征如句子长度方面表现优于情感表达,且未经过人类指令微调的模型反而表现更好,暗示过度校准训练可能导致文本机械化。

💡 AI在模仿社交媒体帖子方面存在局限性:研究表明,AI模型虽然能模仿在线对话的形式,但在捕捉对话的情感本质上存在困难。自发且充满感情的表达是人类互动的特点,而AI生成的帖子在“毒性评分”上普遍低于人类回复,暗示其在情感传达上不如人类自然。

📊 区分AI与人类内容的关键在于“毒性评分”:研究发现,AI生成的社交媒体帖子可以通过“毒性评分”进行有效区分,准确率高达70%-80%。这意味着,如果一条评论显得特别尖锐或带有强烈的情感色彩,它更有可能是人类所写,而非AI生成。

🌐 不同平台对AI模仿能力构成不同挑战:研究测试了Bluesky、Reddit和X平台,发现AI在模仿X平台的帖子时表现最好,在Bluesky上稍显逊色,而在对话规范更为多样的Reddit上则最具挑战性。这表明AI对不同平台语境和规范的适应能力存在差异。

⚙️ 未经指令微调的模型表现更优:令人意外的是,如Llama-3.1-8B、Mistral-7B和Apertus-8B等未经过人类指令微调的AI模型,在模仿人类社交媒体内容方面比经过微调的模型表现更好。这可能意味着过度校准的训练引入了过于一致的风格,使得文本显得更加机械化,反而更容易被识别。

IT之家 11 月 10 日消息,当前的 AI 已经在象棋、数学等领域超越了人类,且正在逐步渗透到编程、广告乃至心理治疗等行业。然而,研究人员认为,AI 仍有一个尚未突破的领域:在互联网上展现真正的恶意。

当地时间 11 月 9 日,据外媒 PC Mag 报道,苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的最新研究表明,各种大语言模型生成的社交媒体帖子都“容易被区分”,且准确率达到 70% 至 80%,远高于随机猜测的结果。

IT之家从报道中获悉,研究人员测试了来自六个不同模型家族的九个开源大语言模型,“参赛选手”为 Apertus、DeepSeek、Gemma、Llama、Mistral、Qwen 以及一个大规模的 Llama 模型,分别在 Bluesky、Reddit 和 X 平台上进行对比。

项研究发现,平台上这些帖子显示的“毒性评分”是区分 AI 生成内容与人类生成内容的关键因素。简而言之,如果有人在你发布的帖子下回了一个特别尖锐或搞笑的评论,那很可能是人类写的

研究人员表示:“这些结果表明,虽然大语言模型可以模仿在线对话的形式,但在捕捉对话的情感本质上存在困难:自发且充满感情的表达是人类互动的特点。”

研究人员指出,模型在某些特定情境下的表现尤其差劲。例如,在马斯克 X 的帖子下表达积极情感,或者在 Reddit 上讨论政治。总体来看,所有测试的 AI 模型在模仿 X 平台的帖子时表现较好,而在 Bluesky 上则稍显逊色,Reddit 则是三者中最具挑战性的,因为该平台的对话规范更加多样。

研究还表明,大语言模型更擅长模仿社交媒体帖子的技术性特征,比如句子长度或字数,而在表达情感方面则显得较弱。在所有三个平台上,AI 的回应“毒性”评分普遍低于人类的回复。

研究人员还发现,Llama-3.1-8B、Mistral-7B 和 Apertus-8B 等未经过人类指令微调的 AI 模型比经过微调的模型表现更好,这一结果表明过度校准训练引入了过于一致的风格,使得文本更机械化

参考

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 大语言模型 社交媒体 内容识别 人工智能 Large Language Models Social Media Content Identification Artificial Intelligence
相关文章