掘金 人工智能 09月29日
科大讯飞发布Spark Chemistry-X1-13B化学大模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

科大讯飞推出的Spark Chemistry-X1-13B是一款专为化学领域设计的大型语言模型,基于Spark-X1基础模型微调而成。该模型在化学知识问答、化学名称转换和分子属性预测等任务上展现出卓越性能,显著优于通用大型模型。其核心技术包括深度推理架构,支持快速与慢速两种思考模式,以及混合训练稳定性机制。模型参数量为130亿,上下文长度为32K。评估结果显示,在高级知识问答、名称转换和属性预测等多个关键指标上,Spark Chemistry-X1-13B均位列全球最佳。模型已在ModelScope开放下载,并提供了详细的部署和使用指南,支持FP32权重转换为BF16以提高推理效率。

🧪 **专业领域优化与卓越性能**:Spark Chemistry-X1-13B 是科大讯飞专为化学领域打造的大型语言模型,在化学知识问答、名称转换及分子属性预测等专业任务上进行了深度优化。相较于领先的通用大模型,该模型在这些化学相关基准测试中的表现更为出色,多数评估指标均显著领先,展现了其在处理复杂化学问题上的强大实力,同时保留了良好的通用能力。

🧠 **创新的深度推理架构**:模型采用了结合长链思维(CoT)和双过程理论的统一框架,能够支持“快速”(反应式)和“慢速”(深思熟虑)两种不同的思考模式。这种双模式推理能力使其在处理需要快速响应的问题和需要深入分析的问题时都能游刃有余,提高了模型解决复杂问题的效率和准确性。

⚙️ **混合训练稳定性与部署便捷性**:通过新颖的注意力掩码机制,模型实现了不同推理模式训练阶段的解耦,有效防止了数据分布间的干扰,保证了训练的稳定性。模型已在ModelScope平台开放下载,并提供了清晰的安装和快速使用指南,用户可以方便地进行本地部署和调用,甚至可以进行FP32权重到BF16的转换以优化推理速度。

📊 **权威评估与领先地位**:在自行构建的评估数据集上,Spark Chemistry-X1-13B 在高级知识问答(84.00%)、名称转换(71.00%)和属性预测(85.33%)等任务上均取得了全球最佳的成绩,这些结果均是在零样本性能平均值且采用一致评估协议下得出,有力证明了其在化学大模型领域的领先地位。

一、模型介绍

iFLYTEK Spark Chemistry-X1-13B 是由 iFLYTEK 团队开发的化学专业大型语言模型。该模型在多种化学任务数据集上对 iFLYTEK Spark-X1 基础模型进行了微调,展示了在解决复杂化学问题方面的卓越能力,同时保持了强大的通用能力。该模型在与化学相关的基准测试中表现出色,并且在大多数评估指标上明显优于领先的通用模型。

主要特点

模型概要

参数
总参数13B
上下文长度32K
窗口长度32K
层数40
注意力隐藏维度5120
注意力头数40
词汇量130K
注意力机制GQA
激活函数GeLU

评估结果

*粗体 = 全球最佳

任务指标Spark Chemistry-X1-13BDeepSeek-R1Gemini 2.5 proGPT-4.1O3-mini
高级知识问答准确率84.0077.0064.0076.0080.00
名称转换准确率71.006.0015.004.006.00
属性预测准确率85.3341.7351.1951.6667.58

评估说明 :

    所有结果显示零样本性能平均值对所有模型应用一致的评估协议DeepSeek-R1、Gemini 2.5 Pro、GPT-4.1 和 O3-mini 使用链式思维(CoT)推理并通过 API 验证进行评估Spark Chemistry-X1-13B 在 NVIDIA A800 80GB GPU 的本地环境中使用链式思维(CoT)推理进行评估评估数据集是自行构建的

二、模型部署

1.下载模型及文件

下载地址:modelscope.cn/models/ifly…

下载命令

pip install modelscopemodelscope download --model iflytek/Spark-Chemistry-X1-13B

2.安装环境

cd iflytek/Spark-Chemistry-X1-13Bpip install -r requirements.txtpip install .

3.快速使用

from modelscope import AutoModelForCausalLM, AutoTokenizerimport torch# Load model and tokenizermodel_name = "iflytek/Spark-Chemistry-X1-13B"tokenizer = AutoTokenizer.from_pretrained(model_name,trust_remote_code=True)model = AutoModelForCausalLM.from_pretrained(    model_name,    torch_dtype=torch.float32,    device_map="auto",    trust_remote_code=True)# Reactivechat_history = [  {    "role" : "user",    "content" : "请回答下列问题:高分子材料是否具有柔顺性主要决定于()的运动能力。\nA、主链链节\nB、侧基\nC、侧基内的官能团或原子?"  }]inputs = tokenizer.apply_chat_template(    chat_history,    tokenize=True,    return_tensors="pt",    add_generation_prompt=True).to(model.device)outputs = model.generate(    inputs,    max_new_tokens=8192,    top_k=1,    do_sample=True,    repetition_penalty=1.02,    temperature=0.7,    eos_token_id=5,    pad_token_id=0,)response = tokenizer.decode(    outputs[0][inputs.shape[1] :],    skip_special_tokens=True)print(response)
from modelscope import AutoModelForCausalLM, AutoTokenizerimport torch# Load model and tokenizermodel_name = "iflytek/Spark-Chemistry-X1-13B"tokenizer = AutoTokenizer.from_pretrained(model_name,trust_remote_code=True)model = AutoModelForCausalLM.from_pretrained(    model_name,    torch_dtype=torch.float32,    device_map="auto",    trust_remote_code=True)# Deliberativechat_history = [  {    "role" : "system",    "content" : "请你先深入剖析给出问题的关键要点与内在逻辑,生成思考过程,再根据思考过程回答给出问题。思考过程以<unused6>开头,在结尾处用<unused7>标注结束,<unused7>后为基于思考过程的回答内容"  }  ,  {    "role" : "user",    "content" : "请回答下列问题:高分子材料是否具有柔顺性主要决定于()的运动能力。\nA、主链链节\nB、侧基\nC、侧基内的官能团或原子?"  }]inputs = tokenizer.apply_chat_template(    chat_history,    tokenize=True,    return_tensors="pt",    add_generation_prompt=True).to(model.device)outputs = model.generate(    inputs,    max_new_tokens=8192,    top_k=1,    do_sample=True,    repetition_penalty=1.02,    temperature=0.7,    eos_token_id=5,    pad_token_id=0,)response = tokenizer.decode(    outputs[0][inputs.shape[1] :],    skip_special_tokens=True)print(response)

可选:将 FP32 权重转换为 BF16

发布的 Spark Chemistry-X1-13B 权重以 FP32 精度存储。 为了提高推理效率,用户可以选择将权重转换为 bfloat16 (BF16) 格式。

from modelscope import AutoModelForCausalLMimport torchmodel_name = "iflytek/Spark-Chemistry-X1-13B"# Load FP32 weightsmodel = AutoModelForCausalLM.from_pretrained(    model_name,    torch_dtype=torch.float32, # explicitly FP32    device_map="auto",    trust_remote_code=True)# Convert to BF16model = model.to(torch.bfloat16)#  Save BF16 weights for later fast loadingsave_path = "./Spark-Chemistry-X1-13B-bf16"model.save_pretrained(save_path, safe_serialization=True)

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

iFLYTEK Spark Chemistry-X1-13B 化学大模型 AI for Science LLM 科大讯飞 Natural Language Processing
相关文章