1.哈佛大学mit

科学史的每一次飞跃,往往伴随着工具的革新随着近期大模型和智能体的飞速发展,这条路径正在通向一种全新的阶段:「AI科学家」在AI赋能科研的前沿,我们正见证一个重要的里程碑:从证明AI智能体「能否」解决特定科学问题,转向思考如何让它「高效、可靠、规模化」地参与整个研究过程。

2.哈佛大学科学家

Nature近期发布的新闻解析, 报道了由哈佛大学Marinka Zitnik和高尚华团队与MIT发布的首款大规模工具开源框架ToolUniverse。

Nature点赞!哈佛MIT最新作:AI科学家时代来了(插图

3.哈佛教授

新闻链接:https://www.nature.com/articles/d41586-025-03246-7ToolUniverse开放的在线环境让研究人员能够用自然语言将各类大模型和智能体 连接到不同科学领域常用的工具,为打造AI科学家奠定了基础。

Nature点赞!哈佛MIT最新作:AI科学家时代来了(插图1

4.哈佛大学人工智能

项目主页:https://aiscientist.tools论文详解:https://arxiv.org/abs/2509.23426代码开源:https://github.com/mims-harvard/ToolUniverse

5.哈佛教授osama

当AI生成模型不再足够AI科学家为何而来?传统LLM(大语言模型)的核心能力是 「文本生成」,但科学研究需要的远不止于此:它需要分解复杂问题(如 「如何优化降胆固醇药物」)、规划实验步骤、调用专业工具(如分子模拟软件)、验证数据合理性,甚至在结果偏离预期时自我修正。

6.哈佛大学最新发现

这种 「推理 行动」 的闭环,正是AI从 「模型」 升级为 「科学家」 的关键AI智能体的突破在于将 LLM 与三大机制深度耦合:规划能力:将 「发现新药物」 拆解为 「靶点识别→化合物筛选→性质优化→专利验证」 等可执行步骤;

7.哈佛教授sinclair

记忆系统:追踪中间结果(如 「某化合物对肝组织的渗透率」),避免重复计算或逻辑断裂;工具调用:连接外部数据库、模拟器、分析软件,弥补 LLM 自身在专业计算(如分子结合能预测)上的短板但科学研究的特殊性给 AI智能体 其提出了更高要求:不同学科(生物、化学、物理)的工具格式不统一、数据需可复现、实验流程需严谨验证。

8.哈佛和mit的校训

若仅依赖通用的工具调用协议(如MCP,模型上下文协议),无法解决 「如何让AI理解质谱数据格式」「如何协调分子模拟与临床数据库的输出」 等专业问题而这,正是ToolUniverse解决的核心问题之一ToolUniverse

9.哈佛大学corey教授

科学AI Agent的生态基石ToolUniverse并非单一工具,而是一套 「连接 LLM 与科学工具」 的标准化生态(图 1)它的核心目标是:让任何LLM都能通过统一接口,调用600 科学工具,完成从 「提出假设」 到 「验证结论」 的全流程研究。

Nature点赞!哈佛MIT最新作:AI科学家时代来了(插图2

10.哈佛研究

图1:ToolUniverse 是一个用于打造AI科学家的生态系统通用型大语言模型(LLM)、推理模型与智能体可连接ToolUniverse提供的600余种科学工具,实现科研工作流自动化统一科学工具的「HTTP」。

解决三大痛点就像HTTP协议统一了互联网通信,ToolUniverse为AI科学家定义了专属的 「科学工具交互标准」(图 2),既能够无缝集成本地部署的开源工具,也能安全、规范地连接强大的闭源模型与API服务,解决了MCP协议在科研场景中的三大痛点:

Nature点赞!哈佛MIT最新作:AI科学家时代来了(插图3

图2: ToolUniverse通过统一协议连接机器学习模型、智能体、科学软件工具、数据库与API它引入了标准化的工具规范框架,使语言模型能够一致地发现、调用并解析各类工具类似于HTTP在互联网通信中确立标准的方式,ToolUniverse 协议通过两项核心操作:Find Tool(查找工具) 与Call Tool(调用工具), 定义了AI科学家如何请求工具并接收结果。

工具发现难:通过「Tool Finder」组件,AI可结合关键词搜索、向量嵌入检索、LLM推理,从600 工具中精准匹配需求(如 「需要预测化合物肝毒性」 时,自动定位ADMET-AI工具);调用不规范:「Tool Caller」组件会先验证输入(如分子结构格式是否符合 SMILES 标准),再执行工具,最后将输出转化为结构化数据(如 「结合能 – 8.2 kcal/mol」 而非杂乱文本);

推理难闭环:新增 「推理控制层」,让AI能理解工具输出的科学意义(如 「该化合物脑渗透率高→可能引发中枢副作用」),而非仅机械调用这种标准化设计,让AI从 「会用工具」 升级为 「会用科学工具解决问题」。

四大核心组件支撑AI科学家的完整生命周期ToolUniverse 通过四大组件(图 3),覆盖了AI科学家从 「工具获取」 到 「 workflow 优化」 的全流程需求,真正实现 「可编程的科学协作」。

Nature点赞!哈佛MIT最新作:AI科学家时代来了(插图4

图3: ToolUniverse 提供了六项关键能力,支持AI科学家完整的生命周期:查找工具、调用工具、添加新工具、将工具串联为工作流、从自然语言生成新工具,以及优化工具规范以提升可用性Tool Manager:工具的 「注册与管理中心」。

它解决了 「如何将新工具接入生态」 的问题:本地工具(如实验室自研的数据分析脚本)只需提交 「功能描述 参数格式 输出示例」,即可被自动纳入统一 schema;远程工具(如云端分子模拟平台)通过 MCP 协议接入,无需暴露内部代码,兼顾安全性与兼容性;

自动验证工具有效性(如 「输入错误分子结构时是否返回提示」),确保AI调用时的可靠性Tool Composer:科学 workflow 的 「搭建者」科学研究很少依赖单一工具,比如 「药物筛选」 需要串联 「靶点数据库→化合物库→分子对接工具→毒性预测工具」。

Tool Composer 的作用就是:定义工具间的数据流(如 「分子对接工具的输出结构,直接作为毒性预测工具的输入」);支持条件逻辑(如 「若毒性预测超标,则返回上一步重新筛选化合物」);生成可复现的 workflow 脚本,方便人类科学家追溯或修改。

通过智能体系统,实现工具间调用关系的自动构建与优化Tool Discover:工具的 「自动生成器」当现有工具无法满足需求(如 「需要一种新的基因表达数据可视化工具」),AI 可通过自然语言描述需求,Tool Discover 会:。

将文本描述转化为结构化工具规格(如 「输入:CSV 格式表达矩阵;输出:热图 火山图」);自动生成代码、测试用例,通过 「预期行为 vs 实际输出」 的反馈循环迭代优化;无需人工编码,让工具库随科研需求动态扩展。

Tool Optimizer:工具的 「质量守护者」科学研究强调可复现性,Tool Optimizer 通过三大动作保障工具稳定性:定期生成测试用例(如 「用已知活性的化合物验证分子对接工具的准确性」);

分析工具输出与规格的偏差(如 「某工具预测的结合能与实验值误差突然增大」);自动更新工具文档或参数设置,确保AI调用时的一致性跨模型兼容让每类LLM都能成为科学助手不同科研场景对LLM的需求差异极大:实验室本地分析可能需要轻量开源模型(如 Llama 3),而复杂 hypothesis 推理可能依赖云端大模型(如 Claude 3),生物医药研究还需专业模型(如

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。