斯坦福Storm-人工智能-医学府 - 网址导航 |Google学术搜索|sci-hub最新网址|谷歌学术搜索|百度学术导航

医学府

  • 常用
  • 百度
  • google
  • 站内搜索

人工智能

斯坦福Storm

  • 更新日期:2025-06-02 01:53:43
  • 查看次数:0
  • 点赞() SEO参考: 站长工具 爱站网 5118查询

详细介绍:

Storm.genie.stanford.edu

斯坦福大学AI研究写作工具完整攻略指南

探索STORM和Co-STORM的强大功能,掌握AI驱动的维基百科式报告生成技术,革新您的研究和写作流程

平台概述

STORM是斯坦福大学开发的革命性AI研究工具,能够自动生成维基百科风格的长篇报告

什么是STORM?

STORM (Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking) 是一个基于大型语言模型的系统,能够从零开始撰写维基百科风格的文章。

该系统通过互联网搜索进行研究,采用多视角问题提问和模拟对话的方式,自动收集信息并生成结构化的长篇报告。

70,000+
用户体验
免费
开源使用

核心优势

智能研究

自动进行多视角研究,深度探索主题

权威引用

自动生成准确的引用和参考文献

协作模式

支持人机协作的知识策展

开源透明

完全开源,支持自定义部署

技术架构概览

 
信息收集

多源搜索引擎整合,智能信息提取

 
结构生成

自动生成层次化大纲和知识框架

 
内容撰写

基于大纲生成高质量长篇文章

核心功能特性

深入了解STORM的强大功能和技术特点

 

STORM系统

原始的STORM系统专注于自动化研究和文章生成,通过两阶段流程确保内容质量。

预写作阶段:智能研究和大纲生成
写作阶段:基于大纲的文章生成
多视角问题提问机制
模拟对话式信息收集
 

Co-STORM系统

增强版的协作系统,支持人机协作,提供更加个性化和深入的知识探索体验。

协作对话协议
动态思维导图生成
多AI专家协作
人机交互优化

技术实现原理

STORM工作流程

STORM两阶段工作流程
1. 预写作阶段

进行基于互联网的研究,收集参考资料并生成文章大纲

2. 写作阶段

使用大纲和参考资料生成完整的带引用文章

Co-STORM协作机制

Co-STORM协作工作流程
AI专家系统

多个AI专家基于外部知识源生成答案和后续问题

协调者机制

生成启发性问题,引导深入讨论

人机协作

用户可以观察或主动参与对话,引导讨论方向

支持的AI模型和服务

语言模型

GPT、Claude、Gemini等

搜索引擎

Google、Bing、You.com等

向量数据库

支持本地文档检索

开发框架

基于DSPy构建

使用教程

从入门到精通,掌握STORM的各项功能

在线使用指南

步骤1:访问平台

https://storm.genie.stanford.edu/

1

打开网站

访问斯坦福大学官方STORM平台

2

同意服务条款

阅读并同意使用条款

3

选择模式

选择STORM或Co-STORM模式

步骤2:输入主题

主题示例:
  • • "人工智能在医疗诊断中的应用"
  • • "区块链技术的发展现状"
  • • "可再生能源的未来趋势"

选择具体主题

主题越具体,生成的报告质量越高

支持多语言

可以使用中文或英文输入主题

步骤3:生成报告

自动研究

系统自动进行多源信息收集和分析

大纲生成

智能生成层次化的文章结构

文章撰写

生成完整的维基百科风格报告

本地部署指南

环境准备

# 克隆仓库
git clone https://github.com/stanford-oval/storm.git
cd storm

# 创建环境
conda create -n storm python=3.11
conda activate storm

# 安装依赖
pip install -r requirements.txt

API配置

# 创建secrets.toml文件
OPENAI_API_KEY="your_openai_api_key"
BING_SEARCH_API_KEY="your_bing_search_api_key"
YDC_API_KEY="your_you_com_api_key"

Python API使用

from knowledge_storm import STORMWikiRunner, STORMWikiLMConfigs
from knowledge_storm.lm import LitellmModel
from knowledge_storm.rm import YouRM

# 配置语言模型
lm_configs = STORMWikiLMConfigs()
gpt_4 = LitellmModel(model='gpt-4o', max_tokens=3000, api_key="your_key")
lm_configs.set_article_gen_lm(gpt_4)

# 配置检索模块
rm = YouRM(ydc_api_key="your_key", k=10)

# 创建STORM实例
runner = STORMWikiRunner(engine_args, lm_configs, rm)

# 运行生成
topic = "人工智能的发展历程"
runner.run(topic=topic, do_research=True, do_generate_article=True)

最佳实践建议

主题选择技巧

具体明确

选择具体的主题而非过于宽泛的概念

时效性强

选择有足够在线资源的当前主题

平衡深度

既不过于简单也不过于复杂专业

使用优化建议

耐心等待

完整报告生成需要3-10分钟

后期编辑

生成后可以进一步编辑和完善

及时保存

及时下载和保存生成的报告

Co-STORM协作模式

探索人机协作的知识策展新模式

什么是Co-STORM?

Co-STORM是STORM的增强版本,引入了协作对话协议,支持人机协作进行更深入的知识探索和内容创作。

协作对话协议

实现人类用户与AI系统之间的自然对话交互

动态思维导图

实时更新的概念结构图,帮助理解复杂主题

多AI专家系统

多个AI专家协同工作,提供多维度观点

Co-STORM界面示例
 

AI专家团队

多个AI专家基于不同知识源提供答案和后续问题,确保信息的全面性和准确性。

多视角分析
深度问答
 

智能协调者

协调者负责生成启发性问题,引导讨论深入,确保对话的连贯性和深度。

引导讨论
深度挖掘
 

人类用户

用户可以观察对话获得深入理解,也可以主动参与,注入话语引导讨论方向。

主动参与
引导方向

Co-STORM使用流程

1

热启动

系统建立共享概念空间,生成初始思维导图

2

协作对话

AI专家和协调者开始多轮深入讨论

3

用户参与

用户观察或主动参与,引导讨论方向

4

报告生成

基于对话内容生成最终报告

技术集成与API

深入了解STORM的技术架构和集成方案

支持的服务和模型

语言模型支持

OpenAI

GPT-3.5, GPT-4, GPT-4o系列

Anthropic

Claude 3.5 Sonnet, Claude 3 Haiku

Google

Gemini Pro, Gemini 1.5

其他模型

通过LiteLLM支持所有主流模型

检索服务支持

搜索引擎

Google Search, Bing Search, You.com

专业搜索

Serper, Brave Search, Tavily

向量数据库

支持本地文档向量化检索

其他服务

DuckDuckGo, SearXNG, Azure AI Search

API集成示例

基础STORM配置

import os
from knowledge_storm import STORMWikiRunnerArguments, STORMWikiRunner, STORMWikiLMConfigs
from knowledge_storm.lm import LitellmModel
from knowledge_storm.rm import YouRM

# 配置语言模型
lm_configs = STORMWikiLMConfigs()
openai_kwargs = {
    'api_key': os.getenv("OPENAI_API_KEY"),
    'temperature': 1.0,
    'top_p': 0.9,
}

# 配置不同组件的模型
gpt_35 = LitellmModel(model='gpt-3.5-turbo', max_tokens=500, **openai_kwargs)
gpt_4 = LitellmModel(model='gpt-4o', max_tokens=3000, **openai_kwargs)

lm_configs.set_conv_simulator_lm(gpt_35)  # 对话模拟器
lm_configs.set_question_asker_lm(gpt_35)  # 问题生成器
lm_configs.set_outline_gen_lm(gpt_4)      # 大纲生成器
lm_configs.set_article_gen_lm(gpt_4)      # 文章生成器

# 配置检索模块
rm = YouRM(ydc_api_key=os.getenv('YDC_API_KEY'), k=10)

# 创建STORM运行器
engine_args = STORMWikiRunnerArguments()
runner = STORMWikiRunner(engine_args, lm_configs, rm)

Co-STORM配置示例

from knowledge_storm.collaborative_storm.engine import CollaborativeStormLMConfigs, CoStormRunner
from knowledge_storm.lm import LitellmModel
from knowledge_storm.rm import BingSearch

# 配置Co-STORM语言模型
lm_config = CollaborativeStormLMConfigs()
openai_kwargs = {
    "api_key": os.getenv("OPENAI_API_KEY"),
    "temperature": 1.0,
    "top_p": 0.9,
}

# 配置各种AI代理
question_answering_lm = LitellmModel(model='gpt-4o', max_tokens=1000, **openai_kwargs)
discourse_manage_lm = LitellmModel(model='gpt-4o', max_tokens=500, **openai_kwargs)
utterance_polishing_lm = LitellmModel(model='gpt-4o', max_tokens=2000, **openai_kwargs)

lm_config.set_question_answering_lm(question_answering_lm)
lm_config.set_discourse_manage_lm(discourse_manage_lm)
lm_config.set_utterance_polishing_lm(utterance_polishing_lm)

# 配置检索模块
bing_rm = BingSearch(bing_search_api_key=os.environ.get("BING_SEARCH_API_KEY"), k=10)

# 创建Co-STORM运行器
costorm_runner = CoStormRunner(lm_config=lm_config, rm=bing_rm)

部署选项

云端部署

使用官方提供的在线服务,无需本地配置

推荐用于快速体验

本地部署

在本地环境安装和运行STORM系统

适合开发和定制

私有部署

在私有服务器上部署,确保数据安全

适合企业和机构

实战案例分析

通过实际案例了解STORM的应用场景和效果

 

学术研究案例

主题:量子计算的发展现状与前景

研究过程

STORM自动收集了来自IEEE、Nature、Science等权威期刊的最新研究,分析了量子计算的技术发展轨迹

生成结果

生成了8000字的综合报告,包含54个引用,涵盖技术原理、应用前景、挑战分析等方面

应用价值

为研究生的文献综述提供了完整框架,节省了2-3周的资料收集时间

 

商业分析案例

主题:电动汽车市场竞争格局分析

市场调研

自动分析了特斯拉、比亚迪、蔚来等主要厂商的财报数据和市场表现

竞争分析

生成了详细的SWOT分析和市场定位图,包含技术对比和发展趋势

决策支持

为投资决策提供了数据支撑,帮助识别潜在投资机会

Co-STORM协作案例

案例:气候变化对农业的影响

协作过程

用户与AI专家进行了45轮对话,深入探讨了气候变化对不同地区农业生产的具体影响

用户参与

用户主动提出了关于适应性策略的问题,引导AI专家探索解决方案

思维导图

动态生成的思维导图帮助用户理解复杂的因果关系和影响链条

Co-STORM思维导图示例
协作效果
  • • 生成了12,000字的深度报告
  • • 包含了区域性差异分析
  • • 提供了具体的适应策略建议
  • • 用户满意度评分:9.2/10

应用场景总结

学术研究

文献综述、研究报告、学位论文

商业分析

市场研究、竞争分析、行业报告

内容创作

深度文章、科普内容、专题报道

知识管理

知识整理、概念梳理、学习辅助

常见问题解答

解决使用过程中的常见疑问

STORM生成的内容是否准确?

STORM基于大量互联网资源生成内容,并提供引用来源。虽然质量较高,但建议用户进行进一步的事实核查和编辑。

是否支持中文主题?

是的,STORM支持中文主题输入,但由于中文资源相对较少,建议使用英文主题以获得更好的效果。

生成一篇报告需要多长时间?

通常需要3-10分钟,具体时间取决于主题复杂度、网络状况和服务器负载。

如何优化生成效果?

选择具体明确的主题,避免过于宽泛的概念;确保主题有足够的在线资源;必要时可以多次生成并选择最佳结果。

是否完全免费使用?

在线版本目前免费提供,但可能有使用限制。本地部署需要自己提供API密钥和相关服务费用。

生成的内容版权归谁?

生成的内容基于公开资源,用户可以自由使用,但需要注意引用的原始资料可能有版权限制。

可以商业化使用吗?

STORM本身是开源项目,但商业使用需要考虑所使用的API服务条款和生成内容的版权问题。

如何获得技术支持?

可以通过GitHub Issues、学术论文或斯坦福大学官方渠道获得支持,也可以参与开源社区讨论。

相关资源链接

获取更多信息和支持

官方网站

访问STORM在线体验平台

storm.genie.stanford.edu

GitHub仓库

获取源代码和技术文档

stanford-oval/storm

学术论文

阅读STORM和Co-STORM原始论文

arXiv论文链接

项目主页

访问斯坦福官方项目页面

项目主页

开始您的STORM之旅

体验AI驱动的研究写作革命,让STORM成为您学术和专业发展的强大助手

© 2025 Storm.genie.stanford.edu 完整介绍及图文攻略指南

本指南基于公开资料整理,旨在帮助用户更好地理解和使用STORM工具

高速下载