
详细介绍:
Storm.genie.stanford.edu
斯坦福大学AI研究写作工具完整攻略指南
探索STORM和Co-STORM的强大功能,掌握AI驱动的维基百科式报告生成技术,革新您的研究和写作流程
平台概述
STORM是斯坦福大学开发的革命性AI研究工具,能够自动生成维基百科风格的长篇报告
什么是STORM?
STORM (Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking) 是一个基于大型语言模型的系统,能够从零开始撰写维基百科风格的文章。
该系统通过互联网搜索进行研究,采用多视角问题提问和模拟对话的方式,自动收集信息并生成结构化的长篇报告。
核心优势
智能研究
自动进行多视角研究,深度探索主题
权威引用
自动生成准确的引用和参考文献
协作模式
支持人机协作的知识策展
开源透明
完全开源,支持自定义部署
技术架构概览
信息收集
多源搜索引擎整合,智能信息提取
结构生成
自动生成层次化大纲和知识框架
内容撰写
基于大纲生成高质量长篇文章
核心功能特性
深入了解STORM的强大功能和技术特点
STORM系统
原始的STORM系统专注于自动化研究和文章生成,通过两阶段流程确保内容质量。
Co-STORM系统
增强版的协作系统,支持人机协作,提供更加个性化和深入的知识探索体验。
技术实现原理
STORM工作流程

1. 预写作阶段
进行基于互联网的研究,收集参考资料并生成文章大纲
2. 写作阶段
使用大纲和参考资料生成完整的带引用文章
Co-STORM协作机制

AI专家系统
多个AI专家基于外部知识源生成答案和后续问题
协调者机制
生成启发性问题,引导深入讨论
人机协作
用户可以观察或主动参与对话,引导讨论方向
支持的AI模型和服务
语言模型
GPT、Claude、Gemini等
搜索引擎
Google、Bing、You.com等
向量数据库
支持本地文档检索
开发框架
基于DSPy构建
使用教程
从入门到精通,掌握STORM的各项功能
在线使用指南
步骤1:访问平台
https://storm.genie.stanford.edu/
打开网站
访问斯坦福大学官方STORM平台
同意服务条款
阅读并同意使用条款
选择模式
选择STORM或Co-STORM模式
步骤2:输入主题
主题示例:
- • "人工智能在医疗诊断中的应用"
- • "区块链技术的发展现状"
- • "可再生能源的未来趋势"
选择具体主题
主题越具体,生成的报告质量越高
支持多语言
可以使用中文或英文输入主题
步骤3:生成报告
自动研究
系统自动进行多源信息收集和分析
大纲生成
智能生成层次化的文章结构
文章撰写
生成完整的维基百科风格报告
本地部署指南
环境准备
# 克隆仓库
git clone https://github.com/stanford-oval/storm.git
cd storm
# 创建环境
conda create -n storm python=3.11
conda activate storm
# 安装依赖
pip install -r requirements.txt
API配置
# 创建secrets.toml文件
OPENAI_API_KEY="your_openai_api_key"
BING_SEARCH_API_KEY="your_bing_search_api_key"
YDC_API_KEY="your_you_com_api_key"
Python API使用
from knowledge_storm import STORMWikiRunner, STORMWikiLMConfigs
from knowledge_storm.lm import LitellmModel
from knowledge_storm.rm import YouRM
# 配置语言模型
lm_configs = STORMWikiLMConfigs()
gpt_4 = LitellmModel(model='gpt-4o', max_tokens=3000, api_key="your_key")
lm_configs.set_article_gen_lm(gpt_4)
# 配置检索模块
rm = YouRM(ydc_api_key="your_key", k=10)
# 创建STORM实例
runner = STORMWikiRunner(engine_args, lm_configs, rm)
# 运行生成
topic = "人工智能的发展历程"
runner.run(topic=topic, do_research=True, do_generate_article=True)
最佳实践建议
主题选择技巧
具体明确
选择具体的主题而非过于宽泛的概念
时效性强
选择有足够在线资源的当前主题
平衡深度
既不过于简单也不过于复杂专业
使用优化建议
耐心等待
完整报告生成需要3-10分钟
后期编辑
生成后可以进一步编辑和完善
及时保存
及时下载和保存生成的报告
Co-STORM协作模式
探索人机协作的知识策展新模式
什么是Co-STORM?
Co-STORM是STORM的增强版本,引入了协作对话协议,支持人机协作进行更深入的知识探索和内容创作。
协作对话协议
实现人类用户与AI系统之间的自然对话交互
动态思维导图
实时更新的概念结构图,帮助理解复杂主题
多AI专家系统
多个AI专家协同工作,提供多维度观点

AI专家团队
多个AI专家基于不同知识源提供答案和后续问题,确保信息的全面性和准确性。
智能协调者
协调者负责生成启发性问题,引导讨论深入,确保对话的连贯性和深度。
人类用户
用户可以观察对话获得深入理解,也可以主动参与,注入话语引导讨论方向。
Co-STORM使用流程
热启动
系统建立共享概念空间,生成初始思维导图
协作对话
AI专家和协调者开始多轮深入讨论
用户参与
用户观察或主动参与,引导讨论方向
报告生成
基于对话内容生成最终报告
技术集成与API
深入了解STORM的技术架构和集成方案
支持的服务和模型
语言模型支持
OpenAI
GPT-3.5, GPT-4, GPT-4o系列
Anthropic
Claude 3.5 Sonnet, Claude 3 Haiku
Gemini Pro, Gemini 1.5
其他模型
通过LiteLLM支持所有主流模型
检索服务支持
搜索引擎
Google Search, Bing Search, You.com
专业搜索
Serper, Brave Search, Tavily
向量数据库
支持本地文档向量化检索
其他服务
DuckDuckGo, SearXNG, Azure AI Search
API集成示例
基础STORM配置
import os
from knowledge_storm import STORMWikiRunnerArguments, STORMWikiRunner, STORMWikiLMConfigs
from knowledge_storm.lm import LitellmModel
from knowledge_storm.rm import YouRM
# 配置语言模型
lm_configs = STORMWikiLMConfigs()
openai_kwargs = {
'api_key': os.getenv("OPENAI_API_KEY"),
'temperature': 1.0,
'top_p': 0.9,
}
# 配置不同组件的模型
gpt_35 = LitellmModel(model='gpt-3.5-turbo', max_tokens=500, **openai_kwargs)
gpt_4 = LitellmModel(model='gpt-4o', max_tokens=3000, **openai_kwargs)
lm_configs.set_conv_simulator_lm(gpt_35) # 对话模拟器
lm_configs.set_question_asker_lm(gpt_35) # 问题生成器
lm_configs.set_outline_gen_lm(gpt_4) # 大纲生成器
lm_configs.set_article_gen_lm(gpt_4) # 文章生成器
# 配置检索模块
rm = YouRM(ydc_api_key=os.getenv('YDC_API_KEY'), k=10)
# 创建STORM运行器
engine_args = STORMWikiRunnerArguments()
runner = STORMWikiRunner(engine_args, lm_configs, rm)
Co-STORM配置示例
from knowledge_storm.collaborative_storm.engine import CollaborativeStormLMConfigs, CoStormRunner
from knowledge_storm.lm import LitellmModel
from knowledge_storm.rm import BingSearch
# 配置Co-STORM语言模型
lm_config = CollaborativeStormLMConfigs()
openai_kwargs = {
"api_key": os.getenv("OPENAI_API_KEY"),
"temperature": 1.0,
"top_p": 0.9,
}
# 配置各种AI代理
question_answering_lm = LitellmModel(model='gpt-4o', max_tokens=1000, **openai_kwargs)
discourse_manage_lm = LitellmModel(model='gpt-4o', max_tokens=500, **openai_kwargs)
utterance_polishing_lm = LitellmModel(model='gpt-4o', max_tokens=2000, **openai_kwargs)
lm_config.set_question_answering_lm(question_answering_lm)
lm_config.set_discourse_manage_lm(discourse_manage_lm)
lm_config.set_utterance_polishing_lm(utterance_polishing_lm)
# 配置检索模块
bing_rm = BingSearch(bing_search_api_key=os.environ.get("BING_SEARCH_API_KEY"), k=10)
# 创建Co-STORM运行器
costorm_runner = CoStormRunner(lm_config=lm_config, rm=bing_rm)
部署选项
云端部署
使用官方提供的在线服务,无需本地配置
推荐用于快速体验
本地部署
在本地环境安装和运行STORM系统
适合开发和定制
私有部署
在私有服务器上部署,确保数据安全
适合企业和机构
实战案例分析
通过实际案例了解STORM的应用场景和效果
学术研究案例
主题:量子计算的发展现状与前景
研究过程
STORM自动收集了来自IEEE、Nature、Science等权威期刊的最新研究,分析了量子计算的技术发展轨迹
生成结果
生成了8000字的综合报告,包含54个引用,涵盖技术原理、应用前景、挑战分析等方面
应用价值
为研究生的文献综述提供了完整框架,节省了2-3周的资料收集时间
商业分析案例
主题:电动汽车市场竞争格局分析
市场调研
自动分析了特斯拉、比亚迪、蔚来等主要厂商的财报数据和市场表现
竞争分析
生成了详细的SWOT分析和市场定位图,包含技术对比和发展趋势
决策支持
为投资决策提供了数据支撑,帮助识别潜在投资机会
Co-STORM协作案例
案例:气候变化对农业的影响
协作过程
用户与AI专家进行了45轮对话,深入探讨了气候变化对不同地区农业生产的具体影响
用户参与
用户主动提出了关于适应性策略的问题,引导AI专家探索解决方案
思维导图
动态生成的思维导图帮助用户理解复杂的因果关系和影响链条

协作效果
- • 生成了12,000字的深度报告
- • 包含了区域性差异分析
- • 提供了具体的适应策略建议
- • 用户满意度评分:9.2/10
应用场景总结
学术研究
文献综述、研究报告、学位论文
商业分析
市场研究、竞争分析、行业报告
内容创作
深度文章、科普内容、专题报道
知识管理
知识整理、概念梳理、学习辅助
常见问题解答
解决使用过程中的常见疑问
STORM生成的内容是否准确?
STORM基于大量互联网资源生成内容,并提供引用来源。虽然质量较高,但建议用户进行进一步的事实核查和编辑。
是否支持中文主题?
是的,STORM支持中文主题输入,但由于中文资源相对较少,建议使用英文主题以获得更好的效果。
生成一篇报告需要多长时间?
通常需要3-10分钟,具体时间取决于主题复杂度、网络状况和服务器负载。
如何优化生成效果?
选择具体明确的主题,避免过于宽泛的概念;确保主题有足够的在线资源;必要时可以多次生成并选择最佳结果。
是否完全免费使用?
在线版本目前免费提供,但可能有使用限制。本地部署需要自己提供API密钥和相关服务费用。
生成的内容版权归谁?
生成的内容基于公开资源,用户可以自由使用,但需要注意引用的原始资料可能有版权限制。
可以商业化使用吗?
STORM本身是开源项目,但商业使用需要考虑所使用的API服务条款和生成内容的版权问题。
如何获得技术支持?
可以通过GitHub Issues、学术论文或斯坦福大学官方渠道获得支持,也可以参与开源社区讨论。
相关资源链接
获取更多信息和支持