The dataset viewer is not available because its heuristics could not detect any supported data files. You can try uploading some data files, or configuring the data files location manually.
StructuralEval: 结构力学大模型视觉推理评测基准
StructuralEval 是一个专注于结构力学领域的垂直大模型评测基准。本项目旨在评估多模态大语言模型(LMMs)在专业工程场景下的视觉感知、空间推理以及结构建模能力。
与传统的数学或通用视觉评测不同,本基准并不要求 AI 直接输出计算结果,而是要求 AI 扮演“建模工程师”的角色,将结构图片转化为计算机可识别的标准结构定义(JSON)。
核心理念
"AI 负责建模,引擎负责计算"
- 视觉转译 (Visual-to-Schema): AI 模型输入一张包含梁 (Beam)、刚架 (Frame) 或 桁架 (Truss) 的图片,识别其中的节点坐标、构件连接关系、支座类型(铰接、固接等)以及荷载信息。
- 物理验证 (Physics-Based Verification): AI 输出的 JSON 模型会被送入内置的 WASM 物理求解器 (FrameCalc) 进行有限元分析。
- 结果对齐: 系统通过比较 AI 模型的物理响应(支座反力、最大弯矩)与真值(Ground Truth)来判定 AI 是否真正“读懂”了结构,而非简单的文本匹配。
可视化与调试
本项目的 JSON 定义格式与 FrameCalc 在线结构分析工具 完全兼容。
- 可视化方法: 您可以将
data/raw_models/中的任何 JSON 文件内容复制并导入到上述网站中,进行图形化查看和结果校核。 - 经典题目:
frame_010.json: 该题目源自 天津大学 2021 年结构力学考研真题,具有极高的专业难度,挑战 AI 对复杂多跨静定/超静定结构的理解。
项目特点
- 基于真实物理引擎: 集成 WebAssembly (WASM) 编译的高性能结构求解器,确保评测结果的物理严谨性。
- 多维度难度分级: 数据集包含从简单的简支梁到复杂的超静定刚架,难度分为 1-5 级。
- Level 1-2: 基础梁结构,考察基本的构件与支座识别。
- Level 3: 简单桁架与刚架,考察节点连接性与多构件推理。
- Level 4-5: 复杂多跨刚架与大型桁架,考察对复杂拓扑和混合荷载的全局理解。
- 容错性解析: 内置鲁棒的 JSON 解析机制,专注于模型内容的准确性,而非格式的微小瑕疵。
目录结构
structural-eval-benchmark/
├── bin/ # 物理求解器核心 (framecalc.wasm)
├── data/
│ ├── images/ # 题目图片 (png/jpg)
│ ├── ground_truth_meta/ # 包含标准答案与难度分级的元数据
│ └── raw_models/ # 原始建模文件 (用于生成 GT)
├── src/ # 核心源码 (加载器、评测逻辑、Prompt)
├── tools/ # 辅助工具 (生成真值、可视化等)
├── run_eval.py # 评测主程序
└── requirements.txt # 依赖清单
快速开始
1. 环境准备
确保安装 Python 3.8+,并安装项目依赖:
pip install -r requirements.txt
(注:主要依赖包括 openai, tqdm, wasmtime 等)
2. 运行评测
使用 run_eval.py 启动评测。您需要提供兼容 OpenAI 接口的模型 API Key。
# 标准评测模式
python run_eval.py --model "gpt-4o" --api-key "sk-..."
# 任务过滤 (按 ID 关键字筛选,例如只评测“beam”类题目)
python run_eval.py --model "gemini-3-pro-preview" --api-base https://generativelanguage.googleapis.com/v1beta/openai/ --filter "beam"
# 指定 API Base URL ,允许模型答错后重试3次
python run_eval.py --model "qwen-vl-plus-2025-01-25" --api-base "https://dashscope.aliyuncs.com/compatible-mode/v1" --api-key "sk-..." --max-retries 3
3. 调试模式 (Debug)
如果您想测试环境或验证 Ground Truth 数据的正确性(不调用 AI):
python run_eval.py --debug
扩展数据集
如果您希望添加新的测试题目,请遵循以下步骤,系统会自动计算难度并生成真值:
- 准备数据:
- 将结构建模 JSON 放入
data/raw_models/。 - 将对应的图片放入
data/images/(支持 .png 或 .jpg)。
- 将结构建模 JSON 放入
- 生成真值:
运行以下命令,工具会自动调用求解器计算物理真值,并根据构件数量和特征自动打分(Difficulty 1-5)。
python tools/generate_gt.py - 开始评测: 新题目将自动包含在下一次评测中。
评分与诊断机制 (Scoring & Diagnosis)
为了更细致地评估模型在结构分析中的思维盲区,本基准采用了一套分级诊断评分系统。当 AI 的答案不正确时,系统并不会直接判定为 0 分,而是通过一系列“控制变量”实验来诊断错误原因,并给予部分分数。
1. 诊断流程 (Step-by-Step Diagnosis)
当 AI 生成的结构无法通过全量验证时,评测脚本会自动按以下顺序进行排查:
几何/拓扑检查 (Geometry Check):
- 将 AI 模型与真值模型的材质统一、连接方式全部改为刚接、移除原始载荷并施加统一标准载荷,同时暂时将所有支座改为固定端。
- 判定: 如果此时反力一致,说明节点位置和杆件连接关系是正确的。
- 失败后果: 得分 0.0 (Structure Wrong)。
边界条件检查 (Support Check):
- 在通过几何检查的基础上,恢复原始的支座定义(保留统一刚接和标准载荷)。
- 判定: 如果此时反力一致,说明支座类型和位置是正确的。
- 失败后果: 得分 0.25 (Supports Wrong)。
连接方式检查 (Connection Check):
- 在通过上述检查的基础上,恢复原始的构件连接定义(如铰接/刚接),但仍使用标准载荷。
- 判定: 如果此时反力不一致,说明构件的 Release (铰接) 设置有误。
- 失败后果: 得分 0.50 (Connections Wrong)。
载荷检查 (Load Check):
- 如果上述步骤全对,但原始模型的全量计算结果不对,则唯一剩下的变量是原题载荷。
- 判定: 结构完全正确,仅载荷参数错误。
- 得分: 0.75 (Loads Wrong)。
完全正确 (Perfect):
- 所有物理响应与真值完全匹配。
- 得分: 1.00。
2. 最终得分计算 (Weighted Accuracy)
为了体现题目难度的差异,最终榜单采用加权准确率计算:
例如:
- 一道难度为 3 的刚架题,模型结构做对了但载荷写错(系数 0.75),得分为 $3 \times 0.75 = 2.25$。
- 一道难度为 1 的梁题,模型全对(系数 1.0),得分为 $1 \times 1.0 = 1.0$。
- 总得分 3.25,满分 4.0,加权准确率为 81.25%。
📊 评测榜单 (Leaderboard)
| 模型 (Model) | 加权准确率 (Weighted Acc) | 平均成功率 (Avg Success Ratio) | 备注 (Notes) |
|---|---|---|---|
| Gemini-3-Pro-Preview | 17.65% | - | Retries: 3 |
| GLM-4.5V | 16.18% | 21.25% | Retries: 3 |
| Qwen3-VL-32B-Instruct | 13.24% | 23.75% | Retries: 3 |
注:数据更新于 2026-01-31,基于 v1.0 数据集 (20题).
许可证
本项目采用 CC BY-NC 4.0 (署名-非商业性使用) 许可协议:
- 禁止商用: 未经许可,不得将本项目及其包含的数据集用于商业目的。
- 标注来源: 免费使用的前提是必须在您的项目说明、论文或作品中明确标注本项目来源(StructuralEval 基准)。
- Downloads last month
- 41