港大开源图基础大模型OpenGraph 增强图学习泛化能力
陶哲轩领衔的一份62页报告出炉了,总结和预测了AI对半导体、超导体、宇宙基础物理学、生命科学等领域带来的巨大改变。如果这些预测在几十年后能够实现,美国酝酿的AI「登月
5月9日 消息:香港大学数据智能实验室主任黄超团队开发了一款名为 的图基础大模型,专注于在多种图数据集上进行零样本预测。该模型通过学习通用的图结构模式,仅通过前向传播即可对全新数据进行预测,有效缓解了图学习领域的数据饥荒问题。
关键特点:
强泛化能力:OpenGraph 旨在通过图结构模式学习,实现对未见数据的零样本预测。
提示调整技术:团队提出的提示调整技术提高了模型对新任务的适应性。
GitHub 开源:该工作已在 GitHub 上开源,供学术界和工业界使用和研究。
数据集间 token 差异解决:模型能够跨不同图数据集进行预测,解决了数据集间 token 差异的问题。
节点关系建模:在构建通用图模型时,有效建模节点关系,对模型的扩展性和效率至关重要。
数据稀缺问题的解决:通过大型语言模型进行数据增强,模拟复杂的图结构关系,提升模型训练质量。
模型架构:OpenGraph 模型由统一图 Tokenizer、可扩展的图 Transformer 和基于大语言模型的知识蒸馏技术三个核心部分组成。
实验验证:在多样化的真实场景数据集上进行测试,涵盖节点分类和链接预测任务,OpenGraph 在零样本预测中表现优异。
未来工作:团队计划增加框架的自动化能力,自动识别噪声连接,进行反事实学习,并提取图结构的通用模式,以推动模型的应用范围和效果。
研究结论:
OpenGraph 作为图基础模型构建的初步尝试,通过在多个标准数据集上的广泛测试,证明了其出色的泛化性能。研究人员希望借助 OpenGraph 显著增强模型在零样本图学习任务中的泛化能力,并探索多种下游应用。
项目地址:https://github.com/HKUDS/OpenGraph
论文地址:https://arxiv.org/*/2403.01121