当彼得·蒂尔闯入硅谷投资界时,他曾经发出了一句著名的批评:“我们期待的是飞行汽车,结果得到了 140 个字符。”在过去的十年里,我们在比特层面(互联网)取得了巨大进步,但在原子层面(前沿技术)的进展相对缓慢。
语言数据的积累推动了机器学习的发展,并最终导致了大型语言模型 (Large Language Models, LLMs) 的出现。随着人工智能的推动,原子层面的进展也在加速。像 Deep Potential 这样的方法通过学习量子力学数据,将微观模拟的时空尺度扩大了几个数量级,在药物设计、材料设计和化学工程等领域取得了显著进展。
量子力学数据的积累正逐渐覆盖整个周期表,Deep Potential 团队也开始了 DPA 预训练模型 的实践。与 LLMs 的进步类似,我们正处于大型原子模型 (Large Atomic Model, LAM) 出现的前夕。同时,我们相信开源开放将在 LAM 的发展过程中起到愈发重要的作用。
在此背景下,深度势能核心开发者团队面向社区,发起 OpenLAM 大原子模型计划,我们热诚、开放地欢迎来自各方的意见和支持。
ROBERTO CAR
Princeton University
HONG DING
Shanghai Jiao Tong University
WEINAN E
AI for Science Institute,Beijing
XINGAO GONG
Fudan University
YANGQING JIA
Lepton AI
YANMING MA
Jilin University
KOSTYA NOVOSELOV
National University of Singapore
MICHELE PARRINELLO
Istituto Italiano di Tecnologia
DAVID SROLOVITZ
The University of Hong Kong
ZHONGQUN TIAN
Xiamen University