LOADING

谷歌开源TimesFM:1000亿个时间点训练,入选ICML 2024

2024/06/10 新智元
21

谷歌开源TimesFM:1000亿个时间点训练,入选ICML 2024

AIGC动态欢迎阅读

原标题:谷歌开源TimesFM:1000亿个时间点训练,入选ICML 2024
关键字:模型,数据,时序,时间,序列
文章来源:新智元
内容字数:0字

内容摘要:


新智元报道编辑:乔杨
【新智元导读】在大语言模型突飞猛进的同时,谷歌的研究团队在时序预测方面也取得了突破性的成果——今年2月发表的模型TimesFM,而且放出了模型的代码和权重,让更多开发者体验这种「开箱即用」的零样本预测能力。今年2月,Google Research的研究人员提出了一个时序预测基础模型TimesFM,在1000亿个「真实世界时间点」上进行预训练,仅仅用200M的参数规模就展现出了超强的零样本学习能力。
论文链接:https://arxiv.org/pdf/2310.10688.pdf
当时权重还没有发布,就已经有人在Reddit社区中表达了难以克制的兴奋。
5月8日,这篇研究又掀起了一阵波澜。
官方博客宣布这篇文章被ICML 2024接收,而且在GitHub和HuggingFace上公开了源代码和模型权重。开源后的短短几天内,GitHub上项目标星数已经达到了1.5k。
DeepMind首席科学家Jeff Dean转发了官方推特,为TimesFM的研究成果背书。
在官宣的消息下面,网友们纷纷为谷歌这波公开模型的操作点赞:
「非常酷,希望大多数公司经常做这样的事。」


原文链接:谷歌开源TimesFM:1000亿个时间点训练,入选ICML 2024

联系作者

文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。