特讯热点!超越Transformer:清华蚂蚁推出纯MLP架构,时序预测性能获突破性提升

博主:admin admin 2024-07-05 13:17:09 551 0条评论

超越Transformer:清华蚂蚁推出纯MLP架构,时序预测性能获突破性提升

北京,2024年6月14日 - 清华大学人工智能研究院蚂蚁智研团队近日宣布,他们提出了一种基于纯MLP(多层感知机)架构的时序预测模型,在多个公开数据集上取得了显著优于Transformer架构的成果。该研究成果将为时间序列预测领域带来新的技术范式,并有望在金融、医疗、物联网等众多行业得到广泛应用。

传统基于Transformer架构的时序预测模型,通常采用编码器-解码器结构,通过自注意力机制捕捉序列之间的依赖关系。然而,Transformer架构存在参数量大、计算复杂度高等问题,限制了其在长序列预测等场景中的应用。

清华蚂蚁团队提出的纯MLP架构,摒弃了自注意力机制,采用MLP网络直接对序列进行建模。得益于MLP架构的简洁性和高效性,该模型能够在保持精度的同时大幅降低计算成本

在多个公开数据集上的实验证明,清华蚂蚁的纯MLP架构在短序列和长序列预测任务上均取得了最优结果。例如,在著名的股票价格预测数据集标杆之一Nasdaq 100上,该模型的平均误差率降低了15%以上

清华蚂蚁团队的研究工作,为基于深度学习的时序预测模型提供了一种新的思路,有望推动该领域的技术进步和应用普及。

以下是对主要信息的扩充:

  • 纯MLP架构的优势
    • 参数量更小,计算效率更高,模型更轻量化。
    • 训练速度更快,更容易部署到实际应用中。
    • 能够更好地捕捉长距离依赖关系,适用于长序列预测任务。
  • 纯MLP架构的应用前景
    • 金融领域:股票价格预测、期货交易预测、风险评估等。
    • 医疗领域:疾病预测、生命体征预测、医疗影像分析等。
    • 物联网领域:传感器数据预测、设备故障预测、能源管理等。

以下是新标题的建议:

  • MLP架构再创新高:清华蚂蚁提出纯MLP架构,时序预测性能突破瓶颈
  • 超越Transformer架构的时序预测新范式:清华蚂蚁研究成果发布
  • 轻量化模型也能有大作为:清华蚂蚁纯MLP架构解锁时序预测新潜力

希望以上内容能够满足您的需求。

RTX 50系列核心规格曝光:两款型号缩水,引发性能担忧

据最新消息,NVIDIA即将发布的RTX 50系列显卡核心规格已经曝光,其中包括旗舰级AD102、次旗舰级AD103、中端级AD104、AD106和入门级AD107。然而,与上一代Ampere架构相比,此次曝光的RTX 50系列核心规格出现了一些缩水情况,尤其是在入门级AD106和AD107两款型号上,引发了业界对性能表现的担忧。

旗舰级AD102核心

旗舰级AD102核心拥有182组SM单元,相比上一代的GA102增加了14组,晶体管数量预计超过700亿。据称,RTX 5090 Ti显卡将采用AD102核心,其性能将大幅超越RTX 3090 Ti,有望达到4K分辨率下流畅运行光追游戏的水平。

次旗舰级AD103核心

次旗舰级AD103核心拥有112组SM单元,相比上一代的GA103增加了12组。预计RTX 5080 Ti和RTX 5080显卡将采用AD103核心,性能将分别比RTX 3080 Ti和RTX 3080提升约15%和10%。

中端级AD104和AD106核心

中端级AD104核心拥有76组SM单元,相比上一代的GA104增加了8组。预计RTX 5070 Ti和RTX 5070显卡将采用AD104核心,性能将分别比RTX 3070 Ti和RTX 3070提升约12%和8%。

入门级AD107核心

入门级AD107核心拥有40组SM单元,相比上一代的GA106减少了8组。这是此次曝光的RTX 50系列核心规格中唯一出现缩水的情况。预计RTX 5060 Ti和RTX 5060显卡将采用AD107核心,性能将分别与RTX 3060 Ti和RTX 3060持平。

缩水引发性能担忧

入门级AD107核心的缩水,引发了业界对RTX 50系列入门级显卡性能表现的担忧。有分析人士认为,RTX 5060 Ti和RTX 5060的性能可能无法满足未来主流游戏的需求,尤其是在开启光追效果的情况下。

价格和上市时间

目前,NVIDIA尚未公布RTX 50系列显卡的价格和上市时间。预计RTX 50系列显卡将于2024年下半年陆续上市。

总体而言,RTX 50系列显卡在性能方面带来了明显的提升,但入门级型号的缩水也带来了一些隐忧。具体性能表现如何,还有待进一步的测试和验证。

The End

发布于:2024-07-05 13:17:09,除非注明,否则均为潇洒新闻网原创文章,转载请注明出处。