标签:深度学习

李飞飞:World Labs这样实现「空间智能」

斯坦福大学教授李飞飞因其在人工智能领域的贡献而广为人知,尤其是她对“空间智能”的提倡,这一概念正在成为AI发展的新方向。李飞飞在深度学习革命中扮演了关...

LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

自2017年Transformer模型问世以来,其核心机制“注意力”已成为AI领域的核心技术,尤其在自然语言处理中占据主导地位。然而,关于注意力机制的起源存在争议。一...

Greg Brockman又做了一件伟大的事情

OpenAI总裁Greg Brockman在社交媒体上分享了他的假期生活,期间他与Arc Institute团队合作,致力于训练基于DNA的模型。Brockman对深度学习技术在医学和医疗保...

被忽略的起点?Karpathy揭秘最初的注意力论文被Transformer光芒掩盖的故事

AI研究者Andrej Karpathy最近在推特上分享了注意力机制背后的故事,揭示了这一概念的起源和发展。他指出,Dzmitry Bahdanau、Kyunghyun Cho和Yoshua Bengio的...

流式深度学习终于奏效了!强化学习之父Richard Sutton力荐

阿尔伯塔大学等机构的研究者提出了一种名为stream-x的深度强化学习算法,旨在解决流式深度强化学习中的样本效率问题,即流式障碍。流式障碍是指流式深度强化...

遗憾不?原来百度2017年就研究过Scaling Law,连Anthropic CEO灵感都来自百度

在人工智能领域,Scaling Law是一个关键概念,它描述了深度学习模型的泛化误差和模型大小随着训练集规模的增长而呈现出可预测的幂律关系。这一概念最早被百度...

Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

在深度学习领域,Scaling Law的概念最早由百度在2017年提出,而非后来的OpenAI。这项研究由吴恩达领导的百度硅谷人工智能实验室(SVAIL)系统团队进行,探讨...

英伟达RISC-V,鲜为人知

英伟达在RISC-V领域的深耕已久,自2015年选择RISC-V作为其专有Falcon MCU的继任架构以来,英伟达已累计量产约30亿颗基于RISC-V内核的芯片,并预计到2024年将...

AI不能设计芯片?谷歌发文回击!

谷歌DeepMind近期发表研究论文,回应对其AI芯片设计系统AlphaChip的质疑。AlphaChip是一种利用深度强化学习设计芯片布局的方法,最初于2020年宣布,并在2021...

谷歌 AlphaChip 论文再被质疑,DeepMind 驳斥都没做与训练,顺带还揪出了“内鬼”?

DeepMind在2020年发布了AlphaChip项目,这是一种深度强化学习方法,用于生成超越人类能力的芯片布局设计。该项目在《自然》杂志上发表,并在GitHub上开源,激...
1 2 3 4 5 11