生活

当前位置/ 首页/ 生活/ 正文

越大越好的心态如何损害人工智能研究

导读 2022年2月11日整理发布:您会经常听到的是,计算资源的日益可用性为人工智能的重要进步铺平了道路。通过访问强大的云计算平台,人工智能研...

2022年2月11日整理发布:您会经常听到的是,计算资源的日益可用性为人工智能的重要进步铺平了道路。通过访问强大的云计算平台,人工智能研究人员能够在更短的时间内训练更大的神经网络。这使得人工智能能够在计算机视觉、语音识别和自然语言处理等许多领域取得进展。

但是你会少听到的是当前人工智能研究方向的更黑暗的含义。目前,人工智能的进步主要与扩展深度学习模型和创建具有更多层和参数的神经网络有关。根据人工智能研究实验室OpenAI的说法,“自 2012 年以来,在最大的 AI 训练运行中使用的计算量呈指数级增长,时间翻了 3.4 个月。” 这意味着在七年内,该指标增长了 300,000 倍。

这一要求对人工智能研究施加了严重限制,并且还可能产生其他不那么令人愉快的影响。

目前,越大越好

“在当前的许多领域中,更多的计算似乎可以预见地带来更好的性能,并且通常是对算法进步的补充,”OpenAI 的研究人员指出。

我们可以在许多项目中看到这种效果,研究人员认为他们的进步归功于在这个问题上投入了更多的计算。

2018 年 6 月,OpenAI 推出了一款 AI,可以在专业级别上玩 Dota 2,这是一款复杂的竞技场游戏。这款名为 OpenAI Five 的机器人参加了一场大型电子竞技比赛,但在决赛中输给了人类选手。该研究实验室今年返回了 OpenAI Five 的改进版本,并能够从人类手中夺取冠军。正如AI 研究人员所说:“OpenAI Five 在周六的胜利与在 2018 年国际邀请赛上的失利相比,是由于一个重大变化:训练计算量增加了 8 倍。”

还有许多其他类似的例子,其中计算资源的增加带来了更好的结果。在强化学习中尤其如此,这是人工智能研究最热门的领域之一。

训练大型 AI 模型的财务成本

人工智能现状最直接的影响是训练人工智能模型的财务成本。根据 OpenAI 在其网站上发布的图表,训练DeepMind 历史悠久的围棋 AI AlphaGoZero 需要超过 1,800 petaflop/s-days 。

FLOP 是浮点运算。一个 petaflop/s-day (pfs-day) 相当于每天大约 10 20次操作。专门用于 AI 任务的 Google TPU v3 处理器执行 420 teraflops(或 0.42 petaflops),每小时成本为 2.40-8.00 美元。这意味着训练 AlphaGoZero 模型的成本约为 246,800-822,800 美元。这只是计算成本。

该领域的其他显着成就也有类似的成本。例如,根据 DeepMind 发布的数据,其星际争霸 AI由 18 个代理组成。每个 AI 代理都使用 16 个 Google TPU v3 训练了 14 天。这意味着,按照目前的定价,该公司为 18 个 AI 代理花费了大约 774,000 美元。

免责声明:本文由用户上传,如有侵权请联系删除!