机器学习正在改变世界,而且改变得很快。仅仅在过去几年里,它就为我们带来了能理解语言的虚拟助手、自动驾驶汽车、新药发现、基于人工智能的医疗扫描分流、手写识别等。
机器学习不应该改变的一件事是气候。
这个问题与机器学习的发展方式有关。为了让机器学习(和深度学习)能够准确地做出决策和预测,它需要经过 "训练"。

想象一下,有一个卖鞋的在线市场,一直有人试图在网站上卖其他东西--自行车、猫和剧院的票,这是个问题。市场所有者决定,他们要将网站只限于鞋子,通过建立一个人工智能来识别鞋子的照片,并拒绝任何没有鞋子的照片的列表。
该公司收集了数万张鞋子的照片,以及类似数量的没有鞋子的照片。它聘请数据科学家设计一个复杂的数学模型,并将其转换成代码。然后他们开始训练他们的鞋子检测机器学习模型。这是至关重要的部分:计算机模型会查看所有的鞋子照片,并试图找出是什么让它们变得 "鞋子"。它们有什么是非鞋类图片所没有的?在不陷入太多技术细节的情况下,这个过程需要大量的计算资源和时间。训练精确的机器学习模型意味着在训练、调整和完善模型的过程中,每天24小时全功率运行多个芯片(如GPU),持续数周或数月。
除了时间和费用,人工智能训练还需要消耗大量的能源。现代计算机芯片在闲置时只使用最低限度的电力,但当它们满负荷工作时,它们会消耗电力,产生大量废热(这些废热还需要使用冷却系统抽出,这些冷却系统使用更多的能源)。
任何重要的能源使用都会对气候变化产生影响,因为我们的大部分电力仍然是由化石燃料产生的,在燃烧的同时会产生二氧化碳。马萨诸塞大学最近的一项研究称,训练一个高级语言处理人工智能会产生62.6万磅的二氧化碳,相当于五辆汽车一生中产生的二氧化碳量!这也是为什么我们的生活中会产生二氧化碳的原因。
事实上,加拿大蒙特利尔学习算法研究所(MILA)的一个团队在去年12月发布了机器学习排放计算器,以帮助人工智能领域的研究人员估算训练机器学习模型时产生了多少碳。
这个问题正在变得越来越严重,因为数据科学家和工程师通过投入更多的力量来解决更复杂的AI问题,使用更大更昂贵的计算来解决困难的问题,而不是关注效率。
GPT-3,OpenAI最近发布的AI动力语言模型,是在45TB的文本数据上进行训练的(英文维基百科的全部内容,横跨约600万篇文章,只占其训练数据的0.6%),这种超强的机器学习技术的环境成本仍然未知。
平心而论,其他计算过程的发展轨迹也令人担忧。ICT专家Anders Andrae的一项研究发现,根据他最乐观的预测,到2030年,提供互联网、视频、语音和其他云服务的ICT行业将占全球总能源需求的8%,而他的现实预测则认为这个数字为21%--数据中心的能耗超过其中的三分之一。
马萨诸塞大学的研究对减少人工智能训练造成的浪费提出的一个重要建议是 "工业界和学术界共同努力,促进更多计算效率高的算法的研究,以及需要更少能源的硬件"。
软件也可以用来提高硬件效率,从而降低人工智能模型所需的计算能力,但最大的影响可能来自于数据中心本身使用可再生能源。据悉,Facebook在丹麦欧登塞的数据中心完全依靠可再生能源运行。谷歌也有自己的节能数据中心,比如这个位于芬兰哈米纳的数据中心。
从非常长远的角度来看,随着世界工业经济远离化石燃料,也许计算负荷和二氧化碳产生之间的联系将被打破,也许所有的机器学习都将是碳中性的。甚至从长远来看,对天气和气候模式的深度学习可以帮助人类更好地了解如何应对甚至逆转气候变化。
但在此之前,负责任的企业应该考虑包括机器学习在内的新技术对碳的影响,并采取措施,通过提升开发、软件和硬件的效率来衡量其模型开发的碳成本。
打赏
-
支付宝扫一扫
-
微信扫一扫