beat365:中国开发出新的光芯片,可为通用人工智能提供动力
作者:beat365发布时间:2024-12-30
太极(Taichi) 光芯片的创建者声称,它比其他光子组件更节能、更可扩展,并且可以在未来用于训练超人的人工智能模型。
中国科学家设计了一种微型模块化芯片,由光而不是电力驱动,他们希望用它来训练和运行未来的通用人工智能(AGI)模型。
新芯片称为“Taichi”,是由许多单独的小芯片(包括 Taichi 模块)组成的更宽拼图的一小部分,这些小芯片一起可以形成一个复杂而强大的计算系统。科学家们在 4 月 11 日发表在《科学》杂志上的论文中指出,如果规模足够大,这将足以在未来训练和运行 AGI 。
AGI 是一种假想的人工智能 (AI) 高级形式,理论上它的认知推理能力与人类一样聪明。 AGI 可以应用于许多学科,而今天的人工智能系统只能应用于非常狭窄的领域。
一些专家认为,这样的系统还需要很多年的时间,计算能力的瓶颈是关键阻碍因素,而另一些专家则认为,我们最早将在 2027 年构建 AGI 代理。
近年来,科学家们已经开始触及传统电子元件的局限性,特别是考虑到人工智能的发展以及服务这些日益要求的系统所需的大量电力。
图形处理单元 (GPU) 已成为训练人工智能系统的关键组件,因为它们比中央处理单元 (CPU) 更擅长执行并行计算。但科学家们认为,随着系统变得越来越大,所需的能源消耗水平变得不可持续。
基于光的组件可能是克服传统电子产品局限性(包括能源效率问题)的一种方法。beat365中国官方网站
科学家们此前在二月份概述了一种新型光子微芯片的设计,该芯片使用光子或光粒子而不是电子来操作晶体管——在施加电压时打开或关闭的微型电子开关。一般来说,芯片的晶体管越多,其计算能力就越强,运行所需的电力也就越多。基于光的芯片的能源密集度要低得多,并且可以比传统芯片更快地执行计算,因为它们可以并行执行计算。
当前人工智能模型的光子芯片架构由数百或数千个参数或训练变量组成。这使得它们足以完成模式识别等基本任务,但像 ChatGPT 这样的大型语言模型 (LLM) 是使用数十亿甚至数万亿个参数进行训练的。
作为更广泛的人工智能架构网络的一部分,AGI 代理可能需要高出许多数量级。如今,构建通用人工智能系统的蓝图还不存在。
他们在论文中表示,在这项新研究中,科学家们设计的 Taichi 的工作方式与其他基于光的芯片相同,但它的扩展性比竞争对手的设计要好得多。这是因为它结合了现有光子芯片的多个优点,包括“光学衍射和干涉”,这是操纵组件中的光的方法。
为了测试该设计,研究人员将几个 Taichi 小芯片拼接在一起,并将其架构与其他基于光的芯片在关键领域进行了比较。
他们的架构实现了 1396 万个人工神经元的网络规模(相比之下,第二大竞争设计的网络规模为 147 万个),能效指标为每瓦 160.82 万亿次操作 (TOPS/W)。他们在论文中强调的下一个最佳结果来自2022 年发表的研究,其中光子芯片达到了 2.9 TOPS/W。许多传统神经处理单元 (NPU) 和其他芯片的性能远低于 10 TOPS/W。
研究人员还声称,他们基于 Taichi 的架构的功能是其他光子系统的两倍,但他们没有直接引用这些。与此同时,在测试中,他们使用分布式 Taichi 网络来执行包括图像分类和分类以及图像内容生成在内的任务,作为概念证明而不是基准性能。
科学家们表示:“Taichi 表明片上光子计算在使用大型网络模型处理各种复杂任务方面具有巨大潜力,这使得光学计算能够在现实生活中得到应用。” “我们预计 Taichi 将加速开发更强大的光学解决方案,作为基础模型和 AGI 新时代的关键支持。”
本文作者:科马尔·阿菲菲-萨贝特beat365手机版官方网站