Google正式揭晓大型自然语言模型PaLM 2,预计用在近25款Google服务产品

谷歌在此次谷歌 I/O 2023期间宣布推出大型自然语言模型PaLM 2,标榜强化多种语言支持、推论能力与编码兼容性,并且建立在用于转换数值函数的机器学习框架谷歌 JAX,以及加速硬件第四代TPU (TPU v4)架构基础之上,借此加快执行与反应速度,预计布署应用在近25款谷歌服务产品。

-

在此之前,谷歌已经对外公布LaMDA、LaMDA 2在内大型自然语言模型,以及参数规模在5400亿组以上的PaLM (Pathways Language Model)模型,后续更推出名为PaLM-E的版本,甚至针对医学领域先后推出Med-PaLM、Med-PaLM 2模型。

而此次公布的大型自然语言模型PaLM 2,谷歌 强调能对应超过100种语言,并且提高推论能力与编码兼容性,更建立在用于转换数值函数的机器学习框架谷歌 JAX,以及加速硬件第四代TPU架构基础之上,使其执行效率与反应速度均有明显提升。

-
-

在接下来的产品服务更新中,谷歌表示将使PaLM 2模型广泛应用在旗下近25款服务产品,其中包含聊天机器人「Bard」、谷歌 Cloud云端服务平台、Android操作系统、YouTube、谷歌 Docs、Gmail,以及谷歌机器学习平台Vertex AI,藉此强化人工智能技术应用发展。

-

另一方面,谷歌也强调将对外开放接入使用PaLM 2资源,借此建造更多元、广泛的人工智能应用服务。 而PaLM 2将从即日起开放预览,让开发者能借此用于建造更多元人工智能应用服务。

同时,PaLM 2的最轻便版模型Gecko,可作为交互式应用程序在移动设备上运行,并且能在每秒内处理20个指令标记(tokens),同时能在多款最新手机上通过测试,甚至可对应离线使用。

接下来PaLM 2也将接入名为Gemini、由谷歌 Brain打造的基础模型,将能对应多模运作架构,同时在逻辑推理与数学运算能力表现更强,更可对应复杂数据记忆与内容规划能力。

-

此外,谷歌 更说明在PaLM 2 加入错误检查机制,藉此避免人工智能在运作过程产生谬误情况,同时也以此说明 谷歌 以负责任态度打造人工智能技术。

谷歌表示,本身从2012年开始就开始推动建立在大型神经网络系统基础上的人工智能技术,后续更进展至依序学习的神经网络系统,进而在2017年部属更复杂的深度学习模型,后续更在2021年提出名为FLaN的微调语言模型,以及在2022年提出的视觉语言模型Flamingo与训练运算最佳化语言模型Chinchilla。

至于持续推动人工智能技术应用发展的目的,谷歌 表示是为了让全球资讯更容易被广泛取用,同样也符合 谷歌 最初推出其搜索服务时的目标。

(0)

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注