查看: 121|回复: 2

华科字节推出 Liquid:重新定义多模态模型的生成与理解

[复制链接]

3

主题

14

回帖

35

积分

新手上路

Rank: 1

积分
35
发表于 前天 11:27 | 显示全部楼层 |阅读模式
近年来,大语言模型(LLM)在人工智能领域取得了显著进展,尤其是在多模态融合方面。华中科技大学、字节跳动与香港大学的联合团队最近提出了一种新型的多模态生成框架 ——Liquid,旨在解决当前主流多模态模型在视觉处理上的局限性。
传统的多模态大模型依赖复杂的外部视觉模块,这不仅增加了系统的复杂性,还限制了其扩展性。Liquid 的创新之处在于,它采用 VQGAN 作为图像分词器,摒弃了对外部视觉组件的依赖,通过将图像编码为离散的视觉 token,使得模型可以直接与文本 token 共享词表,从而实现 “原生” 的视觉理解与生成能力。
研究发现,Liquid 不仅能够降低训练成本,还揭示了多模态能力与 LLM 的尺度规律。团队在不同规模(从0.5B 到32B)的 LLM 上进行了实验,结果显示,随着模型规模的扩大,其视觉生成任务的性能和生成质量均遵循与语言任务一致的缩放规律。更令人振奋的是,视觉理解与生成任务之间存在双向促进的关系,即两者可以通过共享的表示空间实现联合优化。
Liquid 的设计充分体现了极简主义,它将图像与文本一视同仁,采用统一的处理框架。在构建过程中,研究团队利用30M 的文本数据和30M 的图文对数据,为模型的多模态训练奠定了基础。最终的实验结果表明,Liquid 在多模态理解、图像生成及纯文本任务中都表现出了优越的性能,其生成的图像与文本之间的语义一致性显著高于其他自回归模型。
Liquid 的提出为通用多模态智能的架构设计提供了新思路,预示着人工智能在多模态融合的未来可能会迎来更加高效和灵活的进化。
论文链接:https://arxiv.org/pdf/2412.04332

华科字节推出 Liquid:重新定义多模态模型的生成与理解-1.jpg

华科字节推出 Liquid:重新定义多模态模型的生成与理解-2.jpg
回复

使用道具 举报

3

主题

18

回帖

41

积分

一年会员

Rank: 1

积分
41
发表于 前天 11:27 | 显示全部楼层
四年前麻省理工的19个神经元的液态神经网络,已经摸到了通用智能的门槛,只是基础原理尚不明显。而现在,已经明牌了,今年铁定是元年了,潘多拉魔盒已开启,临界点已抵达。
回复 支持 反对

使用道具 举报

2

主题

13

回帖

30

积分

一年会员

Rank: 1

积分
30
发表于 2 小时前 | 显示全部楼层
生命中的第一个沙发,激动嘞!
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

特惠

限量优惠活动

正在火热进行

站长

添加站长微信

领取运营礼包

下载

便携运营智库

立即下载APP

工具

运营工具导航

AI工具导航

帮助

帮助中心

常见问题

顶部