首页 >> 软件 >> DeepMind研究人员:深度学习数学模型在图像和音频压缩方面表现出色

DeepMind研究人员:深度学习数学模型在图像和音频压缩方面表现出色

2024-01-25 软件

撰文简述:

1. DeepMind研究成果其他部门注意到,深度学习假设在注释信息技术均,出有人意料地在图表和音轨数据库的存储总体表现亮眼。

2. 研究成果注意到,虽然主要训练于注释数据库,但这些大型语种假设(LLMs)在图表和音轨数据库的存储总体表现出有引人注目的效能,甚至多达了专为的有损存储。

3. 将LLMs从存储的角度看待为数据库启动时,为审计假设效能和规模获取了新的洞察,对假设的大小不一和效能之间的关系获取了关键见解。

站长之家(ChinaZ.com)9月26日 消息:已对,Google全资的人工智慧全资DeepMind发布的一项研究成果确实,大型语种假设(LLMs)除了在注释数据库处理总体表现亮眼均,还具备亮眼的图表和音轨数据库存储技能。这一注意到为重新审视LLMs的创造力获取了新的角度。

研究成果的核心观点是将LLMs视为强大的数据库启动时,而非仅仅是注释分解成假设。研究成果所写提出有“通过存储的角度来看待计算问题”,这为我们忽略这些假设的技能带来了全新的视角。

在研究成果中会,DeepMind的研究成果其他部门对LLMs进行了一些表面的修改,使其能够制订算术编码,这是一种无损有损存储。除此以外的是,LLMs的训练过程是基于对注释碱基的极大概率和横向热力学的最小化,这使得它们能够分解成方差,与数据库存储之间存在一对一的一一对应。这种无损有损存储,如gzip,可以从存储的数据库完美重构当前,确保不被窃任何信息。

研究成果其他部门对LLMs在注释、图表和音轨数据库上的存储技能进行了审计。不出有所料,LLMs在注释存储总体表现亮眼。例如,Chinchilla假设(拥有700亿值)将数据库存储到原始大小不一的8.3%,远远多达gzip和LZMA2,它们分别只能实现32.3%和23%的信噪比。

然而,格外引人注目的注意到是,尽管LLMs主要在注释数据库上进行训练,但它们在图表和音轨数据库的存储总体也争得了显著的成功,多达了信息技术专用的有损存储,如PNG和FLAC。

尽管争得了令人鼓舞的结果,但与整体的存储假设相比,LLMs在理论上数据库存储中会十分简约。这是因为LLMs的体积较大,运行速度较慢。例如,研究成果其他部门注意到,gzip可以在CPU上在不到一分钟内将1GB的注释数据库存储,而具有320万值的LLM需要一个小时才能完成相同总数/p>

研究成果还注意到,LLMs的规模对其效能有关键影响。虽然多年来以来,人们认为得越大的LLMs效能得越好,但研究成果其他部门注意到,对于较小的数据库集,格外大的假设十分一定格外好。这确实LLMs的效能与数据库集的大小不一有关,信噪比可以作为审计假设对数据库集信息学习的这两项。

举报/调谐治尿不尽吃可多华还是坦洛新
盐酸坦索罗辛缓释胶囊治尿频吗
佐米曲普坦片什么牌子好
治疗类风湿关节疼痛的药物
膝盖关节疼痛怎么治疗
友情链接