让建站和SEO变得简单

让不懂建站的用户快速建站,让会建站的提高建站效率!

 
你的位置:新人注册送66元 > 关于新人注册送66元 >

新人注册送66元你当今就不错阅读整篇论文

新人注册送66元你当今就不错阅读整篇论文

原文来自:Modulus Labs新人注册送66元

编译:DeFi 之谈

很欢娱终于不错与你们共享咱们的第一篇论文,该论文是通过以太坊基金会的资助完成的,它的标题是《The Cost of Intelligence: Proving Machine Learning Inference with Zero-Knowledge‌》(或 paper0,这是酷孩子们的叫法)。

没错,这些都是真数字!有图表!论文还商讨了表面结构过甚对性能的影响!事实上,paper0 是第一个跨通用 AI 原语套件对 ZK 阐明系统进行基准测试的相干职责,你当今就不错阅读整篇论文。

而这篇著作,你不错将其视为论文的转头,关联详备信息,请参阅原论文。

事不宜迟,让咱们深远了解:

Paper0 : 咱们的探询要点

一说到他很多人都应该很熟悉吧,他是一个非常可爱也很聪明的小男孩,曾经就因为跳了广场舞而走红。他很小的时候身上就有艺术细胞,在6个月大的时候,就能模仿电视上的舞蹈动作了,到10个月的时候,他就能在广场上跟着音乐跳舞了。

事实上,贪图的改日将大都使用复杂的东谈主工智能。望望我的文本裁剪器:

Notion 的请示告诉我,他们的 LLM 不错让这句话变得更好

然则,链上不存在功能性神经采集,以致连最小的保举系统或匹配算法都不存在。真见鬼!以致连实验也莫得一个……天然,原因是相称昭着的,因为这太贵了,毕竟新人注册送66元,即使运行价值数十万 FLOP 的贪图(仅够在小型神经采集上进行一次推理)的老本亦然数百万 gas,面前相称于数百好意思元。

那么,如果咱们念念将 AI 范式带入无需信任的天下,咱们该怎样作念?咱们会翻车(roll-over),然后毁掉(give up)吗?天然不是…等等!Roll-over)……Give up……

如果像 Starkware、Matter Labs 和其他公司这么的 Rollup 管事,正在使用零常识阐明来大鸿沟推广贪图,同期保抓密码学安全,那么咱们能为 AI 作念相同的事情吗?

这个问题成为推动咱们在 paper0 中职责的激发种子。 剧透警报,以下是咱们发现的:

“当代 ZK 阐明系统的性能越来越高,况且越来越千般化。它们仍是不错赞成老本在某种进度上是合理的东谈主工智能操作。事实上,有些系统在阐明神经采集方面比其他系统好得多。然则,通盘这些仍然够不上本色运用所需的性能,况且关于神奇的用例来说是严重不及的。换句话说,如果不进一步加快用于 AI 操作的 ZK 系统,用例就会相称有限。“

paper0 转头

这是各人皆知的奥妙:AI 性能险些老是与模子大小成比例。 这种趋势看起来也莫得放缓。 惟一这种情况仍然存在,关于咱们这些 web3 中的东谈主来说,这将是绝顶厄运的。

毕竟,贪图老本是咱们最终、不行幸免的恶梦开头。

今天的 ZKP 仍是不错赞成小模子了,但中型到大型模子败坏了范式

基准:实验遐想

关于 paper0,咱们体恤任何零常识阐明系统中的 2 个基本成见:

阐明生成时候:prover 创建 AI 推理的随同阐明所需的时候,以及prover 内存使用峰值:阐明者在阐明时间的任何给定时候用于生成推理阐明的最大内存;

这主如果一个本色的取舍,况且是从咱们构建 Rockybot 的训戒中作念出的(阐明时候和内存使用是笃定任何无需信任东谈主工智能用例可行性的胜仗优先事项)。 此外,通盘测量都是针对阐明生成时候进行的,况且莫得探讨预处理或 witness 生成。

天然,还有其他方面的老本需要追踪。 这包括考证者运行时候和阐明大小。咱们将来可能会再行疑望这些成见,但将它们视为 paper0 的范围以外。

至于咱们测试的本色阐明系统,通过投票,咱们遴选了 6 个:

Paper0 测试的阐明系统汇总表,以及协助咱们的作家

临了,关于新人注册送66元咱们创建了两套用于基准测试的多线性感知器(MLP)——值得矜重的是,MLP 相对疏忽,主要由线性运算构成。这包括一套跟着参数数目加多而推广的架构(最多 1800 万参数和 22 GFLOP),以登第二套跟着层数加多而推广(最多 500 层)的架构。如下表所示,每个套件都测试了阐明系统以不同神气推广的才能,并大致代表了从 LeNet5(6 万参数,0.5 MFLOP)到 ResNet-34(2200 万参数,3.77 GFLOP)的有名深度学习(ML)架构的鸿沟。

参数和深度基准套件

恶果:迅如闪电

关于以上 6 个阐明系统的参数和深度范围的阐明生成时候恶果

关于以上 6 个阐明系统的参数和深度范围内的峰值内存恶果

关联这些恶果的完好内容,以及对每个系统内瓶颈的深远分析,请参阅 paper0 的第 4 节。

用例和最终要点

好吧,以上是一些相称冒失的图表,而以下则是要点:

“在阐明时候方面,Plonky2 是迄今甩腕施展最佳的系统,因为它使用了基于 FRI 的多项式痛快和 Goldilocks 域。 事实上,关于咱们最大的基准架构,它比 Halo2 快 3 倍。然则,这所以 prover 内存毒害为显耀代价的,Plonky2 的性能耐久较差,巧合会使 Halo2 的峰值 RAM 使用量翻倍。在阐明时候和内存方面,基于 GKR 的 zkCNN prover 似乎最合适处理大型模子——即使莫得优化的驱逐。”

那这在现实中究竟意味着什么? 咱们将重心先容 2 个示例:

1、Worldcoin:Worldcoin 正在构建天下上第一个“秘籍保护身份阐明契约”(或 PPPoPP),换句话说,通过将身份考证与一种相称独有的生物特征(虹膜)关联起来来搞定女巫抨击问题。这是一个纵脱的念念法,它使用卷积神经采集来压缩、调治和阐明存储的虹膜数据。固然他们刻下的诞生波及 orb 硬件中安全飞地内的简直贪图环境,但他们但愿改为使用 ZKP 来阐明模子的正确贪图。这将允许用户对我方的生物特征数据进行自我保护,并提供加密安全保证(惟一在用户的硬件上进行处理,比如手机)。

当今具体少许:Worldcoin 的模子具有 180 万参数和 50 层。 这是鉴识 100 亿个不同虹膜所必需的模子复杂性。 哎呀!

固然在贪图优化的云 CPU 上阐明 Plonky2 等系统,不错在几分钟内为这种鸿沟的模子生成推理阐明,但阐明者的内存毒害将跨越任何商用转移硬件(数十 GB 的 RAM)。

事实上,莫得一个测试系统八成在转移硬件上阐明这个神经采集……

2. AI Arena:AI Arena 是一款访佛于《任天国明星大乱斗》格调的链上平台格斗游戏,其具有一个独有的特色:玩家并不是操作化身及时进行回击,而是让玩家领有的 AI 模子相互竞争和斗争,是的,这听起来很酷。

跟着时候的推移,AI Arena 的出色团队正勤勉将他们的游戏转向一个皆备无需信任的锦标赛权谋。但问题是,这波及考证每次游戏数目惊东谈主的 AI 贪图的挑战。

比赛以每秒 60 帧的速率运行,抓续 3 分钟时候。这意味着每轮比赛,两个玩家模子之间的推理恶果跨越 20000 个。以 AI Arena 的一个战术采集为例,一个相对较小的 MLP 需要约莫 0.008 秒来现实一次前向传递,使用 zkCNN 阐明该模子需要 0.6 秒,即,每接收一次算作就需要加多 1000 倍的贪图。

这也意味着贪图老本将加多 1000 倍。跟着单位经济对链上管事变得越来越波折,斥地东谈主员必须均衡去中心化安全的价值与阐明生成的本色老本。

https://aws.amazon.com/ec2/pricing/

不管是上头的例子,ZK-KYC,DALL-E 格调的图像生成,如故智能合约中的大型话语模子,ZKML 的天下中都存在着一个完好的用例天下。然则,要确凿驱逐这些,咱们浓烈合计 ZK prover 仍需要大都纠正。绝顶是关于自我完善的区块链的改日。

那么,咱们该何去何从?

咱们有具体的施展数据,咱们知谈在阐明神经采集时哪些时刻经常施展最佳。天然,咱们启动发现千般用例,这些用例激发了咱们欺压成长的社区。

我念念知谈接下来会发生什么……

很快就会为你们提供更多更新;)新人注册送66元