:大众对人工智能(AI)的兴趣日趋浓厚,并期待其与Web3的潜在协同,大势所趋不容忽视。然而,这种新兴整合的现状表明,AI的基础架构需求与现有区块链框架之间存在脱节。本系列将探索AI与Web3的关系、Web3的挑战、机遇以及垂直应用。本系列的第一部分深入探讨了AI的Web3基础架构发展、计算需求要求的当前挑战和机遇。人工智能(AI)和区块链技术是过去十年中两项最具创新性的技术,引得大众充满期待。AI在Web2中的发展毋庸置疑,从今年风投数量的增加就可见一斑,其中具有代表性的包括,2023年6月微软和英伟达向Inflection AI注资13亿美元,而2023年9月,OpenAI的竞争对手Anthropic从亚马逊筹资12.5亿美元。但是,人们对AI的用例及与Web3的交互仍存疑虑。Web3能否在AI发展中发挥作用?如果可以,那么在AI的发展中,区块链可以做什么,以及AI为什么需要区块链呢?其中一种说法是,Web3有可能彻底改变生产关系,而AI则可以改变生产力本身。但事实证明,要将这两种技术结合起来会很复杂,这揭示了基础架构要求所面临的挑战与机遇。AI基础架构与GPU短缺困境AI当前所面临的主要瓶颈是GPU短缺。诸如OpenAI GPT-3.5等大型语言模型让我们见识到了当今头号厉害的应用程序ChatGPT。这款应用程序在6周内狂获1亿月活用户。相比之下,YouTube和Facebook则花了4年时间。这为采用大型语言模型的新应用程序打开了新世界的大门,例如Midjourney以Stable Diffusion的StableLM为基础构建而成,而PaLM2则为谷歌的Bard、API、MakerSuite和Workspace提供支持。深度学习是需要大规模密集计算的漫长过程。大型语言模型涉及的参数越多,运行所需的GPU内存就越多。模型中的每个参数都存储在GPU内存中,而模型在推理过程中需要将这些参数加载到内存中。如果模型大小超过可用的GPU内存,机器学习模型将停止运行。行业领头羊OpenAI等同样面临GPU短缺问题,导致难以用较长序列长度的模型(8k与32k)部署多模态模型。由于芯片供应严重短缺,大型语言模型的大规模应用已达到极限。AI初创公司只能极力获得GPU,才能抢占先机。GPU解决方案:中心化与去中心化方法短期内,英伟达于2023年8月发布的tensorRT-大型语言模型等中心化解决方案,优化了推理并提高了性能,而英伟达预计将于2024年第2季度推出的H200将有望缓解GPU限制。此外,CoreWeave和Lambda Labs等传统挖矿公司正在转向提供以GPU为中心的云计算。英伟达H100的租金为每小时2到2.5美元不等。与通用计算机或GPU相比,专用集成电路(ASIC)通过特定算法设计和专用硬件架构能提高哈希算力,在挖矿效率方面具有显著优势,因此是挖矿公司的首选工具。在Web3方面,出租类型的GPU市场概念一直盛行,有多个项目正在尝试实现这一概念。区块链领域的激励措施非常适合自举网络,并且还是一种有效的机制,能以去中心化方式吸引拥有闲置GPU的参与者或企业。要获得GPU访问权限通常需要与云服务提供商签订长期合同,并且应用程序不一定能在整个合同期间都用到GPU。另一种方法称为“Petals”,即将大型语言模型拆分为多个层,并托管在不同的服务器上,类似于分片的概念。该方法由Hugging Face、华盛顿大学和Yandex的工程师和研究人员共同开发,属于BigScience合作项目的一部分。任何用户均可作为客户端以去中心化方式连接到网络,并将模型应用于自己的数据。AI与Web3基础架构应用程序相结合带来的机遇Web3基础架构仍存在一些缺陷,但有望应对AI集成带来的挑战,并为创新解决方案提供机遇,我们将在下文进行探讨。去中心化AI计算网络去中心化计算网络能将需要计算资源的个人与拥有空闲计算能力的系统联系起来。与中心化提供商相比,个人和组织通过这种模型即可将闲置资源投到网络中,且不产生额外费用,这样网络便能提供更具成本效益的定价。在区块链点对点网络的推动下,去中心化GPU渲染有可能在Web3游戏中扩展AI驱动的3D内容创作。但是,去中心化计算网络的重大缺点在于,不同计算设备之间的通信开销存在差异,因此机器学习训练期间可能会减速。去中心化的AI数据训练数据作为初始数据集,用于教机器学习应用程序识别模式或满足特定标准。另一方面,测试或验证数据则用于评估模型的准确性,而且由于模型已经熟悉训练数据,因此需要单独的数据集进行验证。相关方正在努力打造AI数据源和AI数据标注市场,其中以区块链作为激励层,激励大型公司和机构提高效率。但是,这些当前仍处于发展初期的垂直行业面临着重重障碍,例如需要人工审核,以及人们对区块链赋能数据表示担忧。例如,现在有专门用于机器学习模型训练的SP计算网络。SP计算网络针对特定用例量身打造,通常采用可将计算资源整合到同一池中的架构,类似于超级计算机。SP计算网络通过Gas机制或社区控制的参数来确定成本。去中心化提示词尽管完全去中心化的大型语言模型带来了挑战,但各个项目正在探索通过鼓励自我训练技术来促成对提示词进行去中心化的方式。这种方法可激励创作者创作内容,为更多投身该领域的参与者提供经济激励机制。早期的示例包括AI驱动的聊天机器人平台。那些平台通过代币激励内容创作者和AI模型创建者训练聊天机器人,之后聊天机器人即可成为可交易的NFT,允许访问用户已授权的数据进行模型训练和微调。此外,在去中心化提示词市场中,提示词创建者可交易自己的数据和提示词所有权,以获得激励。零知识机器学习(ZKML)2023年是大型语言模型大显神威的一年。为让区块链项目充分发挥AI的潜力,这些模型必须在链上运行。但是,燃料限制和计算成本的挑战仍让AI集成显得错综复杂。如果大型语言模型可在链下运行,其输出结果可用于促成链上决策和活动,同时证明决策均由机器学习AI模型做出,而非随机输出而成,那会怎样呢?这正是ZKML的原理。OpenAI和Meta即将分别推出GPT-5和Llama3。随着功能增强,大型语言模型的规模将日益扩大。ZKML的主要目标是尽量降低证明的大小,成为零知识证明与AI技术结合的理想之选。例如,零知识证明可应用于压缩去中心化机器学习推理或训练中的模型,途径是用户向链上网络的公共模型提交数据来达成训练。我们目前正处于使用链上零知识证明验证计算实用性的起步阶段。然而,算法的发展目前正在探索模型完整性等用例,从而拓宽可实现目标的范围。通过这些用例,零知识证明可用于证明同一机器学习算法在不同用户的数据上以相同的方式运行,以避免偏差。同样,随着算法生成肖像和深度伪造技术的兴起,零知识证明可应用在人格证明中,以验证个人的独特性,而不会泄露个人的私人信息。总之,Web3基础架构与AI的整合预示着科技创新的可喜前景,同时通过代币化激励促进资源投入。 Web2见证了AI的惊人进步,但Web3与AI的结合仍有待探索。科技不断发展,Web3与AI的协同增效潜力巨大,有望重塑科技格局,并改变我们处理AI基础架构的方式。敬请期待“AI与Web3”系列的下一章节,我们将深入探讨Web3游戏中的AI用例。免责声明:本文内容仅供参考,不应视为做出投资决策的依据,也不应构成投资交易建议或视为任何金融工具或其发行方相关的投资策略。
主题测试文章,只做测试使用。发布者:币安赵长鹏,转转请注明出处:https://www.paipaipay.cn/282432.html