目前,少数几家大型科技公司控制着大部分计算能力,并在其 AI 研究周围建立护城河。这催生了一个“AI 黑手党”,它扼杀创新和竞争的速度比你说“围墙花园”的速度还要快。
然而,去中心化是最终的转折点。
在去中心化的 AI 范式中,计算能力和 AI 研究的访问是无需许可的。AI 成为每个人的工具,打破了 AI 黑手党设置的障碍,使知识、工具和资源的访问变得民主化。
共享资源意味着更多的人可以应对 AI 最艰巨的挑战。构建者越多样化,算法的偏见就越少,这对每个人来说都是双赢。
“带有加密激励的去中心化 AI”解决了这个问题。 加密提供了将开源 AI 货币化的新方法。它为 AI 开发创建了一个开放的市场,确保访问和使用代币奖励贡献。
例如,在 Bittensor 等去中心化 AI 网络中,开发人员在不同的 AI 应用程序中使用他们的机器学习模型时可以获得 TAO 代币。
这种动态允许去中心化 AI 网络通过代币化激励吸引顶尖人才,从而创建在闭源、中心化模型中不存在的可持续价值链。
确保用户数据的隐私
我们生活在一个数据饥渴的世界。每个人都想利用你的数据了解你的喜好,然后用它向你推销产品。
人工智能也不例外。人工智能系统需要大量数据才能正常工作。大型人工智能公司通常会存储整个对话历史记录来训练他们的模型并改进服务,但这会带来巨大的隐私问题。
想象一下,你所有的个人信息——购物习惯、浏览历史,甚至健康记录——都被扔进一个巨大的人工智能罐子里。你必须相信公司不会滥用或出售它。很可怕,对吧? 为了真正赢得用户信任,AI 需要采用隐私保护技术。建立信任需要透明度和可验证性,而零知识证明 (ZKP) 可以帮助实现这一点。
加密领域的 AI 项目还以其他方式采用隐私保护技术。例如,Venice.ai 仅在用户的浏览器中存储对话历史记录,并确保用户请求已加密。GPU 提供商会处理这些请求,但没有服务器可以看到整个对话历史记录或知道用户的身份。 我们可以通过整合这些加密方法和价值观来创建尊重用户隐私和数据所有权的 AI 系统。
我们如何在不使用用户数据的情况下训练 AI 模型,同时保持隐私?如果没有足够的数据,AI 就无法很好地理解现实世界的情况,从而导致“AI 幻觉”,即 AI 生成错误的输出。
这就是合成数据的用武之地。合成数据是使用算法模拟真实数据而人工生成的。它具有隐私保护特性,因为它不会泄露个人信息。所有主要的 AI 公司都在使用它,这是一个新兴的研究领域。
加密货币可以激励创建用于训练 AI 模型的合成数据集。用户可以通过贡献经过验证的数据点来获得代币,从而解决训练数据不足的问题。
例如,像 Synthetic AI 这样的项目构建了用于创建合成数据的工具,允许用户贡献合成数据并获得 SAI 代币。确保这些数据集的质量可以显著加快生成用于训练 AI 模型的数据的努力,同时保持用户数据隐私。
结束语
人工智能的未来尚不确定,但有一件事是肯定的:它需要建立在信任和透明的开源基础上。
加密货币专注于分散所有权、无需许可的访问和隐私,弥补了缺失的部分。工具已经存在,是时候使用它们并书写人工智能故事的下一章了。
来源:金色财经