每个通信系统都有一个极限。挑战在于识别这个极限是什么,并在其范围内有效地工作。
在现代计算中,我们经常遇到「可验证性极限」——验证变得比生成困难得多的点。这一原则影响着从加密系统到 AI 推理再到分布式共识的所有内容。
考虑一个简单的例子:大数分解。将两个大质数相乘相对容易,但将它们的乘积分解回原来的质数却需要大量计算。这种不对称性构成了 RSA 加密的基础。
同样的模式出现在许多领域:
当验证比生成更容易时,验证者获得了显著的优势。他们可以:
这创造了我所称的「验证者定律」:在任何验证比生成更容易的系统中,验证者最终将主导生成者。
现代 AI 系统体现了这一原则。大型语言模型可以生成大量文本,但验证质量、准确性和一致性仍然具有挑战性。生成者(AI 系统)变得越来越强大,但验证者(人类和评估系统)正在努力跟上。
这创造了几个重要的动态:
随着 AI 能力的增长,我们评估它们的能力滞后了。我们可以比验证其正确性或安全性更快地生成解决方案。
训练 AI 系统需要大规模验证其输出。当验证成为瓶颈时,对齐变得更加困难。
随着 AI 系统变得更有能力,验证成本呈指数级增长,而生成成本保持相对平稳。
理解可验证性极限有助于我们设计更好的系统:
随着系统变得更加复杂,验证将变得越来越重要。我们需要:
可验证性极限不是我们系统中的错误——它是信息处理的基本特征。通过识别这个极限并围绕它进行设计,我们可以构建更强大、可扩展和值得信赖的系统。
关键洞察是验证能力,而非生成能力,最终决定系统性能。在一个生成器日益强大的时代,验证者将继承地球。
原文链接:https://alperenkeles.com/posts/verifiability-is-the-limit/