haskell – 如何准确测量减少λ项所需的工作量?

诸如以太坊之类的区块链在其智能合约处理虚拟机上使用基于堆栈寄存器的语言.该模型非常方便,因为它提供了一种简单的机制来测量运行程序所需的工作量:只需为每个基本操作和总和确定成本.

假设使用智能契约的区块链而不是虚拟机,使用了函数式编程语言,如Haskell的核心.是否有任何简单,准确的方法来衡量执行功能程序所需的工作量 – 请记住,节点能够使用任何评估策略,因此这种测量必须是通用的.

解决方法

“只需确定每个原始操作和总和的成本”并不容易.区块链网络动态地确定其令牌的真实值,无论其令牌的最小值是什么值.例如,无论世界想要支付什么,天然气都值得用它作为世界计算机上的计算单位.为了准确地测量网络花费的努力以确保其令牌的单位价值,我们需要DMMS算法(如侧链论文中所述)&这只不过是一个工作证明区块链.

每个原始操作都需要自己的区块链才能准确确定其值.当在单个区块链上实施多个令牌时,例如彩色/自定义硬币,它无法准确地测量单位的价值.

在函数式语言的情况下,人们可能会想象一个lisp区块链,其中paul graham的7个基元被实现为操作码(基于堆栈的解释器是不相关的),这将是图灵完成但会遇到确定每个操作码的真值的问题;最便宜的一个将永远被滥用在以太坊上显而易见(自杀功能的廉价是垃圾邮件).

因此,要实现功能性图灵完整区块链,您需要一个由7个区块链组成的编织网络,每个区块链独立地确定该原始计算所需的工作量的真实值.

有工作证明替代品的人会不同意上述情况.加密货币是一个新领域,数学不够成熟,任何人都无法做出具体要求.

相关文章

文章浏览阅读903次。文章主要介绍了收益聚合器Beefy协议在币...
文章浏览阅读952次。比特币的主要思路是,构建一个无中心、去...
文章浏览阅读2.5k次。虚拟人从最初的不温不火,到现在步入“...
文章浏览阅读1.3k次,点赞25次,收藏13次。通过调查和分析用...
文章浏览阅读1.7k次。这个智能合约安全系列提供了一个广泛的...
文章浏览阅读1.3k次。本文描述了比特币核心的编译与交互方法...