随机 CSV 数据集配置

问题描述

场景:我有一个脚本,它有大约 14 个事务,其中很少有重复事务,所以我们将它们分成片段。我们正在使用随机 CSV 数据集配置进行参数化

问题:由于此随机 CSV 配置在单次迭代中涉及多个事务,并且线程数超过 500,我们在运行期间遇到内存问题并且样本停止,这是由于文件打开为每个用户、每次迭代使用这个随机 CSV 数据集。

对于这个随机的 CSV 数据集配置元素,我们还有其他选择吗?

注意:我的每个脚本都有一个或多个随机 CSV 数据集配置,我有大约 8 个以上的脚本,整个场景的用户超过 4k

解决方法

  1. 您可以改用“普通”CSV Data Set Config。我根本不喜欢使用随机 CSV 数据集配置的想法,因为我希望测试为 repeatable,但是如果出于某种原因您想要/需要随机数据 - 您可以“随机播放”您的 CSV 文件( s) 在 setUp Thread Group 的某个地方使用 JSR223 Sampler
  2. 或者,您可以选择具有“随机”选项的 Redis Data Set
  3. HTTP Simple Table Server 也支持随机模式
  4. 您还可以将数据放入数据库并使用 JDBC Request sampler
  5. 访问它