如何在 TPU 中分发 TPU 策略中对 PerReplica 对象进行交互?

问题描述

执行此代码后出现错误

test_dist_dataset = iter(strategy.experimental_distribute_dataset(test_dataset))

for (_1,(_2,_3)) in enumerate(test_dist_dataset):
    print(_2[_1])

错误llvm2c

对于测试数据集,我使用了这些代码

def get_test_dataset(bs=BATCH_SIZE):
    FNAMES_TRAIN_TFRECORDS = tf.io.gfile.glob(f'{GCS_DS_PATH}/test/*.tfrecords')
    
    
    test_dataset = tf.data.TFRecordDataset(FNAMES_TRAIN_TFRECORDS,num_parallel_reads=AUTO)
    test_dataset = test_dataset.prefetch(AUTO)
    test_dataset = test_dataset.repeat()
    test_dataset = test_dataset.map(decode_test_tfrecord,num_parallel_calls=AUTO)
    test_dataset = test_dataset.batch(BATCH_SIZE)
    test_dataset = test_dataset.prefetch(AUTO)

    
    return test_dataset

test_dataset = get_test_dataset()

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)