如何每月按交易汇总此数据集? Hadoop Mapreduce Python聚合功能

问题描述

我有一个显示交易的数据集。我正在尝试使用MapReduce汇总此数据,以显示交易计数并按月显示

我有一个数据集,以这种格式显示交易。它有7个字段,并用逗号分隔。 下面是其中一些字段的示例。

block_number,from_address,to_address,value,gas,gas_price,block_timestamp

4391310,0x40349c34b15f6df84bad1b8ae79bd43c800acfda,0xb64ef51c888972c908cfacf59b47c1afbc0ab8ac,36688,1,1508442025
4391310,0xeb1c0a44167ed59385f3158c92ba5aa3d32d27c1,36752,0x26d87be2b72eb5942c471d8f9c14029cda55db79,1508442025
2412045,0x515967c3f02451356461c24d70fa39325257f018,0xbfc39b6f805a9e40e77291aff27aee3c96915bdd,1016457550000000000,40000,21897464574,1476066980
2412045,0x0f2df1dce827c075ef303ab8bbcceef8aee6dc52,999517090000000000,1476066980

所以我希望输出为:

block_timestamp,count

"10-2017" 3
"10-2016" 2

下面是我编写的MapReduce代码,但是当我在数据集上运行它(使用hadoop)时,我从输出中什么也没得到,我想知道我做错了什么。

from mrjob.job import MRJob
import time

class cw_partA (MRJob):
    def mapper(self,_,line):
        try:
            fields = line.split(',')    #splits fields  by the commas
            if len(fields) == 7 :       #there are 7 fields in each line
                time = int(fields[6]) #time   #convert timestamp
                month = time.strftime("%m-%Y",time.gmtime(time)) #returns year and month
                yield (month,1)

        except:
            pass
            #do nothing

    def combiner(self,month,counts):
        yield (month,sum(counts))

    def reducer(self,day,sum(counts))

if __name__ == '__main__':
    cw_partA.run()

任何帮助将不胜感激。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)