问题描述
我正在尝试对此已有的数据集进行一些数据探索。我要导入的表是1100万行。这是脚本和输出
#Creating a variable for our BQ project space
project_id = 'project space'
#Query
Step1 <-
"
insertquery
"
#Executing the query from the variable above
Step1_df <- query_exec(Step1,project = project_id,use_legacy_sql = FALSE,max_pages = Inf,page_size = 99000)
错误:
Error in curl::curl_fetch_memory(url,handle = handle) :
Operation was aborted by an application callback
我可以使用其他的bigquery库吗?希望也可以加快上传时间。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)