将数据从 csv 文件加载到表中时,如何在 BigQuery 中将 max_bad_records 设置为 100%?

问题描述

我有文件从 docker 放到 Greenplum 的代码

class MyUserChangeForm(UserChangeForm):
    class Meta(UserChangeForm.Meta):
        model = User

class MyUserCreationForm(UserCreationForm):

    error_message = UserCreationForm.error_messages.update({
        'duplicate_username': 'This username has already been taken.'
    })
    class Meta(UserCreationForm.Meta):
        model = User

    def clean_username(self):
        username = self.cleaned_data["username"]
        try:
            User.objects.get(username=username)
        except User.DoesNotExist:
            return username
        raise forms.ValidationError(self.error_messages['duplicate_username'])


@admin.register(User)
class UserAdmin(AuthUserAdmin):
    fieldsets = AuthUserAdmin.fieldsets + (
            (None,{'fields': ('user_type','country')}),)
    add_form = MyUserCreationForm
    

我正在尝试将 csv 文件加载到 bq 表中,这是我目前使用的代码

copy table_1 from '/home/gpadmin/temp/file.csv'
with (format csv,DELIMITER ',',quote '"',header)
SEGMENT REJECT LIMIT 100 PERCENT;

我想在 BigQuery 中复制段拒绝限制 100% 以正确加载数据。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)