我有一个 pandas 数据框,想从中创建一个 BigQuery 表。我知道有很多帖子询问这个问题,但到目前为止我能找到的所有答案都需要明确指定每列的架构。例如:
from google.cloud import bigquery as bq
client = bq.Client()
dataset_ref = client.dataset('my_dataset', project = 'my_project')
table_ref = dataset_ref.table('my_table')
job_config = bq.LoadJobConfig(
schema=[
bq.SchemaField("a", bq.enums.SqlTypeNames.STRING),
bq.SchemaField("b", bq.enums.SqlTypeNames.INT64),
bq.SchemaField("c", bq.enums.SqlTypeNames.FLOAT64),
]
)
client.load_table_from_dataframe(my_df, table_ref, job_config=job_config).result()
但是,有时我有一个包含许多列(例如 100 列)的数据框,指定所有列确实很重要。有没有办法高效地做到这一点?
顺便说一句,我发现这篇文章有类似的问题:高效地将 Pandas 数据帧写入 Google BigQuery https://stackoverflow.com/questions/48886761/efficiently-write-a-pandas-dataframe-to-google-bigquery但似乎bq.Schema.from_dataframe
不存在:
AttributeError: module 'google.cloud.bigquery' has no attribute 'Schema'
以下是将 DataFrame 加载到 BQ 的代码片段:
import pandas as pd
from google.cloud import bigquery
# Example data
df = pd.DataFrame({'a': [1,2,4], 'b': ['123', '456', '000']})
# Load client
client = bigquery.Client(project='your-project-id')
# Define table name, in format dataset.table_name
table = 'your-dataset.your-table'
# Load data to BQ
job = client.load_table_from_dataframe(df, table)
如果您只想指定架构的子集并仍导入所有列,则可以使用以下命令切换最后一行
# Define a job config object, with a subset of the schema
job_config = bigquery.LoadJobConfig(schema=[bigquery.SchemaField('b', 'STRING')])
# Load data to BQ
job = client.load_table_from_dataframe(df, table, job_config=job_config)
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)