首先,我完全意识到 Stack Overflow 本身可能不是一个理想的子论坛来问这个问题,但我问了我的教授,他告诉我去问 Bing AI,而 Bing AI 告诉我在这里问这个问题,所以如果还有其他一些特定的子论坛会更好,请在评论或答案中告诉我。
我是乔治梅森大学数据分析工程硕士项目中研究生团队的一员,我们需要使用为我们提供的团队 Amazon Web Services 帐户以及使用 AWS 设置数据库实例时RDS服务,我经历过执行速度极慢的情况。当我说“极端”时,我的意思是表数据导入向导导入/加载 639 KB csv 文件需要几个小时!
我已经使用笔记本电脑上的本地版本的 MySQL Server 和 Workbench 编写了我们需要的两个 SQL 脚本来测试一切是否正常,现在我需要的只是在笔记本电脑上的 MySQL Workbench 应用程序与 RDS 数据库实例之间建立连接以合理的速度执行。我创建的第一个实例是在 Size/Class db.t3.micro(最初)的 MySQL 社区引擎上运行的可公开访问的单个 RDS 数据库实例。将其连接到 Workbench 后,我发现使用表数据导入向导导入/加载 3 个源数据集时存在延迟:Airports.csv、Airport_Schedules.csv 和 Runway.csv(所有这三个数据集以及两个 MySQL 脚本文件都可以在我们团队的GitHub 存储库 https://github.com/ssakumar/AgniFuego对于这个项目)是高得惊人。因此,我通过将其类从 db.t3.micro(仅具有 1 GB RAM)升级到具有 4 GB RAM 的 db.t3.medium 来提高其处理能力,但这根本没有改善运行时间。当尝试在 GitHub 上使用此连接时,我还在名为“aws-mysql-rds-db-error-running”的 Zip 文件中上传了所有日志。日志'。
从那里开始,我像第一次尝试解决方案一样,通过逐步尝试不同的可能解决方案来增加 RAM,但一次只尝试每个解决方案,这是非常重要的,所以我绝对确保只测试每个解决方案在尝试另一个改变之前,先进行新的改变。我的下一个更改是创建一个新的 RDS 数据库实例,但这一次,我将其创建为多可用区数据库集群(但大小仍然只有 db.t3.medium,即创建的三个实例各有 4 GB RAM)。不幸的是,一旦我将它连接到 MySQL Workbench,它就和其他数据库实例一样慢,因此从那里开始,我将该集群中所有 3 个实例的大小增加到 db.m5d.xlarge(16 GB RAM),但是巨大的延迟仍然存在。
此时,我启动了备份笔记本电脑,安装了 MySQL Server、Workbench 以及 Developer 安装选项附带的其余内容,然后使用我的新本地 MySQL Workbench 应用程序建立了与这两个 RDS MySQL 数据库实例的连接。那台笔记本电脑和那台笔记本电脑上的执行仍然一样慢!我在这里没有想法,请提供任何建议,如果你自己不知道答案,我已经问过 Chat GPT 和 Bings Chat AI 升级 Chat GPT,但它的建议都不起作用任何一个。
我是否应该尝试在 RDS 上创建 Aurora MySQL 数据库实例,并尝试在该实例与我的本地 MySQL Workbench 应用程序之间建立连接?
是的,MySQL Workbench 在导入 CSV 数据方面表现得非常糟糕。这一直是多年来的痛点。 MySQL(Oracle 公司)已记录错误,但没有任何变化。
忘记使用 MySQL Workbench 进行批量数据导入。这不起作用。我不使用 MySQL Workbench,也不知道有任何专业的 MySQL 开发人员或 DBA 使用它。
它不仅比应有的速度慢几个数量级,而且用户报告它无法导入输入 CSV 文件中的所有行。实际上,MySQL Workbench 没有可行的导入功能。
相反,您可以使用命令行工具mysql导入 https://dev.mysql.com/doc/refman/8.0/en/mysqlimport.html或等效的 SQL 语句加载数据本地内嵌文件 https://dev.mysql.com/doc/refman/8.0/en/load-data.html。这些技术成熟、高效且速度更快。
您可能也喜欢我的演示加载数据快! https://www.slideshare.net/billkarwin/load-data-fast对于MySQL。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)