对AWS和RedShift来说很新,所以请慢点 . 我正在试图弄清楚如何将我上传到S3的csv文件中的数据加载到Redshift集群中 . 我已经设法创建了所需的表,但是当我尝试运行Copy命令将S3中的数据加载到表中时(使用SQLWorkbench),我收到以下错误;
无效操作:S3ServiceException:您尝试访问的存储区必须使用指定的 endpoints 进行寻址 . 请将以后的所有请求发送到此 endpoints .
一些谷歌搜索将告诉您,这意味着S3存储桶和Redshift集群不在同一区域 . 但是,集群和存储桶都位于ap-southeast-1(新加坡)区域 . 使用此区域代码指定REGION命令没有帮助,并返回相同的错误 .
我有的复制命令:
copy dim_products
from 's3://s3-ap-southeast-1.amazonaws.com/dwh-dimensions/dim-products/dim_products.csv'
CREDENTIALS 'aws_access_key_id=removed;aws_secret_access_key=removed' delimiter ';'
timeformat 'YYYY-MM-DD HH:MI:SS'
csv
REGION 'ap-southeast-1';
我的红移群集的区域位于东南方向1b,因此与水桶(新加坡)的区域相同 . 我在这里不知所措,我需要尽快提出这个可行的数据仓库管理解决方案 . 任何帮助将不胜感激 . 谢谢 .
1 回答
改变s3://s3-ap-southeast-1.amazonaws.com/dwh-dimensions/dim-products/dim_products.csv
至
S3://dwh-dimensions/dim-products/dim_products.csv