我是学生,这些问题让我感到沮丧数周,请帮助我 .

根据某个社区的开发人员的说法,运行Atlas需要Hive,即Atlas的最小系统必须由Atlas,Hive,Hadoop和MySQL等RDBMS组成 .

我也做了很多研究,并阅读了https://github.com/shivajid/atlas上的教程 . 但本教程基于HDP,我的老师要求我自己配置最小系统 .

我模仿了上面提到的shivajid / atlas教程,并总结了本教程的一些主要步骤:

步骤1:下载Hadoop并进行配置 .

第二步:执行git clone获取Atlas的源代码,由maven构建,并进行配置 .

---在这一步之后,我启动了Atlas服务器,为了验证服务器是否启动运行,我用网页浏览器访问“localhost:21000 / api / atlas / admin / version”,它显示了一些版本信息 . 但是当我尝试访问“localhost:21000”或“localhost:21000 / dashboard”时,它显示了HTTP ERROR 500.这是我的第一个问题 .

步骤3:安装MySQL服务器,创建MySQL用户并授予他权限 .

步骤4:获取二进制Hive并将MySQL配置为Hive的元数据存储库 .

Step5:执行github上shivajid / atlas教程的“MySQLSourceSystem.dll”脚本 .

步骤6:将数据从“drivers.csv”和“timesheet.csv”导入MySQL中的表 .

Step7:执行$ / bin中的脚本quick_start.py . ---但它报告说,没有数据添加到Apache Atlas Server . 这是我的第二个问题,我现在就到此为止 .

教程I中解释的以下步骤尚未完成:

Step8:执行脚本sqoop_job.sh

步骤9:验证Hive中的表

步骤10:检查Atlas Web UI中的元数据 .

摘要:

我做了很多研究来配置Atlas的最小系统但是失败了,所以我总结了上面显示的主要步骤 .

但这些仍然是很多问题:

  • 启动Atlas服务器后(步骤2),为什么我没有访问“http://localhost:21000/dashboard”并获得了ERROR 500 .

  • 执行quick_start.py(步骤7)后,为什么报告没有数据添加到Apache Atlas Server?

  • 我认为,github上shivajid / atlas的教程已经过时,已于2015年9月发布,必须使用HDP sanbox . 任何人都可以给我或帮助我写一个关于Atlas最小系统的简短教程,其中只是总结了这些组件:Atlas,Hive,Hadoop,MySQL .

这是我的电子邮件:dreamcoding@hotmail.com,如果有人有相关的东西或材料,请发送给我 .

非常感谢你 . 谢谢!