要啟動 HDFS,首先需要啟動 Hadoop 的守護進程。Hadoop 的守護進程包括 NameNode、Secondary NameNode、DataNode 和 JobTracker(如果你需要使用 MapReduce)。按照以下步驟進行操作,來啟動Hadoop HDFS。
進入 Hadoop 的安裝目錄。
cd /usr/local/hadoop/
啟動 NameNode 和 DataNode 守護進程。
sbin/start-dfs.sh
這個腳本會啟動 Hadoop 的守護進程,并在控制臺中輸出相關(guān)信息。
檢查是否成功啟動 HDFS 服務。
jps
如果輸出的結(jié)果中包含 NameNode、DataNode 以及 SecondaryNameNode,說明 HDFS 服務已經(jīng)成功啟動。
管理和監(jiān)控 HDFS 進程。
http://localhost:50070/
在瀏覽器中訪問 Hadoop HDFS 的 webUI 頁面。
在以上步驟中,sbin/start-dfs.sh 的命令會自動讀取 $HADOOP_CONF_DIR 環(huán)境變量指定的配置文件。在配置文件中,你可以自己定義各個進程的啟動參數(shù)和配置選項。如果需要關(guān)閉 HDFS,可以運行以下命令:
sbin/stop-dfs.sh
需要注意的是,在啟動和關(guān)閉 Hadoop HDFS 服務之前,你需要確保 Hadoop 集群的環(huán)境配置已經(jīng)正確設(shè)置,包括各節(jié)點的 IP 地址、端口號、配置文件等。此外,啟動和關(guān)閉 HDFS 服務需要使用管理員權(quán)限。