首頁(yè)最新資訊

全部 新聞動(dòng)態(tài) 技術(shù)文章 常見(jiàn)問(wèn)題 技術(shù)問(wèn)答

    • HBase中常見(jiàn)的Shell命令有哪幾個(gè)?具體是怎樣操作的?

      Shell命令可以很方便地操作HBase數(shù)據(jù)庫(kù),例如創(chuàng)建、刪除及修改表、向表中添加數(shù)據(jù)、列出表中的相關(guān)信息等操作。不過(guò)當(dāng)使用Shell命令行操作HBase時(shí),首先需要進(jìn)入HBase Shell交互界面,通過(guò)一系列Shell命令操作HBase,接下來(lái),通過(guò)一張表列舉一些操作HBase表常見(jiàn)的Shell命令。查看全文>>

      技術(shù)文章2020-11-17 |黑馬程序員 |常見(jiàn)的Shell命令具體是怎樣操作的
    • HDFS的高可用架構(gòu)是怎樣工作的?

      在HDFS分布式文件系統(tǒng)中,NameNode是系統(tǒng)的核心節(jié)點(diǎn),它存儲(chǔ)了各類元數(shù)據(jù)信息,并負(fù)責(zé)管理文件系統(tǒng)的命名空間和客戶端對(duì)文件的訪問(wèn)。但是,在Hadoop1.0版本中,NameNode只有一個(gè),一旦這個(gè)NameNode發(fā)生故障,就會(huì)導(dǎo)致整個(gè)Hadoop集群不可用,也就是發(fā)生了單點(diǎn)故障問(wèn)題。   為了解決單點(diǎn)故障問(wèn)題,Hadoop2.0中的HDFS中增加了對(duì)高可用的支持。查看全文>>

      技術(shù)文章2020-11-12 |黑馬程序員 |HDFS高可用架構(gòu)
    • 怎樣創(chuàng)建和使用Combiner組件?

      Combiner組件是MapReduce程序中的一種重要的組件,如果想自定義Combiner,我們需要繼承Reducer類,并且重寫reduce()方法。接下來(lái),我們針對(duì)詞頻統(tǒng)計(jì)案例編寫一個(gè)Combiner組件,演示如何創(chuàng)建和使用Combiner組件查看全文>>

      技術(shù)文章2020-11-12 |黑馬程序員 |Combiner組件創(chuàng)建和使用
    • MapReduce程序怎樣設(shè)置模式才能在在本地運(yùn)行?

      MapReduce程序的運(yùn)行模式主要有兩種:本地運(yùn)行模式和集群運(yùn)行模式,集群運(yùn)行模式只需要將MapReduce程序打成Jar包上傳至集群即可,比較簡(jiǎn)單,這里不再贅述。下面我們以詞頻統(tǒng)計(jì)為例,講解如何將MapReduce程序設(shè)置為在本地運(yùn)行模式。查看全文>>

      技術(shù)文章2020-11-05 |黑馬程序員 |MapReduce本地運(yùn)行的模式設(shè)置
    • InputFormat接口的定義代碼如何設(shè)置?

      InputFormat主要用于描述輸入數(shù)據(jù)的格式,它提供數(shù)據(jù)切分和為Mapper提供輸入數(shù)據(jù)兩個(gè)功能。 Hadoop自帶了一個(gè) InputFormat接口,該接口的定義代碼如下所示查看全文>>

      技術(shù)文章2020-11-04 |黑馬程序員 |InputFormat接口的定義代碼
    • MapReduce中Maper組件用法介紹【黑馬程序員】

      MapReduce程序會(huì)根據(jù)輸入的文件產(chǎn)生多個(gè)map任務(wù)。Hadoop提供的Mapper類是實(shí)現(xiàn)Map任務(wù)的一個(gè)抽象基類,該基類提供了一個(gè)map()方法,默認(rèn)情況下,Mapper類中的map()方法是沒(méi)有做任何處理的。查看全文>>

      技術(shù)文章2020-11-04 |黑馬程序員 |Maper組件用法介紹
和我們?cè)诰€交談!