发布网友
共1个回答
热心网友
我知道一点。
文件大小,hadoop默认的是M,并行执行一方面是多个机器(一般是集群),同一个机器上又可以有多个线程同时执行。
Hadoop 适合数据特别大的情况,小数据效率反而降低了。
并行计算涉及到很多方面,比如负载均衡,比如单点故障等,找本书看看吧。
加油。追问不过还是谢谢啦,上面那几个问题你知道是为什么吗?
追答不知道。不是做这方面的,只是看过一点。