HBASE遇到的java.lang.OutOfMemoryE

简单分享一下,类似问题的解决方法

创新互联长期为1000+客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为徐汇企业提供专业的网站设计、成都网站建设,徐汇网站改版等技术服务。拥有10多年丰富建站经验和众多成功案例,为您定制开发。

刚才在某机器上上xxx用户下压测时遇到这个问题,连xxx都进不去了

说明xxx用户下无法创建跟多的线程了(当然root用户没这个问题)

 

系统能够创建的最大线程数:(MaxProcessMemory - JVMMemory – 系统内存) / (ThreadStackSize) = Number of threads

有两种方式:

          减少xxx下的ThreadStackSize

          增加xxx下的nproc数量

修改

[lsmpusr@wxlab28bin]$ ulimit -a

core filesize          (blocks, -c) 0

data segsize           (kbytes, -d)unlimited

schedulingpriority            (-e) 0

filesize              (blocks, -f) unlimited

pendingsignals                (-i) 256636

max lockedmemory       (kbytes, -l) 64

max memorysize         (kbytes, -m) unlimited

openfiles                     (-n) 65536

pipesize            (512bytes, -p) 8

POSIX messagequeues     (bytes, -q) 819200

real-timepriority             (-r) 0

stacksize             (kbytes, -s) 10240-----可以减小这个,建议在jvm –xss中减少

cputime              (seconds, -t) unlimited

max userprocesses             (-u) 1024-----可以增加这个到32000

virtualmemory          (kbytes, -v)unlimited

filelocks                     (-x) unlimited

修改/etc/security/limits.conf

*    soft    nofile    65536
*    hard    nofile    65536
xxx soft nproc  32000
xxx hard nproc  32000
xxx soft stack  1024
xxx hard stack  1024

其中 xxx表示启动hbase的用户,如使用hadoop启动hbase,则配置如下:

* - nproc 102400
* - nofile 102400

hadoop           hard    nproc           32000

hadoop           soft    nproc           32000

hadoop           hard    stack           1024

hadoop           soft    stack           1024


分享文章:HBASE遇到的java.lang.OutOfMemoryE
浏览地址:http://hxwzsj.com/article/gjedos.html

其他资讯

Copyright © 2025 青羊区翔捷宏鑫字牌设计制作工作室(个体工商户) All Rights Reserved 蜀ICP备2025123194号-14
友情链接: 营销型网站建设 品牌网站建设 四川成都网站建设 营销型网站建设 营销型网站建设 成都网站建设 成都企业网站建设公司 泸州网站建设 重庆外贸网站建设 重庆网站制作 成都网站建设 网站建设公司 成都商城网站建设 成都网站设计 专业网站设计 广安网站设计 定制网站建设 H5网站制作 网站建设公司 LED网站设计方案 成都网站设计公司 成都网站设计