Spark如何处理中文字符串

最近工作中需要用spark对中文的字符提取,由于环境一直是英文的,发现打印出来是乱码。后经研究,需要做一个UTF-8的转换
大概如下:

val data_file = sc.textFile(“test.txt”)
val item1 = data_file.map(p => new String(p.getBytes, 0, p.getLength, "UTF-8")).map{
    item => XXX
    }

当前标题:Spark如何处理中文字符串
链接URL:http://hxwzsj.com/article/ghghgc.html

其他资讯

Copyright © 2025 青羊区翔捷宏鑫字牌设计制作工作室(个体工商户) All Rights Reserved 蜀ICP备2025123194号-14
友情链接: 营销型网站建设 成都定制网站建设 H5网站制作 网站建设费用 移动网站建设 成都网站设计 网站设计制作报价 网站制作 温江网站设计 成都商城网站建设 网站制作 四川成都网站制作 成都网站建设 成都网站建设 成都商城网站建设 成都网站设计公司 成都网站制作 企业网站设计 成都网站建设 成都网站建设 品牌网站建设 重庆企业网站建设