代码如下
try {
groupNode = new CheckNode("群");
groupNodes.add(groupNode);
rosterNode.add(groupNode);
manager = BookmarkManager.getBookmarkManager(SparkManager.getConnection());
Collection<BookmarkedConference> lists = manager.getBookmarkedConferences();
for(BookmarkedConference bookMark:lists){
// if(bookMark.isAutoJoin()){//只能向自动登录的房间发送消息
CheckNode itemNode = new CheckNode(bookMark.getName());//群名称节点
groupNode.add(itemNode);
for (int i = 0; i < 1; i++) {
Map<String, Affiliate> mbs =ConferenceUtils.getAllMembersInRoom(bookMark.getJid());//得到群聊房间的所有用户
Set<String> keys = mbs.keySet();
Iterator<String> iter2 = keys.iterator();
while (iter2.hasNext()) {
String key = iter2.next();
Affiliate affiliate = mbs.get(key);
if (affiliate == null)
return;
String jid = affiliate.getJid();
String nickName =getNickName(jid);
CheckNode gNode = new CheckNode(nickName, false, null);//群成员节点
gNode.setAssociatedObject(jid);//设置节点值
itemNode.add(gNode);
nodes.add(gNode);//加入到所有的checkbox选项中
}
}
}
// }
} catch (XMPPException e1) {
// TODO Auto-generated catch block
e1.printStackTrace();
}
获取用户昵称代码:
private String getVcardName(String participantJID, String nickname,
String hostName) {
try {
VCard v = new VCard();
v.load(SparkManager.getConnection(), participantJID);
nickname = v.getFirstName();
if (nickname == null || nickname.equals("")) {
nickname = participantJID.substring(0,
participantJID.indexOf("@"));
}
} catch (XMPPException e) {
e.printStackTrace();
}
return nickname;
}
效果图:
注意:必须为登录后自动连接的群才可以获取所有用户
- 大小: 57 KB
分享到:
相关推荐
大数据Spark二次开发.pdf
是openfire的spark 不是大数据的下载的请注意,内容包括spark最新源码以及二次开发入门教程
大数据资料PPT Spark(二次开发篇) Hive(二次开发篇) HBase(二次开发篇 HDFS(二次开发篇)
spark+openfire二次开发,包括配置基本插件实现等等
spark-2聊天客户端,可二次开发,可通过openfire一起使用,
spark+openfire二次开发文档
NULL 博文链接:https://huxj62488.iteye.com/blog/617826
spark 源码工程部署缺少的3个jar包
1、项目中全面覆盖了Spark Core、Spark SQL和Spark Streaming这三个技术框架几乎全部的初级和高级的技术点和知识点, 让学员学以致用,通过一套课程,即掌握如何将Spark所有的技术点和知识点应用在真实的项目中...
Spark开发指导文档
收集的Spark快速大数据开发Demo,非常不错的学习资料。
一个完善的Spark Streaming二次封装开源框架,包含:实时流任务调度、kafka偏移量管理,web后台管理,web api启动、停止spark streaming,宕机告警、自动重启等等功能支持,用户只需要关心业务代码,无需关注繁琐的...
Spark大型项目实战—基于spark电商用户可视化行为分析大数据平台开发实战.zip该平台以 Spark 框架为核心, 对电商网站的日志进行离线和实时分析。 该大数据分析平台对电商网站的各种用户行为( 访问行为、购物行为、...
在自己的机器上配置spark的本地开发模式,可以用来测试spark代码是否正确,如果没问题,可以提交到spark集群上去运行,免去每次都要打包放到集群上去测试的麻烦。因为在网络上没找到合适的资源可以快速构建,所以就...
spark程序一般使用scala开发,此代码是java开发spark的示例代码。
本次项目是基于企业大数据经典案例项目(大数据日志分析),全方位、全流程讲解 大数据项目的业务分析、技术选型、架构设计、集群规划、安装部署、整合继承与开发和web可视化交互设计。
2、《Spark开发环境配置及流程(Intellij_IDEA)》 3、《spark官方文档中文版》 4、《Spark 入门之 Scala 语言解释及示例讲解》 5、《Scala编码规范》 总结: Hadoop MapReduce会被新一代的大数据处理平台替代是...
本使用kafka,spark,hbase开发日志分析系统。 ![architecture](/docs/images/architecture.png "architecture") ### 软件模块 * Kafka:作为日志事件的消息系统,具有分布式,可分区,可冗余的消息服务功能。...
windows10下spark2.3.0本地开发环境搭建 win10上部署Hadoop非Cygwin、非虚拟机方式。安装目录为D:\setupedsoft。涉及相关组件版本: win10 家庭装,64位,x86处理器 JDK1.8.0_171 hadoop-2.7.6 Spark-2.3.0 Scala-...
spark,大数据,sparksql, spark python, scala , java spark , shark