面对“数据管理与底层软硬件管理紧密耦合”、“数据/软硬件环境跨域协作困难”等问题,我们研发了PackOne工具,致力于实现以下三个目标:1. 云基础设施混合化(IaaS),支持创建横跨不同云平台(公有云、私有云)的计算机集群,支持集群节点间的跨云通信,解决计算、数据资源跨域协作困难的问题;2. 大数据引擎弹性化(PaaS), 以一致化的形式提供各类大数据引擎的快速部署和弹性伸缩能力,解决各类大数据引擎弹性伸缩策略的碎片化乃至缺失的问题;3. 全生命周期的Serverless数据管理服务,支持数据集的在线导入、加载到数据引擎、流水线分析(基于PiFlow)和导出,并最大限度地屏蔽底层软硬件管理工作,解决数据管理与底层软硬件管理紧密耦合的问题。
Piflow是一个基于分布式计算框架Spark开发的大数据流水线系统。该系统将数据的采集、清洗、计算、存储等各个环节封装成组件,以所见即所得方式进行流水线配置。简单易用,功能强大。它具有如下特性:1)简单易用:可视化配置流水线,实时监控流水线运行状态,查看日志;2)功能强大:提供100+的数据处理组件, 包括Hadoop 、Spark、MLlib、Hive、Solr、Redis、ElasticSearch、JDBC、MongoDB、HTTP、FTP、XML、CSV、JSON等,同时集成了微生物领域的相关算法;3)扩展性强:支持自定义开发数据处理组件;4)性能优越:基于分布式计算引擎Spark开发。