数据治理 Data Studio
Data Studio 是数据资产定义、加工、管理、服务的全流程平台,提供数据同步、数据查询、数据标准、数据建模、数据加工、质量评估、标签构建、资产管理、数据服务、画像分析等功能,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。
数据服务
支持流控策略、访问策略、报警策略、行/列级权限设置,为API使用提供安全保障,使得不同应用可以放心共享API服务;同时资源组相互隔离,API调用互不影响,为API稳定使用提供保障;API调用和传输支持加密,让API的使用更加安全。
一站式自助数据服务平台,解决取数易用性问题
平台秉承“配置即服务”的理念,数据开发工程师不再需要重复写代码开发数据接口,只需要在平台上进行简单配置,平台便可自动生成和发布数据API;数据使用者可以通过API集市查看发布的API调用说明并申请API使用权,极大改善了数据交付过程中的效率、质量、安全问题。
多重管控,解决API服务安全问题
支持流控策略、访问策略、报警策略、行/列级权限设置,为API使用提供安全保障,使得不同应用可以放心共享API服务;同时资源组相互隔离,API调用互不影响,为API稳定使用提供保障;API调用和传输支持加密,让API的使用更加安全。
数据同步
提供批量、实时多源异构数据的便捷同步或接入能力,提供完善的数据接入配置、任务运行监控等功能,有效保障数据接入的稳定性和可控性,满足各类平台、数据源及应用系统间的数据汇聚需求。
插件化扩展机制,支持丰富的异构数据源
数据传输使用插件化扩展机制,对新的数据源具备强大的扩展能力,目前已支持涵盖关系型数据库、大数据存储、半结构化存储、NoSQL、消息队列类型的20+种数据源的读写任意组合。
产品化解决方案,支持多种数据传输经典场景
针对增量抽取、分库分表、整库同步、数据脱敏等经典场景均提供了解决方案,通过简单的界面配置即可完成复杂的数据传输过程。
权限管控,支持多重安全管控策略
用户使用数据、配置相关的传输任务都需要获取相应的权限后才能操作。开发与生产环境隔离,用户对开发环境任务的变更不影响线上任务的正常运行。
高性能,最大化提高传输效率
数据传输底层采用 Flink 计算框架,可以充分利用集群资源横向扩展并行度,轻松面对海量数据场景。
数据质量
根据用户设置的数据质量规则执行面向不同计算资源的质量检查任务;通过数据质量监控报告,查看系统整体数据质量概览及多维度细分数据的质量情况。
多任务模式,解决数据源任务质量监控问题
支持多种数据源类型的任务进行单表质量监控任务和多表数据比对任务,实现数据质量统一管理。
丰富的规则预置模板,灵活的规则自定义配置
丰富的规则预置模板,灵活的规则自定义配置:监控规则配置灵活,覆盖面广,支持模板规则、自定义SQL规则;同时具备多数据源类型SQL语言精准解析,辅助快速完成规则的设置。
事前定义、事中监控、事后回溯,全流程把控数据质量
通过事前定义数据的监控规则、事中监管数据的生成过程以及事后数据评估和问题追溯过程,把控高质量的数据。
数据标准
通过数据标准的管理功能,模型设计者可通过设计标准数据元素,定义关键业务对象、业务对象属性及值域,规范标准数据字典,制定并管理平台遵循的统一数据标准,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。
规范标准制定,紧密贴合业务诉求
除默认配置外,支持用户基于系统现有属性对数据标准定义过程中的数据元选项进行配置;同时支持自定义为数据元附加属性,灵活贴合业务场景诉求。
数据标准与数据质量规则相关联
确保质量规则的统一性和准确性:数据标准是数据质量规则的主要参考依据,可以实现字段级的数据质量校验,也可以直接构建较为通用的数据质量规则体系,确保规则的统一性和准确性。
基于数据标准的规范化建模,保证模型建设的标准和统一
数据标准构建统一表名规范、字段命名规范、格式、类型、值域等规范,构建模型时引用统一标准,确保模型建设的标准性、统一性。
数据标准与数据开发相结合,统一开发规范
根据数据元挂载情况自动生成字段映射关系,生成对应脚本,根据关联的规则生成质量检测任务。
数据标签
从大数据应用落地点出发,提供了将治理后的数据以业务化视角进行建模、查看、管理及使用,并提供业务衍生标签的自定义功能,为上层应用提供统一的标签数据目录和标签调用接口,沉淀上层应用制作的模型标签,实现高价值标签共享复用,形成标签运营生态。
面相业务场景的标签体系构建能力
提供低门槛“宽表”构建能力,帮助上层应用构建业务模型,输出标签库和标签服务。跨存储类型的数据源整合,降低数据同步运维成本。零脚本积累标签画像资产,提高运营效率。
精准画像分析
客群画像分析,通过丰富标签,深入用户洞察,圈定目标群体,并实现精准画像的大数据分析。可沉淀的数据接口,快速集成标签数据、画像报告至各业务系统。
数据建模
支持帮助用户完成数据模型、逻辑表建模的设计和管理。用户可对数据模型的层次结构进行管理,并对逻辑表字段进行设计。字段设计需要在数据标准的约束下,通过模型设计过程中引用标准数据元定义,保证不同的逻辑表设计人员按照统一口径进行操作。
多主题域数仓分层,业务技术双纬度切分
遵循数仓建设技术标准划分不同表分层,并结合业务实际划分不同主题域,使数据的业务含义能够一一对应并得到直观的体现,实现业务逻辑的技术落地。
引用标准进行建模,效率与质量同步把控
建模时通过引用标准建立字段,保证了命名规范的同时也提供了质量的依据。
多数据源类型支持,建立数据全链路规范
企业已存在的外部数据源的数仓,支持统一抓取进行管理,新建业务系统的数据表设计也可将平台的统一数据标准进行应用。
数据资产
基于元数据管理,实现数据资产化管理的平台,支持元数据管理,包括元数据采集,数据血缘构建等;支持数据资产运营,为用户提供数据资产编目、上线、下线等能力;支持数据资产申请、服务和共享。
完善的元数据发布流程,保证元数据统一管理
完善的数据发布流程,将元数据根据元模型进行采集、注册以及发布。
统一的元数据中心,解决元数据缺失问题
将元数据和标准、质量、模型等子产品进行打通,丰富元数据内容的同时,方便数据资产消费者更好的了解数据。
丰富的数据查询功能,帮助业务人员更好了解数据
支持表元数据信息、字段信息、血缘信息的展示。和模型设计相结合,可通过主题域和分层方式展示表方便查询。支持表的收藏订阅,已关注的表发生变化时,通过邮件进行通知。
数据开发
数据开发为用户提供一站式计算节点开发能力,通过对数据加工流程的开发和运行调试等环节的一体化管理,数据开发实现数据加工工作流编排、加工逻辑的复用,大幅提高数据开发效率。
丰富的节点类型,逻辑节点无缝连接
支持多种数据源类型的SQL,同时支持spark、hive、script、数据传输等多种任务类型。
强大的调度功能,支持多种调度模式
支持多模型的调度设置,支持周期、crontab、以及自定义日历的调度模式;支持任务、节点之间的跨流依赖,支持任务串行、并行、自依赖等调度实例并发逻辑,适配不同数据产出迭代逻辑。
完善的发布管控,对关键节点设置审批流程
结合DataOps方法论打造大数据场景的CI/CD DevOps,提供数据测试、配置检查、自助分析、影响审批策略、任务发布等功能,保障数据质量的同时提高了数据开发的效率。
支持离线/实时数据传输,周期同步任务调度统一管理。
离线、实时多类型计算节点,支持不同类型计算节点在同一个任务流中混合编排调度。
可视化ER模型设计,自动生成物理表DDL; 数据标准贯彻到模型、质量检查的全过程; 自定义表属性、自定义数据元属性等元模型设计。
多种类型数据源自定义表及字段质量规则配置; 多维度数据质量评估,可视化质量评估报告。
支持资产的目录搜索和详情展现,资产的使用申请和审批管理,字段粒度的端到端数据血缘追踪。
支持向导模式和SQL模式等的服务封装、 简单身份认证和加密签名身份认证模式、 数据服务调用流量管控。
提供低门槛“宽表”构建能力,帮助上层应用构建业务模型,输出标签库和标签服务; 零脚本积累标签画像资产,将数据开发与高频业务运营实现解耦,提高运营效率。
通过丰富标签,深入用户洞察,圈定目标群体,并实现精准画像的大数据分析;灵活配置交互式界面,支持多维透视、群体计算等热门分析模型。
快速构建数据仓库,有效治理数据质量,实现政企客户各部门数据的业务协同和共享。
通过数据同步功能,将不同业务系统数据汇聚到统一的存储计算引擎,实现数据的初步融合。
管理数据标准和构建数据模型,将数据标准贯彻到数据质量分析、保障及检查的全过程中,确保数据的完整性、一致性、准确性和可用性。
通过数据建模模块提供的各种数据开发工具,实现数据的清洗、加工和转换。
通过资产运营功能实现资产的注册、编目、上架,在资产中心方便各个部门的使用人员搜索数据资源并申请数据权限。
微信扫码立享一对一服务
添加客服微信获取专属服务
立即扫码添加客服
扫码关注微信订阅号
关注我们获取最新资讯
扫码关注微信服务号
关注我们获取更多优质服务