数据总线DataHub服务

_相关内容

DataHub服务关联角色

本文为您介绍DataHub服务关联角色(AliyunServiceRoleForDataHub)的应用场景以及如何删除服务关联角色。DataHub服务关联角色 本文为您介绍DataHub服务关联角色(AliyunServiceRoleForDataHub)的应用场景以及如何删除服务关联角色。背景...

DataHub-Dataworks Connection服务关联角色

本文为您介绍DataHub-Dataworks Connection服务关联角色(AliyunServiceRoleForDataHubDWConnection)的应用场景以及如何删除服务关联角色。DataHub-Dataworks Connection服务关联角色(AliyunServiceRoleForDataHubDWConnection)是在选择...

服务等级说明

服务等级说明 数据总线服务等级协议 本服务等级协议(Service Level Agreement,以下简称“SLA”)规定了阿里云向客户提供的数据总线(简称“数据总线”)的服务可用性等级指标及赔偿方案。1.定义 1.1 服务周期 一个服务周期为一个自然月。...

产品概述

数据总线 DataHub服务可以对各种移动设备,应用软件,网站服务,传感器等产生的大量流式数据进行持续不断的采集,存储和处理。用户可以编写应用程序或者使用流计算引擎来处理写入到数据总线 DataHub的流式数据比如实时Web访问日志、应用...

服务条款

服务条款 本服务条款是阿里云计算有限公司(以下简称“阿里云”)与您就阿里云服务网格的相关事项所订立的有效合约。您通过盖章、网络页面点击确认或以其他方式选择接受本服务条款,包括但不限于未点击确认本服务条款而事实上使用了阿里...

数据总线 DataHub

阿里云流式数据服务DataHub是流式数据(Streaming Data)的处理平台,提供对流式数据的发布(Publish),订阅(Subscribe)和分发功能,让您可以轻松构建基于流式数据的分析和应用。

新功能发布记录

用户指南 Topic操作 DataHub服务管理角色 创建OSS/OTS/FC的数据同步时,选择STS鉴权方式,则会自动创建DataHub服务管理角色(之前为页面上手动授权)数据同步 DataHub服务关联角色 Schema新建时支持添加注释 创建Scheme表结构支持添加字段...

查看同步任务

DataHub DataConnector是把DataHub服务中的流式数据同步到其他云产品中的功能,目前支持将Topic中的数据实时/准实时同步到MaxCompute(ODPS)、OSS、ElasticSearch、RDS Mysql、ADS、TableStore中。用户只需要向DataHub中写入一次数据,并在...

创建同步OSS

准备OSS Bucket DataHub支持将数据同步到对象存储OSS中,在创建同步任务前,用户首先需要在OSS管控台创建OSS Bucket,作为DataHub数据同步的目标Bucket。2.服务关联角色授权 用户配置同步任务时,账号可以选择使用 AccessId/AccessKey 静态...

概述

DataHub数据同步功能 DataHub提供数据Sink/Source功能,即数据同步功能,DataHub支持将对应Topic中的数据 实时/准实时 的同步到第三方阿里云产品中,打通阿里云产品间的数据流通。目前支持MaxCompute(原ODPS)、分析型数据库MySQL(ADS)、...

创建同步TableStore

选择同步TableStore并填写相关配置:在DataConnector页面查看数据归档状态:配置说明 名称 是否必须 描述 TableStore Endpoint yes TableStore服务内网地址 TableStore实例名 yes TableStore实例名 TableStore表名 yes 同步到TableStore的...

创建同步RDS/MySQL/ADS3.0

2.RDS白名单和内网地址 用户使用DataHub同步功能时,需要在RDS管控台中配置IP白名单以便DataHub服务访问用户RDS服务,DataHub服务对应的IP白名单地址域参考 IP白名单 同样,在创建DataHub同步任务时,用户需要填写RDS内网地址以确保网络...

创建同步Fc

2.服务关联角色授权 当选择STS临时账号方式时,将会自动创建 DataHub服务关联角色,DataHub服务会使用此角色访问Fc以完成数据同步 3.创建DataHub Topic 参见 Web控制台操作指南 4.创建DataHub FunctionCompute Connector 4.1 进入Topic详情...

快速入门

步骤一:开通DataHub服务 登录 DataHub服务控制台。根据页面提示开通服务。步骤二:创建Project和Topic 登录 DataHub服务控制台。单机 新建项目 按钮 后填写相关信息进行创建。参数 描述 Project 项目(Project)是DataHub数据的基本组织...

Go SDK

Go SDK介绍 快速上手 DataHub相关的基本概念 详情参见 DataHub基本概念 准备工作 访问DataHub服务需要使用阿里云认证账号,需要提供阿里云accessId及accessKey。同时需要提供可访问的DataHub服务地址。获取Datahub Go SDK包 go get-u-...

常见问题

如何删除Topic中的数据 datahub目前不支持删除Topic中的数据,建议采用重置点位来让数据失效。在配置所定义的OSS路径下以随机文件名创建文件,每个Shard对应一个文件,当文件大小达到5GB时,将创建新文件,可以修改吗?不能修改 ADS无法...

权限控制

AliyunDataHubReadOnlyAccess 只读访问DataHub服务的权限,可以查看DataHub所有的资源情况,例如查看project详细信息,列出project列表,读数据等等,但是不能更新、创建以及写数据。AliyunDataHubSubscribeAccess 向DataHub订阅数据的权限...

Python SDK

print("=")except Exception as e:print(traceback.format_exc())sys.exit(-1)Topic操作 Tuple Topic Tuple类型Topic写入的数据是有格式的,需要指定Record Schema,目前支持以下几种数据类型:类型 含义 值域 Bigint 8字节有符号整型。...

console命令工具

无 datahub.endpoint 是 DataHub服务的连接地址。您需要根据创建DataHub项目时选择的地域以及网络连接方式配置Endpoint。各地域及网络对应的Endpoint值,请参见 endpoint https://dh-cn-hangzhou.aliyuncs.com 运行console客户端 console...

Java SDK

配置描述:DatahubConfig 名称 描述 endpoint DataHub服务地址。account 阿里云账号信息。enableBinary 是否采用二进制传输,服务端从2.12版本开始支持,之前版本需设置为false,专有云使用时出现错误Parse body failed,Offset:0,尝试设置...

C++ SDK

Project操作 项目(Project)是DataHub数据的基本组织单元,下面包含多个Topic。值得注意的是,DataHub的项目空间与MaxCompute的项目空间是相互独立的。用户在MaxCompute中创建的项目不能复用于DataHub,需要独立创建。创建project void ...

Flume插件

产品介绍 Flume-DataHub插件是基于Flume开发的DataHub数据订阅/发布插件,可以将采集到的数据写入DataHub,也可以从DataHub读取数据写入其他系统。该插件遵守Flume插件开发规范,安装方便,可以很方便的向DataHub发布/订阅数据。产品安装 ...

LogStash插件

上传至DataHub请使用:DataHub Logstash Output插件 logstash-output-datahub-1.0.10.gem 适配Logstash 6、7 logstash-output-datahub-1.0.12.gem 适配Logstash 8 下载DataHub数据请使用:DataHub Logstash Input插件 logstash-input-...

数据库实时导入DataHub

为了更加方便让数据数据实时导入到DataHub,联合数据集成一起开发了“数据库实时导入到DataHub”,尽量简化数据流入DataHub的流程。整体流程如下:使用图解 主账号使用方式:打开公有云DataHub Console,选择对应的Project,点击右上角的...

Shard操作

使用场景 DataHub具有服务弹性伸缩功能,用户可根据实时的流量调整Shard数量,来应对突发性的流量增长或达到节约资源的目的。例如在双11大促期间,大部分Topic数据流量会激增,平时的Shard数量可能完全无法满足这样的流量增长,此时可以对...

创建同步MaxCompute

1)针对TUPLE类型topic,MaxCompute目标表数据类型需要和DataHub数据类型相匹配,具体的数据类型映射关系如下:MaxCompute DataHub BIGINT BIGINT STRING STRING BOOLEAN BOOLEAN DOUBLE DOUBLE DATETIME TIMESTAMP DECIMAL DECIMAL ...

功能特性

Datahub数据总线 功能集 功能 功能描述 参考文档 数据接入 API接入 使用REST API方式,将数据写入Datahub API参考 SDK接入 使用SDK将数据传入Datahub Java SDK C++ SDK Go SDK Python SDK 插件接入 使用插件将数据传入Datahub LogStash插件...

云监控报警

DataHub目前已经支持云监控报警,你可以通过创建报警规则方式对DataHub相关指标进行监控并报警,目前支持 订阅延迟、消费延迟、消费堆积量。查看监控数据 您可以在DataHub的监控页面,查看资源的运行状态和各个指标的使用情况。登录 云监控...

Fluentd插件

sudo gem install-local fluent-plugin-datahub-0.12.25.gem 使用案例 案例一:CSV文件上传 下面以增量的CSV文件为例,说明下如何使用Fluentd将增量的CSV文件准实时上传到DataHub数据。CSV文件的格式如下所示:0,qe614c760fuk8judu01tn5x...

OGG for Oracle介绍

INTEGER BIGINT BINARY_FLOAT/BINARY_DOUBLE DOUBLE/DECIMAL FLOAT DOUBLE/DECIMAL date/timestamp TIMESTAMP/STRING 如果DataHub数据类型为TIMESTAMP,会自动转换为微秒时间戳 raw STRING raw字段会自动进行BASE64编码写入到DataHub 以上...

同步任务修改

DataHub 页面现在已经支持同步字段修改,用户可以在页面上进行同步字段的修改,无需重启。同步任务字段修改 DataHub 页面现在已经支持同步字段修改,用户可以在页面上进行同步字段的修改,无需重启。具体步骤如下:在数据同步页签,点击...

创建同步Hologres

default:将Datahub数据逐条写入Hologres dts_old:不启用新的附加列规则 dts:启动新的附件列规则 导入字段 需要导入Hologres的字段。可以根据实际业务需求选择导入部分或全部字段。鉴权模式 默认为AK。无 AccessId 访问Hologres实例的...

Project操作

创建Project 控制台地址 DataHub WebConsole 创建Project 在WebConsole中直接点击创建Project后填写相关信息,注意同一个Region内...需要注意的是,一旦删除Project,该Project下所有Topic,数据,及资源均被删除,无法恢复,请谨慎操作。

OGG for Bigdata(Kafka)

对于Oracle19c及以下的版本均可以支持,目前OGG for Bigdata可以将数据写入Kafka,而DataHub已经兼容Kafka Producer协议,所以用户除了使用DataHub插件将Oracle数据写入DataHub之外,还可以使用OGG for Bigdata利用DataHub的Kafka接口写入...

Canal插件

canal[kə’næl],译意为水道/管道/沟渠,主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费。早期阿里巴巴因为杭州和美国双机房部署,存在跨机房同步的业务需求,实现方式主要是基于业务 trigger 获取增量变更。从 2010 ...

指标查看

DataHub的管理控制台为您提供了多种指标,您可以通过Topic详情页面查看 读写请求、实时流量、历史流量 等信息,本文为你介绍相关指标的含义。Metric指标 QPS:读写Request/Second RPS:读写Record/Second Throughput:读写Throughput/...

创建同步ADS

2.同步说明 1)目前DataHub仅支持将TUPLE数据同步到ADS服务中2)ReplaceInto与IgnoreInto:ReplaceInto模式下,会使用replace into语句将数据插入,反之,IgnoreInto会使用insert方式插入数据库(replace into将根据主键覆盖记录,ignore ...

OGG for Big Data

一、环境要求 Oracle数据库,19c及以下数据库,版本不可高于源端OGG 源端,Oracle GoldenGate 19.1.0.0 目标端,Oracle GoldenGate for Big Data 19.1.0.0 OGG官方下载地址 备注:本文示例均已OGG19.1为例,其他支持版本可参看文末版本说明 ...

OGG Adapters

一、环境要求 源端已安装好Oracle11g(当前插件版本仅支持ORA11g数据库)源端已安装好OGG(建议版本Oracle GoldenGate V12.2.0.2,V12.2.X均可以使用)目标端已安装好OGG Adapters(建议版本Oracle GoldenGate Application Adapters V12.2....
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用