Singular数据目的地(ETL)是一项企业功能。 如果您有兴趣使用该功能,请联系您的客户成功经理。
Singular 可以将数据直接送入您的数据仓库、存储服务或商业智能平台,您可以使用自己的商业智能和可视化工具来处理和分析数据。
通过设置数据目的地,您可以定期将 Singular 数据推送到您的存储服务或平台,而不需要任何工程工作来实施 Singular 的报告 API 或处理内部 BI 回传。
故障排除
如果您使用的数据目的地具有包含跟踪器指标的自定义模式,它们可能会显示在单独的一行中。这是因为,默认情况下,数据目的地包含的字段可识别指标所通过的数据连接器(集成)。成本等网络指标是通过网络数据连接器提取的,而跟踪指标是从 Singular(如果 Singular 是你的MMP)内部提取的,或者是从第三方归因提供商的数据连接器提取的。
要将网络数据和跟踪器数据合并到同一行,例如,要同时查看一个营销活动的成本和收入数据,可以在数据库中执行查询,对数据进行分组,并排除数据连接器字段("data_connector_XXX")。
"有关 Singular 如何处理跟踪器和网络数据的更多信息,请参阅了解 Singular 报告数据。
有多种方法可以检查 ETL 状态:
- ETL 可用性 API 可帮助您检查数据目的地的更新状态。
- 进入 "设置">"数据目的地",查看 ETL 状态列。
- 在每个数据目的地中,都有一个名为 data_connector_timestamp_utc 的维度,该维度显示我们从网络中提取数据的时间戳。
- 在每个数据目标中,都有一个名为 etl_query_timestamp_utc 的维度,该维度显示我们在 ETL 中最后一次更新数据的时间。
注意:在连续 ETL 中,时间戳表示该行数据自上次时间戳后没有新数据进来。这意味着可能会有后续的 ETL 任务,但对于这一行数据,没有更新的必要。
常见问题
请参阅数据目的地:支持的平台。
数据类型 | 说明 | 包含的字段 |
---|---|---|
Aggregated Campaign Data | Ad spend (campaign cost), creative data, install and re-engagement stats, and other KPIs Singular pulls from ad networks and MMPs, broken down by source (network), app, os, country, and other dimensions. | See Data Destinations: Aggregated Data Schemas |
Aggregated Ad Monetization Data | Data about your ad revenue, ad requests, and ad impressions. For more information about Singular's ad monetization data, see the Ad Monetization Analytics FAQ. |
|
User-Level Data | User-level information from Singular's attribution logs, including attributions (conversions), in-app events, SKAN postbacks, and others. This data is available if you are using Singular's attribution service (for mobile, web, or cross-device). This data resembles what's you would see from the exported logs (see the Export Logs and User-Level Data FAQ). | See Data Destinations: User-Level Data Schemas |
User-Level Ad Revenue Data | If you are collecting user-level ad monetization data in Singular from mediation partners (see Ad Revenue Attribution FAQ and Troubleshooting), you can export it using this type of data destination. You can export data from IronSource and AppLovin. |
See Data Destinations: User-Level Ad Monetization Data Schema |
汇总数据 通常每 6 小时推送一次,而用户级数据每小时推送一次。 请注意,这并不一定代表数据的新鲜度,这取决于其他变量,包括 Singular 使用的数据源。
对于用户级数据,你可以预期 95% 的事件会在发生后 3 小时内导出到你的系统。少数事件的处理和导出可能需要更长的时间。
日期列显示汇总数据的查询日期。查询账户的时区设置会影响查询日期中包含的数据。
如果你的账户启用了数据目的地,你就可以通过数据目的地页面添加新的目的地:
- 登录 Singular 账户,进入设置 > 数据目的地。
- 单击 "添加新目的地",显示账户支持的目的地列表。标有 "用户级 "的目的地用于导出用户级数据。其他目的地用于导出汇总数据。
不过,在Singular中添加目的地之前,通常需要在合作伙伴平台中执行一些配置步骤,例如,赋予Singular向平台推送数据的权限。 有关设置特定数据目的地的说明,请在 "数据目的地 "部分查找所需目的地。
注意:确保将 Singular服务器 IP 列入白名单。
根据平台的安全设置,您可能需要将以下 Singular 服务器 IP 列入白名单,然后才能接收数据导出:
54.183.135.179/32 |
54.183.113.72/32 |
13.52.189.144/32 |
奇异数据目的地导出的每一行数据都没有唯一密钥。相反,数据是分区的,只要其中一个分区中的任何信息发生变化,Singular 就会用新分区完全替换现有分区。
在 S3 目的地中,每个分区都在一个单独的文件中。处理文件时,应查找已更改的文件,并用新数据完全替换现有数据。
分区密钥取决于数据类型:
Export Type | Partition Key |
Aggregate data (e.g. "S3 Destination") | Date |
User-level data (e.g. "S3 User-Level Destination") | Hour (etl_record_processing_hour_utc) |
Ad revenue user-level data (e.g. "S3 Ad Revenue User-Level Destination") | Date |