ー これは 2025年10月1日に Data Cloud コンサルタント資格を1週間で取ると決めた I の奮闘記です ー
こんにちは!I です。10/1 にData Cloud コンサルを1週間で取得するぞ、と心に決めた私。ゆえに受験日は10/8です。あと2日でData Cloud のコンサル取得は出来るのか!? 挑戦のスタートです!
【6日目の学習内容】
・過去問に取り組み
◆第21問◆
データレイクオブジェクト(DLO:Data Lake Object) について、正しいものはどれか?
A. DLO は、データストリームのセットアップ時に自動的に作成される。
B. DLO は SQL を使用して直接クエリすることができる。
C. DLO は Calculated Insights(計算済みインサイト)の結果を保存する。
D. DLO は管理者が手動でのみ作成できる。
答え:AとB
※Calculated Insights(計算済みインサイト)はCI専用のテーブルで別管理される
※DLOは自動作成されるものであり手動作成するものではない
◆第22問◆
Data Cloud を使って「過去1年間の累計購入金額」をもとに顧客をセグメント化したいと考えている。
この企業のデータモデルには、各取引金額と日付を含む 取引オブジェクト(Transaction Object) が存在している。このセグメント化を可能にするために、コンサルタントは Data Cloud のどの機能を推奨すべきか?
A. Data Stream(データストリーム)
B. Data Lake Object(データレイクオブジェクト)
C. Calculated Insights(計算インサイト)
D. Identity Resolution(ID解決)
答え:C
※セグメントしたい場合に計算が必要か必要なじゃないかがポイント。これが過去1年間で購入をしたことのある顧客、という指定であれば過去1年間に購入レコードがある顧客を抽出すれば良いので計算済みインサイトは必要ないが、過去1年間の”累計購入金額”が必要=過去1年間のレコード内項目値の合計が必要となるため、計算済みインサイトが推奨される
◆第23問◆
Data Cloud に保存されている「最新の購入日(most recent purchase date)」に基づいて、顧客ごとにパーソナライズされたメールを送信したい。このパーソナライゼーションを実現するために、使用すべき Data Cloud の機能はどれか?
A. Identity Resolution(ID解決)
B. Activation Target(アクティベーションターゲット)
C. Calculated Insights(計算済みインサイト)
D. Data Stream(データストリーム)
答え:B
◆第24問◆
ある企業は、CRM や EC プラットフォームなど、複数のデータソースを Data Cloud に接続しているが、
メールアドレスがソースごとに異なるために、同一人物なのに複数のプロファイルが作成されてしまっていることに気づいた。レコードを正しく統合するため、Data Cloud 管理者はどの設定を行うべきか?
A. 複数のマッチング条件を用いた Identity Resolution(ID解決)ルールを設定する。
B. メールアドレスをキーにした Activation Target を設定する。
C. 重複レコードを見つける Calculated Insights を作成する。
D. メールアドレスを標準化する Data Stream の変換を設定する。
答え:A
◆第25問◆
Data Cloud 管理者が、Amazon S3 バケットから顧客の毎日のアクティビティファイルを取り込むための データストリーム(Data Stream) を作成したいと考えている。ファイル名には日付が含まれており activity_2025-10-05.csv のような形式である。毎日ファイルが追加される度、設定を更新せずに自動で新しいファイルを取り込めるようにするにはどのようにデータストリームを構成すればよいか?
A. ワイルドカード(例:activity_*.csv
)を使ったファイル名パターンを設定する。
B. 各ファイルを手動でアップロードするスケジュールを設定する。
C. 毎日のファイルごとに新しいデータストリームを作成する。
D. Calculated Insights を使ってファイルを毎日処理する。
答え:A
◆第26問◆
Data Cloud における アクティベーション(Activation) について、正しい説明はどれか?
A. Activation を使うと、Data Cloud のデータを外部システムに送信できる。
B. Activation はスケジュール実行で設定できる。
C. Activation は重複レコードを解決するために使用される。
D. Activation は計算済みインサイトを作成するために必要である。
答え:AとB
※重複レコードの解決はID解決の役割
※計算済みインサイトはData Cloud 内でのデータ集計・加工機能でありActivation(外部連携機能)ではない
◆第27問◆
Data Cloud における Identity Resolution(ID解決) の マッチ率(Match Rate) を向上させるために有効なアクションは、次のうちどれか?
A. メールアドレス以外の属性を使ったマッチングルールを追加する。
B. データ保持期間を短縮して、古いレコードを減らす。
C. 電話番号や名前などのデータ項目を正規化(Normalization)する。
D. 異なるデータソースごとに複数の Activation Target を作成する。
答え:AとC
◆第28問◆
Data Cloud 管理者が、「過去6か月間に3回以上購入を行った優良顧客(High-Value Customers)」のセグメントを作成したいと考えている。このセグメント化を実現するために使用すべき Data Cloud の機能はどれか?
A. Data Stream(データストリーム)
B. Calculated Insights(計算済みインサイト)
C. Activation Target(アクティベーションターゲット)
D. Data Lake Object(データレイクオブジェクト)
答え:B
※Activation Targetは外部連携する機能であり、セグメントを指すものではない
◆第29問◆
Data Cloud 管理者が、Identity Resolution(ID解決)が期待どおりにレコードをマッチしていないことに気付いた。調査したところ、電話番号がデータソースごとに異なるフォーマットで保存されていることが原因の様子。マッチングを改善するために、管理者はどうすべきか?
A. データカバレッジを増やすためにデータストリームを追加する。
B. 計算フィールド(Calculated Field)を使って電話番号を正規化(Normalize)する。
C. データ保持期間を短縮して古いレコードを削除する。
D. 各データソースごとに追加のアクティベーションターゲットを作成する。
答え:B
◆第30問◆
Data Cloud を使って、過去90日以内に「オンライン」と「店舗(In-store)」の両方で購入した顧客をセグメント化したいと考えている。オンライン購入と店舗購入のデータは、それぞれ別のデータソースに保存されている。このセグメント化を実現するために使用すべき Data Cloud の機能はどれか?
A. Identity Resolution(ID解決)
B. Calculated Insights(計算済みインサイト)
C. Data Stream(データストリーム)
D. Data Lake Object(データレイクオブジェクト)
答え:A
※異なるデータソースを統合する機能=ID解決であり、統合されたデータセットに対し集計処理をするものが計算済みインサイトである。
・ネット上に公開されているテストにチャレンジ
●ネット上に公開されている以下のテストにチャレンジ
https://www.jpnshiken.com/shiken/Salesforce.Data-Cloud-Consultant.v2024-12-02.q93.html
・テスト振り返り
・固有IDとは別の識別子(例:ロイヤルティID)を使用してプロファイルを統合したい場合は、Party Identification(パーティ識別オブジェクト)に識別子を格納し、ID解決(Identity Resolution)の完全一致ルールをこの識別子に対して設定することで、同一の識別子を持つ複数レコードを1つのプロファイルに統合できる。
・エンゲージメントベースの関連属性=顧客の「行動(エンゲージメント)」データをもとにして、他のデータ(セグメントやアクティベーションなど)に関連付けて使える属性。行動=メールの開封・クリック・サイト訪問・購買等を指す。
・セグメントの作成に使用する「抽出対象のDMO」はプロファイルカテゴリである必要がある。
EngagementカテゴリやOtherカテゴリのDMOは、抽出の「対象」にはできない。(絞り込み条件(フィルタ)としては利用できる。)
・DMOのカテゴリは最初にマッピングしたDLOのカテゴリによって決定し後から変更はできない
・S3から毎日アップロードされる標準化された命名規則のファイルをData Cloudに取り込む場合、Data Cloud側でファイル名にワイルドカード(*)を設定しておくことで、日々ファイル名が変わっても自動的に認識でき、取り込み漏れを防ぐことができる。
・Data Cloud のファイル取り込みには「Upsert」と「完全更新(Full Replace)」の2種類があり、差分データを追加・更新したい場合は「Upsert」を使用する。
・計算済みインサイト(Calculated Insight)では、分析対象を定義するためにディメンション(集計の軸)とメジャー(集計・計算する数値)を設定する。尚、ディメンションを一度定義すると削除できない。
・過去に特定のセグメントに属していた人を抽出・分析するには、セグメントメンバーシップ データモデルオブジェクト(Segment Membership DMO)を参照する必要がある。計算済みインサイトでは、過去にセグメントに所属していたかどうかは判別できない。
ー 6日目の学習はここまでです。残り1日です! ー