プロパティ | 説明 |
---|---|
名前 | ストリーミング取り込みとレプリケーションタスクの名前。 ストリーミング取り込みとレプリケーションタスクの名前は組織内で一意である必要があります。タスク名には、英数字、スペース、およびアンダースコアを含めることができます。名前の先頭には英字またはアンダースコアを指定する必要があります。 タスク名は大文字と小文字を区別しません。 |
場所 | タスクを保存するプロジェクトフォルダ。 |
ランタイム環境 | Secure Agentを含むランタイム環境。Secure Agentがタスクを実行します。 ストリーミング取り込みおよびレプリケーションタスクの場合、Cloud Hosted Agentはサポートされておらず、[ランタイム環境]リストに表示されません。サーバーレスランタイム環境もサポートされていません。 |
説明 | オプション。タスクの説明。最大長は4,000文字です。 |
プロパティ | 説明 |
---|---|
接続 | Amazon KinesisStreamソース接続の名前。 |
接続タイプ | Amazon Kinesis接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
ストリーム | データの読み取り元のKinesis Streamの名前。 |
プロパティ | 説明 |
---|---|
GUIDをDynamoDBテーブル名に追加 | Amazon DynamoDBテーブル名にサフィックスとしてGUIDを追加するかどうかを指定します。無効になっている場合は、Amazon DynamoDBテーブル名を入力する必要があります。デフォルトでは有効になっています。 |
Amazon DynamoDB | Kinesisソースデータのチェックポイントの詳細を保存するAmazon DynamoDBテーブル名。 Amazon DynamoDBテーブル名は自動的に生成されます。ただし、選択した名前を入力すると、ストリーミング取り込みとレプリケーションタスクは、自動生成された名前の前に指定された名前をプレフィックスとして付けます。 |
プロパティ | 説明 |
---|---|
接続 | AMQPソース接続の名前。 |
接続タイプ | AMQP接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
キュー | ストリーミング取り込みとレプリケーションタスクがメッセージを読み取る既存のAMQPキューの名前。このキューは、AMQP管理者によって事前定義されています。 |
自動確認メッセージ | TrueまたはFalseを選択できます。Trueを選択すると、AMQPブローカは受信したメッセージを自動的に確認します。 |
バッチサイズ | 1回のセッションでプルする必要のあるメッセージの最大数。 デフォルトは10メッセージです。 |
プロパティ | 説明 |
---|---|
接続 | Kafkaソース接続の名前。 |
接続タイプ | Kafka接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
トピック | イベントの読み取り元のEvent Hubsの名前。 トピック名を手動で入力するか、Kafka対応のEvent Hubs接続の作成済みメタデータを取得できます。
使用可能なすべてのトピックを示す[ソースオブジェクトの選択]ダイアログボックスが表示されます。 |
プロパティ | 説明 |
---|---|
コンシューマ設定プロパティ | コンシューマがKafkaに接続するための設定プロパティのカンマ区切りリスト。キーと値のペアとして値を指定します。例: key1=value1, key2=value2 Kafkaコンシューマのgroup.idプロパティは自動生成されます。このプロパティは上書きできます。 |
プロパティ | 説明 |
---|---|
接続 | Business 360 Events接続を選択し、Business 360データストアからイベントを読み取るようにします。 |
接続タイプ | 接続タイプ、つまりBusiness 360 Eventsです。 注: この属性を変更することはできません。 |
ビジネスオブジェクト | データの読み取り元のパブリッシュイベントアセットを選択します。 |
プロパティ | 説明 |
---|---|
接続 | フラットファイルソース接続の名前。 |
接続タイプ | フラットファイル接続タイプ。 接続タイプは、選択した接続に基づいて自動的に表示されます。 |
初期開始位置 | テールするファイル内でデータを読み取る際の開始位置。読み取りを開始する次のいずれかの位置を選択できます。
|
テーリングモード | ロギングパターンに基づいて、1つまたは複数のファイルをテールします。 次のいずれかのモードを選択します。
|
ファイル | 読み取るファイルの名前の絶対パス。 テールするファイルの名前、またはテールするファイルを見つけるための正規表現。複数ファイルモードのベースディレクトリを入力します。 |
接続プロパティ | 説明 |
---|---|
ローリングファイル名パターン | ロールオーバーするファイルの名前パターン。 テールするファイルがロールオーバーする場合、ファイル名パターンは、ロールオーバーされたファイルを特定するために使用されます。基盤となるストリーミング取り込みSecure Agentはこのファイルパターンを認識します。Secure Agentが再起動し、ファイルがロールオーバーされると、中断したところから再開します。 アスタリスク(*)と疑問符(?)をワイルドカード文字として使用し、ファイルが同じディレクトリにロールオーバーされることを示すことができます。例: ${filename}.log.*。ここで、アスタリスク(*)は、ファイル名に追加される連続するバージョン番号を表します。 |
プロパティ | 説明 |
---|---|
接続 | Google PubSubソース接続の名前。 |
接続タイプ | Google PubSub接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
サブスクリプション | メッセージのプル元となるGoogle PubSubサービスのサブスクリプションの名前。 Google PubSub接続は、サブスクリプションのプル配信タイプのみをサポートします。 |
バッチサイズ | Cloudサービスがバッチでバンドルするメッセージの最大数。 デフォルトは1です。 |
プロパティ | 説明 |
---|---|
接続 | JMSソース接続の名前。 |
接続タイプ | JMS接続タイプ。接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
宛先タイプ | ソースサービスがJMSメッセージを送信する接続先のタイプ。次のいずれかの接続先タイプを選択できます。
デフォルトは[キュー]です。 |
共有サブスクリプション | 複数のコンシューマが単一のサブスクリプションにアクセスできるようにします。トピックの接続先タイプに適用されます。 デフォルトはfalseです。 |
継続サブスクリプション | 非アクティブなサブスクライバがメッセージを保持し、その保持したメッセージを、サブスクライバが再接続したときに配信できるようにします。トピックの接続先タイプに適用されます。 デフォルトはfalseです。 |
サブスクリプション名 | サブスクリプションの名前。トピックサブスクリプションが共有可能、継続、またはその両方である場合に、トピックの接続先タイプに適用されます。値が指定されていない場合、取り込みサービスは一意のサブスクリプション名を生成します。 |
JMS接続先 | JMSプロバイダがメッセージを配信するキューまたはトピックの名前。 注: JMS WeblogicサーバーとのJMS接続が作成された場合、キューまたはトピックのJMS接続先は、ピリオドで始まってその後にスラッシュが続きます(./)。以下に例を示します。 。/<JMS Server module name>! <Queue or topic name> ストリーミング取り込みおよびレプリケーションをOracle Weblogic JMSサーバーに接続する方法の詳細については、Informaticaナレッジベースの記事「000186952」を参照してください。 |
プロパティ | 説明 |
---|---|
クライアントID | オプション。JMS接続を識別する一意の識別子。 非共有の継続サブスクリプションに値が指定されていない場合、ストリーミング取り込みとレプリケーションタスクは一意のクライアントIDを生成します。 |
プロパティ | 説明 |
---|---|
接続 | Kafkaソース接続の名前。 |
接続タイプ | Kafka接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
トピック | イベントの読み取り元となるKafkaソーストピック名、またはJavaでサポートされているKafkaソーストピック名パターンの正規表現。 トピック名を手動で入力するか、Kafka接続のメタデータを取得できます。Kafka接続のメタデータを選択するには、次のアクションを実行します。
[ソースオブジェクトの選択]ダイアログボックスが表示され、Kafkaブローカで使用可能なすべてのトピックまたはトピックパターンが示されます。 注: 新しいKafkaソーストピックを[稼働中]状態のストリーミング取り込みとレプリケーションジョブに追加するとき、新しいトピックからのデータ損失を回避するために、ジョブをすぐに再デプロイするようにしてください。 |
プロパティ | 説明 |
---|---|
group.id | Kafkaコンシューマが属するコンシューマグループの名前を指定します。Kafkaコンシューマのコンストラクト時にgroup.idが存在しない場合、タスクはコンシューマグループを自動的に作成します。このプロパティは自動生成されます。このプロパティは上書きできます。デフォルトは、key1=value1, key2=value2です。 |
auto.offset.reset | コミットされた位置がない場合、またはオフセットが範囲外の場合のコンシューマの動作を指定します。 次のタイプの自動オフセットリセットを使用できます。
Kafkaトピックからデータを読み取るか、トピックパターンを使用するとき、メッセージリカバリ中に前回のチェックポイントのオフセットが削除された場合、次に使用可能なオフセットからメッセージをリカバリするには、次のプロパティを指定します。 auto.offset.reset=earliest それ以外の場合は、ストリーミング取り込みとレプリケーションタスクによって、使用可能な最新のオフセットからデータが読み取られます。 |
message-demarcator | Kafkaソースはメッセージをバッチで受信します。特定のトピックとパーティションのすべてのKafkaメッセージを1つのバッチに含めることができます。このプロパティを使用すると、複数のKafkaメッセージの境界として使用する文字列を指定できます。値を指定しない場合、各Kafkaメッセージは単一のイベントとしてトリガされます。 次の区切り文字を境界として使用できます。
message-demarcator=${literal(' '):unescapeXml()} message-demarcator=${literal(','):unescapeXml()} message-demarcator=${literal(';'):unescapeXml()} message-demarcator=${literal('	'):unescapeXml()} |
max.poll.records | ポーリングの1回の呼び出しで返されるレコードの最大数を指定します。 例: max.poll.records=100000 |
プロパティ | 説明 |
---|---|
接続 | MQTTソース接続の名前。 |
接続タイプ | MQTT接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
トピック | MQTTトピックの名前。 |
接続プロパティ | 説明 |
---|---|
クライアントID | オプション。MQTTソースとMQTTブローカ間の接続を識別する一意の識別子。クライアントIDは、MQTTソースがメッセージの処理中にメッセージを格納するために使用するファイルベースの永続ストアです。 クライアントIDを指定しない場合、ストリーミング取り込みとレプリケーションタスクは、MQTT接続で提供されたクライアントIDを使用します。ただし、MQTT接続でもクライアントIDを指定していない場合は、ストリーミング取り込みとレプリケーションタスクは一意のクライアントIDを生成します。 |
最大キューサイズ | オプション。プロセッサが同時にメモリに保存できるメッセージの最大数。 デフォルト値は1024バイトです。 |
プロパティ | 説明 |
---|---|
接続 | OPC UAソース接続の名前。 |
接続タイプ | OPC UA接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
タグリストの指定形式 | タグのリストを指定する形式。 次のいずれかの形式を選択します。
|
タグまたはファイルパス | JSON配列として指定される、タグのリスト、または読み取るタグのリストを含むファイルへのパス。 タグまたはファイルパスのリストは2048文字を超えることはできません。 |
最小パブリッシュ間隔 | サブスクリプション通知メッセージの最小パブリッシュ間隔(ミリ秒単位)。 データの急激な変化を検出するには、このプロパティを低い値に設定します。 デフォルトは1,000ミリ秒です。 |
プロパティ | 説明 |
---|---|
接続 | REST V2ソース接続の名前。 |
接続タイプ | REST V2接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
RESTエンドポイント | 入力Swaggerファイルで指定されたRESTエンドポイントのリスト。 これらのエンドポイントは、選択したREST接続に基づいて表示されます。 |
スキーム | Swagger定義で指定されたスキームのリスト。 選択したスキームを使用してURLを作成します。 |
ポーリング間隔 | 2つの連続するREST呼び出しの間隔。 デフォルトは10秒です。 |
失敗した応答コードに対するアクション | 失敗したREST呼び出しに必要なアクション。 以下のいずれかのオプションを選択することができます。
|
プロパティ | 説明 |
---|---|
接続 | Amazon Kinesis Data Firehoseターゲット接続の名前。 |
接続タイプ | Amazon Kinesis接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
ストリーム名/式 | Kinesisストリーム名またはKinesisストリーム名パターンの正規表現。 正規表現には$expression$形式を使用します。$expression$はデータを評価し、一致するデータをキャプチャグループ1に送信します。 |
プロパティ | 説明 |
---|---|
接続 | Amazon KinesisStreamターゲット接続の名前。 |
接続タイプ | Amazon Kinesis接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
ストリーム名/式 | Kinesisストリーム名またはKinesisストリーム名パターンの正規表現。 正規表現には$expression$形式を使用します。$expression$はデータを評価し、一致するデータをキャプチャグループ1に送信します。 |
プロパティ | 説明 |
---|---|
接続 | Amazon S3ターゲット接続の名前。 |
接続タイプ | Amazon S3 V2接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
オブジェクト名/式 | Amazon S3ファイル名またはAmazon S3ファイル名パターンの正規表現。 正規表現には$expression$形式を使用します。$expression$はデータを評価し、一致するデータをキャプチャグループ1に送信します。 |
プロパティ | 説明 |
---|---|
パーティション化間隔 | オプション。ストリーミング取り込みタスクがAmazon S3バケットにパーティションを作成する際に従う時間間隔。このオプションを使用するには、[オブジェクト名/式]フィールドで、オブジェクト名に${Timestamp}式を追加する必要があります。 デフォルトは[なし]です。 詳細については、Amazon S3ターゲットを参照してください。 |
最小アップロードパートサイズ | オプション。複数の独立したパートセットとしてサイズの大きなファイルをアップロードする場合の最小アップロードパートサイズ(MB単位)。このプロパティを使用して、ファイルのロードをAmazon S3に合わせます。 デフォルト値は5120 MBです。 |
マルチパートアップロードしきい値 | オプション。複数のパートにオブジェクトを同時にアップロードするタイミングを決定するマルチパートダウンロードの最小しきい値。 デフォルト値は5120 MBです。 |
プロパティ | 説明 |
---|---|
接続 | Azure Event Hubsターゲット接続の名前。 |
接続タイプ | Azure Event Hub接続のタイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
Event Hub | Azure Event Hubsの名前。 |
プロパティ | 説明 |
---|---|
共有アクセスポリシー名 | オプション。Event Hub名前空間共有アクセスポリシーの名前。 このポリシーは、この接続に関連付けられたすべてのデータオブジェクトに適用される必要があります。 Event Hubから読み取るには、リスン権限が必要です。Event Hubに書き込むには、ポリシーに送信権限が必要です。 |
共有アクセスポリシーのプライマリキー | オプション。Event Hub名前空間共有アクセスポリシーのプライマリキー。 |
プロパティ | 説明 |
---|---|
接続 | Databricksターゲット接続の名前。 |
接続タイプ | Databricks接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
ステージングの場所 | ステージングファイルを保存するための相対ディレクトリパス。
|
ターゲットテーブル名 | 追加するDatabricksテーブルの名前。 |
プロパティ | 説明 |
---|---|
ターゲットデータベース名 | AdministratorのDatabricks接続で指定されたデータベース名を上書きします。 |
プロパティ | 説明 |
---|---|
接続 | フラットファイルターゲット接続の名前。 |
接続タイプ | フラットファイル接続タイプ。 接続タイプは、選択した接続に基づいて表示されます。 |
ステージングディレクトリの場所 | Secure Agent上のステージングディレクトリへのパス。 フラットファイルターゲットにデータを書き込むときに、ファイルをステージングするステージングディレクトリを指定します。ディレクトリに十分なスペースがあり、ディレクトリへの書き込み権限があることを確認します。 |
ロールオーバーサイズ* | タスクがファイルをステージングディレクトリからターゲットに移動する際のファイルサイズ(KB)。 例えば、ロールオーバーサイズを1 MBに設定し、ファイルにtarget.logという名前を付けます。ソースサービスが5 MBをターゲットに送信する場合、ストリーミング取り込みとレプリケーションタスクは最初にtarget.log.<timestamp>ファイルを作成します。target.log.<タイムスタンプ>のサイズが1 MBに達すると、タスクはファイルをロールオーバーします。 |
ロールオーバーイベント数* | ファイルのロールオーバーのために蓄積するイベントまたはメッセージの数。 例えば、ロールオーバーイベント数を1000に設定した場合、ファイルのイベントが1000件蓄積されると、タスクはファイルをロールオーバーします。 |
ロールオーバー時間* | ターゲットファイルがロールオーバーする時間の長さ(ミリ秒単位)。この時間が経過すると、ターゲットファイルはロールオーバーします。 例えば、ロールオーバー時間を1時間に設定した場合、ファイルの時間が1時間に達すると、タスクはファイルをロールオーバーします。 |
ファイル名 | タスクがターゲット上に作成するファイルの名前。 |
*ターゲットファイルのロールオーバーを実行するには、少なくとも1つのロールオーバーオプションの値を指定します。 |
プロパティ | 説明 |
---|---|
接続 | Google BigQuery V2ターゲット接続の名前。 |
接続タイプ | Google BigQuery V2接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
データセット名 | Google BigQueryデータセットの名前。データセットはGoogle Cloud Platformになければなりません。 |
テーブル名 | JSON形式でデータを挿入するGoogle BigQueryテーブルの名前。 |
プロパティ | 説明 |
---|---|
接続 | Google Cloud Storageターゲット接続の名前。 |
接続タイプ | Google Cloud Storageの接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
再試行回数 | ストリーミング取り込みとレプリケーションタスクが、Google Cloud Storageターゲットへの書き込みを再試行する回数。 デフォルトは6です。 |
バケット | Google Cloud Storageにアップロードするオブジェクトを保存、整理、アクセスするためのコンテナ。 |
キー | Google Cloud Storageターゲット接続の名前。 |
プロパティ | 説明 |
---|---|
プロキシホスト | Secure Agentが使用する送信プロキシサーバーのホスト名。 |
プロキシポート | 送信プロキシサーバーのポート番号。 |
コンテンツタイプ | ファイルのコンテンツタイプ。 application.json、multipart、text、htmlなどの任意のMIMEタイプを指定できます。これらの値では大文字と小文字は区別されません。 デフォルトはtextです。 |
オブジェクトACL | アップロードされたオブジェクトに関連付けられたアクセス制御。 次のいずれかの認証のタイプを選択します。
|
サーバーサイド暗号化キー | Google Cloud Storageバケットのサーバーサイドの暗号化キー。Google Cloud StorageバケットがSSE-KMSで暗号化されている場合に必要です。 |
コンテンツ破棄タイプ | オブジェクトに添付されるRFC-6266コンテンツ廃棄のタイプ。インラインまたは添付のどちらかを選択します。 |
プロパティ | 説明 |
---|---|
接続 | Google PubSubターゲット接続の名前。 |
接続タイプ | Google PubSub接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
トピック | ターゲットのGoogle PubSubトピックの名前。 |
バッチサイズ | Cloudサービスがバッチでバンドルするメッセージの最大数。 デフォルトは1です。 |
プロパティ | 説明 |
---|---|
接続 | JDBC V2ターゲット接続の名前。 |
接続タイプ | JDBC V2接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
テーブル名 | JSON形式でデータを挿入するテーブルの名前。 |
プロパティ | 説明 |
---|---|
接続 | Kafkaターゲット接続の名前。 |
接続タイプ | Kafka接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
トピック名/式 | Kafkaトピック名またはJavaがサポートするKafkaトピック名パターンの正規表現。 正規表現には$expression$形式を使用します。$expression$はデータを評価し、一致するデータをキャプチャグループ1に送信します。 トピック名を手動で入力するか、Kafka接続の作成済みメタデータを取得できます。
[ターゲットオブジェクトの選択]ダイアログボックスが表示され、Kafkaブローカで使用可能なすべてのトピックが示されます。ただし、Kafkaトピック名のパターンはリストに表示されません。 |
プロパティ | 説明 |
---|---|
プロデューサ設定プロパティ | プロデューサの設定プロパティ。 |
メタデータフェッチタイムアウト(ミリ秒) | それ以降にメタデータが取得されなくなる時間。 |
バッチフラッシュサイズ(バイト) | ストリーミング取り込みとレプリケーションタスクがそれ以降なターゲットにデータを書き込むイベントのバッチサイズ。 |
プロパティ | 説明 |
---|---|
接続 | Microsoft Azure Data Lake Storage Gen2ターゲット接続の名前。 |
接続タイプ | ADLS Gen2接続タイプ。 接続タイプは、選択した接続名に基づいて自動的に入力されます。 |
書き込みストラテジ | ADLS Gen2ファイルにデータを書き込む操作タイプ。 ファイルがADLS Gen2ストレージに存在する場合は、既存のファイルの上書き、付加、失敗、またはロールオーバーを選択できます。 デフォルトは[付加]です。
|
中間ディレクトリ | ADLS Gen2のステージングディレクトリへのパス。 ADLS Gen2にデータを書き込むときに、ファイルをステージングするステージングディレクトリを指定します。ディレクトリに十分なスペースがあり、ディレクトリへの書き込み権限があることを確認します。 [書き込みストラテジ]として[ロールオーバー]を選択した場合に適用されます。 ストリーミング取り込みとレプリケーションジョブでADLS Gen2ターゲットを設定しているときに、ロールオーバープロパティの値を指定しないと、ファイルは中間ディレクトリに残ります。ストリーミング取り込みとレプリケーションジョブを停止またはデプロイ解除すると、中間ディレクトリ内のこれらのファイルは、デフォルトでターゲットの場所に移動されます。 |
ロールオーバーサイズ | ロールオーバーをトリガする際のターゲットファイルサイズ(KB)。 [書き込みストラテジ]として[ロールオーバー]を選択した場合に適用されます。 |
ロールオーバーイベント数 | ロールオーバーのために蓄積するイベントまたはメッセージの数。 [書き込みストラテジ]として[ロールオーバー]を選択した場合に適用されます。 |
ロールオーバー時間 | ターゲットファイルがロールオーバーする時間の長さ(ミリ秒単位)。この時間が経過すると、ターゲットファイルはロールオーバーします。 [書き込みストラテジ]として[ロールオーバー]を選択した場合に適用されます。 |
ファイル名/式 | ファイル名またはファイル名パターンの正規表現。 正規表現には$expression$形式を使用します。$expression$はデータを評価し、一致するデータをキャプチャグループ1に送信します。 |
プロパティ | 説明 |
---|---|
ファイルシステム名のオーバーライド | 接続で提供されたデフォルトのファイルシステム名をオーバーライドします。このファイルシステム名は、実行時にファイルに書き込むために使用されます。 |
ディレクトリのオーバーライド | デフォルトのディレクトリパスをオーバーライドします。 データの書き込みに使用するADLS Gen2ディレクトリ。 デフォルトはルートディレクトリです。 ターゲットの作成時に指定されたディレクトリパスで、接続の作成時に指定されたパスがオーバーライドされます。 |
圧縮形式 | オプション。ストリーミング取り込みとレプリケーションタスクがターゲットファイルにデータを書き込む前に使用する圧縮形式。 次のいずれかの形式を使用します。
デフォルトは[なし]です。 データレイクストレージから圧縮ファイルを読み取るには、その圧縮ファイルに特定の拡張子が付いている必要があります。圧縮ファイルの読み取りに使用された拡張子が有効でない場合、Secure Agentはそのファイルを処理しません。 |
プロパティ | 説明 |
---|---|
トランスフォーメーションのタイプ | [Combiner]を選択します。 |
トランスフォーメーション名 | Combinerトランスフォーメーションの名前。 |
イベントの最小数 | トランスフォーメーション前に収集するイベントの最小数は、イベントを1つのイベントに結合します。 デフォルトは1です。 |
最大集計サイズ | 結合されたイベントの最大サイズ(メガバイト単位)。 指定されていない場合、このトランスフォーメーションは、イベントを結合する前に、他の2つの条件のいずれかが満たされるのを待ちます。 |
制限時間 | イベントを結合するまでの最大待ち時間。 指定されていない場合、このトランスフォーメーションはイベントを結合する前に他の条件を待機するか、永久に待機します。 |
区切り文字 | 変換されたデータのデータ文字列間の分割を指定するために使用される記号。 バイナリデータ形式にのみ適用されます。 |
各バッチの最終レコードの末尾に区切り文字を追加 | イベントまたはレコードを含むバッチが多数ある場合は、各バッチの最後のレコードの末尾に区切り文字を使用するかどうかを選択できます。これにより、区切り文字が各バッチ間の境界として機能できるようになります。 |
プロパティ | 説明 |
---|---|
トランスフォーメーションのタイプ | [フィルタ]を選択します。 |
トランスフォーメーション名 | フィルタトランスフォーメーションの名前。 |
フィルタタイプ | 受信データを評価するフィルタのタイプ。 次のいずれかのフィルタタイプを使用します。
|
式 | 選択したフィルタタイプの式。 |
プロパティ | 説明 |
---|---|
トランスフォーメーションのタイプ | [形式変換]を選択します。 |
トランスフォーメーション名 | 形式変換トランスフォーメーションの名前。 |
形式に変換 | ストリーミング取り込みとレプリケーションタスクは、受信データを選択した形式に変換します。現在、形式変換トランスフォーメーションは、受信データをParquet形式のみに変換します。 |
日付形式* | 入力フィールドに日付の形式を入力します。例: MM/dd/yyyy。 |
時間形式* | 入力フィールドに時間の形式を入力します。例: HH/mm/ss。 |
タイムスタンプの形式* | 入力フィールドにタイムスタンプの形式を入力します。 例えば、10/11/2021 12:04:41 GMT(MM/dd/yyyy HH:mm:ss)のエポックタイムスタンプは1633953881であり、ミリ秒単位のタイムスタンプは1633953881000です。 |
レコードを配列と想定 | 単一のレコードとレコードの配列のどちらを想定するかを決定します。各レコードで配列を想定するには、このプロパティを選択します。XML受信メッセージにのみ適用されます。デフォルトでは、このプロパティの選択は解除されています。 |
*形式が指定されていない場合は、エポック(1970年1月1日午前0時GMT)からのミリ秒単位と見なされます。 |
プロパティ | 説明 |
---|---|
トランスフォーメーションのタイプ | Javaを選択します。 |
トランスフォーメーション名 | Javaトランスフォーメーション名。 |
クラスパス | Javaコードの実行に使用されるJARファイル。区切り文字を使用して、複数のJARファイルを含めることができます。UNIXの場合、複数のクラスパスの各項目を区切るにはコロンを使用します。Windowsの場合、複数のクラスパスの各項目を区切るにはセミコロンを使用します。 例: /home/user/commons-text-1.9.jar; /home/user/json-simple-1.1.1.jar |
コードをインポート | サードパーティ、組み込み、およびカスタムのJavaパッケージをインポートします。複数のパッケージをインポートできます。複数のパッケージを区切るにはセミコロン(;)を使用します。次の構文を使用して、パッケージをインポートできます。 import <package name> 例: import java.io.*; |
メインコード | トランスフォーメーションロジックを提供するJavaコード。 例: JSONParser parser = new JSONParser(); try { JSONObject object = (JSONObject) parser.parse(inputData); object.put("age", 23); outputData=object.toJSONString(); } catch (ParseException e) { throw new RuntimeException(); } |
プロパティ | 説明 |
---|---|
トランスフォーメーションのタイプ | Joltを選択します。 |
トランスフォーメーション名 | Joltトランスフォーメーション名。 |
Joltの仕様 | JSON構造を入力し、次の操作を使用して複数の操作のチェーンを追加します。
例: [ { "operation": "shift", "spec": { "breadbox": "counterTop" } } ] 例: [ { "operation": "default", "spec": { "counterTop": { "loaf1": { "slices": [ "slice1", "slice2", "slice3", "slice4 ] } } } } ] } 例: [ { "operation": "cardinality", "spec": { "counterTop": { "loaf1": { "slices": "ONE" } } } } ] 例: [ { "operation": "remove", "spec": { "counterTop": { "loaf2": "", "jar1": "" } } } ] 例: [ { "operation": "modify-overwrite-beta", "spec": { "counterTop": { "jar2": { "contents": "=toUpper" } } } } ] 例: [ { "operation": "sort" } ] 以下は、複数の操作を含むJoltの仕様の例です。 Input: {"name":"test"} [{ "operation": "shift", "spec": { "name": "testname" } }, { "operation": "default", "spec": { "city": ["Anantapur", "Bangalore", "Hyderabad"] } }, { "operation": "cardinality", "spec": { "city": "ONE" } }, { "operation": "remove", "spec": { "age": "" } }, { "operation": "modify-overwrite-beta", "spec": { "city": "=toUpper" } }, { "operation": "sort"}] 注: 入力レコードがJoltの仕様と一致しない場合、トランスフォーメーションはnullレコードをターゲットに書き込みます。 |
プロパティ | 説明 |
---|---|
トランスフォーメーションのタイプ | [Python]を選択します。 |
トランスフォーメーション名 | Pythonトランスフォーメーションの名前。 |
スクリプトの入力タイプ | Pythonスクリプトの入力タイプ。Pythonスクリプトを[スクリプト本文]に入力するか、[スクリプトパス]で利用可能なPythonスクリプトへのパスを指定します。 |
Pythonのパス | Pythonパスライブラリへのディレクトリ。 |
プロパティ | 説明 |
---|---|
トランスフォーメーションのタイプ | [Splitter]を選択します。 |
トランスフォーメーション名 | Splitterトランスフォーメーションの名前。 |
分割タイプ | 条件を分割して、受信データを評価します。 次のいずれかの分割タイプを使用します。
|
行の分割数 | ヘッダー行を除く、各出力分割ファイルに含まれる最大行数。 |
バイトシーケンス | コンテンツを分割するバイトの指定されたシーケンス。 |
プロパティ | 説明 |
---|---|
分割式 | 条件を分割して、受信データを評価します。 次のいずれかの分割タイプを使用します。
|
JSONPath式 | JSONまたはスカラーフラグメントに分割する配列要素を指定するJSONPath式。 デフォルトのJSONpath式は$です。 |
プロパティ | 説明 |
---|---|
分割の深さ | XMLフラグメントの分割を開始するXMLのネストの深さ。 デフォルトの分割の深さは1です。 |