Data Engineering Administrator Guide > Connections Reference > Eigenschaften der JDBC-Verbindung
  

Eigenschaften der JDBC-Verbindung

Sie können eine JDBC-Verbindung für den Zugriff auf Tabellen in einer Datenbank verwenden. Sie können eine JDBC-Verbindung im Administrator tool, Developer tool oder Analyst Tool erstellen und verwalten.
HINWEIS: Die Reihenfolge der Verbindungseigenschaften kann je nach Tool, in dem Sie diese anzeigen, variieren.
In der folgenden Tabelle werden die Eigenschaften von JDBC-Verbindungen erläutert:
Eigenschaft
Beschreibung
Datenbanktyp
Der Datenbanktyp.
Name
Name der Verbindung. Der Name unterliegt nicht der Groß-/Kleinschreibung und muss innerhalb der Domäne eindeutig sein. Der Name darf nicht mehr als 128 Zeichen und weder Leerzeichen noch die folgenden Sonderzeichen enthalten:
~ ` ! $ % ^ & * ( ) - + = { [ } ] | \ : ; " ' < , > . ? /
ID
Zeichenfolge, die der Datenintegrationsdienst zum Erkennen der Verbindung verwendet. Bei der ID wird die Groß- und Kleinschreibung nicht beachtet. Sie darf maximal 255 Zeichen umfassen und muss in der Domäne eindeutig sein. Sie können diese Eigenschaft nach dem Erstellen der Verbindung nicht mehr ändern. Als Standardwert dient der Verbindungsname.
Beschreibung
Die Beschreibung der Verbindung. Die Beschreibung darf nicht mehr als 765 Zeichen enthalten.
Benutzername
Der Benutzername der Datenbank.
Passwort
Das Passwort für den Benutzernamen der Datenbank.
JDBC-Treiberklassenname
Name der JDBC-Treiberklasse.
Die folgende Liste enthält den Treiberklassennamen, den Sie für den entsprechenden Datenbanktyp eingeben können:
  • - DataDirect-JDBC-Treiberklassenname für Oracle:
  • com.informatica.jdbc.oracle.OracleDriver
  • - DataDirect-JDBC-Treiberklassenname für IBM DB2:
  • com.informatica.jdbc.db2.DB2Driver
  • - DataDirect-JDBC-Treiberklassenname für Microsoft SQL Server:
  • com.informatica.jdbc.sqlserver.SQLServerDriver
  • - DataDirect-JDBC-Treiberklassenname für Sybase ASE:
  • com.informatica.jdbc.sybase.SybaseDriver
  • - DataDirect-JDBC-Treiberklassenname für Informix:
  • com.informatica.jdbc.informix.InformixDriver
  • - DataDirect-JDBC-Treiberklassenname für MySQL:
  • com.informatica.jdbc.mysql.MySQLDriver
  • - JDBC-Treiber für Databricks Delta Lake: der Name des aus Databricks heruntergeladenen Treibers. Informationen zum Treiber finden Sie im Thema zur Konfiguration des Speicherzugriffs im Kapitel „Vorbereitung der Databricks-Integration“ des Data Engineering Integration-Handbuch.
Weitere Informationen zu den mit bestimmten Datenbanken zu verwendenden Treiberklassen finden Sie in der Dokumentation des Herstellers.
Verbindungszeichenfolge
Verbindungszeichenfolge für die Verbindung zur Datenbank. Verwenden Sie die folgende Verbindungszeichenfolge:
jdbc:<subprotocol>:<subname>
Weitere Informationen über die Verbindungszeichenfolge, die mit bestimmten Treibern verwendet werden soll, finden Sie in der Dokumentation des Anbieters.
Umgebungs-SQL
Optional. Geben Sie die SQL-Befehle zum Einrichten der Datenbankumgebung ein, wenn Sie eine Verbindung zur Datenbank herstellen. Der Datenintegrationsdienst führt die SQL-Befehle zur Verbindungsumgebung jedes Mal aus, wenn er eine Verbindung zur Datenbank herstellt.
HINWEIS: Wenn Sie Sqoop aktivieren, ignoriert Sqoop diese Eigenschaft.
Transaktions-SQL
Optional. Geben Sie die SQL-Befehle zum Einrichten der Datenbankumgebung ein, wenn Sie eine Verbindung zur Datenbank herstellen. Der Datenintegrationsdienst führt die Transaktionsumgebungs-SQL am Anfang jeder Transaktion aus.
HINWEIS: Wenn Sie Sqoop aktivieren, ignoriert Sqoop diese Eigenschaft.
SQL-Bezeichnerzeichen
Art des Zeichens, das von der Datenbank verwendet wird, um Delimiter-IDs in SQL-Abfragen einzuschließen. Die verfügbaren Zeichen richten sich nach dem Datenbanktyp.
Wählen Sie (Keine) aus, wenn die Datenbank reguläre IDs verwendet. Wenn der Datenintegrationsdienst SQL-Abfragen erzeugt, schließt der Dienst IDs nicht in Delimiter-Zeichen ein.
Wählen Sie ein Zeichen aus, wenn die Datenbank Delimiter-IDs verwendet. Wenn der Datenintegrationsdienst SQL-Abfragen erzeugt, schließt der Dienst Delimiter-IDs in dieses Zeichen ein.
HINWEIS: Wenn Sie Sqoop aktivieren, ignoriert Sqoop diese Eigenschaft.
Bezeichner mit gemischter Groß-/Kleinschreibung unterstützen
Aktivieren Sie diese Eigenschaft, wenn die Datenbank IDs für gemischte Groß-/Kleinschreibung verwendet. Bei aktivierter Eigenschaft schließt der Datenintegrationsdienst alle IDs innerhalb des Zeichens ein, das für die Eigenschaft SQL-Kennungszeichen ausgewählt wurde.
Wenn die Eigenschaft SQL-Kennungszeichen auf „Kein“ festgelegt ist, wird die Eigenschaft Unterstützte IDs für gemischte Groß-/Kleinschreibung deaktiviert.
HINWEIS: Wenn Sie Sqoop konfigurieren, beachtet das Sqoop-Programm diese Eigenschaft, wenn Sie ein DDL-Skript generieren und ausführen, um ein Ziel zur Laufzeit zu erstellen oder zu ersetzen. In allen anderen Szenarios ignoriert Sqoop diese Eigenschaft.
Sqoop-Connector verwenden
Aktiviert Sqoop-Konnektivität für das Datenobjekt, das die JDBC-Verbindung verwendet. Der Datenintegrationsdienst führt das Mapping in der Hadoop-Laufzeitumgebung über Sqoop aus.
Sie können Sqoop-Konnektivität für relationale Datenobjekte, benutzerdefinierte Datenobjekte und logische Datenobjekte konfigurieren, die auf einer JDBC-fähigen Datenbank basieren.
Wählen Sie Sqoop v1.x aus, um Sqoop-Konnektivität zu aktivieren.
Standardwert ist Keine.
Sqoop-Argumente
Geben Sie die Argumente ein, die von Sqoop zum Herstellen einer Verbindung zur Datenbank verwendet werden müssen. Trennen Sie mehrere Argumente durch ein Leerzeichen.
Zur Ausführung der Zuordnung auf der Blaze-Engine mit den spezialisierten TDCH-Konnektoren (Teradata Connector for Hadoop) für Sqoop müssen Sie die TDCH-Klasse der Verbindungs-Factory in den Sqoop-Argumenten definieren. Die Klasse der Verbindungs-Factory richtet sich nach dem TDCH-Sqoop-Konnektor, der verwendet werden soll.
  • - Um Cloudera Connector Powered by Teradata zu verwenden, konfigurieren Sie das folgende Sqoop-Argument:
  • -Dsqoop.connection.factories=com.cloudera.connector.teradata.TeradataManagerFactory
  • - Um Hortonworks Connector for Teradata (unterstützt vom Teradata Connector for Hadoop) zu verwenden, konfigurieren Sie das folgende Sqoop-Argument:
  • -Dsqoop.connection.factories=org.apache.sqoop.teradata.TeradataManagerFactory
Zur Ausführung der Zuordnung auf der Spark-Engine müssen Sie die TDCH-Klasse der Verbindungs-Factory nicht in den Sqoop-Argumenten definieren. Der Datenintegrationsdienst ruft standardmäßig den Cloudera Connector Powered by Teradata und den Hortonworks Connector for Teradata (unterstützt vom Teradata Connector for Hadoop) auf.
HINWEIS: Zur Ausführung der Zuordnung mit einem generischen JDBC-Konnektor anstelle des spezialisierten Cloudera- oder Hortonworks-Konnektors müssen Sie die Sqoop-Argumente --driver und --connection-manager in der JDBC-Verbindung definieren. Wenn Sie die Argumente --driver und --connection-Manager in der Lese- oder Schreibumwandlung der Zuordnung definieren, ignoriert Sqoop die Argumente.
Wenn Sie keine Sqoop-Argumente eingeben, erstellt der Datenintegrationsdienst den Sqoop-Befehl basierend auf den JDBC-Verbindungseigenschaften.

JDBC Connection String

Specify the connection string in the JDBC connection to connect to the database.
Specify the connection string in the following format:
jdbc:<subprotocol>:<subname>
Use the following sample connection strings that you can enter for the applicable database type:
Use the following sample connection strings that you can enter for an SSL-enabled applicable database type:
For more information about the connection string to use with specific drivers, see the vendor documentation.

Sqoop Connection-Level Arguments

In the JDBC connection, you can define the arguments that Sqoop must use to connect to the database. The Data Integration Service merges the arguments that you specify with the default command that it constructs based on the JDBC connection properties. The arguments that you specify take precedence over the JDBC connection properties.
If you want to use the same driver to import metadata and run the mapping, and do not want to specify any additional Sqoop arguments, select Sqoop v1.x from the Use Sqoop Version list and leave the Sqoop Arguments field empty in the JDBC connection. The Data Integration Service constructs the Sqoop command based on the JDBC connection properties that you specify.
However, if you want to use a different driver for run-time tasks or specify additional run-time Sqoop arguments, select Sqoop v1.x from the Use Sqoop Version list and specify the arguments in the Sqoop Arguments field.
A mapping that contains an Update Strategy transformation cannot use a Sqoop-enabled JDBC connection to write to a target. To run the mapping, disable the Sqoop connector in the Write transformation.
You can configure the following Sqoop arguments in the JDBC connection:
driver
Defines the JDBC driver class that Sqoop must use to connect to the database.
Use the following syntax:
--driver <JDBC driver class>
For example, use the following syntax depending on the database type that you want to connect to:
connect
Defines the JDBC connection string that Sqoop must use to connect to the database. The JDBC connection string must be based on the driver that you define in the driver argument.
Use the following syntax:
--connect <JDBC connection string>
For example, use the following syntax depending on the database type that you want to connect to:
Use the following syntax to connect to an SSL-enabled database:
--connect <JDBC connection string>
For example, use the following syntax depending on the database type that you want to connect to:
connection-param-file
Defines the extra JDBC parameters through a property file that Sqoop must use to connect to the database. The contents of this file are parsed as standard Java properties and passed into the driver when you create a connection.
Use the following syntax:
--connection-param-file <parameter file name>
For example, use the following syntax to use the parameter file when you connect to the Oracle database.
--connection-param-file param_file
connection-manager
Defines the connection manager class name that Sqoop must use to connect to the database.
Use the following syntax:
--connection-manager <connection manager class name>
For example, use the following syntax to use the generic JDBC manager class name:
--connection-manager org.apache.sqoop.manager.GenericJdbcManager
direct
When you read data from or write data to Oracle, you can configure the direct argument to enable Sqoop to use OraOop. OraOop is a specialized Sqoop plug-in for Oracle that uses native protocols to connect to the Oracle database. When you configure OraOop, the performance improves.
You can configure OraOop when you run Sqoop mappings on the Spark engine.
Use the following syntax:
--direct
When you use OraOop, you must use the following syntax to specify multiple arguments:
-D<argument=value> -D<argument=value>
HINWEIS: If you specify multiple arguments and include a space character between -D and the argument name-value pair, Sqoop considers only the first argument and ignores the remaining arguments.
If you do not direct the job to a specific queue, the Spark engine uses the default queue.
-Dsqoop.connection.factories
To run the mapping on the Blaze engine with the Teradata Connector for Hadoop (TDCH) specialized connectors for Sqoop, you must configure the -Dsqoop.connection.factories argument. Use the argument to define the TDCH connection factory class that Sqoop must use. The connection factory class varies based on the TDCH Sqoop Connector that you want to use.
HINWEIS: To run the mapping on the Spark engine, you do not need to configure the -Dsqoop.connection.factories argument. The Data Integration Service invokes Cloudera Connector Powered by Teradata and Hortonworks Connector for Teradata (powered by the Teradata Connector for Hadoop) by default.
--infaoptimize
Use this argument to disable the performance optimization of Sqoop pass-through mappings on the Spark engine.
When you run a Sqoop pass-through mapping on the Spark engine, the Data Integration Service optimizes mapping performance in the following scenarios:
If you want to disable the performance optimization, set the --infaoptimize argument to false. For example, if you see data type issues after you run an optimized Sqoop mapping, you can disable the performance optimization.
Use the following syntax:
--infaoptimize false
For a complete list of the Sqoop arguments that you can configure, see the Sqoop documentation.

Delta Lake JDBC Connection Properties

To enable the domain to access Delta Lake resources in the cloud platform environment, you must manually create and configure a JDBC connection.
Configure the following connection properties:
Property
Description
Name
Type a name for the connection. Example: DatabricksDeltaCxn
ID
Default: Automatically populated with the connection name. Changing this default value is optional.
Username
Type the following value to use the Databricks user token: token
Password
Value of the token that you configured for the Databricks user.
JDBC Driver Class Name
Type the following value: com.simba.spark.jdbc4.Driver
Connection String
Connection to the Delta Lake resource. This connection string contains all the information that the domain needs to connect to the resource.
The connection string contains the following elements:
  • - jdbc:spark://<server host name>.
  • - Port number.
  • - Transport mode.
  • - ssl. Use 1 to enable SSL.
  • - httpPath.
  • - UID. User ID that will be used to run jobs on the cluster. Use token.
  • - PWD. Value of the token that you configured for the Databricks user.
Example:
jdbc:spark://westus.azuredatabricks.net:443/default;transportMode=http;ssl=1;httpPath=sql/protocolv1/o/1654523072521724/0123-456789-films259;AuthMech=3;UID=token;PWD=<token string>
To get the value of these parameters from the Advanced Options area of the cluster configuration settings:
  1. 1In the Databricks environment, select Clusters.
  2. 2Select the cluster to connect to.
  3. 3Expand the Advanced Options and click the JDBC/ODBC tab.
For more information about the JDBC connection string for Databricks, see the Databricks documentation.