Cargando ceros binarios en un campo “packed decimal” como nulos.

8 noviembre \08\UTC 2016

Siguiendo con los campos “COBOL Comp-3 (Packed Decimals)” y Multiload, se nos ha presentado un problema a la hora de cargar ficheros en un HOST IBM.

El asunto consistía en que había un campo “packed decimal” con tipo DECIMAL(9,0). Siguiendo lo visto aquí, hicimos un script:

.LAYOUT DATAIN;
  .FIELD field_1
  ...
  .FIELD field_n * DECIMAL(9,0);
  ...

Pero es que, además, nos dijeron que deberíamos cargar un NULL si el campo “llegaba a cero”.

OK. No problem. Hay dos alternativas. En la definición del “layout” haciendo:

.LAYOUT DATAIN;
  ...
  .FIELD field_n * DECIMAL(9,0) NULLIF field_n=0;
  ...
  
o, sin el NULLIF del LAYOUT, resolviendo en la parte del INSERT:

   INSERT INTO ...
   ...
   COLUMN_N,
   ...
   )VALUES(
   ...
   NULLIFZERO(:field_n),
   ...
   );

Los problemas se presentaron cuando comenzaron a aparecer errores en las ejecuciones de multiload.
Cuando se utilizaba la opción 1 (NULLIF en el LAYOUT) multiload se quejaba con:

"UTY2203 Unable to process input data: INVALID DECIMAL DATA DURING COMPARISON."

Y cuando se usaba la opción 2 (NULLIFZERO) las filas iban a la tabla de errores ET_ reportando errores:

2679 "The format or data contains a bad character."

Tras los lógicos primeros momentos de estupefacción, echamos un vistazo al fichero con un editor hexadecimal y vimos que en el campo problemático no estaba llegando un “packed decimal” cero, sino que estaban llegando cinco bytes ceros binarios.
Ahí está el problema. Según vimos aquí, el formato de un “packed decimal” incluye un último “nibble” para el signo (C, D, o F), y en nuestro caso el signo brilla por su ausencia… Multiload simplemente no puede hacer el CAST(), pues lo que le hemos dicho que es un “packed decimal” no lo es.

Así que nos pusimos a pensar y pensar, y finalmente dimos con una solución.

Si duplicamos el campo con dos tipos diferentes (el DECIMAL(9,0) y uno previo auxiliar como BYTE(5)), tratando el campo ‘bueno’ (DECIMAL(9,0)) con un NULLIF sobre el campo ‘BYTE(5)’ se evita el CAST problemático y el multiload funciona OK. Hay que tener en cuenta que en el LAYOUT necesitamos fijar explícitamente la posición del campo en el fichero (en el ejemplo, posición nnn).

En el .LAYOUT hacemos:

      .FIELD field_n_b nnn BYTE(5);
      .FIELD field_n   nnn DECIMAL(9,0) NULLIF field_n_b='0000000000'xB;

En el INSERT no hace falta el NULLIFZERO() porque el campo ya fue tratado en el LAYOUT:

Esto funciona también en entornos Linux/UNIX/Windows.

Si tenemos una tabla:

CREATE MULTISET TABLE CARLOS.PRUEBA_NULLIF_DATE
   (
      ID_N   INTEGER NOT NULL,
      D_DATE DATE
   )
;

Y un fichero en el el campo de fecha puede traer ceros binarios (10 bytes 0x00, representados por · ),

12016-11-07
22016-11-08
3··········          
42016-11-09

podemos cargarlo haciendo un script multiload:

.DATEFORM ANSIDATE; 

.LOGTABLE CARLOS.PRUEBA_NULLIF_DATE_LOG;

.LOGON MY_DB/carlos,**********;

.BEGIN IMPORT MLOAD TABLES CARLOS.PRUEBA_NULLIF_DATE;

.DML LABEL INSERTAR_PRUEBA_NULLIF_DATE;
INSERT INTO CARLOS.PRUEBA_NULLIF_DATE VALUES(
	:id_n,
	:d_date)
;

.LAYOUT INSERTAR;
	.FIELD id_n     1 CHAR(1);
        .FIELD d_date_b 2 BYTE(10);
	.FIELD d_date   2 DATE NULLIF d_date_b = '00000000000000000000'xB;

.IMPORT INFILE .\Ficheros\Prueba_NULLIF_DATE.txt FORMAT TEXT
 LAYOUT INSERTAR
  APPLY INSERTAR_PRUEBA_NULLIF_DATE;

.END MLOAD;

.LOGOFF;

Lo que subyace es el hecho de que el NULLIF se resuelve con el FIELD tipo BYTE anterior ANTES de hacer el CAST del campo sobre el que se actúa, con lo que ni siquiera se hace el CAST y no falla en la conversión de tipos.

Saludos.

Carlos.

Anuncios

Cargar campos “COBOL Comp-3 (Packed Decimals)” con Multiload.

6 octubre \06\UTC 2016

Teradata permite conexión directa entre entornos “mainframe” y sistemas Teradata mediante conexiones FICON. Esto significa que se pueden instalar las TTU’s en dichos “mainframes” y cargar directamente datos desde ficheros que existan allí sin necesidad de hacer ftp’s a entornos UNIX, Linux o Windows, con lo engorroso que puede ser el ftp en sí, por no hablar de las conversiones EBCDIC / ASCII…

El problema viene cuando los ficheros en cuestión contienen campos “Comp-3” (Computational-3), también llamados “packed decimals“.

Pero ¿qué son exactamente estos “Comp-3”?

“Comp-3” es una forma de almacenamiento de datos numéricos en COBOL en formato BCD (binary coded decimal). El BCD almacena numeros en formato DECIMAL y,como los números decimales van de 0 a 9, caben en cuatro bits (es lo que se llama un ‘nibble‘) con lo que en un byte caben dos números (ej.: byte 11, en bin 00010001 => almacena el 11 decimal). Esto hace que los datos ocupen la mitad de lo que ocuparían como caracteres (un byte por cada dígito).

A esto hay que sumarle que el último nibble (el menos significativo) se guarda para el signo, y se notan como “C” hex para positivos, “D” hex para negativos y “F” hex para “unsigned“. Así el número 1000 se guardará en tres bytes como 01 00 0C.

Para calcular lo que ocupará un número en Comp-3 bastará con contar sus dígitos, sumarle uno para el signo y dividir por dos. En caso de que el resultado no sea entero se redondea hacia arriba. En nuestro ejemplo anterior: 1000 => (4+1)/2 = 2,5 y se redondea a 3.

OK, pero ¿cómo se guardan los decimales? pues NO se guardan, sino que se resuelven con los ‘PICTURES’ (PIC). Siguiendo con nuestro ejemplo, si el campo es definido como ‘PIC S9(4)’, será 1000, pero si lo definimos como PIC S9(2)V99 se convertirá en 10.00.

Vale. Ahora ya sabemos lo que son pero ¿cómo los cargamos con Multiload?

Un poco de calma. Antes vamos ver cómo nosotros linuxeros y windowseros hemos adquirido vicios a la hora de cargar ficheros, en este caso con multiload, y más tarde nos daremos cuenta de que las cosas son más fáciles de lo que parecen…

¿Qué hacemos normalmente para cargar ficheros? Pues normalmente elegimos entre ficheros “TEXT” (de registros de longitud fija) y ficheros “VARTEXT” (registros de longitud variable con separadores de campo). Y a la hora de definir el LAYOUT definimos generalmente campos CHAR() o VARCHAR() donde colocar la información de los campos del fichero, que suelen llegar en forma de texto (ASCII, o UTF8, o lo que sea…). El objeto de esto es que el LAYOUT guarde la información en texto y que los cambios de tipo (CASTs) se resuelvan a la hora de la inserción final en las tablas.

Esto funciona generalmente muy bien, pero hace que olvidemos cómo funciona el multiload (en realidad el dataconector o “PIOM” para los más viejos).

Vamos a ver un ejemplo:

Tenemos un fichero Prueba.txt de longitud fija (4 bytes por registro) que tiene:

1UNO
2DOS

Tenemos una tabla para cargar dicho fichero:

 BTEQ -- Enter your SQL request or BTEQ command: 
DROP TABLE CARLOS.PRUEBA_TEXT;
CREATE MULTISET TABLE CARLOS.PRUEBA_TEXT
   (
      ID_N  INTEGER NOT NULL,
      C_TXT CHAR(3)
   )
;

 *** Failure 3807 Object 'CARLOS.PRUEBA_TEXT' does not exist.
                Statement# 1, Info =0 
 *** Total elapsed time was 1 second.


 BTEQ -- Enter your SQL request or BTEQ command: 


 *** Table has been created. 
 *** Total elapsed time was 1 second.

Creamos el script de multiload:

.LOGTABLE CARLOS.PRUEBA_TEXT_LOG;

.LOGON MyTdpId/carlos,MyPassword;

.BEGIN IMPORT MLOAD TABLES CARLOS.PRUEBA_TEXT;

.DML LABEL INSERTAR_PRUEBA_TEXT;
INSERT INTO CARLOS.PRUEBA_TEXT VALUES(
	:id_n,
	:c_txt)
;

.LAYOUT INSERTAR;
	.FIELD id_n    1 CHAR(1);
	.FIELD c_txt   * CHAR(3);

.IMPORT INFILE Prueba.txt FORMAT TEXT
 LAYOUT INSERTAR
  APPLY INSERTAR_PRUEBA_TEXT;

.END MLOAD;

.LOGOFF;

Y lo ejecutamos. Acaba (sin errores):

...
     Target table 1: CARLOS.PRUEBA_TEXT
     Number of Rows        Error Table Name
     ====================  ==================================================
                        0  CARLOS.ET_PRUEBA_TEXT
                        0  CARLOS.UV_PRUEBA_TEXT

**** 19:19:13 UTY0817 MultiLoad submitting the following request:
     BEGIN TRANSACTION;
**** 19:19:13 UTY0817 MultiLoad submitting the following request:
     USING Ckpt(VARBYTE(1024)) INS CARLOS.PRUEBA_TEXT_LOG (LogType, Seq,
     MLoadCkpt)VALUES(140, 1, :Ckpt);
**** 19:19:13 UTY0817 MultiLoad submitting the following request:
     INS CARLOS.PRUEBA_TEXT_LOG (LogType, Seq) VALUES (125, 1)
**** 19:19:13 UTY0817 MultiLoad submitting the following request:
     END TRANSACTION;
**** 19:19:13 UTY0822 MultiLoad processing complete for this MultiLoad import
     task.
     ========================================================================
     =                                                                      =
     =          MultiLoad Task Complete                                     =
     =                                                                      =
     ========================================================================
**** 19:19:13 UTY1024 Session modal request, 'SET
     QUERY_BAND='UTILITYNAME=MULTLOAD;' UPDATE FOR SESSION;', re-executed.
     ========================================================================
     =                                                                      =
     =          Processing Control Statements                               =
     =                                                                      =
     ========================================================================

0011 .LOGOFF;
     ========================================================================
     =                                                                      =
     =          Logoff/Disconnect                                           =
     =                                                                      =
     ========================================================================
**** 19:19:14 UTY6216 The restart log table has been dropped.
**** 19:19:14 UTY6212 A successful disconnect was made from the RDBMS.
**** 19:19:14 UTY2410 Total processor time used = '0.265202 Seconds'
     .       Start : 19:19:04 - THU OCT 06, 2016
     .       End   : 19:19:14 - THU OCT 06, 2016
     .       Highest return code encountered = '0'.

Si vemos lo que hemos cargado:

 BTEQ -- Enter your SQL request or BTEQ command: 
SELECT * FROM CARLOS.PRUEBA_TEXT ORDER BY 1;


 *** Query completed. 2 rows found. 2 columns returned. 
 *** Total elapsed time was 1 second.

       ID_N  C_TXT
-----------  -----
          1  UNO
          2  DOS

Todo correcto, pues. Pero vamos a cambiar un poco el script de multiload. Vamos a cambiar en el LAYOUT el campo id_n de CHAR(1) a DECIMAL(1) (que también ocupa 1 byte):

.LOGTABLE CARLOS.PRUEBA_TEXT_LOG;

.LOGON MyTdpId/carlos,MyPassword;

.BEGIN IMPORT MLOAD TABLES CARLOS.PRUEBA_TEXT;

.DML LABEL INSERTAR_PRUEBA_TEXT;
INSERT INTO CARLOS.PRUEBA_TEXT VALUES(
	:id_n,
	:c_txt)
;

.LAYOUT INSERTAR;
	.FIELD id_n    1 DECIMAL(1);
	.FIELD c_txt   * CHAR(3);

.IMPORT INFILE Prueba.txt FORMAT TEXT
 LAYOUT INSERTAR
  APPLY INSERTAR_PRUEBA_TEXT;

.END MLOAD;

.LOGOFF;

Una nueva ejecución (otra vez sin errores):

     Target table 1: CARLOS.PRUEBA_TEXT
     Number of Rows        Error Table Name
     ====================  ==================================================
                        0  CARLOS.ET_PRUEBA_TEXT
                        0  CARLOS.UV_PRUEBA_TEXT

**** 19:22:08 UTY0817 MultiLoad submitting the following request:
     BEGIN TRANSACTION;
**** 19:22:08 UTY0817 MultiLoad submitting the following request:
     USING Ckpt(VARBYTE(1024)) INS CARLOS.PRUEBA_TEXT_LOG (LogType, Seq,
     MLoadCkpt)VALUES(140, 1, :Ckpt);
**** 19:22:08 UTY0817 MultiLoad submitting the following request:
     INS CARLOS.PRUEBA_TEXT_LOG (LogType, Seq) VALUES (125, 1)
**** 19:22:08 UTY0817 MultiLoad submitting the following request:
     END TRANSACTION;
**** 19:22:08 UTY0822 MultiLoad processing complete for this MultiLoad import
     task.
     ========================================================================
     =                                                                      =
     =          MultiLoad Task Complete                                     =
     =                                                                      =
     ========================================================================
**** 19:22:08 UTY1024 Session modal request, 'SET
     QUERY_BAND='UTILITYNAME=MULTLOAD;' UPDATE FOR SESSION;', re-executed.
     ========================================================================
     =                                                                      =
     =          Processing Control Statements                               =
     =                                                                      =
     ========================================================================

0011 .LOGOFF;
     ========================================================================
     =                                                                      =
     =          Logoff/Disconnect                                           =
     =                                                                      =
     ========================================================================
**** 19:22:09 UTY6216 The restart log table has been dropped.
**** 19:22:09 UTY6212 A successful disconnect was made from the RDBMS.
**** 19:22:09 UTY2410 Total processor time used = '0.296402 Seconds'
     .       Start : 19:22:00 - THU OCT 06, 2016
     .       End   : 19:22:09 - THU OCT 06, 2016
     .       Highest return code encountered = '0'.

Verificamos los datos en la tabla:

 BTEQ -- Enter your SQL request or BTEQ command: 
SELECT * FROM CARLOS.PRUEBA_TEXT ORDER BY 1;


 *** Query completed. 4 rows found. 2 columns returned. 
 *** Total elapsed time was 1 second.

       ID_N  C_TXT
-----------  -----
          1  UNO
          2  DOS
         49  UNO
         50  DOS

¡Hey! ¿Qué son ese 49 y ese 50? Pues ni más ni menos que los códigos decimales ASCII correspondientes a los dígitos ‘1’ y ‘2’. Al definir el campo (.FIELD) como DECIMAL(1) le hemos dicho que el dato que viene en el campo no es texto, sino un número, y multiload así lo hace: lee los BYTES como números y los carga en la tabla tal cual, sin interpretar el dato como la representación “en texto” de un número.

Pues sabiendo esto, y aunque no nos demos cuenta todavía, ahí está la clave para cargar los Comp-3 (Packed Decimals) en “mainframes“. La receta es fácil: si el dato numérico viene como texto (que será EBCDIC), bastará definir el .FIELD como CHAR(n) y multiload se encargará del CAST a numérico. Si por el contrario viene como “packed decimal” necesitaremos saber cuánto ocupa el campo en BYTES. En este caso también es necesario conocer el ‘PIC’ original. Así, por ejemplo:

PIC S9(4) COMP-3 => Byte size = (4 + 1) / 2 = 2.5 -> 3 bytes => .FIELD fld1 * DECIMAL(4)
PIC S9(5)V99 COMP-3 => Byte size = (5 + 2 + 1) / 2 = 4 bytes => .FIELD fld2 * DECIMAL(7,2)

Como se ve, el ‘PIC’ funciona de distinta manera que la definición de numéricos SQL: la parte entera se suma a la parte fraccionaria, mientras que en SQL la ESCALA supone el número total de dígitos, mientras que la PRECISIÓN dice cuántos de ellos son decimales.

Saludos.

Carlos.


Eliminar el atributo ‘IDENTITY’ de una columna preservando su contenido.

29 septiembre \29\UTC 2016

Las columnas IDENTITY son un mecanismo que sirve para generar claves subrogadas en Teradata. Es un método análogo -aunque completamente diferente- a las secuencias (sequences) en Oracle.

Debido a la naturaleza paralela de la arquitectura de Teradata, un elemento como una secuencia -que serializa por definición- es prácticamente impensable.

En cambio, el funcionamiento de las columnas IDENTITY es ‘AMP-local’ (y en consecuencia, paralelo) y funciona reservando un ‘buffer‘ de números para cada AMP, que se irán usando en las operaciones correspondientes. Esto es un punto importante: una secuencia es, claro, “secuencial”: y dará valores sucesivos para operaciones (generalmente INSERTs) sucesivas. Una columna IDENTITY garantiza valores únicos, pero no necesariamente sucesivos (es más, muy probablemente no lo serán).

Otra diferencia importante es que, mientras las secuencias Oracle son objetos independientes, las IDENTITY columns se circunscriben a la tabla donde fueron definidas.

Hay bastantes cosas incómodas respecto a las IDENTITY columns. Una de ellas, y no la menos importante, es la imposibilidad de ejecutar limpiamente un “Backup/Copy/Restore” con arcmain de una tabla que contenga una de ellas.

Así que: ¿Qué pasa si queremos eliminar la parte IDENTITY de una columna de una tabla? Hay sitios donde se recomienda agregar una columna a la tabla con el mismo tipo de la columna IDENTITY, hacer un UPDATE con los datos de ésta y luego eliminarla. No está mal, pero si la columna IDENTITY es el PRIMARY INDEX estamos jodidos. También se puede recurrir al viejo truco de CREATE TABLE + INSERT…SELECT + RENAME TABLE, pero asi estamos creando una tabla nueva (Nuevo object ID en la base de datos, GRANTS y estadísticas perdidos sin remisión…)

¿Habrá alguna forma más sencilla? Veamos.

 BTEQ -- Enter your SQL request or BTEQ command: 
CREATE MULTISET TABLE PRUEBA_ID(
   ID_N INTEGER NOT NULL GENERATED ALWAYS AS IDENTITY (START WITH 1 INCREMENT BY 1) , 
   C_TXT VARCHAR(25));


 *** Table has been created. 
 *** Total elapsed time was 1 second.


 BTEQ -- Enter your SQL request or BTEQ command: 
INSERT INTO PRUEBA_ID VALUES (NULL, 'UNO');


 *** Insert completed. One row added. 
 *** Total elapsed time was 1 second.


 BTEQ -- Enter your SQL request or BTEQ command: 
INSERT INTO PRUEBA_ID VALUES(NULL, 'DOS');


 *** Insert completed. One row added. 
 *** Total elapsed time was 1 second.


 BTEQ -- Enter your SQL request or BTEQ command: 
SELECT * FROM PRUEBA_ID;


 *** Query completed. 2 rows found. 2 columns returned. 
 *** Total elapsed time was 1 second.

       ID_N  C_TXT
-----------  -------------------------
          1  UNO
          2  DOS

Aquí tenemos nuestra tabla de prueba con su columna IDENTITY que además es el PRIMARY INDEX.

¿Qué pasa si intentamos quitar el atributo IDENTITY redefiniendo la columna sin él?

 BTEQ -- Enter your SQL request or BTEQ command: 
ALTER TABLE PRUEBA_ID ADD ID_N INTEGER NOT NULL;


 *** Table has been modified. 
 *** Total elapsed time was 1 second.


 BTEQ -- Enter your SQL request or BTEQ command: 
INSERT INTO PRUEBA_ID VALUES(NULL, 'DOS');


 *** Insert completed. One row added. 
 *** Total elapsed time was 1 second.


 BTEQ -- Enter your SQL request or BTEQ command: 
SELECT * FROM PRUEBA_ID;


 *** Query completed. 3 rows found. 2 columns returned. 
 *** Total elapsed time was 1 second.

       ID_N  C_TXT
-----------  -------------------------
      10001  DOS
          1  UNO
          2  DOS

Pues que no hemos hecho nada.

¿Y si intentamos simplemente modificar el atributo de ‘ALWAYS’ a ‘BY DEFAULT’?

 BTEQ -- Enter your SQL request or BTEQ command: 
ALTER TABLE PRUEBA_ID ADD ID_N INTEGER NOT NULL GENERATED BY DEFAULT AS IDENTITY (START WITH 1 INCREMENT BY 1);


ALTER TABLE PRUEBA_ID ADD ID_N INTEGER NOT NULL GENERATED BY DEFAULT AS IDENTITY (START WITH 1 INCREMENT BY 1);
                                                                                                               $
 *** Failure 3706 Syntax error: Cannot add new Identity Column option.
                Statement# 1, Info =112 
 *** Total elapsed time was 1 second.

Agua. No se puede modificar.

Afortunadamente hay una opción enterrada en las profundidades de los manuales de documentación de Teradata:

BTEQ -- Enter your SQL request or BTEQ command: 
ALTER TABLE PRUEBA_ID DROP ID_N IDENTITY;                      


 *** Table has been modified. 
 *** Total elapsed time was 1 second.

Ahora, si intentamos un INSERT con NULL:

BTEQ -- Enter your SQL request or BTEQ command:
INSERT INTO PRUEBA_ID VALUES(NULL, 'DOS');

*** Failure 3811 Column 'ID_N' is NOT NULL. Give the column a value.
Statement# 1, Info =0
*** Total elapsed time was 1 second.

Y la columna se comporta como una columna más:

BTEQ -- Enter your SQL request or BTEQ command:
INSERT INTO PRUEBA_ID VALUES(3,'TRES');

*** Insert completed. One row added.
*** Total elapsed time was 1 second.

BTEQ -- Enter your SQL request or BTEQ command:
SELECT * FROM PRUEBA_ID ;

*** Query completed. 4 rows found. 2 columns returned.
*** Total elapsed time was 1 second.

ID_N C_TXT
----------- -------------------------
10001 DOS
3 TRES
1 UNO
2 DOS

Por último, vemos el DDL de la tabla, que lo confirma:

BTEQ -- Enter your SQL request or BTEQ command:
SHOW TABLE PRUEBA_ID ;

*** Text of DDL statement returned.
*** Total elapsed time was 1 second.

----------------------------------------------------------------------------------------------------
CREATE MULTISET TABLE CARLOS.PRUEBA_ID ,NO FALLBACK ,
NO BEFORE JOURNAL,
NO AFTER JOURNAL,
CHECKSUM = DEFAULT,
DEFAULT MERGEBLOCKRATIO
(
ID_N INTEGER NOT NULL,
C_TXT VARCHAR(25) CHARACTER SET LATIN NOT CASESPECIFIC)
PRIMARY INDEX ( ID_N );

BTEQ -- Enter your SQL request or BTEQ command:

En resumen, el atributo IDENTITY ha desaparecido, aunque la columna y su contenido permanecen.

Eso sí: no hay marcha atrás. Una vez eliminado el atributo IDENTITY no se puede volver a agregar a la columna con un ALTER:

 
BTEQ -- Enter your SQL request or BTEQ command:
ALTER TABLE CARLOS.PRUEBA_ID
ADD ID_N INTEGER NOT NULL 
      GENERATED ALWAYS AS IDENTITY (NO CYCLE START WITH 10);               

ADD ID_N INTEGER NOT NULL GENERATED ALWAYS AS IDENTITY (NO CYCLE START WITH 10);
                                                                      
 *** Failure 3706 Syntax error: Cannot add new Identity Column option.
                Statement# 1, Info =116
 *** Total elapsed time was 1 second.

No obstante, hemos conseguido eliminar el atributo IDENTITY manteniendo la tabla ‘intacta’, con sus GRANTs y estadísticas.

Saludos.

Carlos.


Moving forward…

8 julio \08\UTC 2016

De “retailer” a banca. De Teradata 14.10 a Teradata 15.10.

Lots of fun to come…

Saludos.

Carlos.


“Untranslatable character” y EF BF BD

9 junio \09\UTC 2016

Resulta que te pasan un fichero para cargar en tu tabla en Teradata. Resulta que el fichero es de unos 2GB (y decides cargarlo con fastload). Resulta que el fichero es de texto delimitado tipo csv (comma separated values). Resulta que el fichero es UTF-8 (porque el sistema origen utiliza UTF-8). Resulta que tus tablas son LATIN (aunque no debería ser un problema, porque los caracteres que van a llegar en el fichero deberían ser sólo caracteres occidentales).

Lo normal.

Te pones a ello y utilizas fastload -c UTF8 (también podrías haber usado SET SESSION CHARSET).

Y entonces aparecen un monton de filas en la tabla de error 1 con el código 6706 (“The string contains an untranslatable character“).

Mierda.

Y ahí empieza lo bueno…

Una investigación sobre los datos problemáticos nos llevan a descubrir que la inmensa mayoría presentan cadenas de texto que contienen los tres bytes EF BF BD.

¿Y qué significan esos tres bytes? Pues significan que el sistema origen debería haber cargado datos UTF-8 exclusivamente, pero en realidad no fue así (al menos para una parte de ellos).

Los tres bytes constituyen la codificación UTF-8 del UNICODE U+FFFD, “REPLACEMENT CHARACTER”, y no son otra cosa que el rombito negro con una pequeña interrogación dentro que se puede ver surfeando la web cuando la tabla de códigos de la página HTML no se corresponde con la que espera el navegador.

Es la forma de decir “Eh, que estos bytes que me mandas no son UTF-8 (la codificación de los caracteres tiene unas reglas específicas en cuanto a bytes y sus bits). No sé lo que es, así que pongo el simbolito (“<?>”) en su lugar.”

Es algo parecido a lo que hacen muchas aplicaciones cuando reciben caracteres que no pueden representar con la tabla de códigos que están utilizando y los sustituyen por una interrogación (sql*plus lo hace así, por ejemplo).

Evidentemente, no existe ningún símbolo LATIN correspondiente al “REPLACEMENT CHARACTER”, por lo que fastload deriva los registros del fichero que lo contienen a la tabla de error 1 con el código 6706, ya que no lo puede traducir.

sed at rescue

Bueno, pues sabiendo que los tres bytes corresponden al símbolo que se utiliza como sustitución de un caracter erróneo, ¿por qué no hacemos nosotros el tarbajo previo y lo sustituímos por una interrogación simple (3F en hexadecimal), que sí se podrá traducir a LATIN?

OK. Recurrimos a sed y su funcionalidad de sustitución de códigos hexadecimales:

$ > sed "s/\xEF\xBF\xBD/\x3F/g" file1.csv > file2.csv

A partir de ahí, utilizando file2.csv conseguimos cargar los datos sin pérdida de información, y la tabla de error 1 está vacía al final del proceso.

Saludos.

Carlos.


Historial de comandos en bteq (y sql*plus) con las flechas del teclado en Linux.

8 junio \08\UTC 2016

La funcionalidad de utilizar las flechas del teclado para navegar por la historia de las sentencias ejecutadas en bteq (y en sql*plus) cuando trabajamos en entornos Windows hace que cuando nos pasamos a entornos Linux nos pase siempre esto:

 BTEQ -- Enter your SQL request or BTEQ command:
SELECT DATE;

 *** Query completed. One row found. One column returned.
 *** Total elapsed time was 1 second.

    Date
--------
16/06/08

 BTEQ -- Enter your SQL request or BTEQ command:
^[[A

¡Arrrggg! Y siempre nos pasa. Una y otra vez.

Pero hay una solución: utilizar rlwrap, que es un ‘readline wrapper‘. Basta con buscarlo (por ejemplo aquí) e instalarlo.

La instalación es simple: descomprimir el ‘tarball‘ (.tar.gz) en un directorio de trabajo y ejecutar:

./configure 
make install

Yo lo hago como ‘root’ para evitar problemas (“no se puede crear el directorio /usr/local/share/man”).

¡Ojo! Hay que tener instaladas las librerías GNU readline y readline-devel para que el instalador no termine con error.

Una vez hecho esto, lo que suelo hacer es modificar los lanzadores de bteq y sql*plus que tengo en el escritorio sustituyendo las llamadas simples “bteq” y “sqlplus /nolog” por “rlwrap bteq” y “rlwrap sqlplus /nolog”.

A partir de ese momento tengo mis utilidades SQL de línea de comando favoritas funcionando exactamente igual que en Windows y puedo navegar por la historia de los comandos ejecutados con “flecha arriba” y “flecha abajo”.

Saludos.

Carlos.


Do you think you have a problem, mr. DBA?

3 junio \03\UTC 2016

Blocked

Veinte sesiones bloqueadas (una de ellas durante casi doce horas y media), una sesión activa ejecutando una ‘query‘ de casi tres horas y tres cuartos, y tres sesiones ‘delayed‘.

Saludos.

Carlos.