Hewlett Packard compra MapR

6 agosto \06\UTC 2019

Hewlett Packard acaba de comprar MapR.

Después de la fusión de Cloudera con HortonWorks parece que el mundo del Hadoop tal y como fue pensado (open-source, commodity hardware, community mantained…) ha tenido mejores épocas, si no es que ha pasado a mejor vida.

Saludos.

Carlos.

Anuncios

Zapas Nuevas

2 agosto \02\UTC 2019

Adidas Solar Glide, son básicamente las mismas Supernova con las que he corrido este último año.

Saludos.

Carlos.


Time to die…

24 julio \24\UTC 2019

“Todos esos momentos se perderán en el tiempo, como lágrimas en la lluvia. Es hora de morir” 😪😪😪

https://www.fotogramas.es/noticias-cine/a28496491/rutger-hauer-muere-blade-runner/

Saludos.

Carlos.


Cloudera kaputt?

11 junio \11\UTC 2019

Pues parece que muy bien no está…

… y MapR tampoco parece estar mucho mejor…

Y esto del hadoop era lo que iba a borrarnos del mapa a nosotros los dinosaurios de los Datawarehouses. En fin…

Saludos.

Carlos.


openSuSE Leap 15.0

13 mayo \13\UTC 2019

He reciclado un viejo portátil y le he puesto openSuSE 15.0 con KDE.

 

 

Veremos a ver qué tal (de momento, problemas con el adaptador WiFi).

Saludos.

Carlos.


Sign of the Times…

2 abril \02\UTC 2019

En ello estamos…

Saludos.

Carlos.


SQL Assistant queries to Hive tables

27 marzo \27\UTC 2019

Resulta que ultimamente me estoy sumergiendo poco a poco en las procelosas aguas del Hadoop y sus interacciones con Teradata, así que estoy descubriendo cosas nuevas cada día.

Una de ellas es que puedes hacer “queries” SQL desde SQL Assistant a tablas Hive (¡!). La cosa no tiene demasiado misterio, pero hay un par de detalles a tener en cuenta.

Básicamente, sólo hace falta bajarse el driver de ODBC de Cloudera para Hive. La versión necesaria debe poderse entender con el SQL Assistant, por eso -tras probar infructuosamente con la versión de 64 bits- terminé bajándome la de 32 bits:

Cloudera ODBC for Hive

Una vez instalado el driver ODBC hay que configurar el origen de datos (DSN):

El Hive Server debe corresponder con el que esté corriendo en el Hadoop (en mi caso Hive Server 2). También es necesario que el “firewall” permita conexiones por el puerto utilizado (10000).

Y, si lo hemos hecho todo con un mínimo de cuidado, podremos hacer “queries” desde SQL Assistant a las tablas de Hive del servidor:

 

SQL Assistant Cloudera

 

Saludos.

Carlos.