Llegando al final de esta serie de artículos sobre herramientas del stack de Elastic le toca el turno a Kibana, la cual es la herramienta mas llevada a tierra para que nosotros los seres humanos podamos manejar y entender los grandes volúmenes de datos de nuestros logs. Te invito a continuar leyendo esta breve introducción a la herramienta.

¿Qué es Kibana?

Kibana es una aplicación frontend gratuita y abierta y que forma parte de las herramientas de Elastic. Nos permite hacer análisis y búsquedas sobre sets de datos almacenados en Elasticsearch. Es la interfaz de usuario para monitorear, gestionar la información del cluster de Elastic.
En nuestro caso utilizamos Kibana para análisis de logs, pero también se puede utilizar para visualizar métricas de infraestructura y monitoreo de contenedores, análisis de datos geoespaciales, análisis de seguridad y negocios.
Esta plenamente integrada a las APIs de Elasticsearch que vimos en el post anterior y nos presenta la información de una manera muy visual, ya sea con gráficos, tablas, mapas, etc.

Instalación y configuración básica

Para instalar Kibana en nuestro sistema operativo nos basta simplemente entrar en la página oficial de elastic y descargar el archivo correspondiente.

https://www.elastic.co/es/downloads/kibana

Para esta prueba yo elijo Windows. La configuración por defecto es suficiente para poder lanzar la aplicación y poder conectarnos, cabe aclarar que antes de lanzarla deberemos tener un Elasticsearch corriendo ya que Kibana intentará conectarse al puerto por defecto de la base de datos.

Ejecutamos el archivo kibana.bat y listo ya podemos acceder a la herramienta desde http://localhost:5601

Ahora bien la primera vez que levantemos este entorno deberemos crear un índice que nos permita obtener la información que llega a Elasticsearch, por lo que vamos a la sección Stack Management:


Luego a la sección Index Patterns:


Y ahí le damos al botón "Create index pattern":

 

El primer paso indica que definamos un "index name" que básicamente es una regex en la que tenemos que englobar el índice desde el cual tenemos que tomar los documentos de Elasticsearch:

 

 

En este caso yo tengo un índice creado por la información captada desde Logstash por lo que defino el Regex logstash-*, es decir que incluyo los índices que comiencen con la palabra logstash continuen con un guíon y lo que venga después no importa:



Luego me pide que seleccione un campo de tiempo, el cual por defecto se crea el @timestamp que seria la fecha en la que se proceso la información:





Le damos a Create index pattern y listo.

Ahora vamos a la parte de Discover: