Category Archives for "Consultoría"

ELK cómo generar alertas

Alertas en ELK

alertas en ELK : CÓMO GENERARLAS

El uso más común de ELK (Elasticsearch, Logstash and Kibana) es la generación dashboards para la visualización de métricas y tendencias, así como para el análisis forense o en procesos de debug. Pero este también puede usarse para generar alertas basadas en los cambios que se producen en la infraestructura. ELK por si mismo no dispone de un sistema de generación de alertas, pero hay herramientas para ello. Vamos ha analizar las diferentes opciones de alertas en elk.

Watcher

Watcher es el producto de Elastic para la generación y envío de alertas.

Este genera alertas en base a los cambios de la información guardada en Elasticsearch.

Este funciona en base a la definición de consultas en elastisearch, la definición de condiciones, definir cada cuando se realiza la consulta (scheduler) y que acción realizar si se cumple la condición definida.

Watcher se integra en ELK como una aplicación más i forma parte del paquete de aplicaciones de pago que  Elastic vende como añadidos a ELK.

 

Elastalert

Elastalert ha sido desarrollado por Yelp para uso interno y liberado bajo licencia Apache License, version 2.0. A diferencia de Watcher, Elastalert no se integra como un aplicación de ELK, sino que se ejecuta al margen de ELK.

Este realiza queries sobre Elasticsearch de forma periódica i permite definir un conjunto de reglas en base a la cuales se envían alertas hacia diferentes sistemas como Email, Slack o Hipchat entre otras.

 

Kaae

Kaae es un nuevo proyecto que pretende ser una alternativa opensource a Watcher. Este utiliza el mismo modelo que Watcher y se integra como una aplicación de ELK.

 

Logstash

A diferencia de Watcher Elastalert y Kaae, que se basan en la ejecución de queries para obtener y analizar la información, Logstash permite configurar eventos en tiempo real. Es decir, Logstash puede generar alertas cuando recibe los datos.

Todo y que es memos completo, ya que no podemos generar alertas en base a la correlación de datos, permite generar alertas justo cuando se recibe el datos de la fuente.

La entrada ELK cómo generar alertas aparece primero en Un cio como tu ….


Source: jmgriscom

El valor de Devops para un negocio

Print

Cuando hablamos de Devops, tenemos tendencia a centrarnos en las tecnología, herramientas y procesos utilizados. Básicamente es porque quién hablamos de ello somos gente que formamos parte de los equipos de desarrollo o de operaciones. Pero que valor aporta Devops para un negocio?

En el post anterior “Devops ROI” vimos los conceptos generales que permiten justificar la inversión en tecnología, el ahorro en costes de horas de trabajo y el ahorro en caídas del sistema. Pero Devops aporta otras ventajas o valor difícil de cuantificar en términos monetarios. Hoy en día, donde todos o la mayoría de los negocios son negocios basados en tecnología, este valor puede ser el hecho diferencial entre una empresa u otra.

La implantación de Devops nos permite impactar directamente en mejorar como distribuimos un producto al cliente, cambiar el producto rápidamente para satisfacer las necesidades del cliente o como recuperamos después de un fallo que afecta al cliente.

Un producto en si mismo no es nada hasta que un cliente lo utiliza. Es por ello que es importante reducir el tiempo de lanzamiento de un producto, y aquí es donde la automatización actúa como un multiplicador, permitiendo la colaboración de todos los equipos involucrados en la creación de un producto.

De la misma forma que un producto no sirve de nada si no lo utiliza un cliente, las mejores funcionalidades son aquella que utiliza el cliente. De nada sirve tener un producto con un montón de funcionalidades que no se utilizan. Es por ello que todos los esfuerzos deben focalizarse sobre las funcionalidades que utilizan los clientes, pero como sabemos que funcionalidades va a utilizar el cliente si aún no la hemos lanzado? Devops permite cambiar el enfoque en que priorizamos las funcionalidades de un producto. Pasamos de un enfoque basado en lo que el propietario o la gente de marketing quiere que tenga el producto a un enfoque basado en lo que el cliente quiere que tenga el producto. Para ello, la frecuencia de desarrollo y el uso de test A/B sobre grupos de clientes nos permiten conocer que funcionalidades y mejoras que quieren los clientes.

Por otro lado, todo y que a todos nos gustaría que un producto nunca fallara, tenemos que asumir que en el mundo real el fallo forma parte del ciclo de vida de un producto, falla la tecnología y fallamos nosotros. Todo y que con la automatización de los procesos de testing y deploy se reduce el número de fallos, debemos entrenarnos en la gestión del fallo para reducir el tiempo de recuperación ante fallo o MTTR (Mean Time To Repair). La reducción del tiempo de recuperación ante un fallo mejora la satisfacción del cliente.

En resumen, aplicar Devops permite reducir el tiempo de lanzamiento de un producto, distribuir al cliente aquello que desea el cliente, y mejorar la satisfacción del cliente.


Source: jmgriscom

Nueva Web en Orbal

web-orbal

Una web llena de recursos para vosotros

web-orbal

Siempre he dicho que una imagen vale más que cien palabras, y por eso creo que lo mejor es que se vea lo que estamos haciendo.

Estamos haciendo un punto de encuentro donde un Responsable Informático pueda encontrar la mayor cantidad de recursos sobre ello, videos, white papers, e-books

Y mientras vamos populando este apartado, podéis ver nuestro nuevo site, desde donde podréis ver lo que hacemos, nuestras novedades, etc.

captura-de-pantalla-2016-09-25-a-las-18-39-52

Os esperamos pronto por www.orbal.es

Take care,

JM

 


Source: jmgriscom

¿Cúal es la inversión de nuestra empresa en IT?

Hay una serie de métricas que un CIO tiene que tener muy claras si quiere que su departamento esté a la altura de las circunstancias y que el desempeño de su cargo no sea cuestionado (entre otras).

Uno de los primeros conceptos que tiene que tener en cuenta un responsable de un Departamento de IT es que esta gestionando un presupuesto más o menos elevado, pero que no ha solicitado ni precisa el Departamento de IT.

Si, parece mentira pero es así. El 80 o 90% del presupuesto del Departamento de IT está dedicado a dar servicio a nuestros clientes internos, los otros Departamentos, para que ellos a su vez, den servicio a los clientes de la empresa.

Lo primero que debiera tener claro el CIO es este concepto y defenderlo, lo segundo, conocer que porcentaje usa cada Departamento del 80% en cuestión y lo tercero (ya vamos para nota) que cada mes hubiera una nota interna o “factura” donde le indicáramos a cada Departamento en lo que ha incurrido. Al lado, para compensar la situación, una evaluación del servicio.

Esto, para las empresas que trabajan con una contabilidad de centros de costes será relativamente fácil, porque la cultura ya estará implantada, en las que no, pues pasito a pasito y empezar a clarificar quién es el responsable del presupuesto y quién es el que lo está explotando en verdad.

Estoy preparando un post donde además hablaremos sobre como confeccionar un presupuesto anual “por concepto y destino”, pero ahora volvamos al post original. Volvemos…

Si Vd. CIO de la empresa X le preguntara que porcentaje de los ingresos de su empresa se invierten en IT, ¿me sabría contestar? ¿Y si le pregunto cual es la media de su sector, o la media general?.

Antes de que dejes de leer este post déjame decirte que es muy fácil conocerlo (facturación anual y OPEX incluyendo amortización del Depto de IT y hacer una operación) y muy importante saberlo.

¿Por qué? Porque cuando venga el momento de poner presupuestos sobre la mesa, si sabemos ese dato y comparamos nuestra inversión en frente de la sectorial, tendremos argumentos en lenguaje de negocio para defender el proyecto, porque así se defienden los proyectos, en lenguaje de negocios, y demostrando que la inversión o ROI de nuestro proyecto es menor que los beneficios que va a aportar.

Sí, ya sé, y lo sé por experiencia (10 años como CIO) que hay muchos puntos “difíciles” en los proyecto, “intocables” que tendremos que volver “tocables”, poniendo un valo, y puntos “incuantificables” que volveremos “cuantificables”, porque nuestro CIO va a discutir un punto crítico “que gano si pongo en marcha este proyecto”.

Si esto lo podemos “indexar” al cuadro de lo que se gasta la industria en IT, tendremos otro punto de apoyo.


Acabo de ver el cuadro de Gartner y lo cierto es que continúo pensando que es bajo el “Share” de IT en los ingresos de la empresa.

El sector financiero está invirtiendo un 6.3% y el de Software e internet un 6,7, mientras que el general de la industria es un 3.3%. Ojo con confundirnos. Veamos que el sector de la energía tiene tan sólo un 1.1%, Igual con el 1.3% de las químicas. ¿sobre que cantidad de ingresos?

Tengamos un momento para hacer estos cuatro números y comparémonos con el cuadro o con nuestros colegas (si es posible). El paisaje nos dará mucha información.

Me encantaría que me dejárais algun comentario al respecto.

Hasta la semana que viene

Take care,

JM


Source: jmgriscom

Virtualización de servidores con éxito. Nuevo Ebook de este Blog.

virtualizacion-de-servidores-con-exito

¿Cómo estáis? Espero que ya reintegrados afrontando el ultimo trimestre del año.

Bien. Pues vengo a presentaros algo que llevaba dentro hace tiempo  y tenía ganas de que viera la luz. Un Ebook que contemplara las fases necesarias en un proyecto de virtualización de servidores (la virtualización de escritorios, aplicaciones y storage tienen un ciclo de vida similar pero distinto). Tenía que escribirlo….

¿A quien va dirigido el Ebook?  Pues a todos aquellos IT-Man, CIOs, informáticos y personas relacionadas que piensan o desean preparar un proyecto de virtualización de Servidores.  Y la intención final no es más que explicar y detallar las distintas fases del proyecto y argumentar porqué tiene sentido cada fase y que ganamos con ella.

A lo largo de mi experiencia en este mundo de la virtualización he tenido que revisar instalaciones las cuales tenían problemas e investigando he ido viendo que el 90% de las instalaciones que he tenido que recomponer era sencillamente porque en el proyecto nadie había puesto sobre la mesa la conveniencia o necesidad de cierta fase.

No se trata tan sólo de un libro técnico, sino que hay capítulos de gestión de TI en la que expongo o apunto a oportunidades donde se puede generar un proyecto de este tipo. Si eres capaz de “detectar” los puntos identificativos que indico, podrás con alto grado de seguridad empezar a sembrar lo que en un futuro va a ser las bases del proyecto para tu pequeño o gran CPD.

¿Y que más puedo decir? Que el libro va a ser gratuito y se va a distribuir en breve desde este blog o desde nuestra web www.orbal.es. Tan sólo te voy a pedir que te suscribas a nuestra Newsletter a cambio.

Y nada más, tan sólo indicaros que la intención es que otros libros eminentemente técnicos o de gestión, pretendo que sucedan a éste. Ya os iré dando noticias sobre ellos.

Dos puntos finales. El primero, espero que disfrutéis y sobre todo os sirva lo que he estado escribiendo para vosotros. Gracias por vuestro tiempo en leerlo.

El segundo. Me gustaría mucho que si estáis interesados en algún tema que os gustase/interesase, me lo escribierais abajo en los comentarios o me enviaseis un mail. Os estaría muy reconocido. Os avanzaré que estamos pensando en que Albert escriba un E-book sobre como usar elementos opensource para monitorizar sistemas virtualizados (Monitorización de guerrillas) y yo me estoy planteando uno sobre como evaluar los costes de un departamento de IT o como elaborar el presupuesto anual del mismo. Vosotros tenéis la palabra.

Take care, JM


Source: jmgriscom

Organiza tus jobs de Veeam mediante políticas

organiza-tus-jobs-mediante-veeam

El hecho de que la virtualización es una tecnología ya bastante madura en cada vez más entornos supone muchos retos. Vamos añadiendo cargas (seguramente cada vez más críticas y sensibles) a los hipervisores, nuevas máquinas, ratios de consolidación más agresivos y demás realidades que parece que induzcan la idea de que mantener el control de nuestra infraestructura tenga que ser más una cuestión de “hacer malabares”. Estos fenómenos son los que o ya afrontamos o afrontaremos en algún momento y es por ello que por ahí van las tendencias de los fabricantes cada vez apostando más por la automatización y la monitorización.

Estas realidades aplican por supuesto también a las soluciones que dependen directamente de nuestra infraestructura vSphere, como por ejemplo Veeam Backup&Replication. Antes de nada, en el caso de Veeam, lo primordial es mantener una definición de los requerimientos de cada VM en cuanto a su nivel de disponibilidad, luego veremos cómo aplicarlos y sobretodo mantenerlos de manera ágil.

Al final, lo que queremos es una manera ordenada y dinámica de proteger nuestras VMs según las condiciones específicas de cada una de ellas.

Para definir estas políticas deberemos analizar qué requerimientos tienen nuestras VMs o nuestros perfiles de VMs: tenemos que declarar los parámetros en los que basaremos nuestras políticas de Backup/Replicación.

Paso 1 – definir parámetros y valores

Un ejemplo sencillo de estos parámetros podría ser el siguiente:

  • RPO

    • ¿Cada cuanto tiempo debemos ejecutar una copia de la VM? Lo podemos medir en minutos, horas, días …
  • Ventana
    • ¿Qué intervalo tenemos para ejecutar la copia? Pierde relevancia si usamos Storage Snapshots. Expresado en franja horaria.
  • Retención
    • ¿Qué histórico de copias debemos almacenar para esa VM? Lo especificaremos en valores “absolutos”. Es decir, si quiero mantener una semana de copias y mi RPO es de 24h, tendrá un valor de 7.
  • RTO
    • Tiempo en poner la máquina en producción a partir de la declaración del desastre. En sí no es un parámetro que apliquemos al job como el RPO, pero podemos agilizarlo usando Reverse Incremental o más aún con replicas.
  • Encriptación
    • ¿Debemos encriptar los datos de esa VM?
  • OS
    • Mantener VMs de OS/Datos/Apps parecidos nos ayudará a tener mejores ratios de deduplicación.
  • ¿Backup secundario?
    • Hay que almacenar una copia de la VM en algún otro lugar.

Paso 2 – agrupar

Con  este análisis como primer paso, tendremos una descripción en términos de protección de datos de nuestras VMs, “metadatos” para cada una. Ahora nos hará falta agruparlas según valores parecidos. Fácilmente, acabaremos (siga esto entendiéndose como ejemplo) con un grupo que será “Producción – Linux” con unos valores iguales para cada parámetro en todas las VMs. Con estos grupos, tendremos una posible propuesta de organización/distribución de nuestros Jobs de Backup/Replicación.

Paso 3 – “dinamizarlo”

Sin embargo, no olvidemos que el principal ánimo de este post es hacer el trabajo (sobretodo el de mantenimiento) más sencillo. De momento, tenemos una manera ordenada de proteger a nuestras VMs según los requisitos específicos de cada una, pero no hemos hablado de cómo hacer todo este proceso dinámico o semi-automatizado.

Cuando hablamos de Jobs dinámicos en Veeam Backup & Replication, nos referimos a Jobs que como origen tienen un objeto que no es/son una VM en sí. En la definición del job, como “Source”, podemos añadir una a una cada VM que cumpla los requisitos definidos por el Job. Si tu entorno es pequeño, y sobretodo, con pocas modificaciones, es algo planteable, pero si el entorno va evolucionando (que es lo más normal), habrá que empezar a plantear otras maneras, puesto que no vamos a ir añadiendo VMs a los Jobs, sería bastante ineficiente.

En el fondo, para tener un job dinámico bastaría con crear uno solo para toda tu infraestructura que, como “Source”, incluyera todo el vCenter. De esta manera, toda máquina nueva sería incluida directamente en la copia sin necesidad de dar “un paso más” añadiéndola. Sin embargo, catalogar todas las VMs bajo la misma definición no es lo que buscamos tampoco.

Es aquí donde toman relevancia objetos de vCenter que quizás no habías tenido en cuenta antes, como son las etiquetas (o “tags”) y las carpetas. En este whitepaper, Luca Dell’Oca nos sugiere que, una vez definidos los grupos de VMs que hemos visto en el paso 2, cada grupo se mapee a un tag de vCenter y luego, creando un Job para cada grupo, añadir cada etiqueta como “source” del job. Así pues, para nuestro grupo de ejemplo “Producción – Linux”, tendremos que crear su etiqueta en vCenter, etiquetar cada VM que pertenezca a este grupo con ella, y luego crear un Job de Veeam que como Source tenga dicho tag. Además de ser un genial White Paper (recomiendo descargarlo y leerlo detenidamente sobre todo por cómo se detallan los pasos), me parece un método perfecto para entornos heterogéneos, diversificados, (muy) grandes y con muchos usuarios y permisos en vCenter. Sin embargo, quizás vea más acorde a un entorno “standard” de los que tenemos hoy en día por nuestras tierras usar las carpetas de vCenter . La razón es sencilla: al crear una VM, ya sea mediante el wizard tradicional del cliente de vSphere o incluso mediante herramientas de terceros como Chef, nos dejará (de hecho nos “obligará”) especificar en qué carpeta la ubicamos.

Esto hace que no tengamos que dar ese “paso más” de luego ir y etiquetar la VM. Luca habla de maneras muy válidas mediante scripting por ejemplo de automatizar el proceso de etiquetar, pero quizás es demasiado complejo si ya nos sirven las carpetas.

La idea es que no queden máquinas virtuales fuera de copia. Si usamos carpetas, nos aseguramos que siempre nos pregunte en qué carpeta ponemos la VM, pero cabe la posibilidad de que la VM caiga en la carpeta “Discovered Virtual Machines” o en la matriz del Datacenter. Para mitigar este problema, podemos por ejemplo ejectuar un pequeño script que cada dia revise que no queden VMs en carpetas que no estén incluidas en ningún job.


Source: jmgriscom

Retorno de la inversión (ROI) en Devops

design-process-thumb

El calculo de cualquier retorno de inversión se basa en el ahorro esperado. Cuando analizamos el retorno de inversión de implantar prácticas como DevOps, es difícil cuantificar este ahorro en términos monetarios. Hay dos aspectos que nos pueden ayudar a entender los ahorros que obtenemos al implantar DevOps: ahorro de costos en horas de trabajo y ahorro de costos de caídas del sistema.

Por lo que hace al ahorro de coste en las horas de trabajo, podemos clasificar el trabajo de cualquier departamento de TI o desarrollo en dos tipos, trabajos planificados y trabajos no planificados, donde los trabajos planificados son aquellos que están destinados a aportar valor a nuestros clientes, en cambio, los trabajos no planificados son aquellos que se realizan a causa de errores o incidencias que hay de resolver de inmediato. Implantar prácticas de Devops permite reducir el tiempo de trabajo no planificado. Pero cual es el coste del trabajo no planificado?

En el informe anual que publica Puppet “State of Devops Report” del 2016, se plantea la siguiente formula para calcular el exceso de coste que supone el trabajo no planificado.

Cost del exceso de trabajo = Personas * Salario medio * Beneficios * Porcentaje de tiempo dedicado a trabajo extra.

• Número de personas: total de personas del equipo técnico.
• Salario medio: según un artículo de computerworld, que hace referencia a un informe de Addeco, el sueldo medio del sector TIC en España oscila entre los 30.000 y 60.000 euros anuales.
• Beneficios: es el coste de los variables o incentivos que perciben los trabajadores a más a más del sueldo, como tickets restaurant, mutuas, etc.. Podemos estimar un factor de 1.2 sobre el sueldo medio.
• Porcentaje de tiempo de trabajo extra: según el informe de Pupper “State of Devops Report” del 2016, para una empresa media este está entre un 10% y un 32%.

Para poner un ejemplo del coste de trabajo extra o trabajo no planificado realizado, ponemos que tenemos un equipo de 10 personas. El cálculo seria el siguiente:

Coste de exceso de trabajo = 10 * 45.000,00€/año * 1.2 * 22% = 540.000,00€/año * 22% = 118.800,00€/año

A este coste, debemos añadir el coste de las caídas de servicio, coste que varia mucho en función de la naturaleza de la organización y que no es fácil de calcular. Todo y la dificultad de calcular el coste de las caídas, es interesante ver la aproximación que se hace en el informe de Puppet,donde se plantea una formula para estimar el coste de las caídas de servicios.

Coste del “downtime” = Frecuencia de Deploys * Porcentaje de caídas * Tiempo medio de recuperación * Coste por hora de caída

• Frecuencia de deploys o despliegues que se realizan en el entorno de producción y que pueden ser causa de caídas del sistema.
• Porcentaje de caídas producidas por cambios en el sistema.
• Tiempo medio de recuperación o MTTR (Mean Time To Recover) que corresponde al tiempo medio que el equipo de operaciones tarda en recuperar los sistemas ante una caída.
• Coste de por hora de caída. Este dependerá mucho de lo crítico que sea el sistema caído.

Aquí las prácticas de Devops nos ayudan a reducir el tiempo de recuperación de los sistemas ante caídas y a reducir el porcentaje de errores producidos por cambios en el sistema.

Podéis encontrar más información en el informe de Puppet “2016 State of Devops Report”


Source: jmgriscom

Provisionar entorno de desarrollo con Vagrant y Chef Zero

En el post Gestión de a configuración o Configuration Management (CM), características y beneficiosvimos que uno de los beneficios de los sistemas de gestión de la configuración como Chef o Puppet es que permiten replicar entornos de forma fácil y rápida, lo que nos permite establecer flujos de trabajo a través de los diferentes de entornos idénticos (desarrollo, test, … y producción).  Por otro lado, en el post anterior Tu primer entorno de desarrollo con Vagrant vimos como crear un entorno de desarrollo utilizando Vagrant. Hoy vamos a profundizar un poquito más en la creación de entornos viendo un ejemplo de como provisionar un servidor virtual Vagrant con Chef utilizando una herramienta llamada Chef-Zero. 

Chef-zero es un servidor Chef ligero que se carga en memoria RAM y que permite ejecutar el código Chef que hemos desarrollado, de la misma forma que haríamos sobre un servidor Chef.  No vamos a entrar en detalle en como funciona Chef-zero, sino que solo veremos como configurar Vagrant para que ejecute código chef durante el proceso de provisión.

Para empezar vamos a crear un pequeña estructura de carpetas y un fichero con código Chef que instalará el servidor web Apache.

Estructura de carpetas y ficheros a crear:

nodes/
cookbooks/micookbook/recipes/
cookbooks/micookbook/recipes/default.rb

El contenido del fichero cookbooks/micookbook/recipes/default.rb es el siguiente:

package ‘apache2’ do
action :install
end
service “apache2” do
action :start
end

en el fichero default.rb, el código chef describe dos acciones a realizar: primero utiliza el recurso llamado ‘package’ para indicar que se debe instalar el paquete apache2, y segundo, utiliza el recurso ‘service’ para indicar que el servicio apache2 debe estar arrancado.

Para provisionar un servidor Vagrant con Chef-zero tenemos que instalar en Vagrant un par de plugins, omnibus y vbguest. En caso de utilizar otros sistemas de provision, se deberían instalar los plugins correspondientes. Para instalar los plugins en Vagrant hay que ejecutar los comandos siguientes desde la consola:

vagrant plugin install vagrant-omnibus
vagrant plugin install vagrant-vbguest

Finalmente, tenemos que configura Vagrant para que utilice chef-zero para provisionar el servidor. Como vimos en el post anterior “Tu primer entorno de desarrollo con Vagrant” (Link al post), esto se hace en el fichero Vagrantfile.

# -*- mode: ruby -*-
# vi: set ft=ruby :
Vagrant.configure(2) do |config|
config.vm.box = “ubuntu/xenial64”
config.vm.provision “chef_zero” do |chef|
chef.cookbooks_path = “cookbooks”
chef.nodes_path = “nodes”
chef.add_recipe “micookbook”
end
end

En el fichero Vagrantfile del ejemplo configuramos que se utilice el sistema de provisión chef_zero. También configuramos en que carpeta se encuentran los cookbook – los cookbook contienen los ficheros con el código Chef -, y en que carpeta se guardara el fichero de definición del nodo o servidor virtual.  Finalmente, se indica que recipes – fichero con código Chef – se ejecutará durante el proceso de provisión.

Una vez creado el código Chef y configurado Vagrant, ya podemos arrancar el servidor virtual mediante el comando “vagrant up”. Durante el proceso de arranque, una vez creado el servidor virtual, Vagrant ejecuta el código Chef en instala el servidor web Apache. Si accedemos al servidor (vagrant ssh) podemos ver que se ha instalado apache y que el servicio de apache esta en ejecución.


Source: jmgriscom

Los empleos de futuro….

Ayer noche escuchaba un report de una multinacional Americana (no daré nombres para evitar controversias y centrarnos más en el tema) que decía que nuestros hijos iban a trabajar en empleos que aun no existen a día de hoy, como diseñadores de cuerpos….

Me quedé meditando un momento y me di cuenta que detrás de aquel grandilocuente mensaje no había más que una obviedad (que nadie se enfade, por favor)

O es que acaso mi padre tenia claro que mi empleo iba a tener que ver con la informática (en ciernes en aquellos momentos) y más aún en el mundo de la virtualización.

Hacia el año 2000 tuve la suerte de poder asistir a una charla que patrocinaba un gran banco, en la que un político (bastante brillante, pero volveré a omitir nombres) dijo una frase que sí me impactó: “Los cambios de los próximos 10 años van a suponer un cambio global superior a los cambios de los últimos 50 años”.

4b434777cc749c900b78a8469772ba04

Vistas estas dos reflexiones, el report de “los empleos del futuro” con ese horizonte tan basto y lejano, me parece un brindis al sol, y como decía Groucho “Sres, estos son mis razonamientos y si no les gustan, tengo otros”.

Después de esta “introducción”, por llamarla de alguna manera, creo que es hora que me moje yo sobre mi visión, pero amigos, no lo haré a “tiro largo”. Me voy a quedar cerquita…..

Para mí, estos son las “profesiones” que van a venir, o que ya están aquí y que van a generar una demanda alta de profesionales, curiosamente casi todas están relacionadas con la IT.

Ingenieros de BIG DATA Profesionales que sean capaces de enfrentarse a una montaña de datos, y que sean capaces de ofrecernos información y sobre todo conocimiento. Cercanos, imbuidos o “al lado” van a estar los DATA SCIENTIST.

Otra parte que va tener que tener mucho juego es la de la Seguridad Informática en sus dos vertientes, Enterprise y privada.

Seguridad Enterprise o Chief Security Officer.  Esta persona con rango de directivo va a ser la que declare las políticas de seguridad informática en la empresa, las implante, y monte los sistemas para vigilar si se cumplen o no.

Seguridad informática privada No estoy hablando de “Body Guards” ni nada por el estilo. Estoy hablando de que cada vez “somos” mas IT, con mas gadgets basados en un mini procesador. Todos tenemos uno o varios devices tipo Tablet o Smartphone, donde “guardamos” nuestra información más delicada. Ya hay audífonos con procesadores y no hablemos de los implantes biónicos que se pinchan en el cerebro. He visto hackear un automóvil desde un portátil dentro de el sin estar conectado físicamente y por mucho que el conductor frenaba o giraba el volante, el coche acabó en una mullida cuneta de hierba, pero fuera de la carretera. Alguien tendrá que dedicarse a inventar sistemas de seguridad para que no entren virus en implantes biónicos o los coches no vayan por ahí haciendo ataques cual “Christine” de Steven King.

Ingeniero E-Learning. Es ya una obviedad que el E-learning va teniendo auge cada vez más importante. Yo particularmente he dado mucha formación presencial y alguna por E-Learning y lo que me he dado cuenta es “que no es lo mismo” y que “no cualquiera es capaz de coger una materia presencial y pasarla a un E-Learning de calidad.

Abogacía y Judicatura Digital. Durante unos años me dediqué a la seguridad informática y con ello colabore con el Grupo de delincuencia tecnológica de la Policía. El Jefe superior de Policía de entonces me decía, soy consciente de que en unos años la delincuencia va a pasar de lo “físico” a lo “virtual”. Da más velocidad, mas anonimato y tenemos que estar preparados. Pero cuando llegábamos a Juicio y tenia el rol de Périto, ahí flipaba. Desde péritos que hacían sus informes en “balleno” que a duras penas las entendía yo, hasta yo que escribía dos informes en uno, el técnico y seguidamente comentado en términos vulgares. Es hora de que la legislatura incorpore este tipo de delincuencia es su tipificación o establezca ciertos juzgados especializados.

Psicología organizativa.  Para los que no lo saben, aparte de la Psicología clínica existe la organizativa, la que toma el pulso a la empresa, la que sugiere cambios y ascensos, la que propone establecer procesos o automatizarlos.

Ingenieros en 3D. Esta claro que esta “disciplina” cada vez tiene más aplicación y mayor demanda. Personalmente he oído aplicaciones que me han dejado con la boca abierta, desde ortopedias y “yesos” de bajo coste para brazos rotos, hasta comida en 3D. Como todo, nace con “cuatro chalados” que lo hacen funcionar y dos “frikis” que por la noche tratan de llegar más lejos que los que lo han diseñado, pero hace falta conocimiento y método para integrar cualquier cosa en nuestra “civilización” (Por llamarle de alguna manera)

Como último, y no porque no haya más, pero sino este post será interminable, dos que se apartan de los que hemos estado hablando.

Médico biónico. Esta claro que estamos en el inicio de poder ver personas con partes de ellas biónicas.

Agroingeniero. Que duda cabe que la alimentación va a ser crucial en los próximos ¿años? ¿lustros? ¿décadas?

Hasta aquí mi pobre visión, que como personal, es válida, que cada uno haga (si le interesa) un rato de retro-inspección y revisión y vea cual es la suya.

 


Source: jmgriscom

VMmark: benchmarks para nuestro entorno virtualizado

Realizar pruebas de carga sobre nuestra infraestructura para ver sus niveles de respuesta bajo niveles previamente estipulados es un “must”. Tanto en el momento de instalar como para evaluar el nivel de respuesta de la infraestructura ante potenciales cambios. Aún así, puede resultar difícil realizar test realísticos pues hay que o dominar muy bien la aplicación para crear cargas sintéticas, que simulen reales, o disponer de herramientas específicas para cada test de simulación de stress para cada recurso.

Aunque estas opciones sirven para dar ciertos niveles de información con sus métricas, ninguna de ellas está pensada para testear una infraestructura virtualizada orientada a la consolidación de servicios.

Al final, VMmark usa aplicaciones que usamos día a día en nuestros Datacenters. Las agrupa en “tiles”, que son grupos de VMs que ejecutan varios servicios, cada tile con su cliente. Esta unidad precisamente, el tile, nos sirve para medir la capacidad de consolidación de nuestra infraestructura, contabilizando cuantos de ellos podemos ejecutar bajo niveles aceptables de rendimiento. Los servicios que simula cada tile son:

  • VM en Standby

    • Windows Server 2003 32bit, 1 vCPU, 512MB RAM, 4GB disco
  • Mail Server (Exchange 2007)
    • Windows Server 2008 64bit, 4 vCPU, 8GB RAM, 72GB disco
  • Web 2.0 (Olio)
    • Back End: SLES 11 64bit, 2vCPU, 2GB RAM, 14GB disco
    • Front End: SLES 11 64bit, 4vCPU, 6 GB RAM, 80GB disco
  • E-commerce (DVDStore 2)
    • Back End: SLES 11 64bit, 4vCPU, 4GB RAM, 45GB disco
    • 3xFront End: SLES 11 64bit, 2vCPU, 2GB RAM, 10GB disco

Todos ellos con ficheros de configuración perfectamente descritos por las guías de VMware, los clientes para los servicios y sobretodo los scripts de ejecución y reporting, nos darán datos muy exhaustivos, reales y directamente orientados a un entorno virtualizado.

Podéis obtenerlo la herramienta vmmark benchmark aquí.

maxresdefault


Source: jmgriscom