jueves, 31 de agosto de 2017

Un paseo general por el mundo del Big Data y Hadoop…

Hoy en día escuchar de Big Data, Analytics, Machine Learning, Inteligencia Artificial, Iot; son términos que van dominando el mundo de la tecnología.

Altos volúmenes de datos y alta velocidad, no son garantía de un Big Data exitoso. Su variedad o diversidad enriquecido por las distintas fuentes organizadas y armonizadas, en realidad le otorgarán su potencial real que es la generación y/o manejo del valor empresarial.

Gartner define el big data como grandes volúmenes, alta velocidad y gran variedad de activos de información. Añadiendo la no estructura original y alto crecimiento, estaría un poco más completa.

En los últimos dos años una mayor cantidad de empresas comenzó la recolección y almacenamiento de todo tipo de formatos y tamaños de datos con y sin estructura, además de extraer cierto valor de estos. Con una diversidad de arquitecturas, tecnologías, modelos.


Esto va más allá de lo que conocemos hoy, esto es, si bien el big data subyace en clusters y procesamiento paralelo; su verdadero potencial será puesto a prueba con las arquitecturas cuánticas. Aunado a la integración del IoT(Internet de las cosas), las nubes y los algoritmos de inteligencia artificial que evolucionan. Centrando en las herramientas analíticas el reto de exponenciar su valor. Hoy en día su balanceo con Streaming y Lagos de Datos lleva a las arquitecturas más balanceadas para su administración y explotación.

En esta ocasión nos centraremos en Hadoop y el entorno que lo envuelve, considerando que es uno de los medios de gestión de Big data más populares y open source. Sin dejar de lado el paso que las herramientas abren para brindar mejores resultados y no depender solo de Hadoop. No olvidemos como el boom de los XML para integrar fue relevado por la no estructura de JSON.

En poco tiempo se estima un crecimiento importante de la arquitectura y sistemas para almacenar, organizar y gestionar grandes volúmenes de datos, madurarán los marcos de referencia y seguridad para facilitar la explotación y análisis. Más aún importante es la capacidad de reconocimiento de patrones y aprendizaje de estos datos.

La convivencia con distintas fuentes y medios de información se armonizan y los esquemas estructurados solo son una parte del potencial real que incluso va mucho más allá de tener dashboards, dando paso a los acelerados y lenguajes que simplifican su uso y explotación más aún si están proyectados para interactuar en tiempo real con dispositivos y aplicativos que explotan el estudio de los patrones de comportamiento, para predecir, aprender, etc.

Hadoop
Apache Hadoop es software de código abierto que sirve para almacenar y analizar cantidades masivas de datos, tanto estructurados como no estructurados: terabytes o más de correo electrónico, lecturas de sensores, registros de servidor, fuentes de Twitter, señales de GPS, etc; cualquier tipo de datos que pueda imaginar. Con Hadoop puede procesar grandes conjuntos de datos desordenados y obtener conocimiento y respuestas a partir de ellos, de ahí la expectación creada.

Apache Hadoop es un framework de software que soporta aplicaciones distribuidas bajo una licencia libre.1​ Permite a las aplicaciones trabajar con miles de nodos y petabytes de datos. Hadoop se inspiró en los documentos Google para MapReduce y Google File System (GFS).

Una funcionalidad clave es que para la programación efectiva de trabajo, cada sistema de archivos debe conocer y proporcionar su ubicación: el nombre del rack (más precisamente, del switch) donde está el nodo trabajador. Las aplicaciones Hadoop pueden usar esta información para ejecutar trabajo en el nodo donde están los datos y, en su defecto, en el mismo rack/switch, reduciendo así el tráfico de red troncal (backbone traffic).

El Hadoop Distributed File System (HDFS) es un sistema de archivos distribuido, escalable y portátil escrito en Java para el framework Hadoop. Cada nodo en una instancia Hadoop típicamente tiene un único nodo de datos; un clúster de datos forma el clúster HDFS. La situación es típica porque cada nodo no requiere un nodo de datos para estar presente. Cada nodo sirve bloques de datos sobre la red usando un protocolo de bloqueo específico para HDFS. El sistema de archivos usa la capa TCP/IP para la comunicación; los clientes usan RPC para comunicarse entre ellos.

La lista de sistemas de archivos soportados incluye:
  • HDFS: El sistema propio de Hadoop. Está diseñado para la escala de decenas petabytes de almacenamiento y funciona sobre los sistemas de archivos de base.
  • Amazon S3. Éste se dirige a clusters almacenados en la infraestructura del servidor bajo demanda Amazon Elastic Compute Cloud. No hay conciencia de racks en este sistema de archivos, porque todo él es remoto.
  • CloudStore (previamente llamado Kosmos Distributed File System), el cual es consciente de los racks.
  • FTP: éste almacena todos sus datos en un servidor FTP accessible remotamente.
  • HTTP y HTTPS de solo lectura.
Hadoop puede trabajar directamente con cualquier sistema de archivos distribuido, el cual puede ser montado por el sistema operativo subyacente simplemente usando la URL file://, sin embargo esto tiene un precio: la pérdida de la localidad. Para reducir el tráfico de red, Hadoop necesita saber qué servidores están más próximos a los datos; esta información la pueden proporcionar los puentes específicos del sistema de archivos específico de Hadoop.

Spark
Apache Spark ™ es un motor rápido y general para el procesamiento de datos a gran escala, cuenta con un avanzado motor de ejecución de DAG que soporta el flujo de datos acíclicos y la computación en memoria.

Spark ofrece más de 80 operadores de alto nivel que facilitan la creación de aplicaciones paralelas. Y se puede utilizar de forma interactiva de la Scala, Python y R shells. Potencia una pila de bibliotecas incluyendo SQL y DataFrames , MLlib para aprendizaje automático, GraphX y Spark Streaming . Puede combinar estas bibliotecas de forma transparente en la misma aplicación.

 Puede ejecutar Spark utilizando su modo de agrupación independiente , en EC2 , en Hadoop YARN o en Apache Mesos . Acceda a datos en HDFS , Cassandra , HBase , Hive , Tachyon y cualquier fuente de datos de Hadoop.


Pig
Apache Pig es una plataforma para el análisis de grandes conjuntos de datos que consiste en un lenguaje de alto nivel para expresar los programas de análisis de datos, junto con la infraestructura para evaluar estos programas. La propiedad más destacada de los programas de Pig es que su estructura es susceptible de una gran paralelización, lo que a su vez les permite manejar conjuntos de datos muy grandes.

En la actualidad, la capa de infraestructura de Pig consiste en un compilador que produce secuencias de programas Map-Reduce, para los cuales ya existen implementaciones en paralelo a gran escala (por ejemplo, el subproyecto Hadoop). La capa lingüística de Pig se compone actualmente de un lenguaje textual llamado Pig Latin, que tiene las siguientes propiedades clave:



Facilidad de programación. Es trivial lograr la ejecución paralela de tareas de análisis de datos simples, "embarazoso paralelo". Las tareas complejas compuestas de múltiples transformaciones de datos interrelacionadas se codifican explícitamente como secuencias de flujo de datos, haciéndolas fáciles de escribir, comprender y mantener.

Scala
Scala es un híbrido funcional y orientado a objetos de lenguaje de programación que se ejecuta en JVM (Java Virtual Machine). El nombre es un acrónimo de Lenguaje escalable. Está diseñado para la simultaneidad, la expresividad y la escalabilidad.

Se utiliza en algunos de los componentes del ecosistema de Hadoop como Apache Spark, Apache Kafka, etc. Así que sería realmente útil para alguien desarrollar aplicaciones usando Scala que usa Hadoop y los proyectos de ecosistemas.

Una arquitectura big data de Shah y Sqwant:


En esta primera aproximación al Big data, llegamos hasta aquí.
Sin duda alguna en un siguiente artículo modelaremos algo de Lambda, Kappa y las arquitecturas comúnes del mercado para su implementación On Premise o Cloud.

Por Jorge Mercado

JMCoach
@JormerMx


miércoles, 19 de julio de 2017

Ahora un recorrido por los métodos Ágiles

A finales del milenio, en la última década toma un auge la alternativa a los métodos en cascada y rigurosos como las propuestas del PMBOK del PMI y Prince2, buenos pero muy estructurados y estrictos. Es entonces que un grupo de iniciativas flexibles y adaptables toman el interés de algunos grupos y se denominan Ágiles.

"Desarrollo ágil" es un término derivado del Manifiesto Ágil (Agile Manifesto), escrito en 2001 por un grupo que incluía: a los creadores de Scrum, Extreme Programming (XP), Dynamic Systems Development Method (DSDM) y Crystal; un representante de Desarrollo Controlado por Características; y otros coordinadores diversos del pensamiento en la industria del software. El Manifiesto Ágil (Agile Manifesto) estableció un conjunto común de valores y principios dominantes para todas las metodologías ágiles individuales en el momento.

El manifiesto detalla cuatro valores clave para habilitar equipos de alto rendimiento.
  1. Los individuos y sus interacciones
  2. Entregar software que funciona
  3. Colaboración del cliente
  4. Responder al cambio

Por definición, las metodologías ágiles son aquellas que permiten adaptar la forma de trabajo a las condiciones del proyecto, consiguiendo flexibilidad e inmediatez en la respuesta para amoldar el proyecto y su desarrollo a las circunstancias específicas del entorno.

El uso de Agile como una aproximación a la gestión de proyectos se ha incrementado dramáticamente en los últimos años. Gartner predice que en breve los métodos ágiles de desarrollo serán utilizados en el 80% de todos los proyectos de desarrollo de software.

Mucha polémica puede surgir, más hoy en día el arte de balancear ambas corrientes retribuye mucho mejor a los proyectos y al conformar una PMO (Oficina de Proyectos)

Algunos métodos ágiles de desarrollo de software:
  • Adaptive Software Development (ASD)
  • Agile Unified Process
  • Crystal Clear
  • Feature Driven Development (FDD)
  • Lean Software Development (LSD)
  • Kanban (desarrollo)
  • Open Unified Process (OpenUP)
  • Programación Extrema (XP)
  • Método de desarrollo de sistemas dinámicos (DSDM)
  • Scrum
  • Metodología de desarrollo de software orientada a la generación de valor, Feature Driven Development (FCC)
  • PMI-ACP (Agile Certified Practitioner)

Manifiesto Ágil:
  1. Nuestra mayor prioridad es satisfacer al cliente mediante la entrega temprana y continua de software con valor.
  2. Aceptamos que los requisitos cambien, incluso en etapas tardías del desarrollo. Los procesos Ágiles aprovechan el cambio para proporcionar ventaja competitiva al cliente.
  3. Entregamos software funcional frecuentemente, entre dos semanas y dos meses, con preferencia al periodo de tiempo más corto posible.
  4. Los responsables de negocio y los desarrolladores trabajamos juntos de forma cotidiana durante todo el proyecto.
  5. Los proyectos se desarrollan en torno a individuos motivados. Hay que darles el entorno y el apoyo que necesitan, y confiarles la ejecución del trabajo. 
  6. El método más eficiente y efectivo de comunicar información al equipo de desarrollo y entre sus miembros es la conversación cara a cara.
  7. El software funcionando es la medida principal de  progreso.
  8. Los procesos Ágiles promueven el desarrollo sostenible. Los promotores, desarrolladores y usuarios debemos ser capaces de mantener un ritmo constante de forma indefinida.
  9. La atención continua a la excelencia técnica y al buen diseño mejora la Agilidad.
  10. La simplicidad, o el arte de maximizar la cantidad de trabajo no realizado, es esencial.
  11. Las mejores arquitecturas, requisitos y diseños emergen de equipos auto-organizados.
  12. A intervalos regulares el equipo reflexiona sobre cómo ser más efectivo para a continuación ajustar y perfeccionar su comportamiento en consecuencia.


Ahora comentaremos a nivel general las opciones ágiles más populares.

SCRUM
Un marco de trabajo por el cual las personas pueden acometer "problemas complejos adaptativos", a la vez que entregar productos del máximo valor posible productiva y creativamente. Scrum es:
  • Ligero
  • Fácil de entender
  • Extremadamente difícil de llegar a dominar
El ciclo de Scrum comienza con una reunión de los socios, durante la cual se crea la visión del proyecto.Después, el propietario del producto desarrolla una Lista priorizada de pendientes del producto que contiene una lista requerimientos del negocio por orden de importancia en forma de una Historia de usuario.

Cada sprint comienza con una Reunión de planificación del sprint durante la cual se consideran las historias de usuario de alta prioridad para su inclusión en el sprint.

Un sprint suele durar entre una y seis semanas durante las cuales el equipo Scrum trabaja en la creación de Entregables (del inglés deliverables) en incrementos del producto potencialmente listos. Durante el sprint, se llevan cabo Reuniones diarias de pie muy breves y concretas (conocidas en inglés como Daily Standup Meeting —reuniones rápidas e informales en donde todos los asistentes están de pie a fin de que sean breves), en las que los miembros del equipo discuten progresos diarios. A medida que concluye el sprint, se lleva a cabo una Reunión de planificación del sprint en la cual se proporciona una demostración de los entregables al propietario del producto y a los socios relevantes. El propietario del producto acepta los entregables sólo si cumplen con los criterios de aceptación predefinidos. El ciclo del sprint termina con una Reunión de retrospectiva del sprint, donde el equipo presenta maneras para mejorar los procesos y el rendimiento a medida que avanzan al siguiente sprint.

Roles
 + Dueño de producto
 + Equipo de desarrollo
 + Scrum Master

Eventos
 + El Sprint
 + Reunión de planificación
 + Scrum diario
 + Revisión de sprint
 + Retrospectiva de sprint

Artefactos
 + Pila de product
 + Pila de sprint
 + Incremento
Las reglas de Scrum relacionan los eventos, roles y artefactos, gobernando las relaciones e interacciones entre ellos. Se basa en la teoría de control de procesos empírica o empirismo. El empirismo asegura que el conocimiento procede de la experiencia y de tomar decisiones basándose en lo que se conoce. Emplea un enfoque iterativo e incremental para optimizar la predictibilidad y el control del riesgo.

Tres pilares soportan toda la implementación del control de procesos empírico: transparencia, inspección y adaptación.


Extreme Programming (XP) 
Surge como una nueva manera de encarar proyectos de software, proponiendo una metodología basada esencialmente en la simplicidad y agilidad. Las metodologías de desarrollo de software tradicionales (ciclo de vida en cascada, evolutivo, en espiral, iterativo, etc.), parecen, comparados con los nuevos métodos propuestos en XP, como pesados y poco eficientes. La crítica más frecuente a estas metodologías “clásicas” es que son demasiado burocráticas. Hay tanto que hacer para seguir la metodología que, a veces, el ritmo entero del desarrollo se retarda. Como respuesta a esto, se ha visto en los últimos tiempos el surgimiento de “Metodologías Ágiles”. Estos nuevos métodos buscan un punto medio entre la ausencia de procesos y el abuso de los mismos, proponiendo un proceso cuyo esfuerzo valga la pena.

La metodología XP define cuatro variables para cualquier proyecto de software: Costo, Tiempo, Calidad y Alcance. Además, se especifica que, de estas cuatro variables, sólo tres de ellas podrán ser fijadas arbitrariamente por actores externos al grupo de desarrolladores (clientes y jefes de proyecto). El valor de la variable restante podrá ser establecido por el equipo de desarrollo, en función de los valores de las otras tres.



Kanban
Utiliza principios y artefactos propios pero, diferentemente de Scrum, no indica cuales roles o reuniones hay que aplicar para llevar a cabo la gestión. Esto implica un menor impacto debido al cambio introducido, mayor flexibilidad y un menor coste de implantación.

Kanban se adapta a las estructuras existentes de cada organización

Los mismos roles y la misma estructura organizativa podrían ser un elemento que genere cuellos de botella (elementos que ralentizan el flujo) y, en este caso, deberían ser objeto de revisión gracias a las Reuniones de Retrospectivas: reuniones donde se analiza lo que ha funcionado, lo que no ha funcionado, lo que se ha hecho bien y lo que se debería hacer en futuro.


Existe una serie de principios básicos con el fin de obtener el máximo rendimiento de su flujo de trabajo:
  • Visualice lo que hace (su flujo de trabajo)
  • Realice un seguimiento de su tiempo
  • Utilice tarjetas de colores para distinguir los Tipos de trabajo, Prioridades, Etiquetas, Fechas límite y más.
  • Identifique los cuellos de botella y elimine lo que resulta descartable.
PMI y Prince 2
Como era previsible, ambas metodologías tradicionales como PMI en su PMBOK y el modelo estructurado de PRINCE2 ofrecen sus opciones basadas en Agile donde son similares a SCRUM (SBOK) con ciertas adecuaciones particulares, que en el fondo ofrecen los mismos resultados.


SAFe
Si bien el Scaled Agile Framework ha tomado auge en los años recientes, su versión 4 está muy completa para evolucionar una mezcla de métodos conocidos. Parte de un espíritu similar a la Arquitectura Empresarial donde se ensambla con madurez cada parte de la cultura de trabajo y se puede iniciar desde la parte de negocio donde se vale canvas, el balanced scorecard, PMO, esquema agile de indicadores. Que se combina con un modelo DevOps, QA/QC, XP, Kanban, Scrum. Madurando al nivel de lograr CD/CI con un modelo de fábrica denominado PI(Program Increment)



Finalmente
La experiencia de cada líder y sus equipos es la garantía del éxito al adoptar un método de trabajo que todos conocerán y seguirán como disciplina; en acuerdo con el cliente.

Regularmente los procesos maduros balancean la para la PMO basada en OPM3 lo mejor que aporta el PMBOK, Prince2, Kanban, Scrum, SBOK, XP, CMMi. Y pueden alinearse a modelo como el MAAGTICSI y enriquecer su área de aplicación con TOGAF, Archimate, BPMN, BABOK, ITIL, COBIT, BSC. En esquemas con gobierno de IT, se puede imulsar SAFe o un modelo OPM3 mejorado que también armoniza las metodologías.

En la práctica suelo realizar este tipo de balanceo y se adapta a cada cliente y programa de proyectos. La madurez se consolida gradualmente al partir de pilotos y un modelo de seguimiento continuo que entre otras bondades permite detectar y mitigar riesgos oportunamente, con la visión de otener productos/servicios de alta calidad, satisfacción y rentabilidad. Es así como las estadísticas de consuelo quedan en el pasado.

@JormerMx
Program Manager, PMO
#JMCoach 

viernes, 2 de junio de 2017

Conozcamos un poco sobre "La Nube"

Hoy en día las empresas de todos los tamaños buscan simplificar la administración de sus centros de datos, comunicaciones y aplicativos. Aunado a la necesidad de armonizar la ya de por sí complicada administración de seguridad, DRP, licenciamiento; más los aspectos de la escalabilidad y alta disponibilidad.

En términos prácticos es buscar la simplicidad para trabajar con movilidad y desde cualquier lugar.


Hemos pasado de los servidores de escritorio y rack, tanto con Windows como con Linux y Unix(sin olvidar a los mainframe). Transitando por el mundo de la virtualización donde VMWare dominaba y que se ha visto devorado por el avance de la nube que se extiende rápidamente con proveedores nacionales e internacionales. En donde la nube puede ser pública, privada o mixta.

La administración es mucho más sencilla, dinámica y se cuenta con esquemas para operar en caso de fallos con réplicas importantes. Esto tiene implicaciones para el desarrollo de los sistemas y aplicaciones para responder adecuadamente a esta dinámica operativa.

El detalle a cuidar es el costo por los consumos realizados y verificar qué es parte del servicio y qué tiene un costo extra.

Hay conceptos tan sencillos que la nube retoma en las prácticas viejas de administración de IT, esto es, quizás recuerdas que si tu IP era dinámica recurrías a mecanismos de puente como el NO-IP para simplificar la administración de dominios. Entonces se impulsó mucho el manejo de la IP pública fija y disminuyeron los costos aunado al control de seguridad, las VPN eran más sencillas. Ahora con el auge de la nube la IP vuelve a ser dinámica por la misma naturaleza de su operación ante fallos y esto mueve muchos mecanismos de control en las aplicaciones.


Regularmente encontremos términos como IaaS, PaaS, SaaS. El concepto de Infraestructura como Servicio (IaaS, Infrastructure as a Service) es uno de los tres modelos fundamentales en el campo del cloud computing, junto con el de Plataforma como Servicio (PaaS, Platform as a Service) y el de Software como Servicio (SaaS, Software as a Service).

En el caso de IaaS, los recursos informáticos ofrecidos consisten, en particular, en hardware virtualizado, o, en otras palabras, infraestructura de procesamiento. La definición de IaaS abarca aspectos como el espacio en servidores virtuales, conexiones de red, ancho de banda, direcciones IP y balanceadores de carga.
Al igual que en la mayoría de las propuestas de servicios cloud, los servicios PaaS suelen facturarse como una suscripción en la que el cliente acaba pagando al final sólo por lo que realmente utiliza. Además, puede beneficiarse de las economías de escala que aporta el hecho de estar compartiendo una misma infraestructura física subyacente entre muchos usuarios, lo que se traduce en una reducción de costes.

Estas son algunas de las funcionalidades que pueden incluirse dentro de una propuesta de PaaS:
  • Sistema operativo
  • Entorno de scripting de servidor
  • Sistema de gestión de base de datos
  • Software de servidor
  • Soporte técnico
  • Almacenamiento
  • Acceso a la red
  • Herramientas de diseño y desarrollo
  •  Hosting
El modelo PaaS aporta ventajas tanto a los desarrolladores de software como a los programadores de webs y a las empresas. Tanto si se trata de crear una aplicación que tengan previsto ofrecer a través de internet como de un software para vender en las tiendas, una solución PaaS proporciona grandes ventajas a un desarrollador de software.

Con el concepto de Software como Servicio (SaaS, Software as a Service) se describe cualquier servicio cloud en el que los consumidores puedan acceder a aplicaciones de software a través de internet. Esas aplicaciones están alojadas "en la nube" y pueden utilizarse para una amplia variedad de tareas, tanto para particulares como para organizaciones. Google, Twitter, Facebook y Flickr son ejemplos de SaaS, en los cuales los usuarios pueden acceder a los servicios a través de cualquier dispositivo que pueda conectarse a internet. Los usuarios empresariales pueden utilizar aplicaciones para resolver necesidades muy diversas, desde la contabilidad y la facturación hasta el seguimiento de ventas, planificación, control de rendimiento y comunicaciones (por ejemplo, el correo web y la mensajería instantánea).

En tres pasos regularmente solventas tus necesidades: Planear, Construir/Implementar, Administrar.

Hoy los jugadores más conocidos en este mundo nuboso son:
Un listado mayor crece cada día y sin duda alguna en cada región/continente sobresalen otros.

El almacenamiento y transferencia de información que corre por la nube cuestan, ahí es donde tu estrategia toma fuerza para sacar mejor provecho y emplear los mecanismos de seguridad acordes a cada negocio.

Es entonces que el área de IT coordina la solución de la nube con la seguridad y servicios de comunicaciones de las principales empresas que brindan los servicios de comunicaciones como Telmex, AT&T, Maxcom, etc. Y tomar un balance de las mejores estrategias de seguridad con expertos como los de Palo alto, Check point, Fortinet, y otros.

A esto le sumas la armonización de soluciones como office365 u otras alternativas ofimáticas. Donde el secreto radica en conocer y manejar los licenciamientos a tu favor.

Un par de aspectos a considerar:

1) Regularmente las nubes contemplan y están diseñadas para operar en caso de fallos(DRP), bajo esquemas que reemplazan los discos en espejo y su replicación en puntos remotos.

2) Por el punto anterior, las principales nubes tienen sus centros de datos en países fuera de México y en el caso de Gobierno esto impide que sean utilizadas porque violan la Estrategia Digital Nacional al exponer datos fuera del país; entonces el aspecto de datos se maneja con las nubes de proveedores locales o con un esquema mixto.

Por Jorge Mercado
@JormerMx  
#JMCoach 

martes, 21 de marzo de 2017

Entre especulación y oportunidades

De enero a la fecha es cierto que subieron los combustibles, productos y servicios. Esto conllevó en su momento un malestar generalizado y al final se difuminó como esperaban los creadores de los incrementos apelando a la indiferencia.

Lo que es cierto, es el hecho de que el tema especulativo va perdiendo poder ante hechos más claros que conducen las medidas económicas a nivel mundial. Aunado a la mitigación del ruído excesivo en materia económica en todas las economías.

Ante esta incertidumbre lo que se ve claro es que los energéticos tendrán variaciones menores en los próximos meses y a mediados de año un ajuste, como marca los patrones de comportamiento de la economía y las variables que se mueven en el entorno mundial. Surgirá ruido con miras al cierre del año por temas como el TLC y algunas burbujas que vienen tomando peso.

Es entonces que lo caro y lo de siempre, será presa fácil para los disruptores, que sin duda seguirán rompiendo los paradigmas actuales para dar paso a nuevas experiencias de servicio, productos aún más accesibles y explotando los beneficios de la tecnología y logísticas más simples.


Un factor que se queda en el camino son el estrés y las opciones que no se han concretado para desacelerar una sociedad complicada, pendiente del tiempo y los segundos, olvidándose de las horas y la importancia que tienen muchas más cosas que solo absorberse en el pesado tránsito y jornadas irracionales que no se convierten en mayor productividad.

Los resultados de las empresas se ven afectados por el sentido de pertenencia, que cada vez se ve más afectado por el radiopasillo y la espera de resultados que no se concretan debido a la gran cantidad de actividades que se pretenden ejecutar al mismo tiempo y en la mayoría de los casos sin un orden, ya sea por la dinámica misma de los jefes o por que no se ha desarrollado un método que permita ordenar las prioridades y su seguimiento. No me refiero a que seamos unos genios del modelo de Rockefeller, administración de proyectos o cualquier otra disciplina. Muchas veces tan solo es cuestión de hacer un alto en el camino, replantearnos hacia dónde vamos y entonces determinar por prioridades y acuerdos lo que permitirá llegar a ese destino y una mejor manera de emplear los tiempos.

Es un mito el hecho de bloquear los accesos a la organización para que la gente no navegue en horas laborales. Al contrario, la cultura y disciplina permiten un mejor uso de los medios y en consecuencia del ambiente laboral y los resultados.

Muchas veces el estrés o la desesperación no nos permiten ver lo sencillo que algunas cosas se pueden resolver y fomentar la participación de los equipos con un liderazgo natural que permite organizar con reuniones diarias de 5 minutos, para impulsar los objetivos.

Un factor clave en todo esto es la sensibilidad de las personas hacia las personas, esto es, si se brinda un servicio y no focalizamos el objetivo del mismo, todo el trabajo de la empresa/institución se viene abajo, por pequeños grandes detalles.

Al final la certidumbre de focalizarnos y ampliar nuestras expectativas permite minimizar el efecto de la especulación e identificar las oportunidades para diversificar o innovar.

Algo básico: la culpa no es de los demás países y las redes sociales, basta voltear a ver lo que nos falta y entonces trabajar en ello.

Jorge Mercado

@JormerMX
#JMCoach 

Previo al test de Quantum

En esta época de aceleración, no podemos dejar de lado el cómputo cuántico. Vamos a preparar una exploración y hasta donde el presupuesto lo...