Sistemas autónomos y elevar a los humanos de ser middleware: preguntas y respuestas con Ben Nye, CEO de Turbonomic

Autor: Lewis Jackson
Fecha De Creación: 12 Mayo 2021
Fecha De Actualización: 25 Junio 2024
Anonim
Sistemas autónomos y elevar a los humanos de ser middleware: preguntas y respuestas con Ben Nye, CEO de Turbonomic - Tecnología
Sistemas autónomos y elevar a los humanos de ser middleware: preguntas y respuestas con Ben Nye, CEO de Turbonomic - Tecnología

Contenido


Para llevar:

Nuestra conversación con Ben Nye, el CEO de Turbonomic.

Quizás hayas oído hablar de la informática autónoma. Se refiere a la capacidad de una computadora o sistema para autoorganizarse y autogestionarse. Y, hasta hace poco, todavía era un sueño futurista. Queríamos aprender un poco más sobre cómo funciona un sistema autónomo, así que hablamos con Ben Nye, el CEO de Turbonomic y el director gerente de Bain Capital Ventures. Turbonomic (anteriormente VMTurbo) se sometió recientemente a una nueva marca para representar con mayor precisión lo que hace su software. El nuevo nombre incorpora los temas centrales de Turbonomic en su plataforma de gestión de aplicaciones: Turbo (rendimiento en tiempo real), control autónomo (autoorganización y gestión de cargas de trabajo) y principios económicos (oferta y demanda). Aquí, Ben habla sobre los sistemas autónomos y la importancia de la automatización en entornos cada vez más complejos basados ​​en datos.


Techopedia: Has aparecido en numerosas ocasiones en la Lista Midas de Forbes para los principales capitalistas de riesgo (VC). Como VC, tiene un punto de vista interesante para ver todo el panorama tecnológico con cuánto ha cambiado el mundo a lo largo de los años. ¿Qué te sorprende al mirar hacia atrás sobre cuánto han cambiado las cosas en el centro de datos?

Ben Nye La respuesta corta es que creo que el ritmo de cambio en el centro de datos realmente se ha acelerado más allá de lo que la gente vio. Lo que sucedió fue este desarrollo del centro de datos definido por software y fundamentalmente la abstracción del hardware. Eso abrió todo un impulso de crecimiento dentro de los elementos del software.

Ahora, en lugar de lidiar con los ciclos de actualización de los proveedores de hardware (que durante mucho tiempo casi sirvieron como guardianes del centro de datos), ahora se abrió literalmente al elemento de qué tan rápido puede crear ideas, porque el software, Realmente, son ideas. Sin las limitaciones en la generación de ideas, ha sido un momento muy emocionante y divertido, pero el ritmo de cambio en el centro de datos e incluso la definición del centro de datos ha evolucionado materialmente y más rápidamente que nunca.


Algo que encuentro muy interesante al respecto es que cuando fuimos a un centro de datos definido por software, todos los controladores y API y perillas del mundo del hardware se redefinieron en software. Lo que hicimos fue pensar en esto en términos de una nueva forma de impulsar el rendimiento y la productividad, que sería tomar la aplicación y el cambio en la demanda de esta aplicación y vincularlos a los controladores redefinidos en el software porque, en última instancia, es software para software.

Cuando haga eso, ahora puede eliminar el middleware humano entre la capa de aplicación y la capa de infraestructura porque ahora, por primera vez, puede vincularlos directamente, aquí hay una palabra importante: autónomamente, lo que significa que literalmente permite que las aplicaciones sean autogestionadas y autoorganizadas.

También lo hace económico en el sentido de que ahora la demanda está encontrando oferta y estamos enfocados en un modelo de consumo de TI, un modelo económico en lugar de un modelo basado en la asignación o un modelo basado en la oferta. Ese es un giro bastante fundamental en la historia de cómo se debe ejecutar TI o un modelo de gestión de la industria tecnológica. Y resultó en un mejor rendimiento y una mayor eficiencia en términos de costo. También hace que los clientes sean mucho más ágiles y resistentes, y hace un mejor uso de la mano de obra en el mercado

Aquí está lo irónico de lo que sucedió en 2016 con cada uno de los centros de datos definidos por software. Primero, está monitoreando su hardware para averiguar cuándo se rompen las aplicaciones, lo que significa que violaron una calidad de servicio o un SLA, pero mientras usamos el software para encontrar el error, luego volvemos al hardware para las alertas generadas por la máquina . La segunda pista es que estamos permitiendo que las aplicaciones que ejecutan el negocio se rompan, y luego la tercera es que tomamos esas alertas repetidas generadas por la máquina y entregamos esas alertas A la gente.

Sin errores, sin estrés: su guía paso a paso para crear software que cambie su vida sin destruir su vida

No puede mejorar sus habilidades de programación cuando a nadie le importa la calidad del software.

Esto tiene que ser al revés.

Y ahí es donde queríamos cambiar el modelo de administración de TI lejos de las asignaciones o adivinanzas y volver a un modelo basado en la demanda y el consumo.

Leer: El centro de datos basado en la demanda: lo que los administradores de sistemas pueden aprender de Wall Street

Techopedia: Ahora que lo menciona, sí, estamos haciendo algo definido por software, pero luego las alertas se envían a la parte lenta del proceso, que es, como usted dijo, el middleware humano.

Mencionaste el término autonómico. ¿Puede hablar un poco más sobre la importancia de los sistemas autónomos en TI? Dado el cambio de nombre de VMTurbo a Turbonomic, supongo que es más importante de lo que la mayoría de la gente piensa.

Ben Nye: Absolutamente En primer lugar, la definición de autónomo, cuando se aplica a la informática, se trata de sistemas que pueden autogestionarse y autoorganizarse.

Así que piense en las redes bayesianas, piense en los algoritmos de búsqueda, piense en los grandes datos, que las personas ahora llaman "aprendizaje profundo". Esas son formas de inteligencia artificial. Lo que creo que es más interesante acerca de Turbonomic es que es la forma definitiva de inteligencia artificial porque las cargas de trabajo de las aplicaciones toman decisiones de forma autónoma en el software sobre qué elementos de infraestructura deben ejecutar y cuándo deben moverse, dimensionarse, comenzar y detenerse por sí mismos. clonarse a sí mismos. Eso es muy, muy interesante, y lo hacemos aprovechando la abstracción y la liquidez que ofrecen la virtualización, los contenedores o las nubes.

Luego, teniendo una abstracción similar de todas las diferentes formas de demandas, para que pueda tener máquinas virtuales, contenedores, podría tener JVM, estamos analizando todas estas formas de demanda y todas estas formas de suministro y se abstraen. Entonces, dejemos que la demanda se seleccione o se ajuste a la oferta. Y luego, si están en un host físico y comienza a congestionarse, en lugar de comenzar a dejar que falle y generar una alerta y hacer que la aplicación explote, ¿por qué no simplemente permitir que tome la decisión de moverse? ¿sí mismo? Siempre que esté fijando un precio en su decisión (la mudanza y el costo de la mudanza), puede tomar decisiones de asignación de recursos mucho más interesantes.

Techopedia: Me encanta la analogía de la oferta y la demanda. En teoría económica, las fuentes de suministro se fijan a corto plazo y solo pueden cambiar durante un largo período de tiempo. En lo que está describiendo, si mantiene esa analogía económica, está cambiando todo el paradigma. Es decir, puede cambiar la oferta a corto plazo, ¿verdad? ¿Tiene total flexibilidad para ser más eficiente y, pensando en la utilización de recursos como mercado, tener un mercado casi eficiente en tiempo real?

Ben Nye Tienes toda la razón. Es un modelo económico que se convierte en el principio en torno al cual la demanda encuentra oferta, pero que TI se gestiona utilizando principios económicos. Y como dijo John Maynard Keynes, "a la larga todos estamos muertos".

Techopedia: No creo que se encuentre con ningún CIO en este momento que no se haya mudado o que no esté considerando seriamente un movimiento para poner más recursos en la nube. ¿Dónde ve la industria en los próximos años?

Ben Nye Creo que verás varios cambios. Para nosotros es bastante claro que no va a ser una reforma completa de la tecnología. Al igual que el mainframe todavía está aquí, no creo que alguna vez veas un 100% de reforma. Es más que probable que veas un mundo híbrido. Tendrá privado y público, sin embargo, creo que público realmente sería público en varias nubes, no en una sola nube pública. Al mirar a los jugadores más grandes aquí, solo hay un puñado. Pero cuando vas a Europa o al resto del mundo, ves muchos operadores que también son nubes, así que no creo que sea un gran salto, ¿verdad? Sin embargo, la verdadera pregunta es cómo obtienen los clientes las nubes correctas para ejecutar sus cargas de trabajo. Nuestra teoría detrás de la empresa es que cualquier carga de trabajo debería poder ejecutarse en cualquier infraestructura, en cualquier sitio. Es decir, local o inactivo y en cualquier momento porque, recuerde, el tiempo es sustituto de la demanda.

Entonces, cuando la demanda cambia, es posible que desee irrumpir en la nube. O si va a mover esas cargas de trabajo a la nube de forma permanente, ¿qué cargas de trabajo va a recuperar? Porque ahora tienes capacidad en tu centro de datos. ¿Por qué pagar dos veces? Por lo tanto, una de las cosas que hacemos hoy junto con Verizon Intelligent Cloud Control pero también con otros entornos es permitir a los clientes basar su decisión sobre dónde ejecutar esas cargas de trabajo, no solo en el precio porque el precio puede encerrarlo, sino también, lo que es más importante. en el rendimiento de la aplicación. Entonces puede tener otras consideraciones, como el precio, el cumplimiento, la soberanía o la seguridad de los datos y otros recursos que son recursos fundamentalmente comercializables en este mercado que describimos.

Techopedia: ¿Ese es el modelo económico?

Ben Nye: Si. Entonces todo vuelve al modelo económico. Solo piensa en lo lógico que es esto. No es solo una analogía, por cierto, en realidad es la forma en que funciona el modelo. Las cargas de trabajo tienen presupuesto y las cargas de trabajo analizan la teoría de colas y la congestión, por lo que se expande mucho más. No es un aumento lineal de precios cuando comienza a congestionarse; aumenta exponencialmente, obligando al presupuesto a verse afectado y, por lo tanto, a la carga de trabajo para tomar la decisión de mudarse.

Siempre que haya resuelto todas las complejidades del centro de datos, ahora puede intercambiar IOPS de una caja XtremIO, una caja Pure Storage y una caja Compellent, y una caja 3Par porque todas tienen características IOPS diferentes, pero la aplicación puede por lo tanto, compre esos recursos a su elección. No es diferente a mirar CPU o vCPU, MEM o vMEM, ¿verdad? Todos son intercambiables, ¿debería correr aquí o aquí? ¡No importa! La mercancía común aquí es el suministro de infraestructura.

La mercancía común aquí es el suministro de infraestructura y la razón que importa es: voy a usar una analogía, si recuerdas

En 1978 desregulamos las aerolíneas. Antes de eso, cada asiento era el mismo, les poníamos el mismo precio y, aunque era lógico, estaba mal porque, por el lado del consumo, la disposición a pagar estaba muy diferenciada. Por lo tanto, los asientos eran una mercancía, pero al cambiar el enfoque a la demanda, el precio por asiento, a pesar de que los asientos eran los mismos, se podía determinar una disposición diferente a pagar. Entonces, lo que hicimos fue tomar el recurso que representaba el producto común, lo publicamos en la web; primero fueron Sabre y Apollo, pero luego se convirtieron en Travelocity, Kayak y Priceline.

De repente, cuando dejas que la demanda elija la oferta, mira y observa que toda la industria cambió. Los factores de carga aumentaron pero el costo de volar disminuyó y toda la infraestructura de la aerolínea que tenemos en este país se modernizó. Fue un gran avance. Ah, y por cierto, si nos fijamos en Priceline hoy, vale $ 70 mil millones. Eso es más que cualquier aerolínea y no poseen un solo avión.

Techopedia: Interesante Nunca lo había pensado de esa manera ...

Ben Nye No poseen un avión, no poseen una puerta, no poseen un asiento, no emplean a un piloto, ¿verdad? Y luego dices: "¿Pero qué otros ejemplos tenemos de economía centrada en la oferta?" Cambiemos. Los hoteles están basados ​​en la oferta, ¿verdad? Tienes un hotel, no puedes moverlo. Tienes estas habitaciones pero, ¿cómo valoras esas habitaciones? Y a lo largo viene Hotels.com, Expedia, Travelclick, etc. Y sucedió lo mismo. Miras los restaurantes y tienes OpenTable. Miras las páginas amarillas. Eso fue reemplazado principalmente por Google. Usted mira los anuncios clasificados en los periódicos y fueron reemplazados por eBay o Craigslist.

Uno de mis ejemplos favoritos es Uber. Si caminas por cualquier ciudad, verás una fila de taxis esperando gente y luego subirás a otra parte de la misma ciudad y hay una fila de gente esperando taxis. Y piensas, esto no puede ser correcto. Luego viene Uber, que usa el teléfono inteligente para permitir que la demanda impulse el suministro. Ahora, con Uber, tiene el 90% de la demanda satisfecha en 10 minutos, mientras que en el mundo de los taxis, el 90% de la demanda no se cumple en 10 minutos y es por eso que la última ronda de Uber fue de $ 62 mil millones. ¡Y recuerde, ellos no poseen un taxi o un automóvil!

Techopedia: Entonces, en un centro de datos típico, esencialmente estamos haciendo lo mismo que llamar a un taxi, ¿verdad?

Ben Nye: Así que piénselo de esta manera: las cargas de trabajo son las que tienen el presupuesto, porque es por eso que creamos el centro de datos. Entonces, son efectivamente sus humanos en este ejemplo. Entonces tengo este recurso, este recurso común, todo completamente abstraído. Eso se llama suministro y puede estar en todas partes: está todo debajo de las necesidades de la aplicación, desde el servidor y el entorno de la computadora hasta la red, hasta el almacenamiento. Ahora lo que queremos es asegurarnos de que este sea un mercado eficiente. Por lo tanto, esos titulares de presupuesto deben poder actuar de forma autónoma, significado autónomo y en tiempo real dada la cantidad de cambio en la demanda en la carga de trabajo en sí o, en este caso, en la aplicación. Es por eso que esto es muy análogo a la demanda de encontrar oferta. Con este sistema, terminas con un rendimiento de la aplicación mucho mejor porque no estás esperando que un cuello de botella de mano de obra humana responda a una alerta generada por la máquina para tomar una decisión de cuidado y alimentación de la aplicación. En cambio, lo estás haciendo en tiempo real. Y lo está haciendo a gran escala porque estas instituciones, estos clientes, ejecutan miles de aplicaciones al día y tienen que funcionar.

Entonces, en primer lugar, obtienes una experiencia de rendimiento mucho mejor. Además, no hay personas que pasen sus días siendo hacedores. En cambio, están volviendo a ser pensadores y no solo están recibiendo alertas generadas por máquinas, sino que piensan que realmente pueden ayudar al negocio. Están pensando en la estrategia de micro servicios y la estrategia híbrida y de múltiples nubes y en las redes definidas por software y las funciones de red y virtualización, todas estas cosas que realmente hacen avanzar el negocio y los sacan del mundo de la alimentación y la alimentación de aplicaciones de reparación, o alerta respondiendo

De hecho, estamos descubriendo que entre el 40% y el 60% del capital del centro de datos se ha sobreaprovisionado y podemos permitir que una gran cantidad de eso se reaprovisione, por lo tanto, evite la compra de nuevo hardware, o se desmantele y la razón lo que importa tanto es

Techopedia: Lo siento, déjame comprobar esto, 40-60%? Lo siento, ese número es asombroso.

Ben Nye: Si. Y lo más importante es que el 14% de la electricidad en este país es consumida por los centros de datos.

Techopedia: ¿Entonces podríamos ahorrar 5-8% del consumo total de electricidad de la nación si no aprovisionamos en exceso nuestros centros de datos?

Ben Nye: Déjame darte una copia de seguridad para explicarte por qué, ¿de acuerdo? Se remonta al mundo de una economía basada en la oferta. Primero, cuando tienes una nueva aplicación y estás ejecutando una tienda de TI, ¿cómo la dimensionas?

Techopedia: Sí, vas al arquitecto y ellos adivinan, ¿verdad? Y luego esperan hasta que se rompa.

Ben: Exactamente Vas a la línea de negocios, y tienes una conversación, y ellos no saben nada que tú no sepas. Entonces están adivinando y tú estás adivinando, y juntos tratamos de adivinar cuál debería ser el tamaño.

Entonces, va a asignar cuatro u ocho VCPU. Ahora, lo interesante es que la asignación incluye un pie físico o el pie virtual en un servidor físico. Cada vez que una solicitud proviene de esa aplicación, se pondrá en cola como cuatro u ocho VCPU. Es esencialmente como ir a un restaurante y decir que eres una fiesta de cuatro u ocho, aunque solo puedas ser una fiesta de uno. Nunca te sentarás.

Asignamos en exceso nuestras conjeturas, lo que significa que obtenemos el peor rendimiento y es muy costoso. Ese es el problema número uno. El problema número dos es que ahora no puede dimensionar con precisión su aplicación, lo que plantea la pregunta: ¿cómo lo coloca si no puede dimensionarlo?

Estás adivinando de nuevo. Bien, ahora estamos adivinando sobre lo primero, estamos adivinando sobre lo segundo, luego está esta cosa llamada expansión de VM, o una VM sin demanda. Se deja en su estado en lugar de ser eliminado y eso también reserva hardware. Entonces, lo que hacemos es tratar de reunir todas estas cosas en un modelo de capacidad histórica basado en el ser humano y debido a que solo lo ejecutamos una o dos veces al año, tenemos que construir otra cobertura, así que hablamos de un 20-30% cobertura porque demanda podría aumentar en todas estas aplicaciones y luego vamos a "cerrar el clúster", porque consideraremos que ese grupo de hosts está "lleno". Ahí mismo, ahora ha bloqueado hasta la mitad de la capacidad de su centro de datos y está sobreaprovisionado.

Techopedia: Es como si estuvieras preparado para el fracaso, como si no hubiera una manera posible en el viejo paradigma de no aprovisionarse en exceso o no tener una expansión ...

Ben Nye: Si todo lo que ve y administra es el suministro de infraestructura, ¿cómo puede saber si tiene suficiente suministro para ser resistente si no ve y comprende y en tiempo real la demanda está vinculada? Si todo lo que ves es suministro, ¿cómo sabes si tienes suficiente? ¿Cómo sabes si tienes demasiado?

Techopedia: Bueno, probablemente contrates algunas cabezas más para adivinar un poco más. Gastas más dinero en investigar ese problema, ¿no?

Ben Nye: Y todavía terminas básicamente sobreaprovisionado en el pedido de, llámalo mitad, y estás comprando hardware innecesariamente. Todo el concepto detrás de la virtualización en su primera instanciación fue todo en lugar de tener una pila de hardware dedicada para cada aplicación, voy a poder mover estas cargas de trabajo entre pilas dedicadas y, por lo tanto, la idea era aprovisionar hardware al promedio de los picos en lugar de la suma de los picos de todo ese capital de hardware.

Sin embargo, cuando ahora toma el control autónomo en tiempo real, el control de rendimiento, el lado del consumo de la VM o el contenedor o la nube, y piensa en lo mismo; ¿qué hacemos? Salimos y probamos el estrés de cada aplicación y hay miles, hay cientos o miles de aplicaciones en un entorno dependiendo del tamaño del cliente, por lo que hacemos pruebas de estrés para CPU, vCPU, MEM, para vMEM, y así sucesivamente que todos los diferentes elementos o recursos ¿verdad? Y luego aprovisionamos en función de la suma de los picos nuevamente. La diferencia es que si no tiene un retraso o un cuello de botella asociado con la mano de obra y ahora puede aprovisionar el promedio de los picos, ¿adivina qué podemos hacer? Podemos gestionar ese entorno de forma activa porque todas las aplicaciones nunca aumentan a la vez.

Techopedia: Guau. Eso es realmente volver a lo que se suponía que era la virtualización en primer lugar.

Ben Esto es virtualización o contenedorización 2.0: control de rendimiento autónomo en tiempo real.

Techopedia: Entonces, si el viejo bucle break-fix es una forma anticuada de pensar, ¿cómo se lo explicas al tipo promedio en la línea del frente?

Ben Nye: Déjame hacerte una pregunta simple: ¿Por qué un monitor?

Techopedia: Bueno, quieres saber qué está mal o cuándo algo va mal, ¿verdad?

Ben Nye: OKAY. Sí. Quieres saber cuándo se rompe. Pero, ¿por qué quieres dejar que se rompa? Esa es toda la pregunta. Mire, inevitablemente tendrá que monitorear algunas divisiones o partes de su centro de datos, pero fundamentalmente, si puedo asegurarme de que mis aplicaciones se ejecutan de manera eficiente en lo que llamamos el estado deseado, que es la cantidad correcta de recursos para apoyarlos en tiempo real, ese es un mundo mucho mejor que esperar el monitoreo y las alertas, y tratar de responder a eso.

Cuando la virtualización dio origen a los centros de datos definidos por software, fue un avance realmente interesante, pero dieron un paso demasiado lejos porque se autodenominaron el sistema operativo del centro de datos del futuro y fue directo de la caja, ¿verdad? Pero si realmente va y busca las cinco cosas que se supone que debe hacer un sistema operativo, la primera es la gestión del rendimiento. Entonces, déjame preguntarte, ¿un hipervisor gestiona el rendimiento?

Techopedia: Por supuesto no.

Ben Nye: No. Cierto. Entonces, la segunda cosa que tiene que hacer es la asignación de recursos. Entonces, ¿el hipervisor hace la asignación de recursos? No.

¿Qué tal la programación de trabajo? ¿Qué hay de las reservas? ¿Qué tal la planificación? No, no y no. Entonces, de repente, te das cuenta de la forma en que lograron esto: generan alertas y la cantidad de alertas crece y crece a medida que usamos los recursos en un nivel superior, pero también a medida que creamos más aplicaciones, más formas de carga de trabajo y más lugares. en el que pueden correr. De repente, estamos aplastando a las personas con todas estas alertas.

Pero lo más importante es que lo que estamos haciendo al hacer que los humanos persigan esas alertas está cambiando personas en los sistemas operativos del centro de datos moderno, y eso es extraño porque, como resultado, la gente duerme. Las personas tienen familias, se van de vacaciones, por lo que no pueden ser sistemas operativos y por eso lo que hicimos fue crear este sistema de control de rendimiento de aplicaciones, Turbonomic, para poder hacer exactamente esas cinco cosas. Estamos de acuerdo en que el hipervisor es un gran invento, contenedores y nubes, pero los vemos como proveedores de liquidez; No son un sistema operativo. El resto del sistema operativo proviene de tener un sistema de control de rendimiento de la aplicación. Hace esas cosas, hace la gestión del rendimiento, la asignación de recursos, la programación de trabajos, las reservas y la planificación: ese es el valor total de lo que tenemos. Por eso existimos en el mercado.

Techopedia: Dime qué papel crees que juega el aprendizaje automático o la IA en esto en los próximos dos años, ¿sabes? ¿Cómo cambia Turbonomic con AI el centro de datos?

Ben Nye Hay algunas inferencias increíbles e interesantes que uno puede hacer en todo tipo de entornos diferentes. Diría que lo que estaban haciendo es ser mucho más preciso que eso. Recuerde que uno de los problemas con los grandes conjuntos de big data es que necesita tiempo para desarrollar esos datos y luego correlacionarlos y extraer las inferencias sobre esos datos.

A veces, dibujará la inferencia incorrecta y es muy difícil saber cuánto tiempo le toma al conjunto de datos grandes desaprender esa inferencia, sea correcta o incorrecta. Luego, al final, todavía está en el back-end con un humano o alguna forma de componente de trabajo humano estático para realmente tomar una acción. En nuestro caso, esto es inteligencia autónoma. No solo es inteligencia artificial y estas cargas de trabajo realmente toman decisiones por sí mismas en el modelo, sino que lo estás haciendo con un grado de precisión. Es mucho mayor de lo que se puede lograr simplemente con un conjunto de datos de big data.

Techopedia: Si pudiera dejar uno con el administrador promedio del sistema, o el arquitecto promedio del centro de datos, o el CIO promedio, ¿dónde van a estar las cosas en el próximo año o dos? ¿Qué es lo que las personas no saben ahora que necesitan saber sobre 2017, 2018 y más allá?

Ben Nye: Creo que lo más importante es recordar por qué entramos en el campo de la tecnología; porque somos fundamentalmente curiosos y queremos permitir que la economía de EE. UU., o cualquier economía, haga más con menos. Esa es la forma en que las empresas corren y ruedan. No puede ser correcto seguir con el enfoque de ayer de un modelo basado en la asignación o en la oferta cuando requiere que se ejecute en el orden de aproximadamente un 50% sobreaprovisionado, y en un mundo de aplicación de break-fix, y donde hemos convertido nuestro trabajo de pensadores a hacedores.

Hay una mejor manera. La mejor manera es adoptar nuevas ideas y nuevas tecnologías de nuevos proveedores que le brinden la oportunidad de ver el lado de la demanda de la ecuación, el lado del consumo de una VM, de un contenedor, de una nube y ejecutar de manera más eficiente en mayor escala con mano de obra más inteligente y mejores eficiencias en su capital, y flexibilidad en términos de agilidad y resistencia en todas sus operaciones.

Es por eso que encontré esta oportunidad tan convincente que quería ejecutarla, y por qué creo en ella tan plenamente.

Si desea una prueba gratuita de la plataforma de control de rendimiento de aplicaciones de Turbonomic, puede descargarla aquí.