Sei sulla pagina 1di 7

LAS INFRAESTRUCTURAS TIC DESAPARECERAN

INTRODUCCION

¿A quién le interesa?

Recuerdo vívidamente mi primera experiencia como administrador de sistemas, en 1999. Tras algo más de
un año asignado a proyectos de soporte funcional sobre una herramienta de ticketing, el ya extinto Vantive,
aprendiendo de manera casi autodidacta a instalar la versión 2.1 de Remedy y participando en la
actualizaciones de un curso de introducción a la informática para las nuevas incorporaciones a la
desaparecida Norsistemas, el entonces Jefe de proyectos de Outsourcing, que poco después abandonó los
sinsabores de la consultoría para vivir los del sector de las Telecomunicaciones desde dentro un Operador,
decidió asignarme a un proyecto de, por fin, larga duración.

Se trataba de un proveedor de servicios informáticos para varios operadores de cable de ámbito regional.
La mayoria de ellos han desaparecido lastrados por las enormes inversiones y unas expectativas de negocio
irrealistas.

Mi asignación a este proyecto era como apoyo al Service Manager en una UTE entre Norsistemas y
Mundivia, ambas consultoras informáticas de Distribuidoras Eléctricas. Mi función era administrativa, como
inicio de una prometedora carrera de gestión, que yo, como buen ingeniero, despreciaba. Tardé pocos
meses en ofrecerme voluntario para pasar al área de sistemas operativos, ante la perplejidad de los
responsables de Norsistemas y Mundivia. No me importaba: ¿quién podría comparar el reto de resolver
problemas sobre un sistema operativo HPUX o Solaris con manejar costes en una hoja excel o acudir a
reuniones de seguimiento del servicio en que se discutían menudencias sobre la idoneidad de tal o cual
persona o preparar con el Service manager la enésima versión del plan de proyecto de renovación de la
aplicación X?. Deseaba tener la sensación que mi padre me contaba de pequeño, dominando hasta sus
detalles más recónditos los IMS y CICS sobre OS/390 y resolviendo cualquier problema de diseño que
surgiese, desde lentitud en la ejecución de una rutina, hasta pases batch interminables, siempre rodeado
de personajes que habían pasado por alto detalles aparentemente insignificantes pero, a la postre, cruciales
para resolver el problema.

Aquella decisión, ya muy lejana, sigue presente en muchas de mis decisiones hoy, pues el dominio del
conocimiento de las plataformas e infraestructuras, sigue resolviendo la mayoría de los problemas
relacionados con estabilidad y rendimiento de servicios, que, en el fondo, determinan el éxito o fracaso de
un proyecto de infraestructuras TI. Un administrador de sistemas entusiasta y capaz, puede convertir un
desastre en un CPD en una operación rutinaria se recuperación, una aplicación inoperativa en una simple
incidencia que requiere un correctivo de código o convertir un equipo de explotación displicente en un
ejército alineado con las necesidades de una industria, una empresa pública o una startup.

Y este convencimiento, basado en la realidad de que las infraestructuras, como soporte de toda aplicación,
condicionan y controlan su funcionamiento, es el punto de partida de lo que viene a continuación.
CAPITULO 1

Las infraestructuras dominaban el mundo

Todos tenemos en la memoria imágenes de películas de los 70 con salas de ordenadores en las que, dentro
de grandes armarios, giraban en ambos sentidos dos rollos de cinta magnética.

Aquellas cintas eran el soporte de los datos, al estilo de una cinta de un casete, que ahora son discos o pen
drives. Eran Muchísimo más lentos y menos capaces (1.000.000 veces) que los soportes de datos actuales.
También mucho mas caros, exclusivos, voluminosos y consumidores de energía.

Estas cintas fueron poco después sustituidas por los primeros discos magnéticos de unos pocos cientos de
kiloBytes. Pero empezaba el crecimiento vertiginoso de la capacidad de las infraestructuras, y pronto
propició la irrupción de los PCs y en pocos años, la aparición de internet, la explosión de las comunicaciones
de alta velocidad, la revolución de los dispositivos móviles, ...

Sin el ridículo coste y enorme capacidad de las infraestructuras actuales nada habría cambiado, pero la
velocidad era una guerra entre fabricantes y la ley de Moore imperaba.

Volviendo a los 70, ya se diferenciaban entonces los perfiles de sistemas y programación. Muchas funciones
expertas sobre el hardware y el sistema operativo se dejaban en manos del fabricante, que acudía a las
instalaciones de sus clientes para ejecutarlas. Las infraestructuras aún regían el diseño de las aplicaciones
y, como muestra de ello, los fabricantes regalaban servicios de soporte con la venta de grandes servidores
propietarios, por los enormes márgenes que obtenían del HW. Esto ya ha cambiado, y el HW es una partida
menor del coste de un sistema informático. Además, el fabricante HW ya no condiciona, salvo para
aplicaciones de propósito muy específico, las aplicaciones, sino que los fabricantes se adaptan para cumplir
estándares que permitan migrar aplicaciones entre plataformas de desarrollo. Definitivamente las
infraestructuras dominaban, y ya no dominan, el mundo.

CAPITULO 2

El futuro ¿inmediato?

Inteligencia artificial, Big Data, procesadores cuánticos, autómatas, ... Tras el descubrimiento del hierro y la
consiguiente durabilidad de utensilios y armas de combate, la revolución industrial de final del XIX y su
impacto en la movilidad, el uso generalizado de petróleo para generar energía barata, y la irrupción de las
tecnologías de la información en los '70 y '80 que democratizaban el procesamiento de datos masivos y el
acceso a la información, algunos indicadores apuntan a que la humanidad está de nuevo en los albores de
una revolución tecnológica que puede cambiar nuestra forma de vida. Escepticismos aparte, es evidente
que la evolución de las TI está condicionando cada vez más la evolución de nuestras formas de vida.
Esa evolución, en lo que respecta a infraestructuras, va acompañada de incorporar capas adicionales de
abstracción de las plataformas, de modo que la programación de las aplicaciones, dependan cada vez
menos de la complejidad de las infraestructuras. El nivel máximo de abstracción se alcanzará cuando los
sistemas se pueden programar con lenguaje natural, es decir, cuando los ordenadores puedan programarse
escuchando a las personas explicar lo que quieren.

Ese nivel de abstracción es lejano, pero está más cerca que hace una década. Nadie puede asegurar que
después de eso los autómatas no sean capaces de programarse a sí mismos. Sobre esto ya se idearon
muchas teorías. Una de las más populares derivó en las 3 leyes de la robótica, necesarias para preservar la
vida humana ante un futuro con robots ya autónomos.

La realidad en 2019 es que las expectativas de transformación son muy altas y las inversiones para
acercarnos a ese futuro gobernado por Inteligencia Artificial por parte de gobiernos y grandes empresas
basadas en TI son monstruosas. Se estima que la inversión en tecnologías relacionadas con AI entre 2018 y
2022 en el mundo alcanzará el trillón de dólares.

El número de administradores de sistemas sigue creciendo, al igual que el de desarrolladores, aunque a un


ritmo de crecimiento menor. El motivo es que una gran parte del peso de computación está transfiriéndose
desde los CPDs propios de los clientes a los grandes proveedores de nube pública. Los desarrolladores
exclaman: ¡sistemas ya no hace falta!. Los administradores de sistemas se lamentan: ¡nos están quitando
el trabajo!.

Pero, como en todas las revoluciones de eficiencia, no desaparecen todas las funciones, sino sólo las
funciones mecánicas. Desaparecerán los técnicos encargados de mantener la operación básica de los
sistemas operativos y motores de aplicación y base de datos, pero no los especialistas en diseño ni en
diagnóstico de incidencias complejas, ni los expertos que identifican nuevas maneras de sacar el máximo
partido de un sistema operativo, ni los gurús de la automatización, ni los virtuosos de la identificación de
problemas en las aplicaciones por mal uso de las infraestructuras. Esto es un espectro muy amplio de los
actuales administradores de sistemas. Unido al hecho de que aprender matemáticas, ciencias, física y
tecnologías es cada vez menos popular en un mundo regido por la imagen y las relaciones sociales, augura
un buen futuro a los fanáticos de la tecnología.

Sin embargo, ¿por qué tantos apuestan por el fin de la supremacía de la infraestructura?, ¿no terminó su
reinado ya hace tiempo?, ¿de dónde viene esta hostilidad?

CAPITULO 3

¿Qué quiere decir infraestructura?


Muchas palabras tienen un significado intrínseco de modo que, al oirlas, las personas las asociamos a
objetos o sensaciones. Infraestructuras es una de ellas. Y se asocia a carreteras o trenes o aeropuertos, y
tiene un color gris, y sensación de trabajo pesado, y recuerda a quinto año de carrera de ingeniería y ganas
de bostezar.

Sin embargo, este sustantivo se asocia también a todo recurso físico necesario para que, sobre él, se
ejecuten otros servicios, de menor entidad unitaria, pero que gracias a su solidez se pueden desarrollar de
manera mucho más eficiente. Tanto una carretera o vía de tren sobre la que circulan con mucha mayor
velocidad y seguridad coches, camiones y trenes, como una puerto marítimo en el que atracan y descargan
sus mercancías y pasajeros con comodidad petroleros y cruceros. En resumen, que serán poco
emocionantes para la mayoría, pero se convierten en imprescindibles para todos.

Desarrollar la industrialización en la fabricación de infraestructuras es algo costosísimo. Por ejemplo, la


construcción de fábricas capaces de fabricar procesadores con 96 capas de circuito impreso para las últimas
generaciones de memorias y chips para smartphones y procesamiento de inteligencia artificial, que ha
supuesto una inversión global de casi 100.000 millones de euros en 2017 y también en 208 entre los grandes
fabricantes de semiconductores, como Intel, Samsung, TSMC, SK Hynix or Toshiba. Por supuesto esta
inversión se recupera muy rápidamente, por eso se realiza, pero muestra la enorme importancia de las
infraestructuras en el desarrollo de la humanidad, y la facilidad con la que se invierte en ella cuando hay
demanda que asegure el retorno de la inversión.

Nada funcionará sin infraestructuras, y , mientras no creemos autómatas capaces de programarse a sí


mismos, harán falta ejércitos de administradores de sistemas que los diseñen, optimicen, configuren y
arreglen en fabricantes de hardware, creadores de software, empresas en todos los sectores y especialistas
en hackear lo que otros han construido.

En cuanto al color, no todo es gris. Técnicamente tienen tantas posibilidades como las de un desarrollador
con un UltraEdit en blanco. Las últimas novedades en el sector son bien sugerentes.

CAPITULO 4

Un repaso a la actualidad

Quantum computing

La teoría cuántica, desarrollada a principios de 1900, explicó el extraño comportamiento de partículas


diminutas como los átomos y los electrones. A finales del siglo XX se descubrió que se aplicaba no sólo a
estas partículas, sino a la información que se deriva de su existencia y estado. Esto llevó a una revolución
en la ciencia y la tecnología del procesamiento de la información, haciendo posible tipos de computación y
comunicación previamente inimaginables.

Todos los sistemas informáticos dependen de una capacidad fundamental para almacenar y manipular
información. Los ordenadores actuales manipulan bits individuales, que almacenan información como
estados binarios 0 y 1. Millones de bits trabajan juntos para procesar y mostrar información. Los
rodenadores cuánticos aprovechan los diferentes fenómenos físicos (superposición, entrelazamiento e
interferencia) para manipular la información. Para hacer esto, dependemos de diferentes dispositivos
físicos, que se denominan bits cuánticos o qubits.

La superposición (superposition) se refiere a una combinación de estados que normalmente describiríamos


de forma independiente. Para hacer una analogía clásica, si tocas dos notas musicales a la vez, lo que oirás
es una superposición de las dos notas.

El entrelazamiento (entanglement) es un fenómeno cuántico contraintuitivo famoso que describe un


comportamiento que nunca vemos en el mundo clásico. Las partículas enredadas se comportan juntas
como un sistema, de formas que no pueden explicarse utilizando la lógica clásica.

Por último, los estados cuánticos tienen una fase, por lo que pueden sufrir interferencias (interference) . La
interferencia cuántica puede entenderse de manera similar a la interferencia de onda; cuando dos ondas
están en fase, sus amplitudes se suman, y cuando están fuera de fase, sus amplitudes se cancelan.

En el estado actual, los procesadores cuánticos son, desde este punto de vista, una regresión a los primeros
ordenadores, pues al estar en una fase muy prematura de madurez, condicionan absolutamente las
aplicaciones. En esta fase, en lugar de aumentar la capacidad de procesamiento para procesar más rápido,
que también, el problema principal es cómo cargar aplicaciones en esta nueva forma de procesamiento, de
modo que, en el fondo es el “procesador” (qubit) quien marca los límites de lo que se puede y no se puede
hacer con él, pues aún no se han ideado las capas de abstracción necesarias para poder cargar cualquier
problema en esa forma de procesamiento.

Augmented Analytics

Las empresas poseen una ingente cantidad de datos sobre sus servicios y productos de la que se extrae
conclusiones para mejorar sólo muy parcialmente. Extraer todo el valor para el negocio de la ingente
cantidad de datos de que disponen las empresas es una labor imposible sólo con capacidad humana.
Tradicionalmente se ha realizado con sistemas analíticos y BI, en los que se programaban las consultas
buscando específicamente respuestas a preguntas preparadas. Sin embargo, pueden existir muchas más
preguntas que no se hayan formulado aún y que simplemente están esperando a ser detectadas.

Los sistemas de Augmented Analytics se apoyan en AI para asegurar que todas las posibles correlaciones
entre parámetros de funcionamiento de un servicio o producto se consideran. Para ello, es preciso primero
disponer de datos explotables y, segundo, preparar al sistema analítico para detectar los parámetros objeto
de correlación. Esta función, realizada en sistemas Big Data por Data Scientists, está progresivamente
siendo apoyada por Automated Data Science, que apoya a los nuevos Data Scientists, más diletantes y
menos especialistas, a generar sus propios modelos desde un lenguaje natural

Augmented analytics requiere de una enorme potencia de procesamiento y grandes volúmenes de


almacenamiento para poder extraer correlaciones valiosas de los datos disponibles

Autonomous things

Desde la autonomía guiada por humanos, aislada y con reglas fijas, hasta la autonomía completa,
colaborativa y con aprendizaje integrado, los niveles de capacidad de los dispositivos autónomos son muy
variables.
En el mercado de la automoción, se estima que en 2021 habrá un 10% de vehículos con algún grado de
autonomía, frente al 1% de 2017.

Las pruebas de concepto en este área son ya innumerables, desde envío de paquetería o comida rápida con
drones o vehículos autónomos hasta asistentes en negocios de restauración y hostelería, siempre basados
en infraestructura TI para recibir y procesar datos en Edge y enviar a Core para consolidación y analítica.
BIBLIOGRAFIA

1. Gartner: “Top Ten Strategic Technology Trends for 2019”


2. Veritis: “global-it-infrastructure-market-2018-and-the-future-roadmap”
3. The Phoenix Project: A Novel about IT, DevOps, and Helping Your Business Win [Gene Kim, Kevin
Behr, George Spafford]
4. Release It!: Design and Deploy Production-Ready Software 2nd Edition [Michael T. Nygard]
5. IHS Markit “Global Semiconductor Market Trends”
6. IBM: “What is quantum computing”, “IBM Q. FAQ for beginners”

Potrebbero piacerti anche