InicioTendenciasLa ilusión tecnológica

La ilusión tecnológica

El otro día llegó a mi buzón una propaganda de una gran superficie donde ya se ofrecía una TV UltraHD 4K a 999 euros.
Que yo recuerde es la caída de precio más rápida en un sector tecnológico con una verdadera novedad –tiene cuatro veces más resolución que una TV HD–, y eso me llevó a revisar algunas cifras en lo relativo a Mb, MHz y MegaPíxeles y a darme cuenta de que quizá nos encontramos en un punto de inflexión.

Recuerdo también, que entre las muchas «profecías» tecnológicas de las últimas décadas, se encontraba aquella de que las computadoras tomarían conciencia de sí mismas allá por el 2020. Pues bien, empiezo a tener serias dudas y a lo largo de este artículo apoyaré las mismas con cifras.

Pero antes, y a modo de reflexión, debemos repasar cómo nos ha afectado la tecnología informática, sobre todo la personal, desde su aparición.

Primero considerar que, a parte de revoluciones sociales, en el mundo científico parece que no se han producido descubrimientos o avances realmente significativos desde hace muchas décadas. Los medios de transporte siguen utilizando los mismos principios de funcionamiento que a finales del siglo XIX; la radio, la televisión y el teléfono igual; y en cuanto a la fotografía intraoral, sigue siendo igual de complicada, por muchos botones que le pongan a las cámaras.
Hay que considerar que toda la revolución digital se basa en un solo y extremadamente simple principio: la capacidad del silicio de transmitir la electricidad de forma unidireccional, y esto data de 1903. Desde entonces nos hemos limitado a reducir su tamaño.

Es importante aquí no confundir lo que es un descubrimiento o invento con la democratización del mismo, al igual que Henry Ford no inventó el motor de combustión interna, pero sí democratizó el uso del automóvil en Estados Unidos.
La aparición del PC en 1981, de la mano de IBM, permitió el acceso masivo a la tecnología informática e impulsó el ahorro de costes, la comunicación y la resolución más rápida de viejos problemas, pero, como he dicho, a parte de las redes sociales y el acceso a la información gracias a internet y a que todos ya tenemos ordenador y smartphone, nuestra vida no ha cambiado tanto.

Aprovechar el momento

Es posible, por tanto, que el miedo con el que muchos hemos vivido –y me incluyo entre ellos– a perder el carro del avance tecnológico se esté alejando en este mismo momento.

Es verdad que en aquellos aspectos donde el mero conocimiento teórico, o la simulación informática, podía apoyar el mismo, las nuevas generaciones han visto reducida la necesidad de cierta práctica, situándose mucho más rápidamente en escalones que tradicionalmente requerían años de experiencia, y parecía que se iba a seguir esta tendencia, pero esa ventaja se está desvaneciendo en este mismo momento.

Parecía que cada nueva generación venía más preparada que la anterior o que cada generación envejecía, en términos de conocimiento, de forma acelerada, pero esto solo es posible si los avances se siguen produciendo al mismo ritmo, cosa que ahora parece que no va a suceder.

Tengo la profunda convicción de que los que nacimos en la era pre-informática tenemos ahora una oportunidad de oro de subirnos de nuevo al carro y sumar nuestra experiencia «real» y, en cierto modo, volver a «colocar las cosas en su sitio».
Lo que estoy sugiriendo es que, a menos de que se produzca un descubrimiento de los de verdad, como el de las ondas hertzianas, algo que sea realmente práctico y no cosas como el Big-Bang, en los años venideros vamos a sufrir un parón digital, y es el momento de replantearse la tecnología sin esperar a que nos despierten diciendo que nos hemos quedado anticuados.

Pero vamos a aportar algunas cifras para hacernos una idea de si esta aseveración tiene fundamento o no.
Por un lado, las cámaras fotográficas, por ejemplo, ya no precisan más megapíxeles. De momento, ahora mismo necesitaríamos un monitor de 8K para poder ver todos los píxeles de una foto realizada con una cámara profesional, pero incluso con un monitor de esas características no podríamos verlo por la sencilla razón de que el ojo humano a duras penas distingue esas resoluciones.

Por otro, las búsquedas de Google podrían resolverse en cuestión de nanosegundos y no en décimas de segundo como ahora, pero no podemos leer a ultravelocidad, así que tampoco sería una gran ventaja.

Lo cierto es que hemos llegado al punto al que prácticamente se puede compartir información, que al menos tenga algún valor intrínseco, más allá de «mi estado de ánimo», a mayor velocidad de la que somos capaces de producir.

También el otro día, como aficionado al deporte del motor, veía la carrera de Fórmula 1 y cómo la clasificación de la parrilla de salida se resolvía en milésimas de segundo, y eso es lo que hemos conseguido, arañar unas milésimas de segundo, lo cual, en términos biológicos, por ejemplo, es absolutamente irrelevante.

Escribo esto desde mi «viejo» ordenador Mac de 8 procesadores a 2,8 GHz con cinco años de vida y que sigue siendo tan válido como el primer día, y eso que utiliza tecnología con dos o tres años más de antiguedad. Es decir, me estoy acercando a los diez años usando la misma máquina y siendo competitivo con los últimos modelos, y mucho me temo que esto puede empezar a ocurrir con teléfonos móviles, televisores, cámaras fotográficas y, por supuesto, muchos dispositivos médicos.

Hasta ahora, no había cambiado nunca de ordenador porque hubiera dejado de funcionar o produjera fallos, solo porque había modelos nuevos mucho más potentes, pero si eso no sucede ahora, las viejas máquinas pueden durar décadas, de hecho, se puede probar cualquier PC de hace treinta años y seguro que arranca y funciona como el primer día.

Llegados aquí hay que aclarar un concepto o, mejor dicho, un aspecto concreto de éste, que es el desarrollo de software.
Lo que hay que entender es que el programador o desarrollador de software trabaja, la mayor parte del tiempo, a ciegas. Se dedica a escribir códigos que se supone deben hacer determinadas cosas, pero solo después puede ver si realmente lo que ha escrito realiza las funciones previstas. El lapso de tiempo entre escribir y ver resultados se ha ido reduciendo considerablemente a medida que los procesadores ganaban velocidad en sucesivas versiones, pero si esa velocidad no sigue aumentando, el desarrollo de software alcanzará una velocidad de crucero, de hecho ya la ha alcanzado. Lo que quiero decir es que el desarrollo de software se va a producir a la misma velocidad que se ha venido produciendo en los últimos años, así que si hemos esperado, por ejemplo un año, para tener una nueva versión significativa de alguno de nuestros sistemas, podemos tener la casi certeza de que podemos esperar otro año para la próxima, y que el avance será, más o menos, de la misma relevancia.

Dicho en «roman paladino», no esperes grandes maravillas a la vuelta de la esquina, ya no.

Sin embargo, alguien puede decir que sí, que los ordenadores son mucho más potentes ahora que hace dos o tres años, tienen procesadores con muchos más núcleos y más RAM, etc. Pero esto no es totalmente real a la hora de trabajar en programación, y tal como están diseñados los procesadores y sistemas operativos, la mayor parte del tiempo solo se utiliza un núcleo, y solo en tareas repetitivas, como renderizado de vídeo.

Si tenemos en cuenta que la velocidad de crucero estándar actualmente, unos 3 GHz, se alcanzó ya con el Pentium 4 en el año 2000, podemos hacernos una idea de por dónde van los tiros.

La ilusión tecnológica
Tabla 1. Evolución de la velocidad de reloj de los procesadores en el tiempo desde 1978 hasta 2008.

El futuro tecnológico

El caso es que de alguna manera hemos topado con el límite de velocidad de los procesadores de silicio y, por eso, la carrera se traslada ahora a conseguir mayor resolución en los televisores o a vender móviles y tabletas multiprocesador.

Así que voy a hacer algo a lo que no estoy acostumbrado y que encierra gran peligro, y es vaticinar lo que puede ocurrir en los próximos años, a riesgo de equivocarme estrepitosamente, que es lo más probable.

or un lado, los ordenadores que tenemos actualmente en la clínica van a seguir funcionando durante mucho tiempo, probablemente años, con «sencillas» actualizaciones de sistema, especialmente en el mundo PC, ahora que Microsoft ha decidido jubilar a Windows XP y que obligará a instalar, por lo menos, Windows 7 (mi recomendación). A la hora de funcionar en el día a día no se va a notar ninguna diferencia.

En cuanto a los portátiles, los únicos dos grandes avances que se pueden producir son la reducción de peso y alargar la vida de la batería, así que si esto no es un problema personal en este momento, tampoco hay que plantearse muchos cambios.

En el apartado de teléfonos móviles poco queda por hacer, si acaso lo más interesante que pueden añadirles es un proyector, como ya incorporan algunas cámaras de vídeo domésticas, que es una posibilidad bastante cierta en un corto período de tiempo, y unos altavoces aún más potentes para poder despertar de madrugada al vecindario con el último reguetón disponible.

Internet y las comunicaciones en general continuarán ganando velocidad (en Estados Unidos, Google ya está probando sistemas de comunicación mil veces más rápidos, y no es una forma de hablar, mil veces, como suena), pero esto no va a redundar en tener información de mayor calidad. Probablemente, notaremos que las fotos suben más rápido a la nube y que los vídeos de Youtube se ven con mejor calidad.

Los monitores de ordenador y los aparatos de TV serán cada vez más grandes, ligeros y de mayor resolución, amén de ser curvos o adoptar formas artísticas, pero para la pantalla plegable aún tendremos que esperar.

Y en cuanto a los dispositivos médicos, la cirugía guiada, el software de diagnóstico y el diseño y fabricación digital de prótesis van a experimentar sucesivas mejoras, pero muy dentro de lo esperado, es decir, que si ya tienes escáner intraoral, escáner de modelos, fresadora, impresora de sinterizado y software de diagnóstico y diseño, lo mejor que se puede hacer en este momento es aprender a usarlos correctamente y, de esa manera, analizar realmente el valor añadido que pueden aportar en su estado actual, ya que no van a mejorar muy sustancialmente en un corto periodo de tiempo.

Efectivamente, para el que no haya usado intensivamente los sistemas digitales, puede parecer una revolución, y así sería si, por ejemplo, el año que viene se pudiera tomar una impresión de la misma manera que ahora se hace una foto con el móvil, pero desgraciadamente, y en contra de lo que se pudiera pensar, eso depende del desarrollo del software y no de las máquinas en sí. Los equipos se pueden hacer más ligeros, pequeños, manejables o bonitos, pero la diferencia entre tejido blando o duro es una mera interpretación de datos, y en eso, como hemos visto, vamos a movernos a velocidad constante a partir de ahora.

Velocidad de los procesadores

Para interpretar correctamente la Tabla y Gráfico 1 hay que hacer un par de consideraciones. Por un lado, se han listado los procesadores más representativos de las marcas Intel y AMD, que son los que equipan actualmente la práctica totalidad de ordenadores personales en venta (no se incluyen tabletas ni móviles). Por otro, las subidas y bajadas de velocidad se deben a que los procesadores han sido listados por fecha de introducción en el mercado, lo cual provocaba que, en ocasiones, se vendiera posteriormente un procesador más lento, pero más económico y de menor consumo.

Añadir que, aunque algunos puedan opinar que un procesador con más núcleos efectivamente es más rápido, en ningún caso lo es cuando se hace un uso normal del ordenador –y obsérvese que digo uso y no cuando el ordenador está realizando tareas automáticas mientras el usuario mira–. Un procesador de cuatro núcleos, por ejemplo, es cuatro veces más rápido que uno de la misma familia de un solo núcleo, ni siquiera el doble de rápido y podemos decir que, en general, igual de rápido. En realidad tener un procesador de varios núcleos equivale a tener varios ordenadores trabajando en equipo, pero el usuario solo tiene dos manos, así que solo podrá usar uno cada vez.

Por eso la velocidad de reloj, o ciclos por segundo, en los que el procesador ejecuta una instrucción por ciclo, por decirlo a grosso modo, sigue siendo un parámetro muy válido para medir el rendimiento de un procesador a la hora de realizar la mayoría de tareas.

Como se puede observar, el avance en las dos primeras décadas es realmente significativo, y a partir del año 2000, de alguna manera, se estanca. Es cierto que se han conseguido velocidades mayores de hasta 8 GHz (concretamente 8.794 MHz, conseguido por Andre Yang en un procesador AMD a finales de 2012), pero han sido experimentos realizados en condiciones muy especiales de refrigeración y durante períodos de tiempo muy cortos. Y, por supuesto, si el procesador tiene varios núcleos, no vale hacer trampa y sumar las velocidades de cada uno de ellos.

Nota: En el Gráfico 1 se han representado solamente los procesadores más rápidos correspondientes a cada año
por motivos de claridad visual.

La ilusión tecnológica
Gráfico 1. Evolución de la velocidad de reloj de los procesadores en el tiempo desde 1978 hasta 2008.

Autores

Especialista en Infografía 3D, post-producción audiovisual y desarrollo de aplicaciones desde 1990.

artículos relacionados