Páginas vistas en total

martes, 15 de noviembre de 2011

40 años del microprocesador: la revolución de las máquinas inteligentes


Publicado el Lun, 14/11/2011 - 7:06pm | Christopher Holloway

enlace a "http://tecno.americaeconomia.com/noticias/" que publicó esta nota , ver mas allí


En el aniversario número 40 de una de las piezas más importantes para la vida moderna, revisamos sus orígenes, influencia y el prometedor futuro del cerebro principal de los aparatos electrónicos.


Las máquinas ya dominaron el planeta: los microprocesadores están en todos lados, desde la alarma que lo despierta todas las mañanas para iniciar la jornada hasta el sistema de seguridad que lo cuida por las noches, desde la computadora que regula los movimientos del automóvil hasta el parquímetro que cuenta los minutos de su estacionamiento, pasando por el aire acondicionado, los juguetes de los niños, el termómetro del médico y el satélite que en todo momento sabe desde qué lugar se conecta a la red de telefonía celular.
 
La forma de vida moderna se debe casi por entero a la evolución y masificación de los sistemas computacionales, y si bien la causalidad nos obligaría a mirar tan atrás en la historia como al ábaco para obtener un ejemplo que lo originara todo, lo cierto es que el consenso lógico tiene nombre y fecha: el microprocesador Intel 4004 (i4004), anunciado el 15 de noviembre de 1971.
 
Hoy se cumplen 40 años desde aquel crucial momento, y la evolución y técnificación de los microprocesadores ha sido tan grande que probablemente van más allá de lo que alguna vez soñó Marcian "Ted" Hoff, su inventor.
 
Silicon Valley: Año 0. Durante los años 60 los computadores se construían en base a placas de circuitos integrados de tamaño bastante amplio, donde un par de cientos de transistores eran ordenados según la función específica que se requiriera para la máquina. Esto tenía como contratiempo una funcionalidad limitada, costo muy alto, gran uso de espacio y una utilización de electricidad y -por consiguiente- liberación de calor estratosférica.
 
Esto cambió el 15 de noviembre de 1971, fecha en la que un proyecto liderado por los ingenieros de Intel Federico Faggin y Ted Hoff daría a luz el i4004, un CPU de 4bits y 740Khz que sería el primero en utilizar sólo un chip en lugar de una placa completa. Este procesador conseguía situar 2.300 transistores en placas de 0,25 centímetros cuadrados y tenía como objetivo reunir en un solo componente todos los elementos necesarios para crear un ordenador, a excepción de los dispositivos de entrada y salida (teclado, pantalla, impresora, etcétera), por lo que se consideró el primer procesador comercialmente viable.
 
Las primeras utilizaciones que tuvo este procesador y los que le siguieron (ver infografía al final) fueron dispositivos de cálculo de complejidad baja (aunque muy relevantes para la época), que resultaron ser muy exitosos y harían crecer la utilización de esta tecnología a los niveles que conocemos hoy en día, aumentando exponencialmente en base a lo que se conoce popularmente como la Ley de Moore.
 
Sólo como punto comparativo y ejemplo, los procesadores típicos de la actualidad operan en 64bits, tiene velocidades superiores a los 3Ghz y son diseñados en chips de 32 nanómetros, sin contar que integran varios microprocesadores para realizar computos de forma paralela: más rápida y eficiente.
 
Con un pie en el futuro. Cada vez más rápido y mejor parece ser la máxima que ha guiado la evolución de los procesadores y, con los niveles de exigencia que la computación ha alcanzado, este principio está haciendo necesario repensar las leyes de la física para alimentar el hambre de velocidad que los volúmenes actuales de información están haciendo necesarios.
 
Por ejemplo, la computación cuántica es un paradigma de programación que lleva varios años en experimentación y otros muchos años más como postulado teórico. Básicamente, consiste en la utilización de unidades lógicas avanzadas conocidas como "qubits" (en oposición a los bits, de los computadores comunes y corrientes). Si un bit normalmente es capaz de representar sólo dos valores ("0" o "1", marcando la base de toda la computación binaria), un qubit es capaz de representar 3 ("0", "1" o "0+1", una superposición de ambos valores, algo posible sólo operando bajo la lógica de la mecánica cuántica). Esta capacidad permite realizar operaciones mucho más complejas de lo que jamás podría la computación normal, pero la dificultad de crear un procesador de este tipo es tal que recién ahora se están concretando las primeras aproximaciones operativas al tema, y empresas como Microsoft ya están adquiriendo patentes para computadores cuánticos.
 
Bernardo Miretzky, especialista en Tecnología de AMD, cree que "hay mucho campo para desarrollar en la computación cuántica", aunque considera que un avance más concreto para los próximos años está en la mejora constante del rendimiento de los procesadores. "Esto beneficiará a la gente porque comenzará a encontrar equipos cada vez más económicos y con una performance de recursos energéticos, como la duración de la batería, mucho más conveniente".
 
"El futuro viene por el procesamiento en paralelo", dice Miretzky, "pues siempre las tecnologías de PC vienen pensadas con procesamiento lineal: una cosa después de otra. El paralelo es sencillo, pero es un cambio total". Desde el punto de vista de AMD, en lugar de utilizar sólo un procesador que opere mucho más rápido, es posible utilizar muchos procesadores que compartan la carga de forma inteligente y disminuyan la utilización de recursos, haciendo procesadores más baratos y efectivos.
 
"El futuro de la computación está en los procesadores: el “todo en uno” es la tendencia que se viene. Lo que va a provocar esto a largo plazo, es que las placas de rango bajo van a desaparecer porque la potencia de los APU (Unidad de Procesamiento Acelerada, según sus siglas en inglés) las reemplazarán. Por ejemplo, los APU del año que viene van a reemplazar ya el chipset que trae los controladores de audio, usb, etcétera. Va a estar todo cada vez más consolidado", opina el ejecutivo de AMD.
 
Por supuesto, para llegar a esto los caminos son muchos.
 
Recientemente Intel presentó lo que podría ser una nueva revolución en el campo de la computación: el transistor en tres dimensiones. Los transistores son las unidades básicas de todo microprocesador, son las "puertas lógicas" que indican el estado binario de un bit ("0" o "1"). Hasta ahora, estas unidades han sido diseñadas de forma "plana", o en 2D, lo que utiliza una cantidad considerable de espacio. El problema principal detrás de esto es que para aumentar en escala la capacidad de procesamiento hacen falta más transistores y menos espacio, algo que está a punto de ser imposible desde el punto de vista físico (debido a la interferencia que producen los transistores al verse miniaturizados en exceso). La adición de una dimensión a estos elementos permite ahorrar espacio y están dando paso a microprocesadores de 22 nanómetros, los más pequeños comercialmente producidos, que prometen un aumento en rendimiento suficiente para pasar a la "siguiente generación de procesadores".
 
¿Parece lejano? Pues Intel ya ha declarado que se encuentra en la fase de producción y el anuncio de estos procesadores, de nombre Ivy Bridge, debería llegar durante el último trimestre del año, para salir a la venta el próximo año.
 
Todo apunta a que en estos días, a 40 años de que aquel primer microprocesador apareciera en las manos de Ted Hoff, la tecnología aún se sostiene en la arquitectura fundada por este, pero que ya estamos en los albores de una epoca que hará ver a los computadores, y su influencia en nuestras vidas, de una forma totalmente distinta.
 
62
Infografía gentileza Intel

autor

Christopher Holloway

No hay comentarios: