martes, 30 de noviembre de 2010

Una breve historia de la Ley de Moore y la próxima generación de chips de computadoras y semiconductores Michio Kaku el 27 de noviembre de 2010, 14:44



Super poderosas computadoras de escritorio, sistemas de videojuegos, coches, iPads, iPods, ordenadores de mano, teléfonos celulares, hornos de microondas, la televisión de alta definición ... La mayor parte de los lujos que disfrutamos durante nuestra vida cotidiana son el resultado de los tremendos avances de la potencia de cálculo que se hizo posible gracias al desarrollo del transistor.

La primera patente para los transistores se presentó en Canadá en 1925 por Julius Edgar Lilienfeld, esta patente, sin embargo, no incluye ninguna información sobre los dispositivos que en realidad sería construido utilizando la tecnología. Más tarde, en 1934, el inventor alemán Oskar Heil patentado un dispositivo similar, pero en realidad no fue sino hasta 1947 que John Bardeen y Walter Brattain en los Laboratorios Bell Telephone produjo el primer transistor de contacto puntual. Durante su fase de prueba inicial, se producen algunos de ellos y montado un amplificador de audio que se presentó más tarde a varios ejecutivos de los Laboratorios Bell. Lo que les impresionó más que nada fue el hecho de que el transistor no necesitaba tiempo para calentarse, al igual que su predecesor el tubo de vacío hizo. La gente inmediatamente comenzó a ver el potencial del transistor para la informática. Los equipos originales de finales de los años 1940 eran gigantescas, con algunos incluso ocupando habitaciones enteras. Estos equipos grandes se reunieron con más de 10.000 tubos de vacío y se llevó una gran cantidad de energía para funcionar. Casi diez años más tarde, Texas Instruments físicamente produjo el transistor de silicio en primer lugar. En 1956, Bardeen y Brattain ganó el Premio Nobel de Física, junto con William Shockely, quien también hizo una importante labor crítica en el transistor.

Hoy en día, miles de millones de transistores se producen cada año, y el transistor es considerado uno de los mayores logros tecnológicos del siglo 20. El número de transistores en un circuito integrado se duplica aproximadamente cada dos años, como la tasa que se ha mantenido fuerte durante más de medio siglo. La naturaleza de esta tendencia fue propuesto por primera vez por el cofundador de Intel, Gordon Moore en 1965. El nombre de la tendencia fue acuñado "Ley de Moore", y su exactitud se utiliza actualmente en la industria de semiconductores como algo de una guía para definir la planificación a largo plazo y la capacidad de establecer con precisión los objetivos de I + D. Pero lo más probable es que nuestra capacidad de duplicar nuestra potencia de cálculo de esta manera con el tiempo se descompone.

Durante años, hemos estado escuchando los anuncios de los fabricantes de chips que dicen haber descubierto nuevas formas de reducir el tamaño de los transistores. Pero la verdad es que son simplemente la falta de espacio para trabajar. La pregunta aquí es "¿Hasta dónde puede la Ley de Moore ir?" Bueno, no sabemos a ciencia cierta. Actualmente usamos grabados de la radiación ultravioleta en los microchips, y es este mismo proceso de grabado que nos permite meter más y más transistores en el chip. Una vez que empieza a golpear las capas y componentes que son cinco átomos de espesor, el Principio de Incertidumbre de Heisenberg empieza a entrar en juego y ya no sabe dónde está el electrón. Lo más probable es que los electrones en un pequeño transistor que filtran, hagan un corto circuito. También hay problemas de calor, que es en última instancia, causada por el aumento de potencia. Algunos han sugerido que podrían usar los rayos X en lugar de luz ultravioleta para grabar en el chip, pero al mismo tiempo se ha demostrado que los rayos X en los componentes más pequeños y más pequeños, la energía utilizada es proporcionalmente más grande, provocando su explosión de derecho a través de la de silicio.

Las otras preguntas son los pasos que vamos a tomar para encontrar un sustituto adecuado para el silicio, cuando llegamos a un punto de inflexión. Por supuesto, estamos mirando el desarrollo de ordenadores cuánticos, los ordenadores moleculares, proteínas computadoras, computadoras de ADN, e incluso ordenadores ópticos. Si estamos creando circuitos que son del tamaño de los átomos, entonces ¿por qué no calcular con átomos de sí mismos? Este es ahora nuestro objetivo. Hay, sin embargo, enormes obstáculos que superar. En primer lugar, los ordenadores moleculares son tan pequeñas que ni siquiera se puedan ver, ¿cómo cabe algo tan pequeño? La otra pregunta es nuestra capacidad para determinar una manera viable de producción en serie. Hay mucho para hablar sobre el mundo de la informática cuántica en este momento, pero todavía hay obstáculos que superar, incluidas las impurezas, las vibraciones y la decoherencia, incluso. Cada vez que he tratado de mirar a una de estas arquitecturas exóticas para sustituir al silicio, nos encontramos con un problema. Ahora bien, esto no significa que no vamos a hacer grandes avances con estas arquitecturas de computación diferentes o encontrar una manera de extender la ley de Moore más allá de 2020. Simplemente no sé muy bien cómo todavía.

Así que echemos un vistazo a algunas de las cosas que los grandes fabricantes de chips, laboratorios y centros de investigación están trabajando actualmente, tratando de encontrar un sustituto adecuado para el silicio y llevar la informática al siguiente nivel.

    
* Escribí un artículo anterior "grafeno cambiará la forma en que vivimos", que describe cómo IBM ya está probando un transistor de 100 GHz, con la esperanza de un procesador de 1 THz en el horizonte. El grafeno tiene increíbles propiedades electrónicas que podrían convertirlo en un sustituto adecuado. Sin embargo, no es un método fácil para la transformación a gran escala de materiales basados en el grafeno lo que este puede tomar una cantidad considerable de tiempo antes de que comencemos a ver los ordenadores basados en el grafeno en la estantería en Best Buy. Pero, como la mayoría de los avances en la informática, ya puede llegar antes de lo que pensamos. Aquí está un ejemplo de una empresa con un nuevo método de creación de grafeno mediante el ensamblaje de los átomos dentro de un reactor.
    
* Los investigadores de los EE.UU. Departamento de Energía del Laboratorio Lawrence Berkeley Nacional y la Universidad de California en Berkeley, han integrado con éxito las capas ultra finas de la arseniuro de indio semiconductores sobre un sustrato de silicio para crear un transistor de escala nanométrica, con excelentes propiedades electrónicas.
    * Los investigadores han aprovechado la teoría del caos para una nueva clase de CPU con el desarrollo de arreglos de compuertas programables en campo (FPGAs). Los investigadores afirman que "los procesadores que se dedican a una sola tarea son más eficientes que un proceso de propósito general como los que Intel ofrece. Es por eso que un pequeño chip de baja potencia dedicada a decodificación de vídeo puede manejar fácilmente una tarea que puede forzar una CPU . El inconveniente es que sólo son buenos para la tarea para lo que están hechos.

Con un 2% de la energía total del mundo se consume por construcción y explotación de equipos de computación, un esfuerzo de investigación pionera podría reducir el tamaño del mundo procesadores superordenador más potente del tamaño de un terrón de azúcar, dicen los científicos de IBM.

Así que creo que la próxima década los avances de la informática nos va a llevar los gadgets y los dispositivos que hoy sólo pueden soñar. ¿Qué tecnología dominará el mensaje era del silicio? ¿Qué va a sustituir a Silicon Valley?
Nadie lo sabe.
Pero nada menos que la riqueza de las naciones y el futuro de la civilización puede descansar sobre esta cuestión.
Fuente: http://bigthink.com/ideas/25165