nanoelectronica
Transcription
nanoelectronica
NANOELECTRONICA a escala molecular y tecnologías picométricas en su realización ______________________________________________________________ Cuerpo de Presentación como minicurso en la Escuela Andina de Física (ESAFI 2004) Lima, El Perú, Agosto 2004 Alfred F. K. Zehe Benemérita Universidad Autónoma de Puebla Facultad de Ciencias de la Electrónica 72000 Puebla, México INDICE Cap 1 El desenvolvimiento de la microelectrónica, sus límites naturales y la extensión de la Ley de MOORE a una nanoelectrónica a escala molecular (Moletrónica) Cap 2 En las nanociencias predomina la mecanica cuántica: Unos aspectos fundamentales a recordar Cap 3 Atomos y moléculas: Elementos básicos en la realización de estructuras electrónicas Cap 4 Tecnologías nano- y picométricas para la fabricación de estructuras geométricas y dispositivos nanoeletrónicos Cap 5 Nanodispositivos electrónicos a escala molecular: “Caja de herramientas” para la moletrónica Cap 6 Ejemplos para proyectos y problemas de investigación en las nanociencias y la moletrónica Anexos Durante 1936 a 1938 el ingeniero alemán Konrad ZUSE desarrolló y construyó la primera computadora binaria digital en el mundo (Z1). Dió inicio a un enorme desarrollo, que con ENIAC desde 1946 encontró en EEUU su seguidora. Con los avances de la investigación de semiconductores a finales de los años 50, y el aprovechamiento comercial de las computadoras empezó un proceso de miniaturización para las siguientes generaciones de computadoras. Al inicio de los años 60 nació el primer circuito integrado (KILBY, NOYCE) como adelanto para la tercera generación de computadoras. Intel desarrolló en 1971 el primer microprocesador, y apenas siete años mas tarde aparecieron computadoras de la cuarta generación en base a las tecnologías VLSI con mas que 100,000 dispositivos en un solo chip. 'Supercomputer' de aquel tiempo fueron sustituidas por pequeños PC´s con mayor poder. Una siempre mas alta integración y perfección ha llevado al nivel, que hoy día resulta en una casi milagrosa extención de las computadoras en especial, y de equipo electrónico de informática en general a todos los rincones de la vida humana. La microelectrónica actual se confronta a violentos cambios. En cierta analogía a la integración de transistores discretos de silicio en un chip hace cuatro décadas, se está forzado ahora a considerar la realización de los mismos principios de operación electrónicos en estructuras a escala molecular. Vivimos la transición de la microelectrónica convencional a una electrónica molecular más poderosa aún. La permanente miniaturización de elementos constructivos microelectrónicos sobre un substrato tiene, además de su relevancia para la obtención de una inteligencia artificial en circuitos integrados de memoria, un ulterior efecto de gran importancia para la física: los elementos constructivos aislados contienen solo pocos electrones para garantizar su función. Los principios convencionales de operación para tales microestructuras se habrían vuelto por tanto - por razones físicas - inutilizables desde hace tiempo, y la tendencia preconizada para la muy alta integración pasa por el apilamiento tridimensional de microelementos constructivos en los que son posibles mayores densidades de relleno a pesar de mayores anchuras de unión, hasta finalmente llegar a sistemas moleculares. 1. La microelectrónica convencional Desde la invención del transistor en 1926 por el físico alemán Julius LILIENFELD, y la realización práctica de un transistor bipolar veinte años mas tarde por SHOCKLEY, BARDEEN y BRATTAIN, un enorme esfuerzo por parte de investigadores e ingenieros llevó a la realización del circuito integrado (IC), que en 1967 había llegado a una densidad de apenas 190 transistores por mm2. En comparación, los microprocesadores actuales contienen arriba de 100 millones de transistores en el mismo área, - tendencia creciente. Esta tendencia, conocida como Ley de MOORE, predice un redoble del número de transistores integrados en un IC de silicio cada dos años. Sigue aproximadamente válida hasta el presente. No obstante, existen limitaciones naturales, hasta donde la miniaturización convencional puede llegar. 1.1 Desenvolvimiento de la microelectrónica En la medida que se aumentó el área de las obleas de silicio, se logró además un aumento considerable de la eficiencia de colocación (packing efficiency) de los dispositivos, tanto como una reducción impresionante de las dimensiones laterales. Se habla de una integración a pequeña escala (small-scale integration, SSI) teniendo menos de 100 componentes en un chip (1960); de una integración a mediana escala (médium-scale integration, MSI), con hasta 1,000 componentes por chip (1966); de una integración a escala grande (large-scale integration, LSI), con 1000 a 10,000 componentes por chip (1969); de una integración a escala muy alta (very large-scale integration, VLSI) con 10,000 a 100,000 componentes; y de ULSI (U-ultra) arriba de 100,000 componentes. Estas tendencias se aproximan exitosamente por funciones exponenciales. El ancho de línea (feature size) Θ, por ejemplo, sigue una dependencia Θ = 2 [µm]⋅exp[− 0.135(t − 1980)] (1.1) donde t representa el año calendario después de 1980. Si no consideramos límites de algún índole (ver el siguiente capítulo), se tienen dimensiones laterales mínimas abajo de 90 nanómetros despues año 2002. Esto se compara por ejemplo con la longitud de onda de la luz verde de λ = 535 nm. Aún más notable para la microelectrónica clásica resultan tendencias para el ancho de línea cuando no se considera un crecimiento del tamaño de la oblea ni tampoco de la eficiencia de colocación: Θ = 0.53 [µm]⋅exp [ − 0.23 (t − 1990)] 1.2) o basando la función en el año 1985, Θ = 1.02 [µm]⋅exp [ − 0.23( t − 1985)]. (1.3) La figura 1.1 visualiza el desarrollo de la dimensión característica Θ de integración durante los años pasados con su alcance hasta el año 2016. El término microelectrónica tiene exactamente que ver con los circuitos integrados de alta densidad y su diseño sobre un solo chip. Figura 1.1: Desarrollo del tamaño característico en la tecnología planar sobre obleas de Si. Los principios de operación de transistores convencionales, como también la arquitectura del diseño de los circuitos integrados, llegaron a ó pasaron limites físicos: el control del transporte de portadores eléctricos a través de ’depletion layers’, formados por potenciales electroestáticos, se degrada con la negativa consecuencia de corrientes subumbrales. Mas aún, por la semejanza en tamaño entre las dimensiones laterales de las estructuras y la longitud de onda DeBROGLIE de portadores de carga móviles, los electrones obedecen las leyes del tunelamiento mecánico-cuántico y pasan fácilmente por barreras de potencial formadas por capas incluso de aislantes. Aparte del silicio, otros semiconductores han tomado importancia en la microelectrónica: el arseniuro de galio, GaAs es un ejemplo. No obstante, existe una diferencia tecnológica muy notable entre el Si y el GaAs: mientras el Si posee un óxido extraordinariamente estable y útil, el óxido del GaAs se disuelve en agua y no es durable. Además su precio de crecimiento y producción del GaAs es por un factor de 100 veces mas alto que el del silicio. Es consecuencia lógica entonces que el 80% de todos los dispositivos semiconductores estén fabricados en base a silicio. Tanto la integración de dispositivos siempre mas alta como la perspectiva de nuevas estructuras nanométricas resultan en dispositivos más pequeños, menos profundos respecto a la superficie de la oblea, y con transiciones más abruptas entre regiones de diferente química por dopamiento o aleación. La pureza cristalina de las obleas y de las uniones entre diferentes zonas ha de ser muy alta. El caballo de batalla en el desarrollo de la microelectrónica son los circuitos de memoria. El almacenamiento de información en regiones del semiconductor muy pequeñas pone fuertes exigencias no solamente al material semiconductor, sino también al material aislante (como dieléctrico en condensadores de almacenamiento de carga), y al material metálico como pista eléctrica o interconexión entre diferentes dispositivos. Una celda de memoria MOS-DRAM consiste de un transistor de interrupción o switcheo y de un condensador de almacenamiento (storage capacitor). El tamaño del condensador debe ser tal que garantice la inmunidad contra fuentes de ruido, como por ejemplo, la generación de portadores minoritarios por partículas alfa provenientes del entorno. Como mínimo de la carga de operación almacenada se considera Qs > 2⋅10-13 As, mientras una partícula alfa genera típicamente una carga de 1⋅10-13 As. Vemos la ecuación para la carga de un condensador de placas: Qs = ε⋅Α⋅Ε (ε-constante dieléctrica del medio, A-área de las placas del condensador, E-valor del campo eléctrico entre las placas, dado por E = U/d, con d como la separación entre las placas o bien el espesor del dieléctrico, y U el voltaje aplicado y anteriormente estandarizado internacionalmente). Es obvio que no se puede reducir A demasiado sin reducir al mismo tiempo d. Con U fijo a 3 volts, esto significa que el campo eléctrico llegará pronto al campo de ruptura del dieléctrico, que para el SiO2 tiene un valor debajo de 8 MV/cm. La constante dieléctrica del SiO2 con ε=3.9 no es suficiente, si el área del condensador fuera más y más pequeña. Nuevos materiales dieléctricos con mayores valores y compatibles con el proceso de la microfabricación son deseables y bajo estudio como medida de optimización de la microelectrónica convencional. 1.2 Tecnologías avanzadas en la microelectrónica La ultra-alta integración en la microelectrónica es indivisiblemente ligada a tecnologías de crecimiento de estructuras finas tanto en dirección vertical a la oblea como en dirección lateral para la definición e interconexión de los dispositivos. Como dos tecnologías básicas con estas características se han desarrollado durante los últimos 50 años la MO-CVD y la MBE con numerosas especializaciones y variantes para el crecimiento de capas delgados hasta el nivel mono-atómica, tanto como la fotolitografía utilizando como radiación una parte del espectro con siempre más corta longitud de onda. En lo que sigue, se da una breve descripción de unas características tecnológicas. 1.2.1 Estructuración vertical y lateral MBE: La Epitaxia por Haz Molecular es una técnica de crecimiento de capas cristalinas que comprende la reacción controlada de uno o más haces térmicos de moléculas o átomos de diferente naturaleza con una superficie cristalina (substrato) caliente bajo condiciones de ultra-alto vacío (presión total < 10-8 Pa). Por su potencial extraordinario para la investigación básica y aplicada en los campos de la ciencia de las superficies, interfaces, películas delgadas sólidas, y de materiales en estado sólido y sus conceptos físicos y electrónicos que utilizan la técnica de vacío, se asemejan las áreas de investigación, unificadas por el término genérico ’Física del Vacío’. Al mismo tiempo el método MBE se ha extendido del nivel de investigación a una aplicación real de materiales y dispositivos electrónicos en la escala de producción (Figura 1.2). Figura 1.2a: Un equipo completo para la realización de crecimiento de capas ultradelgadas y epitaxiales por MBE (RIBER). Figura 1.2b: Configuración de la cámara MBE-3 de vacío para el crecimiento epitaxial de aislantes y metales sobre obleas de silicio (Zehe: Wiss. Z. TU Dresden 37, 179-188, (1988)) El GaAs más perfecto es producido por el método MBE. Los LASERes y sensores semiconductores son por ejemplo producidos por MBE en grandes cantidades. El progreso de la investigación en la física de la materia condensada y la realización tecnológica de efectos descubiertos es prácticamente reducido a un solo proceso: El reconocimiento de la alta movilidad de portadores de estructuras dopadas en forma modulada con mutipozos cuánticos, proporciona inmediatamente el transistor de alta movilidad del electrón (HEMT) producida por MBE y disponible en el mercado. Históricamente, el uso de MBE se inicio alrededor de 1970 fuera de las técnicas convencionales de evaporación al vacío, cuando surgió la necesidad de obtener dispositivos optoelectrónicos y de micro-ondas en dimensiones pequeñas y estructuras más restringidas. Ahora las heteroestructuras a nivel de monocapas, multipozos cuánticos dopadas selectivamente, estructuras de banda talladas, y semiconductores con niveles de pureza arriba de 1014 átomos/cm3, es un indicio claro del alto estándar logrado en la MBE. La naturaleza cristalina de las películas y estructuras deseadas origina restricciones en la variedad de materiales aplicables: A diferencia de la deposición de películas delgadas, en la epitaxia es necesario satisfacer ciertas relaciones cristalográficas con respecto a la simetría de la red y a la distancia interatómica. Sin embargo, tampoco un gran porcentaje de enrejado incongruente no impide el crecimiento perfecto de heteroestructuras con superredes de capas tensionadas. El término haz molecular es aplicado usualmente para describir moléculas (y átomos) uniformes moviéndose en una dirección bien definida sin afectar colisiones entre ellos, dentro de una cámara de vacío. En su trayectoria interaccionan con ciertos obstáculos, como con las paredes del recipiente o con un substrato colocado intencionalmente (oblea) donde la adsorción puede o no ocurrir. Una fuente gaseosa (vapor sobre un fundido) a temperatura T libera moléculas dentro de un haz térmico molecular, donde la energía cinética mv2/2 tiene un valor promedio de 3kT/2 y la velocidad molecular v cubre la distribución Maxwelliana para dar un promedio cercano a 250 meV (1200 m/s) a 1100°C para átomos de silicio. Para presiones menores a 10-4 Pa el camino medio libre es del orden de 100 metros; para moléculas pequeñas es una distancia grande comparada con cualquier cámara normal de vacío. El llamado número KNUDSEN K* = λ/d es la relación del camino libre medio con una dimensión característica del sistema, por ejemplo el diámetro del recipiente. La región del flujo molecular es determinado por los valores K* > 1, y las propiedades del flujo dependen solo de las colisiones entre pared y gas. Debido a que las moléculas del gas no chocan entre si, dos haces moleculares dentro del mismo espacio pueden propagarse en direcciones opuestas y ninguno es afectado por la presencia del otro. La intensidad del haz térmico molecular y así la velocidad de crecimiento es determinado por la presión del vapor, P(T), de los materiales evaporados y puede ser controlada fácilmente por la temperatura del fundido. El número de celdas KNUDSEN independientes en un reactor de vacío y el control externo de la secuencia de su operación (shutters) permite el crecimiento de complicadas estructuras finas con propiedades eléctricas (dopamiento) predeterminadas. CVD: El método CVD representa otro procedimiento fundamental ya establecido dentro de la tecnología de capas delgadas. Al igual que en los procesos físicos (PVD, physical vapor deposition), el material de la capa es llevado en forma gaseosa hacia el sustrato. Lo que es diferente es la composición de la fase gaseosa en comparación con el método físico (MBE). En los procesos PVD, un cuerpo sólido es vaporizado dentro de un ámbito inmediatamente cercano al sustrato (evaporado a partir de celdas Knudsen, utilizando vaporizadores de haz de electrones o mediante el bombardeo iónico). Las partículas atómicas o moleculares se precipitan sobre su superficie o forman una película delgada. En cada caso es el vacío la condición previa para una buena calidad de capa. En los procesos CVD, al contrario, los componentes volátiles – de aquí en adelante compuestos gasiformes (llamados asimismos precursores) – reaccionan en las superficies calientes del reactor hacia el material de capa sólido, ocurriendo esto, (como es común en los reactores químicos) – de manera tanto más rápida como más alta sea la temperatura. A partir de cierto valor umbral la conversión química ocurre tan rápidamente que el coeficiente de deposición solo se determina a partir de la fusión de partículas e, inclusive, a ulterior aumento de temperatura no se incrementará mas. Pero la temperatura de proceso está normalmente por debajo de este umbral y es tan hasta cierto punto elevado, que el sustrato a recubrir todavía resiste. De los componentes moleculares orgánicos del compuesto respectivo depende la volatilidad del complejo. Un precursor ideal metalorgánico para procesos CVD debería ser fluido en condiciones normales, pero fácil de evaporar, descomponerse según un esquema conocido e influenciable, y no ser tóxico, ni corrosivo, ni en absoluto explosivo. Mientras la CVD permite aplicaciones con alta productividad, la MBE aparte de usos industriales, es una tecnología muy precisa para fines de investigación en nanoestructuras. PL: La fotolitografía tiene como objetivo la estructuración lateral de las capas finas crecidas sobre una oblea (Figura 1.3). Figura 1.3: Pasos del proceso de fotolitografía común. Clásicamente esto ocurre a través de la irradiación de un material sensible a la radiación, - el resist - aplicado a la oblea semiconductora utilizando radiación con la que se imprimirá sobre este una imagen latente, y lo cual se expresa en una modificación de las propiedades físicas y sobre todo de las químicas. A partir de ello el resist modifica su solubilidad en solventes apropiados, especialmente en gases reactivos como por ejemplo CF4, lo que permite una deposición de la superficie libre del sustrato (revelado) para otros pasos de procesamiento, tales como la aplicación de material de vía conductora, la implantación de iones con fines de dotación o el llenado de zanjas ácido-atacadas con material aislante. Antes, y si es el caso, las estructuras de laca son todavía reendurecidas mediante una radiación especial utilizando luz ultravioleta, esto con el fin de proteger mejor de la abrasión de la capa subyacente en el siguiente paso de ataque ácido. Normalmente se utilizan como resist fotolacas orgánicas con una alta sensibilidad en el campo ultravioleta del espectro electromagnético. Éstas son rociadas o proyectadas sobre el sustrato-semiconductor. Estando bajo la radiación se efectúa o bien una fotopolimerización de su estructura, lo que empeora la solubilidad de la zona correspondiente en medio ácido (resist negativo), o bien una fotoresolución de componentes con moléculas grandes, lo que a su vez aumentaría la solubilidad de las zonas radiadas (resist positivo). La longitud de onda de la radiación debe compararse con el tamaño característico de los componentes electrónicos, que se quieren formar. Con luz ultravioleta no se llegará más allá de los 100 nm. 1.2.2 Metrología en microsistemas Uno de los objetivos principales de la analítica de superficies es la determinación de la naturaleza de los elementos químicos en la capa externa de un sólido. Además se requieren a menudo conocimientos de detalles estructurales, estados de ligazón y de la homogeneidad de composición. Propiedades y procesos, como lo son la contaminación, adsorción, adhesión oxidación, pasivación, interdifusión, dopaje, crecimiento de cristales y epitaxia, pueden ser controlados solamente por la analítica de superficies, interfaces y de capas delgadas con una resolución espacial de alta precisión. Casi todas las técnicas analíticas tienen alguna sensibilidad hacia la profundidad del sólido, a pesar de que la mayor parte de la información producida surge de la primera capa, la superficie física del sólido, la analítica de superficies e interfaces y la analítica de capas ultra-delgadas tiene una fuerte interrelación. El deseo de lograr una caracterización en 3 dimensiones (3D) requiere tanto una técnica de alta resolución lateral como de alta resolución vertical hacia la profundidad de la película. En calidad de ejemplo se mencionan unas técnicas de frecuente uso y de investigación, que dan lugar tanto a la caracterización como a la modificación de superficies. RHEED: La difracción de electrones de alta energía reflectados proporciona información sobre la estructura de la superficie, microestructura y uniformidad en ambas, tanto en el substrato anterior al crecimiento, como en la película epitaxial. Es una técnica típica de inspección in situ e indispensable en el crecimiento por MBE. Mientras que trazas de luz en el patrón RHEED nos indica que la superficie es uniforme, una alta contaminación evita que el patrón RHEED aparezca. Las oscilaciones en la intensidad de RHEED permiten el control de crecimiento a escala monoatómica (Figura 1.4). Figura 1.4: La técnica RHEED permite en el modo de oscilación RHEED una precisión de control del crecimiento a nivel de una sola monocapa. AES: La espectroscopía de electrones AUGER proporciona un análisis química elemental de las capas exteriores de una muestra con un límite de detección de 0.1 1 % en una monocapa. En el crecimiento MBE se la aplica principalmente en el estudio de la estequiometría de la superficie, además de la preparación del substrato en la obtención de una superficie libre de oxígeno y carbono. SIMS: La espectroscopia de masa de iónes secundarios puede ser operada de un modo dinámico, donde el resultado es un perfil de profundidad de átomos dopante y de una forma estática, donde solo es analizada la cúspide de la superficie en las monocapas. Usualmente esta no es una técnica de cámara simultanea al crecimiento MBE, aunque los datos obtenidos de la medición son de gran estimación para la alta resolución en los perfiles profundos. TIID: Las oscilaciones en la desorción inducida por imperfecciones transitorias se consideran un efecto llamativo durante el crecimiento de las capas MBE. El proceso fisico-químico involucra hechos experimentales, en donde los coeficientes de absorción del oxígeno y del hidrógeno por una superficie dañada del semiconductor excede por diversos órdenes de magnitud aquellos del semiconductor con plano especular del mismo material. Durante el proceso MBE las capas crecidas oscilan entre estas dos situaciones. Figura 1.5: Oscilaciones del coeficiente de desorción durante el crecimiento por MBE (Zehe et al.: Cryst. Res. Technol., 24, 853 (1989)) MEMS representan una combinación de la tecnología de procesamiento semiconductor con la ingeniería mecánica, -y esta a una escala muy pequeña. Contienen dos componentes principales, a saber un elemento mecánico y transductores. El elemento mecánico se desplaza o vibra en respuesta a una fuerza externa. Puede contar con un resorte suave y temblar con resonadores mecánicos para la medición de fuerzas estáticas o variables en tiempo, respectivamente. Los transductores integrados en MEMS convierten energía mecánica en señales eléctricas u ópticas, y viceversa. La absorción de sustancias químicas, o cambios de temperatura en la parte mecánica del sistema se hace notable en el cambio de la frecuencia, y puede ser detectada de esta forma. En general, la señal saliente de un dispositivo electromecánico es el movimiento de un elemento mecánico. Las técnicas aquí mencionadas, aunque usadas frecuentemente, no cubren la ancha escala de métodos analíticos existentes, que particularmente en la microelectrónica convencional con sus estructuras relativamente grandes han de completarse por los métodos de microscopía,- tanto óptica como electrónica, entre otros mas. 1.3 Límites de escalabilidad La reducción en dimensiones geométricas del diseño de MOS-FET ha seguido con éxito los pronósticos establecidos por la ley de MOORE. Al salto debajo de 100 nm para sus tamaños característicos se presentan limitaciones físicas, que pueden poner en duda su utilidad. Se habla de una ’barrera 0.1 µm’, por que otros diseños pueden ser necesarios para sustituir el MOS-FET clásico. 1.3.1 Campos eléctricos Anteriormente (cap. 1.1) ya se mencionó la relación critica entre el espesor del dieléctrico y su campo eléctrico de ruptura. Pero incluso los campos eléctricos establecidos entre fuente y dreno del siempre más diminuto FET causan que los electrones se muevan más rápidamente. Una vez que alcanzan valores con suficiente energía, pueden estimular ruptura por avalanchas en el transistor, que lo convierte inestable. Hablando de la temperatura de partículas se requiere acordarse bien que el término temperatura tiene razón de ser solamente para un conjunto estadístico suficientemente grande en equilibrio. Mientras el sistema fonónico de un sólido (las oscilaciones de la red) con una distribución energética MAXWELLBOLTZMANN, corresponde a exp(E/kTf), usualmente actua como baño térmico de la temperatura Tf para otros conjuntos estadísticos (electrones, huecos, fotones, etc.). El subsistema de los electrones por ejemplo, aunque teniendo equilibrio entre los mismos electrones, puede adoptar una distribución correspondiente a una temperatura Te mayor que la temperatura Tf. Tal sistema de electrones se llamaría caliente (respecto al sistema del baño de fonones). En condiciones de altos campos eléctricos, dadas por ejemplo entre el dreno (drain) y la fuente (source) de un transistor de campo con longitud de canal abajo de 1 µm, es muy importante, que los electrones acelerados se internen y lleguen a una distribución equilibrada. Unos serán muy energéticos (calientes) incrustándose en el óxido del MOS-FET y así deteriorando poco a poco las propiedades físicas del aislante. Características del dispositivo, como ganancia y voltaje umbral, se cambian con el tiempo, causando el mal funcionamiento del FET. Si el campo eléctrico relacionado al a ruptura por avalancha determina su valor máximo, en el otro extremo está controlado con el voltaje térmico, que a temperatura ambiente es de aproximadamente 26 mV. Para que una señal quede reconocible, debe superar por varias veces al valor del ruido térmico. El voltaje térmico establece el valor mínimo para el campo eléctrico en ciertas estructuras del FET. Los transistores en el chip están separados del uno al otro con una distancia, que garantiza su funcionamiento sin que efectos cruzados (cross link) lo perjudiquen. El material que los separa puede ser considerado como una barrera de energía. Mientras las leyes clásicas físicas impiden el paso de electrones con energía menor que la de la barrera, las leyes fisico-cuánticas lo permiten tan pronto que el espesor a de la barrera es comparable con la longitud de onda DeBROGLIE (Figura 1.6). Figura 1.6: Los fenómenos cuánticos macroscópicos se presentan debido a que la medida de las tres escalas de longitud, formadas por la distancia interatómica, la longitud de onda DeBROGLIE, y el tamaño característico f de la estructura llegan a ser comparables. Este proceso del funcionamiento cuántico tiene efecto sobre que tan denso se puede colocar los transistores en un chip, y ocurre con alta frecuencia para grosores de barrera d < 10 nm. Para lograr el funcionamiento de dispositivos, ciertas regiones requieren un dopamiento con impurezas. Mientras una concentración, digamos de donadores, de 1018 cm-3 en un semiconductor significa un considerable número de átomos involucrados, en estructuras de 1000 nanómetros cúbicos, este valor da apenas una sola impureza en el volumen activo. Efectos de equilibramiento basados en leyes estadísticas pierden completamente su sentido. La disipación de energía térmica en los chips es de preocupación particular. Con cierta densidad de corriente eléctrica incluso en IC´s con varios niveles sobrepuestos de pistas metálicas, el valor de calor térmico generado sobrepasa valores conocidos solamente de los hornos eléctricos. Sin enfriamiento eficiente, ya en el estado actual, resultarían fundidos. A tan altas temperaturas aumentan efectos no-deseados de interdifusión y de migración de materiales entre capas y dentro de las pistas metálicas. Merecen de una particular atención. 1.3.2 Electromigración Electromigración y la formación de agujeros (voids) y montecillos (hillocks) en pistas metálicas restringen la confiabilidad de interconexiones desde el inicio de la microelectrónica integrada. La aleación Al(+1⋅⋅⋅4%Cu) ha sido estudiada a fondo por ser el material preferido para aplicaciones en conductores metálicos. Debido a la reducción en los tamaños característicos y el crecimiento de densidades de corriente, cobre con su mejor conductividad eléctrica está sustituyendo el aluminio en la microelectrónica avanzada. El paso de corrientes eléctricas de pocos mA a través de estas pequeñas estructuras genera densidades de corriente mayores que 106 A/cm2 que con el tiempo rompen las pistas. Tales densidades de corriente dan lugar a un incremento y a un gradiente de temperatura dentro de la pista; el resultado es la presencia simultánea de procesos de electrotransporte y difusión. La electromigración es uno de esos mecanismos de transporte y está considerada como el principal factor de la degradación de las pistas. Se manifiesta microscópicamente, por arriba de un cierto valor de densidad de corriente, en forma de segregación, migración de bordes y crecimiento de poros y montecillos, entre otras. Existen en la literatura un gran número de trabajos sobre electromigración. En ellos se manifiesta que el fenómeno, por complejidad, aún no está descrito por la teoría de una manera satisfactoria. La electromigración en los sólidos ocurre como un resultado de la interacción entre los portadores de carga y los átomos. El incremento de la temperatura, por el paso de la corriente eléctrica produce un fuerte movimiento de los átomos. La acción de fuerzas anisotrópicas sobre los átomos incrementa la probabilidad de un proceso de cambio de lugar en una dirección determinada y se establece un transporte de iones o partículas. En un reciente esfuerzo de clasificar el origen físico de agujeros en pistas metálicas se establece una regla semiempírica, que relaciona la formación de agujeros durante el proceso de electromigración con la valencia de la matriz y del átomo aleado. Se manifiesta el fenómeno, si la suma de las valencias es un número par, no así en el caso contrario. La regla encontrada tiene que ver con la estructura electrónica de la matriz e impureza, y resulta en pronósticos de bastante seguridad, como muestra la siguiente tabla 1.1 Matrix element, and valence electron state 29 Solute atom, and valence electron state Valence electron sum Void formation as predicted observed Cu Cu 29 Cu 29 Cu 29 Cu 29 Cu 29 Cu 4s1 4s1 4s1 4s1 4s1 4s1 4s1 47 Ag 5s1 In 5p1 41 Nb 5s1 50 Sn 5p2 73 Ta 6s2 46 Pd 4d10 23 V 4s2 even even even odd odd odd odd yes yes yes no no no no yes yes yes no no no no 13 Al Al 13 Al 13 Al 13 Al 13 Al 13 Al 13 Al 13 Al 13 Al 3p1 3p1 3p1 3p1 3p1 3p1 3p1 3p1 3p1 3p1 47 Ag 5s1 Au 6s1 29 Cu 4s1 1 H 1s1 67 Ho 6s2 12 Mg 3s2 11 Na(?) 3s1 28 Ni 4s2 14 Si 3p2 22 Ti 4s2 even even even even odd odd even odd odd odd yes yes yes yes no no yes no no no yes yes yes yes no no yes no no no 47 5s1 5s1 5s1 5s1 5s1 49 even odd even odd odd yes no yes no no no no no no no 29 13 Ag Ag 47 Ag 47 Ag 47 Ag 47 49 79 In 5p1 O 2p4 51 Sb 5p3 50 Sn 5p2 30 Zn 4s2 8 Tabla 1.1: Comparación entre resultados pronosticados para la formación de agujeros en pistas metálicas con resultados experimentales (Zehe: Mod. Phys. Lett. B 16, 1-9 (2002)). Es bien conocido que un sistema eléctrico compuesto por una resistencia de valor R y una capacitancia de valor C posee una constante de tiempo τ respecto a un cambio de estado eléctrico: τ = RC. No es importante para tal efecto si la resistencia y la capacitancia son dispositivos discretos, o bien si se distribuyen a lo largo de una pista metálica. La alta integración lleva consigo un crecimiento en longitud de las pistas. Además la reducción del espesor del óxido tanto entre pistas metálicas y semiconductores, como entre las mismas pistas, causa que la capacitancia C crezca. Es correcto entonces decir que para un pulso eléctrico pasando por la pista, el retraso τ es más alto en sistemas de alta integración. Evidentemente este efecto es contraproducente al deseo de un switcheo rápido en dispositivos pequeños. Por un lado se mejora la situación con una arquitectura inteligente de la colocación de las pistas (reduciendo C), por otro lado solamente una disminución de la resistencia R del metal escogido (cobre en lugar de aluminio) para la pista permite la reducción en τ. 1.4 Otros fenómenos físicos útiles en la microelectrónica convencional La tecnología de procesamiento de información se fundamenta en dispositivos, que son basados plenamente en la carga eléctrica de los portadores (electrones y huecos). Esto aplica igual a los antiguos tubos eléctricos como a los microchips con millones de transistores, donde la carga eléctrica es lo que cuenta. No obstante, electrones tienen un espín, aparte de su carga eléctrica y masa, que hasta el momento quedó sin consideración. 1.4.1 Control de flujos eléctricos por campos magnéticos: Spintronics Dispositivos de la magnetoelectrónica (electrónica basada en el espín) aprovechan diferencias en propiedades de transporte, que electrones con opuesta orientación del espín pueden tener. La polarización de espines en los flujos de corriente a través de los dispositivos es entonces indispensable, - y al mismo tiempo el mayor reto. La inyección de electrones espin-polarizados desde un material ferromagnético en semiconductores, o el dopamiento del semiconductor con átomos paramagnéticos para convertirlo en ferromagnético son dos posibles caminos. Manganeso (Mn) con estructura electrónica (3s23p63d54s2) es una de las opciones frecuentemente aplicadas; Cromo (Cr) y fierro (Fe) han sido usado desde hace mucho tiempo para la fabricación de GaAs semi-aislante (Fig. 1.7). Magnetismo (que es sinónimo al espín electrónico) juega un papel en el almacenamiento de información desde los inicios de la computación. El efecto de magnetorresistencia, es decir, un cambio de la resistencia eléctrica con la aplicación de un campo magnético, es usado en las cabecillas de lectura de datos impresos en los discos duros en forma de dominios magnéticos. En semejanza a la estructura de un FET común cuenta un Spín-FET con fuente y dreno ferromagnéticos. Los electrones polarizados en espín, que salen de la fuente, pasan al canal del FET y se incorporan con facilidad en el dreno. No así ocurre, si se aplica un voltaje eléctrico a través de la puerta. En el campo eléctrico creado dentro del canal, los espines de los electrones más rápidos están forzados en un movimiento de precesión, que causa una modificación de su polarización. Como el dreno permite la incorporación solamente de electrones sin demasiado cambio de su orientación, estos ya no participan en el flujo eléctrico. Fig. 1.7: Principio de operación de un Spin-FET (Internet). La eficacia de la inyección de electrones espín-polarizados y su estable movimiento entre fuente y dreno sin perturbación en imperfecciones e interfases son condiciones, que requieren todavía avances tecnológicos de materiales. De hecho, defectos son causantes primarios para la reducción de la eficacia de inyección en heteroestructuras con transporte espín. Esto se pudo mostrar a través del grado de polarización de luz saliendo de un diodo fotolumoniscente, aplicando una inyección de electrones espín-polarizados en una estructura según Figura 1.8. Figura 1.8: Estructura de un diodo fotoluminiscente con inyección de portadores espín-polarizados. Los electrones surgen de la región ZnMnSe y son inyectados a un pozo cuántico (QW) común formado entre GaAlAs y GaAs. El hecho importante consiste en que la radiación de recombinación es polarizada en forma circular, cuyo signo corresponde a la polarización de los espines electrónicos debido a reglas cuánticas de selección. 1.4.2 Arquitectura tres-dimensional El aprovechamiento de las obleas de silicio en más de un nivel de dispositivos activos es un sueño de muchos años atrás. Soluciones epitaxiales con secuencias monocristalinas de silicio, aislante y metal existen en principio, pero son demasiado caros. Mientras se realiza interconexiones y pistas metálicas en hasta ocho niveles, encima de la oblea, enterradas entre capas de material aislante, el único plano de dispositivos activos queda directamente sobre la oblea. Dejando soluciones epitaxiales a un lado, la deposición de silicio sobre su dieléctrico SiO2 genera películas policristalinas. Transistores realzados en tales películas han mostrado movilidades de hasta 90% de las conocidas en silicio monocristalino. Este resultado llave deja pensar en la ’edificación’ de varias secuencias de silicio-aislante-metal, puesto que se puede garantizar la planaridad de cada nueva capa. Una reciente tecnología, conocida como pulido químicomecánico (CMP) permite exactamente esto. Después de cada deposición se realiza un pulido correspondiente, llegando a una rugosidad de menos que 50 nm para la siguiente deposición. La atractividad de la arquitectura 3D resta en el hecho, que la completa inversión monetaria y de conocimientos en el material silicio se mantiene activa. No obstante quedaría la disipación térmica desde varios niveles de dispositivos activos más concentrados, un problema todavía más grave que en los sistemas planares 2D. Recientes desarrollos de microrefrigeradores, sin embargo, indican su capacidad de remover 200 Watts por mm2, - una potencia suficiente para descartar aparentemente este problema. Por toda experiencia, la Mecánica Clásica (Newtoniana) permite la descripción exacta del movimiento de objetos compactos. En la descripción de Atomos y Moléculas la Mecanica Clásica falla; da resultados incorrectos; por lo tanto la Nanociencia requiere de la Mecánica Cuántica. Sin embargo, efectos cuánticos no se dejan observar para objetos grandes. ¿Que es “grande”? NANOCIENCIA es la ciencia de fenómenos físicos a escala nanométrica sus Herramientas: La Mecánica Cuántica y Supercomputadoras NANOTECNOLOGIA comprende el conocimiento de los procesos necesarios para la fabricación de nanosistemas, controlando la materia a nivel atómico y molecular sus Herramientas: Técnicas con resolución atómica (STM, AFM, SPM), Biomimética y Auto-Organización