jueves, 28 de febrero de 2013

MONITOR


Es un dispositivo de salida (interfaz), que muestra datos o información al usuario.
Historia

Los primeros computadores se comunicaban con el operador mediante unas pequeñas luces, que se encendían o se apagaban al acceder a determinadas posiciones de memoria o ejecutar ciertas instrucciones.
Años mas tarde aparecieron ordenadores que funcionaban con Tarjeta perforada, que permitían introducir programas en el computador. Durante los años 60, la forma más común de interactuar con un computador era mediante un Teletipo, que se conectaba directamente a este e imprimía todos los datos de una sesión informática. Fue la forma más barata de visualizar los resultados hasta la década de los 70, cuando empezaron a aparecer los primeros monitores de CRT (Tubo de rayos catódicos). Seguían el estándar MDA (Monochrome Display Adapter), y eran monitores monocromáticos (de un solo color) de IBM.
Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter-gráficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de gráficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - gráficos de video arreglados) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares donde había un ordenador.
Parámetros de una pantalla
 Píxel: unidad mínima representable en un monitor. Los monitores pueden presentar píxeles muertos o atascados. Se notan porque aparecen en blanco. Más común en portátiles.
 Tamaño de punto o (dot pitch): el tamaño de punto es el espacio entre dos fósforos coloreados de un píxel. Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. Los tamaños de punto más pequeños producen imágenes más uniformes. un monitor de 14 pulgadas suele tener un tamaño de punto de 0,28 mm o menos. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones. En LCD y en CRT de apertura de rejilla, es la distancia en horizontal, mientras que en los CRT de máscara de sombra, se mide casi en diagonal. Lo mínimo exigible en este momento es que sea de 0,28mm. Para CAD o en general para diseño, lo ideal sería de 0,25mm o menor. 0,21 en máscara de sombra es el equivalente a 0.24 en apertura de rejilla.
 Área útil: el tamaño de la pantalla no coincide con el área real que se utiliza para representar los datos.
 Ángulo de visión: es el máximo ángulo con el que puede verse el monitor sin que se degrade demasiado la imagen. Se mide en grados.
 Luminancia: es la medida de luminosidad, medida en Candela.
 Tiempo de respuesta: también conocido como latencia. Es el tiempo que le cuesta a un píxel pasar de activo (blanco) a inactivo (negro) y después a activo de nuevo.
 Contraste: es la proporción de brillo entre un píxel negro a un píxel blanco que el monitor es capaz de reproducir. Algo así como cuantos tonos de brillo tiene el monitor.
 Coeficiente de contraste de imagen: se refiere a lo vivo que resultan los colores por la proporción de brillo empleada. A mayor coeficiente, mayor es la intensidad de los colores (30000:1 mostraría un colorido menos vivo que 50000:1).
 Consumo: cantidad de energía consumida por el monitor, se mide en Vatio.
 Ancho de banda: frecuencia máxima que es capaz de soportar el monitor.
 Hz o frecuencia de refresco vertical: son 2 valores entre los cuales el monitor es capaz de mostrar imágenes estables en la pantalla.
 Hz o frecuencia de refresco horizontal : similar al anterior pero en sentido horizontal, para dibujar cada una de las líneas de la pantalla.
 Blindaje: un monitor puede o no estar blindando ante interferencias eléctricas externas y ser más o menos sensible a ellas, por lo que en caso de estar blindando, o semi-blindado por la parte trasera llevara cubriendo prácticamente la totalidad del tubo una plancha metálica en contacto con tierra o masa.
 Tipo de monitor: en los CRT pueden existir 2 tipos, de apertura de rejilla o de máscara de sombra.
 Líneas de tensión: son unas líneas horizontales, que tienen los monitores de apertura de rejilla para mantener las líneas que permiten mostrar los colores perfectamente alineadas; en 19 pulgadas lo habitual suelen ser 2, aunque también los hay con 3 líneas, algunos monitores pequeños incluso tienen una sola.
Tamaño de la pantalla y proporción
Medida de tamaño de la pantalla para TFT.
El tamaño de la pantalla es la distancia en diagonal de un vértice de la pantalla al opuesto, que puede ser distinto del área visible cuando hablamos de CRT , mientras que la proporción o relación de aspecto es una medida de proporción entre el ancho y el alto de la pantalla, así por ejemplo una proporción de 4:3 ( Cuatro tercios ) significa que por cada 4 píxeles de ancho tenemos 3 de alto, una resolución de 800x600 tiene una relación de aspecto 4:3, sin embargo estamos hablando de la proporción del monitor.
Estas dos medidas describen el tamaño de lo que se muestra por la pantalla, históricamente hasta no hace mucho tiempo y al igual que las televisiones los monitores de ordenador tenían un proporción de 4:3. Posteriormente se desarrollaron estándares para pantallas de aspecto panorámico 16:9 (a veces también de 16:10 o 15:9) que hasta entonces solo veíamos en el cine.
Medición del tamaño de la pantalla
Las medidas de tamaño de pantalla son diferentes cuando se habla de monitores CRT y monitores LCD .
 Para monitores CRT la medida en pulgadas de la pantalla toma como referencia los extremos del monitor teniendo en cuenta el borde, mientras que el área visible es más pequeña.
 Para monitores LCD la medida de tamaño de pantalla se hace de punta a punta de la pantalla sin contar los bordes.
Los tamaños comunes de pantalla suelen ser de 15, 17, 19, 21 pulgadas. La correspondencia entre las pulgadas de CRT y LCD en cuanto a zona visible se refiere, suele ser de una escala inferior para los CRT , es decir una pantalla LCD de 17 pulgadas equivale en zona visible a una pantalla de 19 pulgadas del monitor CRT (aproximadamente) .
 Resolución máxima
Comparación de resoluciones de vídeo.
Artículo principal: Resolución de pantalla.
Es el número máximo de píxeles que pueden ser mostrados en cada dimensión, es representada en filas por columnas. Está relacionada con el tamaño de la pantalla y el proporción.
Los monitores LCD solo tienen una resolución nativa posible, por lo que si se hacen trabajar a una resolución distinta, se escalará a la resolución nativa, lo que suele producir artefactos en la imagen.
Las resoluciones más Usadas son:
Estándar
Nombre
Ancho
Alto
Geometría de los píxeles.
Cada píxel de la pantalla tiene interiormente 3 subpíxeles, uno rojo, uno verde y otro azul; dependiendo del brillo de cada uno de los subpíxeles, el píxel adquiere un color u otro de forma semejante a la composición de colores RGB.
La manera de organizar los subpíxeles de un monitor varia entre los dispositivos. Se suelen organizar en líneas verticales, aunque algunos CRT los organizan en puntos formando triángulos. Para mejorar la sensación de movimiento, es mejor organizarlos en diagonal o en triángulos. El conocimiento del tipo de organización de píxeles, puede ser utilizado para mejorar la visualización de imágenes de mapas de bit usando renderizado de subpíxeles.
La mayor parte de los monitores tienen una profundidad 8 bits por color (24 bits en total), es decir, pueden representar aproximadamente 16,8 millones de colores distintos.
Ventajas y desventajas
Monitores LCD
 Ventajas: El grosor es inferior por lo que pueden utilizarse en portátiles.
 Cada punto se encarga de dejar o no pasar la luz.
 La geometría es siempre perfecta, lo determina el tamaño del píxel
Desventajas: Sólo pueden reproducir fielmente la resolución nativa, con el resto, se ve un borde negro, o se ve difuminado por no poder reproducir medios píxeles.
 Por sí solas no producen luz, necesitan una fuente externa.
 Si no se mira dentro del cono de visibilidad adecuado, desvirtúan los colores.
 El ADC y el DAC de un monitor LCD para reproducir colores limita la cantidad de colores representable. El ADC (Convertidor Analógico a Digital) en la entrada de vídeo analógica (cantidad de colores a representar).
 El DAC (Convertidor Digital a Analógico) dentro de cada píxel (cantidad de posibles colores representables).
 En los CRT es la tarjeta gráfica la encargada de realizar esto, el monitor no influye en la cantidad de colores representables, salvo en los primeros modelos de monitores que tenían entradas digitales TTL en lugar de entradas analógicas.


Monitores CRT
 Ventajas: Permiten reproducir una mayor variedad cromática.
 Distintas resoluciones se pueden ajustar al monitor.
 En los monitores de apertura de rejilla no hay moire vertical.
Desventajas: Ocupan más espacio (cuanto más fondo, mejor geometría).
 Los modelos antiguos tienen la pantalla curva.
 Los campos eléctricos afectan al monitor (la imagen vibra).
 Para disfrutar de una buena imagen necesitan ajustes por parte del usuario.
 En los monitores de apertura de rejilla se pueden apreciar (bajo fondo blanco) varias líneas de tensión muy finas que cruzan la pantalla horizontalmente.
Datos técnicos, comparativos entre sí
 En los CRT, la frecuencia de refresco es la que tiene la tarjeta gráfica, en los LCD no siempre es la que se le manda
 Los CRT pueden tener modo progresivo y entrelazado, los LCD tienen otro método de representación.
 En los CRT se pierde aproximadamente 1 pulgada del tamaño, que se utiliza para la sujeción del tubo, en los LCD es prácticamente lo que ocupa el LCD por si mismo.
 El peso de un LCD se ve incrementado por la peana para darle estabilidad, pero el monitor en sí no pesa prácticamente nada.
 Los LCD suelen necesitar de un transformador externo al monitor, en los CRT toda la electrónica va dentro del monitor.
 En los LCD el consumo es menor, y la tensión de utilización por parte de la electrónica también.
 En los CRT pueden aparecer problemas de "quemar" el fósforo de la pantalla, esto ocurre al dejar una imagen fija durante mucho tiempo, como la palabra "insert coin" en las recreativas, en los LCD los problemas pueden ser de píxeles muertos (siempre encendido o, siempre apagado), aparte de otros daños.
 El parpadeo de ambos tipos de pantallas es debido a la baja frecuencia de refresco, unido a la persistencia del brillo del fósforo, y a la memoria de cada píxel en un CRT y LCD respectivamente, que mitigan este defecto. Con alta velocidad de refresco y un tiempo grande de persistencia del fósforo, no hay parpadeo, pero si la persistencia del fósforo es baja y el refresco es bajo, se produce este problema. Sin embargo esto puede causar un efecto de desvanecimiento o visión borrosa, al permanecer aún encendido un punto, en el siguiente refresco de la pantalla.
En breve
 ---En hardware, un monitor es un periférico de salida que muestra la información de forma gráfica de una computadora. Los monitores se conectan a la computadora a través de una tarjeta gráfica (o adaptador o tarjeta de video).
 Un monitor puede clasificarse, según la tecnología empleada para formar las imágenes en: LCD, CRT, plasma o TFT.
 En tanto, según el estándar, un monitor puede clasificarse en: Monitor numérico, MDA, CGA, EGA, analógico, VGA, SVGA, entro otros.
 En cuanto a los colores que usan los monitores pueden ser monocromáticos o poli cromáticos.
 Existen algunos conceptos cuantificables relacionados a los monitores y sirven para medir su calidad, estos son: píxel, paso (dot pitch), resolución, tasa de refresco, dimensión del tubo, tamaño de punto, área útil.
 ---En software, un monitor de un programa es toda aquella herramienta que viene con un programa que sirve para controlar alguna situación. Por ejemplo el monitor de un antivirus, encargado de monitorear continuamente la computadora para verificar que no se ejecute ningún virus.

MICROPROCESADOR


Es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito integrado conformado por millones de componentes electrónicos. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.
Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida antiguamente como «co-procesador matemático»).
El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el ventilador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking.
La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que permite comparar procesadores con núcleos de la misma familia, siendo este un indicador muy limitado dada la gran variedad de diseños con los cuales se comercializan los procesadores de una misma marca y referencia. Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento. Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador, aumentando así la eficiencia energética y la miniaturización. Entre los elementos integrados están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses y procesadores dedicados de video
La evolución del microprocesador
El microprocesador es producto surgido de la evolución de distintas tecnologías predecesoras, básicamente de la computación y de la tecnología de semiconductores. El inicio de esta última data de mitad de la década de 1950; estas tecnologías se fusionaron a principios de los años 1970, produciendo el primer microprocesador. Dichas tecnologías iniciaron su desarrollo a partir de la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras específicas para aplicaciones militares. En la posguerra, a mediados de la década de 1940, la computación digital emprendió un fuerte crecimiento también para propósitos científicos y civiles. La tecnología electrónica avanzó y los científicos hicieron grandes progresos en el diseño de componentes de estado sólido (semiconductores). En 1948 en los laboratorios Bell crearon el transistor.
En los años 1950, aparecieron las primeras computadoras digitales de propósito general. Se fabricaron utilizando tubos al vacío o bulbos como componentes electrónicos activos. Módulos de tubos al vacío componían circuitos lógicos básicos, tales como compuertas y flip-flops. Ensamblándolos en módulos se construyó la computadora electrónica (la lógica de control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de máquinas para la comunicación con las computadoras.
Para la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas. La construcción de una computadora digital precisa numerosos circuitos o dispositivos electrónicos. Un paso trascendental en el diseño de la computadora fue hacer que el dato fuera almacenado en memoria. Y la idea de almacenar programas en memoria para luego ejecutarlo fue también de fundamental importancia (Arquitectura de von Neumann).
La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo del silicio, de bajo costo y con métodos de producción masiva, hicieron del transistor el componente más usado para el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora digital tuvo un gran avance con el reemplazo del tubo al vacío por el transistor, a finales de la década de 1950.
A principios de la década de 1960, el estado de arte en la construcción de computadoras de estado sólido sufrió un notable avance; surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).
A mediados de los años 1960 se producen las familias de circuitos de lógica digital, dispositivos integrados en escala SSI y MSI que corresponden a baja y mediana escala de integración de componentes. A finales de los años 1960 y principios de los 70 surgieron los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible incrementar la cantidad de componentes en los circuitos integrados. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de memoria eran un buen ejemplo.
Las primeras calculadoras electrónicas requerían entre 75 y 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando uno que fue llamado microprocesador, unión de las palabras «Micro» del griego μικρο-, «pequeño», y procesador. Sin embargo, es totalmente válido usar el término genérico procesador, dado que con el paso de los años, la escala de integración se ha visto reducida de micrométrica a nanométrica; y además, es, sin duda, un procesador.
 El primer microprocesador fue el Intel 4004,1 producido en 1971. Se desarrolló originalmente para una calculadora y resultó revolucionario para su época. Contenía 2.300 transistores, era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60.000 operaciones por segundo trabajando a una frecuencia de reloj de alrededor de 700KHz.
 El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a mediados de 1972 para su uso en terminales informáticos. El Intel 8008 integraba 3300 transistores y podía procesar a frecuencias máximas de 800Khz.
 El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 instrucciones por segundo trabajando a alrededor de 2MHz.
 El primer microprocesador de 16 bits fue el 8086. Fue el inicio y el primer miembro de la popular arquitectura x86, actualmente usada en la mayoría de los computadores. El chip 8086 fue introducido al mercado en el verano de 1978, pero debido a que no había aplicaciones en el mercado que funcionaran con 16 bits, Intel sacó al mercado el 8088, que fue lanzado en 1979. Llegaron a operar a frecuencias mayores de 4Mhz.
 El microprocesador elegido para equipar al IBM Personal Computer/AT, que causó que fuera el más empleado en los PC-AT compatibles entre mediados y finales de los años 1980 fue el Intel 80286 (también conocido simplemente como 286); es un microprocesador de 16 bits, de la familia x86, que fue lanzado al mercado en 1982. Contaba con 134.000 transistores. Las versiones finales alcanzaron velocidades de hasta 25 MHz.
 Uno de los primeros procesadores de arquitectura de 32 bits fue el 80386 de Intel, fabricado a mediados y fines de la década de 1980; en sus diferentes versiones llegó a trabajar a frecuencias del orden de los 40Mhz.
 El microprocesador DEC Alpha se lanzó al mercado en 1992, corriendo a 200 MHz en su primera versión, en tanto que el Intel Pentium surgió en 1993 con una frecuencia de trabajo de 66Mhz. El procesador Alpha, de tecnología RISC y arquitectura de 64 bits, marcó un hito, declarándose como el más rápido del mundo, en su época. Llegó a 1Ghz de frecuencia hacia el año 2001. Irónicamente, a mediados del 2003, cuando se pensaba quitarlo de circulación, el Alpha aun encabezaba la lista de los microprocesadores más rápidos de Estados Unidos.2
 Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores, trabajan en arquitecturas de 64 bits, integran más de 700 millones de transistores, como es en el caso de las serie Core i7, y pueden operar a frecuencias normales algo superiores a los 3GHz (3000MHz).
 historia
El pionero de los actuales microprocesadores: el 4004 de Intel.
Motorola 6800.
Zilog Z80 A.
Intel 80286, más conocido como 286.
Intel 80486, conocido también como 486SX de 33Mhz.
IBM PowerPC 601.
Parte posterior de un Pentium Pro. Este chip en particular es de 200 MHz, con 256 KiB de caché L2.
AMD K6 original.
Intel Pentium II; se puede observar su estilo de zócalo diferente.
Intel Celeron "Coppermine 128" de 600 MHz.
Intel Pentium III.
Hasta los primeros años de la década de 1970 los diferentes componentes electrónicos que formaban un procesador no podían ser un único circuito integrado, era necesario utilizar dos o tres "chips" para hacer una CPU (un era el "ALU" - Arithmetical Logic Unit, el otro la " control Unit", el otro el " Register Bank", etc..). En 1971 la compañía Intel consiguió por primera vez poner todos los transistores que constituían un procesador sobre un único circuito integrado, el"4004 "', nacía el microprocesador.
Seguidamente se expone una lista ordenada cronológicamente de los microprocesadores más populares que fueron surgiendo. En la URSS se realizaron otros sistemas que dieron lugar a la serie microprocesador Elbrus.
 1971: El Intel 4004
El 4004 fue el primer microprocesador del mundo, creado en un simple chip y desarrollado por Intel. Era un CPU de 4 bits y también fue el primero disponible comercialmente. Este desarrollo impulsó la calculadora de Busicom[1] e inició el camino para dotar de «inteligencia» a objetos inanimados y así mismo, a la computadora personal.
 1972: El Intel 8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.
 1974: El SC/MP
El SC/MP desarrollado por National Semiconductor, fue uno de los primeros microprocesadores, y estuvo disponible desde principio de 1974. El nombre SC/MP (popularmente conocido como «Scamp») es el acrónimo de Simple Cost-effective Micro Processor (Microprocesador simple y rentable). Presenta un bus de direcciones de 16 bits y un bus de datos de 8 bits. Una característica, avanzada para su tiempo, es la capacidad de liberar los buses a fin de que puedan ser compartidos por varios procesadores. Este microprocesador fue muy utilizado, por su bajo costo, y provisto en kits, para propósitos educativos, de investigación y para el desarrollo de controladores industriales diversos.
 1974: El Intel 8080
EL 8080 se convirtió en la CPU de la primera computadora personal, la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial «Starship» del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que ejecutaban el sistema operativo CP/M-80. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de u$s395. En un periodo de pocos meses, se vendieron decenas de miles de estas PC.
 1975: Motorola 6800
Se fabrica, por parte de Motorola, el Motorola MC6800, más conocido como 6800. Fue lanzado al mercado poco después del Intel 8080. Su nombre proviene de que contenía aproximadamente 6.800 transistores. Varios de los primeras microcomputadoras de los años 1970 usaron el 6800 como procesador. Entre ellas se encuentran la SWTPC 6800, que fue la primera en usarlo, y la muy conocida Altair 680. Este microprocesador se utilizó profusamente como parte de un kit para el desarrollo de sistemas controladores en la industria. Partiendo del 6800 se crearon varios procesadores derivados, siendo uno de los más potentes el Motorola 6809
 1976: El Z80
La compañía Zilog Inc. crea el Zilog Z80. Es un microprocesador de 8 bits construido en tecnología NMOS, y fue basado en el Intel 8080. Básicamente es una ampliación de éste, con lo que admite todas sus instrucciones. Un año después sale al mercado el primer computador que hace uso del Z80, el Tandy TRS-80 Model 1 provisto de un Z80 a 1,77 MHz y 4 KB de RAM. Es uno de los procesadores de más éxito del mercado, del cual se han producido numerosas versiones clónicas, y sigue siendo usado de forma extensiva en la actualidad en multitud de sistemas embebidos. La compañía Zilog fue fundada 1974 por Federico Faggin, quien fue diseñador jefe del microprocesador Intel 4004 y posteriormente del Intel 8080.
 1978: Los Intel 8086 y 8088
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que las PC de IBM dieran un gran golpe comercial con el nuevo producto con el 8088, el llamado IBM PC. El éxito del 8088 propulsó a Intel a la lista de las 500 mejores compañías, en la prestigiosa revista Fortune, y la misma nombró la empresa como uno de Los triunfos comerciales de los sesenta.
 1982: El Intel 80286
El 80286, popularmente conocido como 286, fue el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de microprocesadores de Intel. Luego de seis años de su introducción, había un estimado de 15 millones de PC basadas en el 286, instaladas alrededor del mundo.
 1985: El Intel 80386
Este procesador Intel, popularmente llamado 386, se integró con 275000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, con capacidad para multitarea y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que usaran memoria virtual.
 1985: El VAX 78032
El microprocesador VAX 78032 (también conocido como DC333), es de único chip y de 32 bits, y fue desarrollado y fabricado por Digital Equipment Corporation (DEC); instalado en los equipos MicroVAX II, en conjunto con su ship coprocesador de coma flotante separado, el 78132, tenían una potencia cercana al 90% de la que podía entregar el minicomputador VAX 11/780 que fuera presentado en 1977. Este microprocesador contenía 125000 transistores, fue fabricado en tecnologóa ZMOS de DEC. Los sistemas VAX y los basados en este procesador fueron los preferidos por la comunidad científica y de ingeniería durante la década del 1980.
 1989: El Intel 80486
La generación 486 realmente significó contar con una computadora personal de prestaciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de bus mejorada y una memoria caché unificada, todo ello integrado en el propio chip del microprocesador. Estas mejoras hicieron que los i486 fueran el doble de rápidos que el par i386 - i387 operando a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o FPU integrado; con él que se aceleraron notablemente las operaciones de cálculo. Usando una unidad FPU las operaciones matemáticas más complejas son realizadas por el coprocesador de manera prácticamente independiente a la función del procesador principal.
 1991: El AMD AMx86
Procesadores fabricados por AMD 100% compatible con los códigos de Intel de ese momento, llamados «clones» de Intel, llegaron incluso a superar la frecuencia de reloj de los procesadores de Intel y a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586.
 1993: PowerPC 601
Es un procesador de tecnología RISC de 32 bits, en 50 y 66MHz. En su diseño utilizaron la interfaz de bus del Motorola 88110. En 1991, IBM busca una alianza con Apple y Motorola para impulsar la creación de este microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo objetivo fue quitar el dominio que Microsoft e Intel tenían en sistemas basados en los 80386 y 80486. PowerPC (abreviada PPC o MPC) es el nombre original de la familia de procesadores de arquitectura de tipo RISC, que fue desarrollada por la alinza AIM. Los procesadores de esta familia son utilizados principalmente en computadores Macintosh de Apple Computer y su alto rendimiento se debe fuertemente a su arquitectura tipo RISC.
 1993: El Intel Pentium
El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez, gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, estaba dotado de un bus de datos de 64 bits, y permitía un acceso a memoria de 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas, y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no sólo brindaban al usuario un más eficiente manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que también se ofrecían en velocidades de hasta 233 MHz. Se incluyó una versión de 200 MHz y la más básica trabajaba a alrededor de 166 MHz de frecuencia de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.
 1994: EL PowerPC 620
En este año IBM y Motorola desarrollan el primer prototipo del procesador PowerPC de 64 bit[2], la implementación más avanzada de la arquitectura PowerPC, que estuvo disponible al año próximo. El 620 fue diseñado para su utilización en servidores, y especialmente optimizado para usarlo en configuraciones de cuatro y hasta ocho procesadores en servidores de aplicaciones de base de datos y vídeo. Este procesador incorpora siete millones de transistores y corre a 133 MHz. Es ofrecido como un puente de migración para aquellos usuarios que quieren utilizar aplicaciones de 64 bits, sin tener que renunciar a ejecutar aplicaciones de 32 bits.
 1995: EL Intel Pentium Pro
Lanzado al mercado para el otoño de 1995, el procesador Pentium Pro (profesional) se diseñó con una arquitectura de 32 bits. Se usó en servidores y los programas y aplicaciones para estaciones de trabajo (de redes) impulsaron rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo era más lento que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. El procesador Pentium Pro estaba compuesto por alrededor de 5,5 millones de transistores.
 1996: El AMD K5
Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora, transforma todos los comandos x86 (de la aplicación en curso) en comandos RISC. Este principio se usa hasta hoy en todas las CPU x86. En la mayoría de los aspectos era superior el K5 al Pentium, incluso de inferior precio, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando con poco éxito, se retrasó 1 año de su salida al mercado, a razón de ello sus frecuencias de trabajo eran inferiores a las de la competencia, y por tanto, los fabricantes de PC dieron por sentado que era inferior.
 1996: Los AMD K6 y AMD K6-2
Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los Pentium MMX de Intel, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador casi a la altura del Pentium II pero por un precio muy inferior. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los más de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándares.

Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros, para seguir compitiendo con los Pentium II, siendo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introduce un juego de instrucciones SIMD denominado 3DNow!
 1997: El Intel Pentium II
Un procesador de 7,5 millones de transistores, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, revisar y compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica; el enviar vídeo a través de las líneas normales del teléfono mediante Internet se convierte en algo cotidiano.
 1998: El Intel Pentium II Xeon
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo y servidores que utilizan aplicaciones comerciales exigentes, como servicios de Internet, almacenamiento de datos corporativos, creaciones digitales y otros. Pueden configurarse sistemas basados en este procesador para integrar de cuatro o ocho procesadores trabajando en paralelo, también más allá de esa cantidad.
 1999: El Intel Celeron
Continuando la estrategia, Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Celeron es el nombre que lleva la línea de de bajo costo de Intel. El objetivo fue poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.
 1999: El AMD Athlon K7 (Classic y Thunderbird)
Procesador totalmente compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, pero se le mejoró substancialmente el sistema de coma flotante (ahora con 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le incrementó la memoria caché de primer nivel (L1) a 128 KiB (64 KiB para datos y 64 KiB para instrucciones). Además incluye 512 KiB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento.

El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.
 1999: El Intel Pentium III
El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming, las extensiones de SIMD que refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (con muchos gráficos), tiendas virtuales y transmitir archivos video de alta calidad. El procesador se integra con 9,5 millones de transistores, y se introdujo usando en él tecnología 250 nanómetros.
 1999: El Intel Pentium III Xeon
El procesador Pentium III Xeon amplía las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidores, y añade una actuación mejorada en las aplicaciones del comercio electrónico e informática comercial avanzada. Los procesadores incorporan mejoras que refuerzan el procesamiento multimedia, particularmente las aplicaciones de vídeo. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando el desempeño significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.
 2000: EL Intel Pentium 4
Este es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primero con un diseño completamente nuevo desde el Pentium Pro. Se estrenó la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.
 2001: El AMD Athlon XP
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, y sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird se puede mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.
 2004: El Intel Pentium 4 (Prescott)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de caché L1 (el doble que los Northwood), prevención de ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.
 2004: El AMD Athlon 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y que el Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,: cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, baja la velocidad del mismo y su tensión se reduce.
 2006: EL Intel Core Duo
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU Pentium 4/D2. La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPU Core 2, mientras se incrementa la capacidad de procesamiento. Los CPU de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.
 2007: El AMD Phenom
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPU Phenom poseen características tales como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depende tanto del tiempo de latencia de la RAM), además de compatibilidad de infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.
 2008: El Intel Core Nehalem
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando núcleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.
 2008: Los AMD Phenom II y Athlon II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de caché L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.
Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo surge como el procesador binúcleo del mercado. También se lanzan tres Athlon II con sólo Caché L2, pero con buena relación precio/rendimiento. El Amd Athlon II X4 630 corre a 2,8 GHz. El Amd Athlon II X4 635 continua la misma línea.
AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como un doble núcleo Athlon II X2 255. También sale el Phenom X4 995, de cuatro núcleos, que corre a más de 3,2GHz. También AMD lanza la familia Thurban con 6 núcleos físicos dentro del encapsulado
 2011: El Intel Core Sandy Bridge

Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Pentium G.
Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios en arquitectura respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones de 256 bits, duplicando el rendimiento, mejorando el desempeño en 3D y todo lo que se relacione con operación en multimedia. Llegaron la primera semana de enero del 2011. Incluye nuevo conjunto de instrucciones denominado AVX y una GPU integrada de hasta 12 unidades de ejecución
 2011: El AMD Fusion
AMD Fusion es el nombre clave para un diseño futuro de microprocesadores Turion, producto de la fusión entre AMD y ATI, combinando con la ejecución general del procesador, el proceso de la geometría 3D y otras funciones de GPUs actuales. La GPU (procesador gráfico) estará integrada en el propio microprocesador. Se espera la salida progresiva de esta tecnología a lo largo del 2011; estando disponibles los primeros modelos (Ontaro y Zacate) para ordenadores de bajo consumo entre últimos meses de 2010 y primeros de 2011, dejando el legado de las gamas medias y altas (Llano, Brazos y Bulldozer para mediados o finales del 2011)
 2012: El Intel Core Ivy Bridge
Ivy Bridge es el nombre en clave de los procesadores conocidos como Intel Core de tercera generación. Son por tanto sucesores de los micros que aparecieron a principios de 2011, cuyo nombre en clave es Sandy Bridge. Pasamos de los 32 nanómetros de ancho de transistor en Sandy Bridge a los 22 de Ivy Bridge. Esto le permite meter el doble de ellos en la misma área. Un mayor número de transistores significa que puedes poner más bloques funcionales dentro del chip. Es decir, este será capaz de hacer un mayor número de tareas al mismo tiempo.
Funcionamiento
Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto básicamente por: varios registros, una unidad de control, una unidad aritmético lógica, y dependiendo del procesador, puede contener una unidad de coma flotante.
El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:
 Prefetch, prelectura de la instrucción desde la memoria principal.
 Fetch, envío de la instrucción al decodificador
 Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer.
 Lectura de operandos (si los hay).
 Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el procesamiento.
 Escritura de los resultados en la memoria principal o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de megahercios.
Rendimiento
El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido como «mito de los megahertzios» se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su potencia de cómputo.
Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún. De todas maneras, una forma fiable de medir la potencia de un procesador es mediante la obtención de las Instrucciones por ciclo
Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chip de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas.
Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes estructuras internas atendiendo a gamas y extras como podría ser una memoria caché de diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de las bajas que simplemente de su memoria caché. Después de obtener los lotes según su gama, se someten a procesos en un banco de pruebas, y según su soporte a las temperaturas o que vaya mostrando signos de inestabilidad, se le adjudica una frecuencia, con la que vendrá programado de serie, pero con prácticas de overclock se le puede incrementar
La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas características puede tenerse una medida aproximada del rendimiento de un procesador por medio de indicadores como la cantidad de operaciones de coma flotante por unidad de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples factores involucrados en la computación de un problema, por lo general las pruebas no son concluyentes entre sistemas de la misma generación.
Arquitectura
El microprocesador tiene una arquitectura parecida a la computadora digital. En otras palabras, el microprocesador es como la computadora digital porque ambos realizan cálculos bajo un programa de control. Consiguientemente, la historia de la computadora digital ayuda a entender el microprocesador. El hizo posible la fabricación de potentes calculadoras y de muchos otros productos. El microprocesador utiliza el mismo tipo de lógica que es usado en la unidad procesadora central (CPU) de una computadora digital. El microprocesador es algunas veces llamado unidad microprocesadora (MPU). En otras palabras, el microprocesador es una unidad procesadora de datos. En un microprocesador se puede diferenciar diversas partes:
 Encapsulado: es lo que rodea a la oblea de silicio en si, para darle consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los conectores externos que lo acoplaran a su zócalo a su placa base.
 Memoria caché: es una memoria ultrarrápida que emplea el procesador para tener alcance directo a ciertos datos que «predeciblemente» serán utilizados en las siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así el tiempo de espera para adquisición de datos. Todos los micros compatibles con PC poseen la llamada caché interna de primer nivel o L1; es decir, la que está dentro del micro, encapsulada junto a él. Los micros más modernos (Core i3,Core i5 ,core i7,etc) incluyen también en su interior otro nivel de caché, más grande, aunque algo menos rápida, es la caché de segundo nivel o L2 e incluso los hay con memoria caché de nivel 3, o L3.
 Coprocesador matemático: unidad de coma flotante. Es la parte del micro especializada en esa clase de cálculos matemáticos, antiguamente estaba en el exterior del procesador en otro chip. Esta parte esta considerada como una parte «lógica» junto con los registros, la unidad de control, memoria y bus de datos.
 Registros: son básicamente un tipo de memoria pequeña con fines especiales que el micro tiene disponible para algunos usos particulares. Hay varios grupos de registros en cada procesador. Un grupo de registros esta diseñado para control del programador y hay otros que no son diseñados para ser controlados por el procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta y dos registros.
 Memoria: es el lugar donde el procesador encuentra las instrucciones de los programas y sus datos. Tanto los datos como las instrucciones están almacenados en memoria, y el procesador las accede desde allí. La memoria es una parte interna de la computadora y su función esencial es proporcionar un espacio de almacenamiento para el trabajo en curso.
 Puertos: es la manera en que el procesador se comunica con el mundo externo. Un puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la computadora con la cual el procesador necesita comunicarse, tiene asignado un «número de puerto» que el procesador utiliza como si fuera un número de teléfono para llamar circuitos o a partes especiales.
Fabricación
Procesadores de silicio
El proceso de fabricación de un microprocesador es muy complejo. Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un monocristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a 40 mm por hora) se va formando el cristal.
De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de 10 micras de espesor, la décima parte del espesor de un cabello humano, utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores.
Silicio.
Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo para eliminar cualquier defecto o impureza que pueda haber llegado a esta instancia. Después de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micra, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor.
De aquí en adelante, comienza el proceso del «dibujado» de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de eliminar las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se llega a un complejo «bocadillo» que contiene todos los circuitos interconectados del microprocesador.
Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las máscaras utilizadas durante la fabricación.
Una oblea de silicio grabada.
Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico (0,028 m3) de aire. Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.
Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso.
La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea o simplemente con características desactivadas, tales como núcleos. Luego la oblea es cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora.
Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Estas conexiones se realizan utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es provista de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como los que equipan a los computadores.
También se están desarrollando alternativas al silicio puro, tales como el carburo de silicio que mejora la conductividad del material, permitiendo mayores frecuencias de reloj; aunque aún se encuentra en investigación.
Otros materiales
Aunque la gran mayoría de la producción de circuitos integrados se basa en el silicio, no se puede omitir la utilización de otros materiales tales como el germanio; tampoco las investigaciones actuales para conseguir hacer operativo un procesador desarrollado con materiales de características especiales como el grafeno o la molibdenita3 .
Empaquetado
Empaquetado de un procesador Intel 80486 en un empaque de cerámica.
Los microprocesadores son circuitos integrados y como tal están formados por un chip de silicio y un empaque con conexiones eléctricas. En los primeros procesadores el empaque se fabricaba con plásticos epoxicos o con cerámicas en formatos como el DIP entre otros. El chip se pegaba con un material térmicamente conductor a una base y se conectaba por medio de pequeños alambres a unas pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de la base de manera que los alambres y el silicio quedaran encapsulados.
Empaquetado de un procesador PowerPC con Flip-Chip, se ve el chip de silicio.
En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado directamente a un arreglo de pistas conductoras (en el sustrato laminado) con la ayuda de unas microesferas que se depositan sobre las obleas de semiconductor en las etapas finales de su fabricación. El sustrato laminado es una especie de circuito impreso que posee pistas conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y un zócalo de CPU o una placa base.<4>
Antiguamente las conexión del chip con los pines se realizaba por medio de microalambres de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo presenta el sustrato base de silicio de manera que puede ser enfriado directamente por medio de elementos conductores de calor. Esta superficie se aprovecha también para etiquetar el integrado. En los procesadores para computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por colocar una placa de metal, por ejemplo en los procesadores Athlon como el de la primera imagen. En los procesadores de Intel también se incluye desde el Pentium III de más de 1 Ghz.
Disipación de calor
Artículo principal: Disipador.
Con el aumento de la cantidad de transistores integrados en un procesador, el consumo de energía se ha elevado a niveles en los cuales la disipación calórica natural del mismo no es suficiente para mantener temperaturas aceptables y que no se dañe el material semiconductor, de manera que se hizo necesario el uso de mecanismos de enfriamiento forzado, esto es, la utilización de disipadores de calor.
Entre ellos se encuentran los sistemas sencillos, tales como disipadores metálicos, que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados.
En los procesadores más modernos se aplica en la parte superior del procesador, una lámina metálica denominada IHS que va a ser la superficie de contacto del disipador para mejorar la refrigeración uniforme del die y proteger las resistencias internas de posibles tomas de contacto al aplicar pasta térmica. Varios modelos de procesadores, en especial, los Athlon XP, han sufrido cortocircuitos debido a una incorrecta aplicación de la pasta térmica.
Para las prácticas de overclock extremo, se llegan a utilizar elementos químicos tales como hielo seco, y en casos más extremos, nitrógeno líquido, capaces de rondar temperaturas por debajo de los -190 grados Celsius y el helio líquido capaz de rondar temperaturas muy próximas al cero absoluto. De esta manera se puede prácticamente hasta triplicar la frecuencia de reloj de referencia de un procesador de silicio. El límite físico del silicio es de 10 GHz, mientras que el de otros materiales como el grafeno puede llegar a 1 THz4
Conexión con el exterior
Artículo principal: Zócalo de CPU.
Superficies de contacto en un procesador Intel para zócalo LGA 775.
El microprocesador posee un arreglo de elementos metálicos que permiten la conexión eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta más de 2000 elementos metálicos en la superficie de su empaque. El montaje del procesador se realiza con la ayuda de un zócalo de CPU soldado sobre la placa base. Generalmente distinguimos tres tipos de conexión:
 PGA: Pin Grid Array: La conexión se realiza mediante pequeños alambres metálicos repartidos a lo largo de la base del procesador introduciéndose en la placa base mediante unos pequeños agujeros, al introducir el procesador, una palanca anclará los pines para que haga buen contacto y no se suelten.
 BGA: Ball Grid Array: La conexión se realiza mediante bolas soldadas al procesador que hacen contacto con el zócalo
 LGA: Land Grid Array: La conexión se realiza mediante superficies de contacto lisas con pequeños pines que incluye la placa base.
Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas funciones están distribuidas en un esquema asociado al zócalo, de manera que varias referencias de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones.
Buses del procesador

Todos los procesadores poseen un bus principal o de sistema por el cual se envían y reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bits por segundo.
Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el cual se definen líneas especializadas en datos, direcciones y para control.
En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama front-side bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la señalización que le permite funcionar con relojes de 333 Mhz haciendo 4 transferencias por ciclo.5
En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport de AMD, que maneja los datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo frecuencias de funcionamiento más altas y en el caso de Intel, Quickpath
Los microprocesadores de Intel y de AMD (desde antes) poseen además un controlador de memoria de acceso aleatorio en el interior del encapsulado lo que hace necesario la implementación de buses de memoria del procesador hacia los módulos. Ese bus esta de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1 a 4 buses de memoria

TARJETA MADRE


La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.
Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo
Componentes de la placa base
Diagrama de una placa base típica.
Una placa base típica admite los siguientes componentes:
 Uno o varios conectores de alimentación: por estos conectores, una alimentación eléctrica proporciona a la placa base los diferentes voltajes e intensidades necesarios para su funcionamiento.
 El zócalo de CPU es un receptáculo que recibe el microprocesador y lo conecta con el resto de componentes a través de la placa base.
 Las ranuras de memoria RAM, en número de 2 a 6 en las placas base comunes.
 El chipset: una serie de circuitos electrónicos, que gestionan las transferencias de datos entre los diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica, unidad de almacenamiento secundario, etc.).
Se divide en dos secciones, el puente norte (northbridge) y el puente sur (southbridge). El primero gestiona la interconexión entre el microprocesador, la memoria RAM y la unidad de procesamiento gráfico; y el segundo entre los periféricos y los dispositivos de almacenamiento, como los discos duros o las unidades de disco óptico. Las nuevas líneas de procesadores de escritorio tienden a integrar el propio controlador de memoria en el interior del procesador además de que estas tardan en degradarse aproximadamente de 100 a 200 años.
 El reloj: regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos.
 La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo, fecha y hora), mientras el equipo no está alimentado por electricidad.
 La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito constantemente y que éste último no se apague perdiendo la serie de configuraciones guardadas.
 La BIOS: un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la interfaz de bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR (Master Boot Record), o registradas en un disco duro o SSD, cuando arranca el sistema operativo. Actualmente los ordenadores modernos sustituyen el MBR por el GPT y la BIOS por Extensible Firmware Interface.
 El bus (también llamado bus interno o en inglés front-side bus'): conecta el microprocesador al chipset, está cayendo en desuso frente a HyperTransport y Quickpath.
 El bus de memoria conecta el chipset a la memoria temporal.
 El bus de expansión (también llamado bus I/O): une el microprocesador a los conectores entrada/salida y a las ranuras de expansión.
 Los conectores de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores incluyen: Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a desaparecer a favor del USB
 Los puertos serie, por ejemplo para conectar dispositivos antiguos.
 Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras.
 Los puertos USB (en inglés Universal Serial Bus), por ejemplo para conectar periféricos recientes.
 Los conectores RJ45, para conectarse a una red informática.
 Los conectores VGA, DVI, HDMI o Displayport para la conexión del monitor de la computadora.
 Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros, unidades de estado sólido y unidades de disco óptico.
 Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos.
Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se utilizan para agregar características o aumentar el rendimiento de un ordenador; por ejemplo, un tarjeta gráfica se puede añadir a un ordenador para mejorar el rendimiento 3D). Estos puertos pueden ser puertos ISA (interfaz antigua), PCI (en inglés Peripheral Component Interconnect), AGP (en inglés Accelerated Graphics Port) y, los más recientes, PCI Express.
Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como circuitos electrónicos para la gestión del vídeo IGP (en inglés Integrated Graphic Processor), de sonido o de redes (10/100 Mbps/1 Gbps), evitando así la adición de tarjetas de expansión.
En la placa también existen distintos conjuntos de pines que sirven para configurar otros dispositivos:
JMDM1: Sirve para conectar un modem por el cual se puede encender el sistema cuando este recibe una señal.
JIR2: Este conector permite conectar módulos de infrarrojos IrDA, teniendo que configurar la BIOS.
JBAT1: Se utiliza para poder borrar todas las configuraciones que como usuario podemos modificar y restablecer las configuraciones que vienen de fábrica.
JP20: Permite conectar audio en el panel frontal.
JFP1 Y JFP2: Se utiliza para la conexión de los interruptores del panel frontal y los LEDs.
JUSB1 Y JUSB3: Es para conectar puertos usb del panel frontal.
Tipos de bus
Los buses son espacios físicos que permiten el transporte de información y energía entre dos puntos de la computadora.
Los buses generales son los siguientes:
 Bus de datos: son las líneas de comunicación por donde circulan los datos externos e internos del microprocesador.
 Bus de dirección: línea de comunicación por donde viaja la información específica sobre la localización de la dirección de memoria del dato o dispositivo al que se hace referencia.
 Bus de control: línea de comunicación por donde se controla el intercambio de información con un módulo de la unidad central y los periféricos.
 Bus de expansión: conjunto de líneas de comunicación encargado de llevar el bus de datos, el bus de dirección y el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal.
 Bus del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos tipos de datos el microprocesador y la memoria principal, que también involucra a la memoria caché de nivel 2. La velocidad de transferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del mínimo.
Placa multiprocesador
Una placa con dos procesadores.
Este tipo de placa base puede acoger a varios procesadores (generalmente de 2, 4, 8 o más). Estas placas base multiprocesador tienen varios zócalos de microprocesador, lo que les permite conectar varios microprocesadores físicamente distintos (a diferencia de los de procesador de doble núcleo).
Cuando hay dos procesadores en una placa base, hay dos formas de manejarlos:
 El modo asimétrico, donde a cada procesador se le asigna una tarea diferente. Este método no acelera el tratamiento, pero puede asignar una tarea a una unidad central de procesamiento, mientras que la otra lleva a cabo a una tarea diferente.
 El modo simétrico, llamado multiprocesamiento simétrico, donde cada tarea se distribuye de forma simétrica entre los dos procesadores.
Linux fue el primer sistema operativo en gestionar la arquitectura de doble procesador en x86.[cita requerida] Sin embargo, la gestión de varios procesadores existía ya antes en otras plataformas y otros sistemas operativos. Linux 2.6.x maneja multiprocesadores simétricos, y las arquitecturas de memoria no uniformemente distribuida
Algunos fabricantes proveen placas base que pueden acoger hasta 8 procesadores (en el caso de socket 939 para procesadores AMD Opteron y sobre socket 604 para procesadores Intel Xeon).

lunes, 25 de febrero de 2013

COMO HACER UN CABLEADO DE RED

El propósito de este artículo es mostrarle cómo hacer los dos tipos de cables que pueden usarse para conectar una red de computadoras dedos o más computadoras para formar rápidamente y simplemente una red de área local (LAN Local Area Network) para una oficina pequeña o una casa. Estas instrucciones también pueden usarse para hacer “patchcables” para redes con una infraestructura de cableado más compleja.

Los dos tipos de unshielded twisted-pair (UTP) standard son los de10 Mhz 10BASE-T Ethernet y 100Mhz 100BASE-TX Fast Ethernet. La norma de100BASE-TX está volviéndose la norma de LAN predominante rápidamente.Si usted está empezando desde el principio, para construir una redhogare
ña o la red de la oficina, ésta es claramente la norma que debeescoger. Este artículo le mostrará cómo hacer cables que trabajarán conambas normas.

Un LAN puede ser tan simple como doscomputadoras, cada uno con un network interface card (NIC) o adaptadorde red y un software adecuado corriendo, conectadas a travez de uncable crossover.

El próximo paso a sería una red que consiste en tres o máscomputadoras y un HUB. Cada uno de las computadoras se conecta al HUBcon un cable recto (straight-thru) (la funcion de crossover la realizael hub).
El Cable de red y sus conectores:

Hay varias clasificaciones de cable usadaspara las redes twisted-pair. Por razones obvias, limitaré al uso deCable Categoría 5e (CAT 5e o CAT 5 enhaced) que es el standard hoy diapara cualquier instalacion que se haga partiendo de cero. Hayigualmente, algunas clasificaciones para el aislamiento exterior decables CAT 5 que en su mayoria responden a normas de seguridad contraincendios. Yo uso cable CMR o “riser cable,”, para la mayoría de lasinstalación eléctricas que hago. Debe ser consciente que existe otrotipo llamado CMP o plenum cable (plenum se usa para distribuir el aireen un edificio). Las regulaciones locales o códigos puede requerirleusar el plenum-jacketed más caro si atraviesa techos suspendidos,conductos, u otras áreas, si se usan para circular el aire o actuarcomo un pasaje aéreo de un cuarto a otro. Si esta en la duda, use elplenum. El cable de CMR es generalmente aceptable para todas lasaplicaciones que no requieren el cable plenum.


El cable CAT 5e está disponible en caja y el cable viene enrollado en una bobina (ver foto).

Esto es muy útil para tirar el cable sin torcerlo. Sin este tipo depaquete o una bobina de cable, tirar del cable es un trabajo dospersonas.
El cable CAT 5 tiene cuatro pares de alambres cruzados con untotal de ocho alambres individualmente aislados. Cada par es codificadocon colores con un alambre que tiene un color sólido (azul, anaranjado,verde, o casta
ño) enroscado (twisted) alrededor de un segundo alambreblanco con una raya del mismo color. Los colores sólidos pueden teneruna raya blanca en algunos cables. Se describen los colores del cablenormalmente usando el color del fondo seguido por el color de la raya;por ejemplo, el blanco-naranja es un cable con un fondo blanco y unaraya anaranjada.

Los dos tipos de unshielded twisted-pair(UTP) standard son los de 10 Mhz 10BASE-T Ethernet y 100Mhz 100BASE-TXFast Ethernet. La norma de 100BASE-TX está volviéndose la norma de LANpredominante rápidamente. Si usted está empezando desde el principio,para construir una red hogare
ña o la red de la oficina, ésta esclaramente la norma que debe escoger. Este artículo le mostrará cómohacer cables que trabajarán con ambas normas.
Lans Simplificadas:
Un LAN puede ser tan simple como dos computadoras, cada uno con unnetwork interface card (NIC) o adaptador de red y un software adecuadocorriendo, conectadas a travez de un cable crossover.

El próximo paso a sería una red que consiste en tres o máscomputadoras y un HUB. Cada uno de las computadoras se conecta al HUBcon un cable recto (straight-thru) (la funcion de crossover la realizael hub).

Los Conectores.:
Los cables straight through y cross-over discutidos en esteartículo usan conectores CAT 5e RJ-45. Los conectores RJ-45 sonsimilares a aquéllos que usted verá en el fin de su cable del teléfonoexcepto que tienen ocho contra cuatro o seis contactos y son dos vecesmas grande. Asegúrese que son conectores marcados como CAT 5e.
Las Herramientas.:

Modular Plug Crimp Tool o pinza de impacto. Es muy similar a la quese usa para el cable de teléfono y pero con formato especialmentedise
ñado para Ethernet. Es simplemente una pinza que se usara paracerrar los conectores (Puedo asegurar que usar cualquier otro metodo estotalmente insalubre, por no decir imposible). Aunque el crimper tienecortadores que pueden usarse para cortar el cable y los alambresindividuales, y despojando la chaqueta exterior posiblemente, yoencuentro que las herramientas siguientes son buenas para despojar y cortar el cable…

Herramientas pelacables UTP Universal.Funciona astutamente como un pela cable, y hace el corte mucho masprolijo y facil. Yo recomiendo que usted compre uno si estará haciendomuchos cables.

El tipico alicate, cutter o cuchillo tambien se puede usar para pelarlos pero no se recomiendan.



10BASE-T y 100BASE-TX Ethernets consisten en dos líneas de latransmisión. Cada línea de la transmisión es un par de alambrestrenzados. Un par recibe datos y el otro par transmite. Un transmitter(transmisor) está en uno de los extremos de estas líneas y un receptoren el otro. Un esquema muy simplificado de este circuito es elsiguiente:

Los pulsos de energía viajan por la líneade transmisión casi a (186,000 miles/second). Los componentesprincipales de uno de estos pulsos de energía son el voltaje potencial entre el alambre y el fluir actual de la superficie de los alambres.Esta energía también puede ser considerada como residente en el campomagnético que rodea los alambres y el campo eléctrico entre losalambres. En otros términos, una ola electromagnética por que se guía,y viaja por cada uno de los alambres (cables).

La preocupación principal son los campos magnéticos que rodean losalambres y los campos magnéticos generados externamente por las otraslíneas de la transmisión en el cable, otros cables de la red, motoreseléctricos, luces fluorescentes, teléfono y líneas eléctricas,relámpagos, etc. Esto es conocido como ruido (noise). Los camposmagnéticos inducen sus propios pulsos en una línea de transmisión quepuede literalmente “enterrar” los pulsos Ethernet (que es el portadorde la información que esta siendo enviada por la linea).

El par entrelazado (twisted-pair) que utiliza Ethernet emplea dosprincipios para combatir el ruido. El primero es el uso de transmisoresequilibrados y receptores. Un pulso de se
ñal realmente consiste en dospulsos simultáneos que tienden a anularse: un pulso negativo en unalínea y un pulso positivo en la otra. El receptor descubre ladiferencia total entre estos dos pulsos. Ya que un pulso de ruido(mostrado en rojo en el diagrama) normalmente produce pulsos de lamisma polaridad en ambas lineas, este pulso de ruido es practicamentecancelado por el otro en el receptor. También, el campo magnético querodea un alambre a partir de un pulso es practicamente un espejo delotro en el otro alambre. En una distancia muy corta de los dos alambreslos campos magnéticos se oponen y tienen una tendencia a cancelar losde efectos del campo de uno sobre el otro. Esto reduce el impacto deuna línea de transmicion en el otro par de alambres y el resto delmundo.

El segundo y el mas importante de los medios para reducir ladiafonía (crosstalk)–la término diafonía vino de la habilidad de oirlas conversaciones en otras líneas en su teléfono o mas conocido como“se
ñora cuelgue que se ligó!”–entre los pares de cables, es laconfiguración de hélice doble producida trenzando los alambres juntos.Esta configuración produce ruidos simétricos (idéntico) en la señal decada alambre. Con suerte, su diferencia, medida en el receptor, escero. En la realidad no se da siempre asi y se deben aplicar codigos decorrección de errores. Cuanto mas deteriorado esta el cable y mayorruido hay en el espacio, mayor es la cantidad de errores que se producey menor es la velocidad y fiabilidad de los datos.
LAS NORMAS PARA LOS C
ÓDIGOS DE COLOR.

Empezamos con unos simples diagramas de los pin-out de los dostipos de cable UTP Ethernet y veremos como cómo los comités puedencomplicar las cosas aun mas.

Estos son los diagramas:

Notar como los pines TX (transmisores) seconectan a los pines RX correspondientes (receptores), positivo conpositivo y negativo con negativo. Y que debe usar un cable cossoverpara conectar unidades con interfaces idénticas (por ejemplo dos PCssin un HUB en el medio). Si usted usa un cable straight-through, una delas dos unidades debe realizar la función cross-over.

Dos normas de códigos de color de alambre estan vigentes: EIA/TIA568A y EIA/TIA 568B. Los códigos son normalmente pintan con con losRJ-45 como sigue:

Si nosotros aplicamos el código de color 586A y mostramos los ocho alambres, nuestro pin-out seria algo asi:


Esto enfatiza aun mas, espero, laimportancia de la palabra “entrelazados” al hacer cables de red quefuncionen. Usted no puede usar un par de cables de teléfono para hacerun cable de red (especialmente uno de 100BaseTX).Además, usted debeusar un par de alambres trenzados para conectar un juego pinestransmisores a sus respectivos pines receptores. Usted no puede usar unalambre de un par al azar con otro de otro color diferente de otro par,creo que queda claro porqué.

Teniendo presente los principios anteriores, nosotros podemossimplificar el diagrama para un cable 568A straight-thru destrenzandolos alambres, exceptuando el giro de180° en el cable entero, y doblandolas puntas hacia arriba. De la misma manera, si nosotros intercambiamoslos pares verdes y anaranjados en el diagrama del 568A straight-thruobtendremos un diagrama simplificado para un 568B straight-thru. Sinosotros cruzamos los pares verdes y anaranjados en el diagrama 568Allegaremos a un diagrama simplificado para un cable crossover.
HAGAMOSLO MAS SENCILLO.

Hay sólo dos únicas terminaciones de cables en los diagramasprecedentes. Los mismos corresponden a los conectores RJ-45 568A y 568By se muestran del lado derecho.


De nuevo, los alambres con fondo de colorpueden tener rayas blancas y pueden figurar asi en otros diagramas deotros sitios. Por ejemplo, el alambre verde puede etiquetarseverde-blanco – no hay ninguna diferencia. El color de fondo siempre seespecifica primero.

Ahora, todo lo que hay que recordar, para disponer propiamente loscables, son los diagramas para las dos terminaciones y las siguientes reglas:

Un cable straight-thru tiene identicas terminaciones.

Un cable crossover tiene terminaciones diferentes.

No hay diferencia funcional entre usar un standard o otro para uncable straight-thru. Se puede iniciar un cable crossover con cualquierade los dos standards mientras la otra terminacion use el otro standard.No hay diferencia funcional en que lado es cual. Un “patch” cable 568Afunciona perfectamente en una red 568B y viceversa.

Preferentemente conviene mantener un mismo standard en toda la redpara no crear futuros inconvenientes con alguien que venga a cambiar unconector o una ficha de la pared. O para que uno mismo sepa que siemprepuede usar un standard sin necesidad de andar mirando que tiene delotro lado.
HAGAMOS ALGUNOS CABLES

1. tirar el cable fuera de la bobina a la longitud deseada ycortar. Si estan pasando los cables a travez de las paredes, un agujeroen el suelo, un cable canal, etc., es más fácil poner los conectoresdespues de haberlos pasado. La longitud total de segmentos de cableentre una PC y un HUB o entre dos PC no puede exceder 100 Metros ya seapara 100BASE-TX o para 10BASE-T.


Pelar uno de los extremos del cable conla herramienta que se desee. Si estan usando la, herramienta pelar cables, poner el cable en la ranura del lado de la hoja de laherramienta (izquierda) y encuadrar el fin del cable con el ladoderecho de la herramienta. Con esto se logra despojar cerca de una pulgada de funda de cable. Darle una vuelta y retirar el sobrante (sise zarpan con las vueltas van a terminar cortando los alambres.

3. Inspeccionar que los alambres no esten cortados (LOS ALAMBRES NODEBEN SER PELADOS!). Si lo estan, cortar la punta y volver a empezar. Puede que sea necesario ajustar la herramienta con el tornillo deajuste. Los diametros de los cables y sus fundas pueden variar.

4. Desenrozacar y acomodar los cables en el orden eleigo (568A o B).


5. Aplanar los alambres con el pulgar y eldedo indice. Cortar las puntas de los cables para que esten parejas. Es muy importante que la parte que dejamos al aire (que pelamos) sea de nomas de media pulgada de largo. Si es mas larga, estará fuera de lasespecificaciones y suceptible a interferencias (crosstalk, ver teoría).Si es mas corta, puede que no calze bien en la ficha.

6. Mantener la ficha RJ-45 con el cliphacia abajo o apuntando para el lado contrario al tuyo. Empujar elcable firmemente en la ficha. Mirando desde este lado, o sea la partede abajo de la ficha, el alambre de la izquierda debe ser de fondoblanco. Los alambres deberian estar alternados rayados y no rayados deizquierda a derecha. el alambre de la derecha es marron siempre. Todoslos alambres deberian terminar parejos contra el borde de la ficha. Elborde de la funda del cable pelada deberia ir justo donde se ve en eldiagrama, justo en la linea.

Todo sobre Cerrar los cables.
7. Mantener el RJ-45 con el click hacia abajo asegurando el cablepara que no se salga meterlo firmemente en la crimpeadora. Manteniendosiempre el cable para que no se salga de la ficha, apretar lacrimpeadora bien fuerte (sin exagerar).


La herramienta empuja dos partes claves de la ficha, una se encargade mantener el cable y la otra perfora los alambres individualmente para hacer contacto.


Testear si engancho… Si el cable esta bien hecho, una persona normal no deberia poder sacar el cable con la mano. Pero no no tiren demasiado. Puede estirar el cable y cambiar sus características. Mirar la ficha y compararla con el diagrama y darle untironcito para ver que no se salga.

9. Repetir el proceso con el otro lado del cable, usar la normacontraria a la que se eleigio para hacer un cable crossover o la mismapara un Straig-Thru .

10. Si ambos lados del cable estan al alcance, ponerlos juntos conlos clips hacia abajo y mirar el fondo del conector para comprobar queesten bien.

11. Testear el cable en un red si es posible. Copiar archivos grandes.

12. Si no funciona el cable, inspeccionar las terminaciones otravez. Probar apagando (con el power switch y no reseteando) las maquinasa ver si mejora.

13. Si hay varios cables straight-Thru dando vueltas, y solo cablecrossover, deberian considerar en etiquetarlo y usar diferentes colores ya sea de capuchones o cables para no mes clarlo. No es recomendableimplementar un cable crossover (como se recomienda en algunos lados)con un peque
ño patch crossover y un jack RJ-45 como extension. estemetodo no solo cuesta mas caro sino que ademas introduce muchoscomponentes que pueden fallar y conecciones, incrementa la complejidadde ensamblaje, y decrese la fiabilidad de los datos.

REGLAS BASICAS Y GENERALES!

1. Evitar pasar los cables paralelos a los cables de corriente (mucho menos en el mismo ca
ño).

2. No doblar los cables en un radio menor de menos de 4 veces su diametro.

3. Si se agrupan los cables con sujeta cables, no apretarlos demasiado. Se pueden poner

firmemente pero si se aprietan mucho, se pueden deformar los cables.

4. Mantener los cables lejos de dispositivos o electrodomesticos que puedan introducir “ruido”(ver teoría) en ellos.
Una peque
ña lista de aparatos prohibidos: Fotocopiadoras,Calentadores electricos, parlantes, impresoras, televisiones, lucesfosforescentes, copiadoras, maquinas soldadoras, hornos microondas,telefonos, ventiladores, motores de elevadores, hornos electricos,secadores, lavadoras, y otros equipos (especialmente si tienenmotores).

5. Evitar estirar los cables (la fuerza maxima no debe exceder las 25 lbs).

6. No pasar cables UTP por el exterior de las edificaciones. NUNCA, ya que al estar conectados atraen por ejemplo los rayos. Ademas Loscables que se usan para exteriores no son los mismos que los normales.

7. No usar clavos (grapas) para asegurar los cables a la pared .Usar ganchos para cable de telefono o television como los que usa lacompa
ñia de cable cuando instala la antena.