Es el hardware dentro de una computadora u otros dispositivos programables, que interpreta las instrucciones de un programa informático mediante la realización de las operaciones básicas aritméticas, lógicas y de entrada/salida del sistema. El término en sí mismo y su acrónimo han estado en uso en la industria de la Informática por lo menos desde el principio de los años 1960.1 La forma, el diseño de CPU y la implementación de las CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental sigue siendo la misma.

Una computadora puede tener más de una CPU; esto se llama multiprocesamiento. Todas las CPU modernas son microprocesadores, lo que significa que contienen un solo circuito integrado (chip). Algunos circuitos integrados pueden contener varias CPU en un solo chip; estos son denominados procesadores multi núcleo. Un circuito integrado que contiene una CPU también puede contener los dispositivos periféricos, y otros componentes de un sistema informático; a esto se llama un sistema en un chip (SoC).
5.1 Historia de la CPU.
Ordenadores, como el ENIAC tenían que ser físicamente recableados para realizar diferentes tareas, que causaron que estas máquinas se llamarán "ordenadores de programas fijo". Dado que el término "CPU" generalmente se define como un dispositivo para la ejecución de software (programa informático), los primeros dispositivos que con razón podríamos llamar CPU vinieron con el advenimiento del ordenador con programa almacenado.
Las primeras CPU fueron diseñadas a medida como parte de un ordenador más grande, generalmente un ordenador único en su especie. Sin embargo, este método de diseñar las CPU a medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o varios propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos, computadoras centrales y microcomputadoras y fue acelerada rápidamente con la popularización del circuito integrado (IC), este ha permitido que sean diseñados y fabricados CPU más complejas en espacios pequeños en la orden de nanómetros).
Tanto la miniaturización como la estandarización de las CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles hasta teléfonos móviles o celulares y juguetes de niños.
5.2 Procesador.
Este es el cerebro del computador. Dependiendo del tipo de procesador y su velocidad se obtendrá un mejor o peor rendimiento. Hoy en día existen varias marcas y tipos, de los cuales intentaremos darles una idea de sus características principales.
Las familias (tipos) de procesadores compatibles con el PC de IBM usan procesadores x86. Esto quiere decir que hay procesadores 286, 386, 486, 586 y 686. Ahora, a Intel se le ocurrió que su procesador 586 no se llamaría así sino "Pentium", por razones de mercadeo.
Existen, hoy en día tres marcas de procesadores: AMD, Cyrix e Intel. Intel tiene varios como son Pentium, Pentium MMX, Pentium Pro y Pentium II. AMD tiene el AMD586, K5 y el K6. Cyrix tiene el 586, el 686, el 686MX y el 686MXi. Los 586 ya están totalmente obsoletos y no se deben considerar siquiera. La velocidad de los procesadores se mide en Megahertz (MHz =Millones de ciclos por segundo). Así que un Pentium es de 166Mhz o de 200Mhz, etc. Este parámetro indica el número de ciclos de instrucciones que el procesador realiza por segundo, pero sólo sirve para compararlo con procesadores del mismo tipo. Por ejemplo, un 586 de 133Mhz no es más rápido que un Pentium de 100Mhz. Ahora, este tema es bastante complicado y de gran controversia ya que el rendimiento no depende sólo del procesador sino de otros componentes y para que se utiliza el procesador. Los expertos requieren entonces de programas que midan el rendimiento, pero aun así cada programa entrega sus propios números. Cometeré un pequeño pecado para ayudar a des complicarlos a ustedes y trataré de hacer una regla de mano para la velocidad de los procesadores. No incluyo algunos como el Pentium Pro por ser un procesador cuyo mercado no es el del hogar.
Cabe anotar que los procesadores de Intel son más caros y tienen una unidad de punto flotante (FPU) más robusta que AMD y Cyrix. Esto hace que Intel tenga procesadores que funcionen mejor en 3D (Tercera dimensión), AutoCAD, juegos y todo tipo de programas que utilizan esta característica. Para programas de oficina como Word, WordPerfect, etc. AMD y Cyrix funcionan muy bien.
Algunos tipos de procesadores:
1 . Pentium-75 ; 5x86-100 (Cyrix y AMD)
2 . AMD 5x86-133
3 . Pentium-90
4 . AMD K5 P100
5 . Pentium-100
6 . Cyrix 686-100 (PR-120)
7 . Pentium-120
8 . Cyrix 686-120 (PR-133) ; AMD K5 P133
9 . Pentium-133
1 . Cyrix 686-133 (PR-150) ; AMD K5 P150
1 . Pentium-150
1 . Pentium-166
. Cyrix 686-166 (PR-200)
5.3 Board o tarjeta madre.
Es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora.
Es una parte fundamental para armar cualquier computadora personal de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar (chipset), que sirve como centro de conexión entre el microprocesador (CPU), la memoria de acceso aleatorio(RAM), las ranuras de expansión y otros dispositivos.
Componentes de la Board:
· Conectores de alimentación de energía eléctrica.
· Zócalo de CPU (monoprocesador) o zócalos de CPU(multiprocesador).
· Ranuras de RAM.
· Chipset.
Diagrama de una placa base típica.
5.4 Memoria RAM.
Se utiliza como memoria de trabajo de computadoras para el sistema operativo, los programas y la mayor parte del software.
En la RAM se cargan todas las instrucciones que ejecuta la unidad central de procesamiento (procesador) y otras unidades del computador.
Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder (acceso secuencial) a la información de la manera más rápida posible.
Historia memoria RAM.
Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria requería que cada bit estuviera almacenado en un toroide de material ferromagnético de algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de memoria muy pequeña. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas para implementar las funciones de memoria principal con o sin acceso aleatorio.
En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1024 bytes, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.
Las dos formas principales de RAM moderna son:
1. SRAM (Static Random Access Memory), RAM estática, memoria estática de acceso aleatorio.
· volátiles.
· no volátiles:
· NVRAM (non-volatile random access memory), memoria de acceso aleatorio no volátil
· MRAM (magnetoresistive random-access memory), memoria de acceso aleatorio magnetorresistiva o magnética
2. DRAM (Dynamic Random Access Memory), RAM dinámica, memoria dinámica de acceso aleatorio.
1. DRAM Asincrónica (Asynchronous Dynamic Random Access Memory, memoria de acceso aleatorio dinámica asincrónica)
· FPM RAM (Fast Page Mode RAM)
· EDO RAM (Extended Data Output RAM)
2. SDRAM (Synchronous Dynamic Random-Access Memory, memoria de acceso aleatorio dinámica sincrónica)
· Rambus:
· RDRAM (Rambus Dynamic Random Access Memory)
· XDR DRAM (eXtreme Data Rate Dynamic Random Access Memory)
· XDR2 DRAM (eXtreme Data Rate two Dynamic Random Access Memory)
· SDR SDRAM (Single Data Rate Synchronous Dynamic Random-Access Memory, SDRAM de tasa de datos simple)
· DDR SDRAM (Double Data Rate Synchronous Dynamic Random-Access Memory, SDRAM de tasa de datos doble)
· DDR2 SDRAM (Double Data Rate type two SDRAM, SDRAM de tasa de datos doble de tipo dos)
· DDR3 SDRAM (Double Data Rate type three SDRAM, SDRAM de tasa de datos doble de tipo tres)
· DDR4 SDRAM (Double Data Rate type four SDRAM, SDRAM de tasa de datos doble de tipo cuatro)
5.5 Disco duro.
Es el dispositivo de almacenamiento de datos que emplea un sistema de grabación magnética para almacenar archivos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos. Es memoria no volátil.
Las características que se deben tener en cuenta en un disco duro son:
- Tiempo medio de acceso: tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
- Tiempo medio de búsqueda: tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
- Tiempo de lectura/escritura: tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
- Latencia media: tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
- Velocidad de rotación: Es la velocidad a la que gira el disco duro, más exactamente, la velocidad a la que giran el/los platos del disco, que es donde se almacenan magnéticamente los datos. La regla es: a mayor velocidad de rotación, más alta será la transferencia de datos, pero también mayor será el ruido y mayor será el calor generado por el disco duro. Se mide en número revoluciones por minuto ( RPM). No debe comprarse un disco duro IDE de menos de 5400RPM (ya hay discos IDE de 7200RPM), a menos que te lo den a un muy buen precio, ni un disco SCSI de menos de 7200RPM (los hay de 10.000RPM). Una velocidad de 5400RPM permitirá una transferencia entre 10MB y 16MB por segundo con los datos que están en la parte exterior del cilindro o plato, algo menos en el interior. revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
- Tasa de transferencia: velocidad a la que puede transferir la información a la computadora una vez que la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.
Otras características son:
- Caché de pista: es una memoria tipo flash dentro del disco duro.
- Interfaz: medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATA, SCSI, SATA, USB, Firewire, Serial Attached SCSI
- Lanz: zona sobre las que aparcan las cabezas una vez se apaga la computadora.
Historia del disco duro.
Al principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire).
El primer disco duro, aparecido en 1956, fue el Ramac I, presentado con la computadora IBM 350: pesaba una tonelada y su capacidad era de 5 MB. Más grande que un frigorífico actual, este disco duro trabajaba todavía con válvulas de vacío y requería una consola separada para su manejo.
Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente constante entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.
5.6 DVD.
El DVD es un tipo de disco óptico para almacenamiento de datos.Las siglas DVD1 corresponden a Digital Versátiles Disc2 (Disco Versátil Digital), de modo que ambos acrónimos (en español e inglés) coinciden. En sus inicios, la “V” intermedia hacía referencia a video (digital videodisco), debido a su desarrollo como reemplazo del formato VHS para la distribución de vídeo a los hogares.3
El estándar del DVD surgió en 1995 Consorcio (DVD Consortium).
La unidad de DVD es el dispositivo que hace referencia a la multitud de maneras en las que se almacenan los datos: DVD-ROM (dispositivo de lectura únicamente), DVD-R y DVD+R (solo pueden escribirse una vez), DVD-RW y DVD+RW (permiten grabar y luego borrar). También difieren en la capacidad de almacenamiento de cada uno de los tipos.
Los DVD se dividen en dos categorías: los de capa simple y los de doble capa. Además el disco puede tener una o dos caras, y una o dos capas de datos por cada cara; el número de caras y capas determina la capacidad del disco. Los formatos de dos caras apenas se utilizan fuera del ámbito de DVD-Video.
Historia DVD.
A comienzo de los años 1990, dos estándares de almacenamiento óptico de alta densidad estaban desarrollándose:
1. el multimedia compact disc (MMCD), apoyado por Philips y Sony;
2. el super density (SD), apoyado por Toshiba, Time Warner, Panasonic, Hitachi, Mitsubishi Electric, Pioneer,Thomson y JVC.
Philips y Sony se unieron, y acordaron con Toshiba adoptar el SD, pero con una modificación: la adopción del EFM Plus de Philips, creado por Kees Immink, que a pesar de ser un 6% menos eficiente que el sistema de codificación de Toshiba (de ahí que la capacidad sea de 4,7 GB en lugar de los 5 GB del SD original), cuenta con la gran ventaja de que EFM Plus posee gran resistencia a los daños físicos en el disco, como arañazos o huellas. El resultado fue la creación del Consorcio del DVD, fundado por las compañías anteriores, y la especificación de la versión 1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el Consorcio (DVD Consortium) fue reemplazado por el Foro DVD
5.7 Fuente de poder.
Es el dispositivo que convierte la corriente alterna (CA), en una o varias corrientes continuas (CC), que alimentan los distintos circuitos del aparato electrónico al que se conecta (computadora, televisor, impresora, router, etc.).
Las fuentes de alimentación para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentaciones lineales y conmutadas
Fuentes de alimentación lineales
Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida.
En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en corriente continua pulsante se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador.
Fuentes de alimentación conmutadas
Una fuente conmutada es un dispositivo electrónico que transforma la energía eléctrica mediante transistores en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación, las fuentes conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias (20-100 kHz típicamente) entre corte (abiertos) y saturación (cerrados).
5.8 Tarjetas.
Una tarjeta gráfica es una tarjeta de expansión o un circuito integrado (chip), de la placa base del ordenador, que se encarga de procesar los datos provenientes de la unidad central de procesamiento (CPU) y transformarlos en información comprensible y representable en el dispositivo de salida (por ejemplo: monitor, televisor o proyector).
También se le conoce como:
· Adaptador de pantalla
· Adaptador de vídeo
· Placa de vídeo
· Tarjeta aceleradora de gráficos
· Tarjeta de vídeo
Las tarjetas gráficas más comunes son las disponibles para el ordenador compatibles con la IBM PC, debido a la enorme popularidad de estas, pero otras arquitecturas también hacen uso de este tipo de dispositivos
La tarjeta de video, (también llamada controlador de video, ver figura 2), es un componente electrónico requerido para generar una señal de video que se manda a una pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente en la placa de sistema de la computadora o en una placa de expansión. La tarjeta gráfica reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre el procesador y el monitor; la información es enviada a éste por la placa luego de haberla recibido a través del sistema de buses. Una tarjeta gráfica se compone, básicamente, de un controlador de video, de la memoria de pantalla o RAM video, y el generador de caracteres, y en la actualidad también poseen un acelerador de gráficos. El controlador de video va leyendo a intervalos la información almacenada en la RAM video y la transfiere al monitor en forma de señal de video; el número de veces por segundo que el contenido de la RAM video es leído y transmitido al monitor en forma de señal de video se conoce como frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes, la frecuencia depende en gran medida de la calidad de la placa de video.
Es una tarjeta electrónica que se conecta una ranura que tiene la computadora (CPU, en específico la tarjeta madre) que tiene como funciones principales: la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable).
En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM donde almacenan dichos "samples" o cortos; normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a la misma
Historia de las tarjetas.
La historia de las tarjetas gráficas da comienzo a finales de los años 1960cuando se pasa de usar impresoras, como elemento de visualización, a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S-100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término “tarjeta de video”.
El éxito del ordenador doméstico y las primeras videoconsolas hacen que por abaratamiento de costes (principalmente son diseños cerrados), esos chips vayan integrados en la placa base. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para ejecutar softCP/M (como las de los Apple II y Spectravideo SVI-328).