Yo soy :D

Mi foto
Mexico, Ixtapaluca, Mexico

Tipos de Cpu

Supercomputadoras Una supercomputadora es el tipo de computadora más potente y más rápido que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica.

Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, ésto para disipar el calor que algunos componentes alcanzan a tener.Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes:

1. Búsqueda y estudio de la energía y armas nucleares.
2. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
3. El estudio y predicción de tornados.
4. El estudio y predicción del clima de cualquier parte del mundo.
5. La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo.

Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año.




Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. PERO las sup ercomputadoras ueden ejecutar un sólo programa más rápido que un mainframe.

En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, ésto para ocultar los cientos de cables d e los periféricos , y su temperatura tiene que estar controlada.






Minicomputadoras En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y ésto ayudo a reducir el precio y costos de mantenimiento .

Las minicomputadoras , en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo.En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicacio nes multiusuario.

Microcomputadoras o PC´s Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es “una computadora en un chip”, o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.

El término PC se deriva de que para el año de 1981 , IBM®, sacó a la venta su modelo “IBM PC”, la cual se convirtió en un tipo de computadora ideal para uso “personal”, de ahí que el término “PC” se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados “PC y compatibles”, usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas.

Existen otros tipos de microcomputadoras , como la Macintosh®, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también “PC´s”, por ser de uso personal.





En la actualidad existen variados tipos en el diseño de PC´s:

1. Computadoras personales, con el gabinete tipo minitorre, separado del monitor.






2. Computadoras personales portátiles “Laptop” o “Notebook”.





3. Computadoras personales más comunes, con el gabinete horizontal, separado del monitor.





4. Computadoras personales que están en una sola unidad compacta el monitor y el CPU.





5. Las computadoras “laptops” son aquellas computadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables , pesan entre 2 y 5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crys tal Display).



Tecnologias CISC y RISC

La microprogramación es una característica importante y esencial de casi todas las arquítecturas CISC.

Como por ejemplo:

Intel 8086, 8088, 80286, 80386, 80486.
Motorola 68000, 68010, 68020, 68030, 6840.

La microprogramación significa que cada instrucción de máquina es interpretada por un microprograma localizado en una memoria en el circuito integrado del procesador.

En la década de los sesentas la micropramación, por sus características, era la técnica más apropiada para las tecnologías de memorias existentes en esa época y permitía desarrollar también procesadores con compatibilidad ascendente. En consecuencia, los procesadores se dotaron de poderosos conjuntos de instrucciones.

Las instrucciones compuestas son decodificadas internamente y ejecutadas con una serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren de varios ciclos de reloj (al menos uno por microinstrucción).



ARQUITECTURAS RISC

Buscando aumentar la velocidad del procesamiento se descubrió en base a experimentos que, con una determinada arquitectura de base, la ejecución de programas compilados directamente con microinstrucciones y residentes en memoria externa al circuito integrado resultaban ser mas eficientes, gracias a que el tiempo de acceso de las memorias se fue decrementando conforme se mejoraba su tecnología de encapsulado.

Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden implantar por hardware directamente en la CPU, lo cual elimina el microcódigo y la necesidad de decodificar instrucciones complejas.

Las características esenciales de una arquitectura RISC pueden resumirse como sigue:

  • Estos microprocesadores siguen tomando como base el esquema moderno de Von Neumann.
  • Reducción del conjunto de instrucciones a instrucciones básicas simples, con la que pueden implantarse todas las operaciones complejas.
  • Arquitectura del tipo load-store (carga y almacena). Las únicas instrucciones que tienen acceso a la memoria son ‘load’ y ‘store’; registro a registro, con un menor número de acceso a memoria.
  • Casi todas las instrucciones pueden ejecutarse dentro de un ciclo de reloj. Con un control implantado por hardware (con un diseño del tipo load-store), casi todas las instrucciones se pueden ejecutar cada ciclo de reloj, base importante para la reorganización de la ejecución de instrucciones por medio de un compilador.
  • Pipeline (ejecución simultánea de varias instrucciones). Posibilidad de reducir el número de ciclos de máquina necesarios para la ejecución de la instrucción, ya que esta técnica permite que una instrucción puede empezar a ejecutarse antes de que haya terminado la anterior.

El hecho de que la estructura simple de un procesador RISC conduzca a una notable reducción de la superficie del circuito integrado, se aprovecha con frecuencia para ubicar en el mismo, funciones adicionales:

  • Unidad para el procesamiento aritmético de punto flotante.
  • Unidad de administración de memoria.
  • Funciones de control de memoria caché.
  • Implantación de un conjunto de registros múltiples.




DIFERENCIAS ENTRE RISC Y CISC

RISC es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones pequeños y simples que toman menor tiempo para ejecutarse. El tipo de procesador más comúnmente utilizado en equipos de escritorio, el x86, está basado en CISC en lugar de RISC, aunque las versiones más nuevas traducen instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC para uso interno antes de su ejecución.

CISC: Un tipo de procesadores que reconoce un conjunto amplio de órdenes, pero que normalmente realiza los pasos indicados por esas órdenes con menor velocidad que un procesador RISC. Es el caso de la serie X86 de Intel.

La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre la aplicación de las más recientes tecnologías de semiconductores. Por ello, los procesadores RISC no solo tienden a ofrecer una capacidad de procesamiento del sistema de 2 a 4 veces mayor, sino que los saltos de capacidad que se producen de generación en generación son mucho mayores que en los CISC.



Tipos de Buses Parte II

BUS AT

En informática, enlace eléctrico utilizado por las computadoras
IBM AT y compatibles para conectar el microprocesador con la memoria y los dispositivos
periféricos. Las tarjetas de memoria, las controladoras de disco y las
tarjetas serie de E/S se conectan a este bus. El bus AT, también llamado
bus de expansión, se diferencia del bus IBM PC original en que el AT
soporta 16 bits de datos, mientras que el bus PC soporta sólo 8. En la
actualidad hay otros dos estándares de 32 bits: VESA y PCI.



 


CONECTOR DE BUS DE DATOS

Cualquiera de los diversos tipos de conectores utilizados para facilitar la
entrada y salida en serie y en paralelo. El número que aparece detrás
de las iniciales DB, acrónimo de Data Bus (bus de datos), indica el número
de líneas (cables) dentro del conector. Por ejemplo, un conector DB-9
acepta hasta nueve líneas separadas, cada una de las cuales puede conectarse
a una clavija del conector. En la práctica, no todas las clavijas -en
especial en los conectores grandes- tienen asignada una función, por
lo que suelen no utilizarse. La mayoría de los fabricantes de hardware
sigue una norma de asignación de clavijas, elaborada para asegurar la
compatibilidad entre dispositivos de diferentes fabricantes. Sin embargo, a
menudo se requiere alguna interfaz. Los conectores de bus de datos más
comunes son el DB-9, DB-15, DB-19, DB-25, DB-37 y DB-50.



 


Conector DIN

En informática, conector de clavijas de conexión múltiples
que cumple la especificación de la Organización Nacional de Normalización
Alemana (DIN, acrónimo de Deutsche Industrie Norm). En los modelos Macintosh
Plus, Macintosh SE y Macintosh II (véase Apple) se utiliza un conector
DIN de 8 clavijas (o pins) como conector de puerto serie. En los modelos de
escritorio de IBM anteriores al PS/2 se utilizaban conectores DIN de 5 clavijas
para conectar los teclados a la unidad del sistema.




 


RED EN BUS

En informática, una topología (configuración) de la red
de área local en la que todos los nodos están conectados a la
línea principal de comunicaciones (bus). En una red en bus, cada nodo
supervisa la actividad de la línea. Los mensajes son detectados por todos
los nodos, aunque aceptados sólo por el nodo o los nodos hacia los que
van dirigidos. Como una red en bus se basa en una "autopista" de datos
común, un nodo averiado sencillamente deja de comunicarse; esto no interrumpe
la operación, como podría ocurrir en una red en anillo, en la
que los mensajes pasan de un nodo al siguiente. Para evitar las colisiones que
se producen al intentar dos o más nodos utilizar la línea al mismo
tiempo, las redes en bus suelen utilizar detección de colisiones, o paso
de señales, para regular el tráfico.



 


USB

(Universal serial Bus - Bus serie universal) Bus serie de última generación
que permite conectar hasta 127 dispositivos en cadena consiguiendo una velocidad
hasta 100 veces mayor que la de un bus de serie convencional.


 



Serial ATA o SATA

Serial Advanced Technology Attachment es una interfaz de transferencia de datos
entre la placa base y algunos dispositivos de almacenamiento, como puede ser
el disco duro, Lectores y regrabadores de CD/DVD/BR, Unidades de Estado Sólido
u otros dispositivos de altas prestaciones que están siendo todavía
desarrollados. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA
proporciona mayores velocidades, mejor aprovechamiento cuando hay varias unidades,
mayor longitud del cable de transmisión de datos y capacidad para conectar
unidades en caliente, es decir, insertar el dispositivo sin tener que apagar
el ordenador o que sufra un cortocircuito como con los viejos Molex.


 


Tipos de Buses Parte I

El Bus XT y el Bus ISA (AT)

El primero al salir al mercado comercial junto con el primer PC de IBM, fue
el bus XT al 1980, funcionaba a la misma velocidad que los microprocesadores
de la época, los 8086 y 8088, a 4.77 MHz; y su amplitud de banda era
de 8 bits. De aquí que con el 8088 se compenetraran perfectamente, pero
con el 8086 (ancho de banda de 16 bits) ya no había tanta compenetración
y surgió el concepto y el hecho de los "cuellos de botella".

El significado del acrónimo que nos indica su nombre es: Industrial Standard
Arquitecture, que traducido sería, Arquitectura Industrial Estandarizada.

Con la introducción del AT, apareció el nuevo bus de datos de
16 bits (ISA), y compatible con su antecesor. También se amplió
el bus de direcciones hasta 24 bits, la velocidad de señales de frecuencia
también se aumentó: de 4.77 MHz a 8.33 MHz. De nuevo nos encontramos
con un atasco de información entre la memoria y la CPU.

A las tarjetas de expansión incluso, se le asignaron una señal
en estado de espera (wait state), el cual daba más tiempo a las tarjetas
lentas para enviar toda la información a la memoria.






MCA (Bus Micro Channel)

En sí no es ningún tipo de bus, más bien es un sistema
de canalización, en el que los datos no son enviadas hacia al receptor
con una simple instrucción de direccionamiento si no que es éste,
el receptor, quién tiene que recogerlos. Para que esta tarea se lleve
a cabo, se ha de informar al receptor previamente con la dirección dónde
están los datos a recibir, y se le deja un camino (bus) libre para él,
para que transporte los datos libremente.

Surgió cuándo IBM trabajaba para crear una nueva tecnología
de bus, la sacó con sus ordenadores que incorporaban el PS/2, el MCA
(Micro Channel Arquitecture) permitía un ratio (transferencia de datos)
máximo de 20 Mb/s, por la nueva dirección de 32 bits, y el aumento
de velocidad a 10 MHz.

IBM incluyó un circuito de control especial a cargo del bus, que le permitía
operar independientemente de la velocidad del bus y del tipo de microprocesador.

Dentro este tipo de bus, la CPU no es nada más que otro dispositivo dónde
pueden ir y venir los datos. La circuitería de control, denominada CAP
(punto de decisión central), se enlaza con un proceso denominado controlo
de bus para determinar y responder a las prioridades de cada uno de los dispositivos
dominantes del bus.

Para permitir la conexión de más dispositivos, el MCA especifica
interrupciones sensibles al nivel, que resultan más fiables que el sistema
de interrupciones del bus ISA. de esta forma es posible compartir interrupciones.

Esta estructura era completamente incompatible con las tarjetas de expansión
del tipo ISA, concretamente la diferencia que tenían una respeto del
otro se debía al tamaño de los conectores, más pequeños
a las del tipo MCA que las del tipo ISA.




EISA (Extended ISA)

Este bus es, tal y como nos indica su nombre (Enhanced Industrial Standard Arquitecture),
una extensión del primitivo bus ISA o AT. Tal y como hacía el
MCA, su bus de direcciones era de 32 bits basándose en la idea de controlar
un bus desde el microprocesador. Mantuvo la compatibilidad con las tarjetas
de expansión de su antecesor ISA, motivo por el cual tuvo que adoptar
la velocidad de éste (8.33 MHz).

Una de las ventajas que presentaba fue la de que era un sistema abierto, cantidad
de compañías contribuyeron a su desarrollo: AST, Compaq, Epson,
Hewlett Packard,, Olivetti, Tandy, Wyse, y Zenith.

Fue el primer bus a poder operar con sistemas de multiproceso (integrar al sistema
varios buses dentro del sistema, cada uno con su procesador).

Al igual que al MCA, incorporó un chip, el ISP Sistema Periférico
Integrado, encargado de controlar el tráfico de datos señalando
prioridades para cada posible punto de colisión o de bloqueo mediante
reglas de control de la especificación EISA.

Ni MCA ni EISA sustituyeron a su predecesor ISA, a pesar de sus ventajas, estos
representaban encarecer el coste del PC (a menudo más del 50%), y no
ofrecían ninguna mejora evidente en el rendimiento del sistema, y si
se notaba alguna mejora, tampoco era demasiado necesaria puesto que ningun dispositivo
daba el máximo de sí, ni en el bus ISA.

Local Bus

Vistos los resultados de los intentos fallidos para renovar y sustituir al bus
ISA, surgió este nuevo tipo de bus con un concepto de bus diferente a
todos los otros existentes, su mayor consolidación y aprovechamiento
lo tuvo en el área de las tarjetas gráficas, que eran las que
más desfavorecidas quedaron con los anteriores buses y velocidades.

Vesa Local Bus

VL no se arriesgó a padecer otro intento fallido como los de EISA o MCA,
y no quiso sustituir al ISA, sino que lo complementó. Por lo tanto tenemos
que para poseer un PC con VL, éste también tiene que tener el
bus ISA, y sus respectivas tarjetas de expansión, del VL en cambio, tendremos
una o dos ranuras de expansión, y son sólo estas las que son conectadas
con la CPU mediante un bus VL; de esta forma tenemos a cada sistema de bus trabajando
por su cuenta y sin estorbarse el uno al otro.

El VL es una expansión homogeneizada del bus local, que funcionaba a
32 bits pero podía realizar operaciones de 16 bits. El comité
VESA presentó la primera versión del VL-BUS en agosto del 1992,
y dado su completa integración y compenetración con el procesador
80486 se extendió rápidamente por el mercado.

Al presentar Intel su nuevo procesador Pentium de 64 bits, VESA empezó
a trabajar en la nueva versión de su bus, el VL-BUS 2.0.

Esta nueva especificación comprende los 64 bits posibles direccionables
del procesador, y compatibilidad con la anterior versión de 32 bits,
su velocidad y la cantidad de ranuras de expansión se aumentó
y se estableció en tres ranuras funcionando a 40 MHz, y dos a 50 MHz.




PCI (Peripheral Components Interconnect)

Este modelo que hoy en día rige en los ordenadores convencionales, y
es el más extendido de todos, lo inventó Intel y significa: interconexión
de los componentes periféricos.

Con la llegada de este nueve bus automatizado en todos sus procesos el usuario
ya no se tendrá que preocupar más de controlar las direcciones
de las tarjetas o de otorgar interrupciones. Integra control propio de todo
el relacionado con él: DMA, interrupciones, direccionamiento de datos.

Es independiente de la CPU, puesto que entre estos dos dispositivos siempre
habrá un controlador del bus PCI, y da la posibilidad de poder instalarlo
a sistemas no basados en procesadores Intel. Las tarjetas de expansión
se pueden acoplar a cualquier sistema, y pueden ser intercambiadas como se quiera,
tan solo los controladores de los dispositivos tienen que ser ajustados al sistema
anfitrión (host), es decir a la correspondiente CPU.

Su velocidad no depende de la de la CPU sino que está separada de ella
por el controlador del bus. Solución al problema del VL-BUS, dónde
las tarjetas debían aceptar la máxima frecuencia de la CPU o sinó
no podían funcionar.

El conector empleado es estilo Micro Channel de 124 pines (128 en caso de trabajar
con 64 bits), aunque sólo se utilizan 47 de las conexiones (49 en el
caso de tratarse de un conector bus-master), la diferencia se adeuda a las conexiones
de toma de tierra y de alimentación.

PCI es la eliminación de un paso al microprocesador; en vez de disponer
de su propio reloj, el bus se adapta al empleado por el microprocesador y su
circuitería, por lo tanto los componentes del PCI están sincronizados
con el procesador. El actual PCI opera con una frecuencia de 20 a 33.3 MHz.

Las tarjetas ISA no pueden ser instaladas en una ranura PCI convencional, aunque
existen equipos con un puente denominado <>. Consta de un chip que se
conecta entre los diferentes slots ISA y el controlador del bus PCI, su tarea
es la de transportar las señales provenientes del bus PCI capo al bus
ISA.

Su gran salida y aceptación fue en gran parte por su velocidad, así
el hardware se podía adaptar a la contínua evolución y
el incremento de velocidad de los procesadores.




SCSI (Small Computer System Interface)

Se origina a principios de los años ochenta cuando el fabricante de discos
desarrolló su propio sistema de E/S nominada SASI (Shugart Asociates
System Interface) que dado su éxito y su gran aceptación comercial
fue aprobado por ANSI al 1986.

SCSI no se conecta directamente a la CPU sino que utiliza de puente uno de los
buses anteriormente mencionados. Se podría definir como un subsistema
de E/S inteligente, cumplido y bidireccional. Un solo adaptador host SCSI puede
controlar hasta 7 dispositivos SCSI conectados con él.

Una de las ventajas del SCSI en frente a otros es que los dispositivos se direccionan
lógicamente en vez de físicamente, este sistema es útil
por dos razones:

1. Elimina cualquier limitación que el conjunto PC-Bios pueda imponer
a las unidades de disco.

2. El direccionamiento lógico elimina la sobrecarga que podría
tener el host al maniobrar los aspectos físicos del dispositivo, el controlador
SCSI lo controla.

Aunque varios dispositivos (hasta 7), pueden compartir un mismo adaptador SCSI,
tan sólo 2 de éstos pueden comunicarse sobre el mismo bus a la
vez.

Puede configurarse de tres maneras diferentes que le dan gran versatilidad:

1. Único iniciador/Único objetivo: Es el más común,
el iniciador es un adaptador en una ranura de un PC, y el objetivo es el controlador
del disco duro. Es una configuración fácil de implementar pero
no aprovecha al máximo las posibilidades del bus, excepto cuando se controlan
varios discos duros.

2. Único iniciador/Múltiple objetivo: Menos común y raramente
implementado, es bastante parecido al anterior excepto que se controlan diferentes
tipos de dispositivos de E/S. (CD-Rom y un disco duro)

3. Múltiple iniciador/Múltiple objetivo: Mucho menos utilizado
que los anteriores, se aprovechan a fondo las capacidades del bus.




AGP (Accelerated Graphics Port)

Fue creada por Intel para dar pie a la creación de un nueve tipo de PC,
al cual prestaron especial atención a los gráficos y la conectividad.
Basado en la especificación PCI 2.1 a 66 MHz, incluyó tres características
para el aumento de su rendimiento: operaciones de lectura/escritura en memoria
con pipeline, demultiplexado de datos y direcciones al propio bus, e incremento
de la velocidad hasta los 100 MHz ( el que supone un ratio de más de
800 Mbytes/s, más de cuatro veces que el PCI).

En su caso, como es un bus especialmente dedicado a los gráficos, no
tiene que compartir con otros dispositivos el ancho de banda; otra característica
de esta estructura es la de que posibilita la compartición de la memoria
principal por parte de la tarjeta gráfica mediante un modelo denominado
por Intel como DIME ( DIrect Memory Execute | ejecución directa a memoria),
la cual hace posible la obtención de mejores texturas en juegos y aplicaciones
3D, al almacenar estas en la RAM del sistema y transferirlas cuando las pidan
otros dispositivos.


Arquitectura en Pipeline




La arquitectura en pipeline (basada en filtros) consiste en ir transformando un flujo de datos en un proceso comprendido por varias fases secuenciales, siendo la entrada de cada una la salida de la anterior.

Esta arquitectura es muy común en el desarrollo de programas para el intérprete de comandos, ya que se pueden concatenar comandos fácilmente con tuberías (pipe). También es una arquitectura muy natural en el paradigma de programación funcional, ya que equivale a la composición de funciones matemáticas.

La arquitectura pipe-line se aplica en dos lugares de la maquina, en la CPU y en la UAL.

Veamos en que consiste el pipe-line y tratemos de entender porque el pipe-line mejora el rendimiento de todo el sistema.

Veamos una CPU no organizada en pipe-line:

Si se trata de una instrucción a ser ejecutada por la ALU podemos decir que la CPU realiza a lo largo del ciclo de maquina estas 5 tareas.

Una vez que termina de ejecutar una instrucción va a buscar otra y tarda en ejecutarla un tiempo T, es decir cada T segundos ejecuta una instrucción.

¿Qué sucede si dividimos en 5 unidades según las 5 cosas que realiza la CPU?

Supongamos la CPU dividida en 5 unidades, de tal forma que c/u tarde lo mismo en realizar su partecita. Es decir c/u tardará T/5.

Para que una instrucción se ejecute se necesita T segundos entonces para que usar pipe-line.

Si ocurre esto en una CPU normal a una con pipe-line, la cantidad de instrucciones que se hacen por segundo aumenta, es decir aumenta el flujo de instrucciones que se ejecutan por segundo.


Introduccion Arquitectura de Computadoras

Buenooo.. aqui les dejo una pequeña introduccion de lo que es la Arquitectura de computadoras.


El concepto de arquitectura en el entorno informático proporciona una descripción de la construcción y distribución física de los componentes de la computadora.

La arquitectura de una computadora explica la situación de sus componentes y permite determinar las posibilidades de que un sistema informático, con una determinada configuración, pueda realizar las operaciones para las que se va a utilizar.

Cualquier usuario que desee adquirir un sistema informático, tanto si es una gran empresa como un particular, debe responder a una serie de preguntas previas: ¿qué se desea realizar con el nuevo sistema informático? ¿Cuáles son los objetivos a conseguir? ¿Qué software será el más adecuado para conseguir los objetivos marcados? ¿Qué impacto va a suponer en la organización (laboral o personal) la introducción del nuevo sistema informático?

Finalmente, cuando se haya respondido a estas preguntas, el usuario tendrá una idea aproximada de los objetivos que han de cumplir los diferentes sistemas informáticos a evaluar.

En la actualidad es muy familiar el aspecto exterior de una computadora o, por lo menos, de una micro computadora , pero se ha de advertir que, salvando las diferencias de tamaño y la posibilidad de tele proceso (manejo del sistema informático a grandes distancias a través de líneas de comunicaciones de diferentes tipos), en general, los sistemas informáticos se dividen físicamente en la unidad central del sistema y los periféricos que permiten conectarlo al mundo exterior.

La Unidad Central del Sistema es un habitáculo en forma de caja donde se sitúa el « cerebro» de la computadora, esto es, la unidad central de proceso(CPU), así como los distintos componentes que van a ayudar al sistema informático en sus operaciones habituales (bus, memorias, fuentes dealimentación eléctrica, etcétera).