Organización y Arquitectura de Computadoras
En el diseño conceptual de la estructura operacional fundamental de un sistema de computadoras, es crucial describir la funcionalidad, los requerimientos y las implementaciones de diseño para varias partes de una computadora.
Se debe prestar especial atención a la CPU debido a las asignaciones de memoria.
La competencia específica de diseño y desarrollo reside en describir los fundamentos de la estructura y el funcionamiento de las computadoras. Por lo tanto, siempre deben mejorarse las estrategias que mejoren el rendimiento y el control del hardware.
Estructura y Funcionamiento
El computador es un sistema complejo. Los ordenadores de hoy en día contienen millones de componentes electrónicos, que se pueden identificar de acuerdo a su jerarquía. El comportamiento en cada nivel depende de sólo una característica abstracta y simplificada del sistema. Cada nivel tiene estructura y funcionamiento.
Definición de estructura: El modo en que los componentes están interrelacionados.
Funcionamiento: La operación de cada componente individual como parte de la estructura.
La estructura del funcionamiento consiste en cuatro términos generales:
- Procesamiento de datos
- Almacenamiento de datos
- Transferencia de datos
- Control
El computador debe ser capaz de procesar datos. Los datos pueden adoptar gran variedad de formatos y unos pocos métodos para el procesamiento de datos.
Almacenamiento de Datos
Una ordenador está procesando datos al vuelo, es decir que se introducen, se procesan y los resultados obtenidos son inmediatos. Por lo tanto, el ordenador tiene una función de almacenamiento a largo plazo.
Transferencia de Datos
El transcribir datos se refiere de máquina a máquina o con el mundo exterior. El proceso de transferir datos a largas distancias recibe el nombre de comunicación de datos.
Control
El control es ejercido por las instrucciones y el número de operaciones posibles tanto en el almacenamiento como en la transferencia de datos.
Estructura
Unidad central de procesamiento (CPU) controla el funcionamiento del computador y lleva a cabo sus funciones de procesamiento y lo llamamos comúnmente procesador.
La representación más sencilla posible de un computador
Entrada:
- Biométricos
- Pantalla táctil
- Ratón
- Teclado
- Cámara
- Micrófono
- Escáner
Periférico de salida:
- Altavoz
- Proyector
- Impresora
- Pantalla
- Audífono
- Dispositivo de vibración
Sus principales componentes estructurales son:
- Unidad de control: Controla el funcionamiento de la CPU y por tanto del computador.
- Unidad aritmético lógico (ALU): Lleva a cabo las funciones de procesamiento de datos del computador.
- Registros: Proporciona almacenamiento interno a la CPU.
- Interconexiones CPU: Son mecanismos que proporcionan comunicación entre la unidad de control, la ALU y los registros.
¿Por qué estudiar la organización y arquitectura de las computadoras?
El Instituto de Ingenieros Eléctricos y Electrónicos es la mayor organización profesional técnica del mundo que agrupa más de 420 ingenieros científicos tecnólogos y profesionales en más de 160 países que se dedican al avance en la innovación.
Citan lo siguiente… la arquitectura de computadores como uno de los temas troncales que debe estar en todos los currículos de todos los estudiantes de licenciatura en ingeniería informática.
El informe dice:
El computador está en el corazón de la informática. Sin él la mayoría de las asignaturas de informática serían hoy una rama de la matemática teórica. Para hacer hoy un profesional en cualquier campo de la informática uno no debe ver al computador como una caja negra que ejecuta programas mágicamente. Todos los estudiantes de informática deben en cierta medida comprender y valorar los componentes funcionales de un computador sus características su funcionamiento y sus interacciones también sus implicaciones prácticas. Los estudiantes necesitan comprender la arquitectura del computador para estructurar un programa de forma que éste sea más eficiente en una máquina real. Seleccionando el sistema que se va a usar debe ser capaz de comprender el compromiso entre varios componentes como la velocidad del reloj de la CPU frente al tamaño de la memoria.
Charles Babbage
Fue un matemático e inventor e ingeniero británico del siglo XIX. Es conocido como el padre de la computación debido a su trabajo pionero en el diseño de máquinas analíticas como la máquina analítica de Babbage que se considere el primer diseño de un computadora programable mecánica. Aunque su máquina nunca se construyó durante su vida, sentó las bases conceptuales para la informática moderna.
Ada Lovelace, por otro lado, fue una matemática y escritura británica del siglo XIX conocida como la primera programadora debido a su colaboración con Charles Babbage en la máquina analítica. Escribió el primer algoritmo destinado a ser procesado por una máquina, lo que la convierte en una figura clave en la historia de la informática y la programación.
Desarrollo histórico de las computadoras
Entre 1279 a 1368 dinastía mongol Joan. Al principio el hombre la tendencia de poder crear la máquina que le puede ayudar en los labores diarios más que todo en los que requería mucho cálculo aritmético.
Trataron distintas maneras e inventaron interesantes artefactos como el ábaco.
En 1622 William Oughtred creó una herramienta el uso fundamental de los logaritmos es facilitar el cálculo de multiplicaciones y divisiones reduciendo a la suma y resta de sus logaritmos.
Buscando en estos resultados Oughtred inventó la regla de cálculo podía calcular logaritmos.
En 1642 apareció un hombre llamado Blaise Pascal que inventó un artefacto llamado la pasqualina.
Este aparato podía sumar y restar funcionaba a base de engranajes numerados del cero al 9 cuando el primer engranaje daba una vuelta entera éste hacía que el siguiente engranaje cambie un solo número de esa manera podía usar números de muchos dígitos.
En 1833 Charles Babbage él dio un gran aporte por quien inventó un artefacto llamado la máquina de diferencias este interesante invento podría sumar restar multiplicar y dividir.
En 1890 German Hollerith propuso la idea de usar tarjetas perforadas como vio que las máquinas de diseño de ropa eran controladas con una tarjeta perforada de diferentes diseñó en ese entonces trató de usarlas para proporcionar información a una máquina de censo.
En 1964 Leibniz creó una máquina llamada sistema de Leibniz que podía multiplicar y dividir además de las funciones de sumar y restar.
Este artefacto también era mecánico también tenía casi el mismo funcionamiento de La Paz kalina solo que este tenía más piezas.
La primera generación (1938 a 1958)
En 1944 apareció la primera computadora electromecánica universal la Mark-I por IBM.
Le tomaba 6 segundos para efectuar una multiplicación y 12 segundos para una división era una computadora que estaba basada en rieles tenía aproximadamente 3000 con 800 km de cable con dimensiones de 17 m de largo 3 m de alto y 1 m de profundidad. A Mark-I posteriormente se le fueron haciendo mejoras obteniéndose el Mark-II, Mark-III y Mark-IV.
En 1946 apareció la primera computadora electrónica llamada ENIAC por John William Mauchly y John Presper Eckert a la cual se le llamó así porque funcionaba con tubos al vacío esta computadora era 1500 veces más rápida que la Mark-I así podía efectuar 5000 sumas o 500 multiplicaciones en 1 segundo y permitía el uso de aplicaciones científicas en astronomía meteorología.
En 1952 basado en el modelo de Bonn Newman apareció la computadora EDVAC por IBM que cumplía con todas las especificaciones propuestas por el matemático manejaba el sistema binario.
La segunda generación (1959 1964)
En esta generación las computadoras eran lentas porque ya no usaban las tarjetas perforadas para almacenar la información sino en estas ya usaban discos y cintas magnéticas.
En esta generación aparece la primera computadora con transistores y sustituyeron a las computadoras que funcionaban con tubos al vacío.
Entonces se idea un modelo de procesamiento conocido con el nombre de procesamiento por lotes (batch) bajo este modelo se podían efectuar operaciones de entrada y salida de datos simultáneamente con el proceso de cálculo de la computadora CPU.
Esta información era almacenada en cintas magnéticas hasta que el computador se desocupara y pudiera procesar la información los resultados eran impresos.
Ya me canse o son la implantación de este modelo requería un computador
auxiliar que controlará la entrada y salida de información así como la interacción con el computador principal.
- Cobol
- Assembler
- Fortran
la tercera generación 1965 1971
en esta generación ya se pudo hacer uso del material silicio se empleó en los transistores ya que podían ser equipados con una infinidad de componentes en un solo transistor su tamaño era tan pequeño como de 1 cm * 2 cm un transistor.
Esto ayudó de gran manera porque la velocidad aumentaba también la memoria y rebajaba el costo.
- IBM 360
- disquete de 8 pulgadas
- unix lenguage b
La cuarta generación 1972 1981
microprocesador de silicio
silicon valley primer virus y primer antivirus
- 1975 inicia Microsoft corp
- 1976 inicia Apple computer corp steve jobs steve Wozniak
- 1978 procesador de texto Word start micropro
- 1980 alphabet inc dueña de Google llc
lenguaje c
origen de internet
en 1978 la empresa Apple presenta lisa
la quinta generación 1982 1989
1982 se desarrolló D.O.S.
1984 macintosh el primero con mouse e interfaz gráfica
la sexta generación 1990 1999
multiprocesamiento e interconectividad
en 1990 timothy y john berners lee conocido como tim berners lee es un científico de la computación británica conocido por ser el padre de la world wide web
- Html
- HTTP
- URL
la séptima generación 2000 presente
red de fibra óptica intercontinental
velocidades altas de internet
uso de inteligencia artificial en diferentes áreas
qué nos dice la ley moore?
La ley de moore fue desarrollada por el ingeniero gordon moore en 1965 cuando era director de los laboratorios fairchild semiconductor aunque como sabéis posteriormente fue el cofundador de Intel.
Él fue el primero en observar una tendencia en los primeros días de la microelectrónica que definiría la estrategia a seguir por todos los fabricantes de la industria en cuanto a la carencia de integración de transistores en los circuitos integrados.
Inicialmente el enunciado afirmaba que el número de transistores por unidad de superficie en circuitos integrados se duplicará cada año aunque unos años más tarde en 1975 modificó su propia ley para aumentar esta cadencia a cada 2 años.
Número de transistores
equivocadamente mucha gente cree que este periodo es de 18 meses debido a que el ejecutivo de intel David house hizo tal afirmación pero hay que tener en cuenta que ese dato no formula parte de la ley de moore.
Por qué es tan importante para el hardware?
Lógicamente para que esto sea posible es necesario reducir el tamaño de los transistores ya que de lo contrario no podríamos meter el doble de cantidad donde no hay espacio para hacerlo ya que recordemos la ley sostiene que la superficie siempre la misma aunque en realidad no tiene por qué es una relación de cantidad de transistores por una unidad de superficie.
Modelo de von Newman intel x 86 power pc sparks mips arquitectura
en general todas las computadoras tienen la misma arquitectura pero en la actualidad por sus diseños son afectadas en la calidad de sus componentes. En caso particular las siguientes computadoras tratan los elementos de forma diferente los programadores de bajo nivel
los programadores de bajo nivel ejercen un control directo sobre el hardware y están condicionados por la parte física de las computadoras que lo soportan.
Esto es aumentado la cantidad de instrucciones para el hardware
las computadoras en los años 70 como:
intel 8080, Motorola 6800, digital vax, ibm 370
disponían de cientos de instrucciones y soportaban por hardware instrucciones tales como la comparación se pensaba que la potencia estaba en el hardware.