Historia y Evolución de la Computación: Desde sus Orígenes hasta la Actualidad

El Origen de la Informática

La informática, término acuñado por Phillipe Dreyfus en Francia en 1962 y aceptado por la Academia Francesa en 1966 (y en España en 1968), proviene de la palabra francesa informatique.

La Real Academia Española la define como el conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.

Conceptualmente, se puede entender como la disciplina encargada del estudio de métodos, procesos, técnicas y desarrollo de computadoras con el fin de almacenar, procesar y transmitir información y datos en formato digital.

Definición de Informática

La informática se refiere al procesamiento automático de información mediante dispositivos electrónicos y sistemas computacionales. Estos sistemas deben cumplir tres tareas básicas:

  • Entrada (captación de la información)
  • Procesamiento
  • Salida (transmisión de los resultados)

El conjunto de estas tres tareas se conoce como algoritmo. La informática reúne muchas de las técnicas desarrolladas para potenciar las capacidades de pensamiento, memoria y comunicación. Su aplicación es ilimitada: gestión de negocios, almacenamiento de información, control de procesos, comunicaciones, transporte, medicina, etc. Abarca también fundamentos de las ciencias de la computación: programación, arquitectura de computadoras, hardware, redes (como internet) e inteligencia artificial. Incluso se aplica en electrónica.

También se define como la ciencia enfocada al estudio de las necesidades de información, de los mecanismos y sistemas para producirla y aplicarla, de la existencia de insumos y de la integración de los elementos informativos necesarios para comprender una situación.

El IBI (Oficina Intergubernamental para la Informática) la define como: «La aplicación racional y sistemática de la información en los problemas económicos, sociales y políticos»; y como la «ciencia de la política de la información».

Generaciones y Tecnologías de la Computación

El avance tecnológico de las computadoras desde principios del siglo XX ha sido sorprendente. Nuevos dispositivos electrónicos, avances en programación y desarrollo de sistemas operativos, marcan las diferentes generaciones de computadoras.

Primera Generación

Computadoras con relés electromecánicos (como la MARK I) o tubos de vacío (como la ENIAC). Eran enormes, con poca capacidad de almacenamiento (la ENIAC almacenaba 1kB), alto consumo energético y generaban mucho calor. La entrada de datos era por tarjetas perforadas y la programación en lenguaje máquina o binario. Los trabajos pioneros se remontan a la máquina analítica de Babbage. Esta etapa finaliza en la década de 1950 con el descubrimiento del transistor en 1947.

Segunda Generación

Uso de transistores, entrada de datos por tarjetas o cintas perforadas. Avances como la primera computadora transistorizada (TRADIC en 1954) y el desarrollo de lenguajes de alto nivel como FORTRAN (1957) y LISP (1958). También se crea COBOL (1959-1960). Las memorias de ferrita redujeron el tamaño y consumo energético. Supercomputadoras de la época: Remington Rand UNIVAC LARC e IBM Stretch (1961).

Tercera Generación

Integración de transistores en microcircuitos (LSI), lenguajes de alto nivel y sistemas operativos. El descubrimiento del circuito integrado (chip) en 1958 por Jack S. Kilby y los trabajos de Robert Noyce impulsaron esta generación. IBM lanza la IBM 360 en 1964 y Control Data Corporation la supercomputadora CD 6600. Se empieza a usar almacenamiento magnético (cintas y discos).

Cuarta Generación

Aparece el microprocesador en 1971 (Intel 4004). Avances rápidos: primeras microcomputadoras (Apple, Radio Shack, Commodore) en 1977 e IBM PC con MS-DOS. Desarrollo de sistemas operativos con interfaces gráficas de usuario.

Quinta Generación

Considerada entre 1984-1990 (o desde 1971-1984 junto con la cuarta). Hitos: primera supercomputadora con proceso paralelo (Seymour Cray, 1982) y el proyecto japonés «quinta generación» (1982-1992) enfocado en inteligencia artificial. Computadoras con microprocesadores en paralelo, reconocimiento de voz e imágenes. Almacenamiento magneto-óptico y DVD. Tecnologías VLSI y ULSI. Crecimiento de la conectividad y el Internet desde 1994.

Sexta Generación

Desde principios de los 90. Arquitecturas Paralelo/Vectorial, con cientos de microprocesadores vectoriales. Computadoras con capacidad de teraflops. Redes de área mundial (WAN) con fibra óptica y satélites.

Computación

La computación es el estudio científico de sistemas automatizados de manejo de información, utilizando herramientas específicas. Conceptos relacionados: PC, tecnología, internet e informática. La computación se origina en 1920, cuando se refería a cálculos hechos por personas. Con la llegada de las PC, el concepto evolucionó hacia el procesamiento de información mediante algoritmos y lenguajes de programación.

Diferencias entre Informática y Computación

La computación es el estudio científico de sistemas automatizados de manejo de información. Se refiere a la tecnología para el manejo y movilidad de información, a los fundamentos teóricos y a las implementaciones en sistemas computacionales.

La informática se encarga del tratamiento automático de la información, lo que ha permitido a la computación manipular grandes cantidades de datos y realizar cálculos complejos. También se ocupa del software, hardware y estructura de las computadoras.

En resumen, la informática utiliza la computación.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.