El Origen de la Informática
La informática, término acuñado por Phillipe Dreyfus en Francia en 1962 y aceptado por la Academia Francesa en 1966 (y en España en 1968), proviene de la palabra francesa informatique.
La Real Academia Española la define como el conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.
Conceptualmente, se puede entender como la disciplina encargada del estudio de métodos, procesos, técnicas y desarrollo de computadoras con el fin de almacenar, procesar y transmitir información y datos en formato digital.
Definición de Informática
La informática se refiere al procesamiento automático de información mediante dispositivos electrónicos y sistemas computacionales. Estos sistemas deben cumplir tres tareas básicas:
- Entrada (captación de la información)
- Procesamiento
- Salida (transmisión de los resultados)
El conjunto de estas tres tareas se conoce como algoritmo. La informática reúne muchas de las técnicas desarrolladas para potenciar las capacidades de pensamiento, memoria y comunicación. Su aplicación es ilimitada: gestión de negocios, almacenamiento de información, control de procesos, comunicaciones, transporte, medicina, etc. Abarca también fundamentos de las ciencias de la computación: programación, arquitectura de computadoras, hardware, redes (como internet) e inteligencia artificial. Incluso se aplica en electrónica.
También se define como la ciencia enfocada al estudio de las necesidades de información, de los mecanismos y sistemas para producirla y aplicarla, de la existencia de insumos y de la integración de los elementos informativos necesarios para comprender una situación.
El IBI (Oficina Intergubernamental para la Informática) la define como: «La aplicación racional y sistemática de la información en los problemas económicos, sociales y políticos»; y como la «ciencia de la política de la información».
Generaciones y Tecnologías de la Computación
El avance tecnológico de las computadoras desde principios del siglo XX ha sido sorprendente. Nuevos dispositivos electrónicos, avances en programación y desarrollo de sistemas operativos, marcan las diferentes generaciones de computadoras.
Primera Generación
Computadoras con relés electromecánicos (como la MARK I) o tubos de vacío (como la ENIAC). Eran enormes, con poca capacidad de almacenamiento (la ENIAC almacenaba 1kB), alto consumo energético y generaban mucho calor. La entrada de datos era por tarjetas perforadas y la programación en lenguaje máquina o binario. Los trabajos pioneros se remontan a la máquina analítica de Babbage. Esta etapa finaliza en la década de 1950 con el descubrimiento del transistor en 1947.
Segunda Generación
Uso de transistores, entrada de datos por tarjetas o cintas perforadas. Avances como la primera computadora transistorizada (TRADIC en 1954) y el desarrollo de lenguajes de alto nivel como FORTRAN (1957) y LISP (1958). También se crea COBOL (1959-1960). Las memorias de ferrita redujeron el tamaño y consumo energético. Supercomputadoras de la época: Remington Rand UNIVAC LARC e IBM Stretch (1961).
Tercera Generación
Integración de transistores en microcircuitos (LSI), lenguajes de alto nivel y sistemas operativos. El descubrimiento del circuito integrado (chip) en 1958 por Jack S. Kilby y los trabajos de Robert Noyce impulsaron esta generación. IBM lanza la IBM 360 en 1964 y Control Data Corporation la supercomputadora CD 6600. Se empieza a usar almacenamiento magnético (cintas y discos).
Cuarta Generación
Aparece el microprocesador en 1971 (Intel 4004). Avances rápidos: primeras microcomputadoras (Apple, Radio Shack, Commodore) en 1977 e IBM PC con MS-DOS. Desarrollo de sistemas operativos con interfaces gráficas de usuario.
Quinta Generación
Considerada entre 1984-1990 (o desde 1971-1984 junto con la cuarta). Hitos: primera supercomputadora con proceso paralelo (Seymour Cray, 1982) y el proyecto japonés «quinta generación» (1982-1992) enfocado en inteligencia artificial. Computadoras con microprocesadores en paralelo, reconocimiento de voz e imágenes. Almacenamiento magneto-óptico y DVD. Tecnologías VLSI y ULSI. Crecimiento de la conectividad y el Internet desde 1994.
Sexta Generación
Desde principios de los 90. Arquitecturas Paralelo/Vectorial, con cientos de microprocesadores vectoriales. Computadoras con capacidad de teraflops. Redes de área mundial (WAN) con fibra óptica y satélites.
Computación
La computación es el estudio científico de sistemas automatizados de manejo de información, utilizando herramientas específicas. Conceptos relacionados: PC, tecnología, internet e informática. La computación se origina en 1920, cuando se refería a cálculos hechos por personas. Con la llegada de las PC, el concepto evolucionó hacia el procesamiento de información mediante algoritmos y lenguajes de programación.
Diferencias entre Informática y Computación
La computación es el estudio científico de sistemas automatizados de manejo de información. Se refiere a la tecnología para el manejo y movilidad de información, a los fundamentos teóricos y a las implementaciones en sistemas computacionales.
La informática se encarga del tratamiento automático de la información, lo que ha permitido a la computación manipular grandes cantidades de datos y realizar cálculos complejos. También se ocupa del software, hardware y estructura de las computadoras.
En resumen, la informática utiliza la computación.