Tecnología de la información

La tecnología de la información (TI) es la aplicación de ordenadores y equipos de telecomunicación para almacenar, recuperar, transmitir y manipular datos, con frecuencia utilizado en el contexto de los negocios u otras empresas. El término es utilizado como sinónimo para los computadores, y las redes de computadoras, pero también abarca otras tecnologías de distribución de información, tales como la televisión y los teléfonos. Múltiples industrias están asociadas con las tecnologías de la información, incluyendo hardware y software de computador, electrónica, semiconductores, internet, equipos de telecomunicación, e-commerce y servicios computacionales.

Frecuentemente los términos TI y TIC suelen ser confundidos en su uso, mientras que TI refiere a tecnologías de la información, TIC implica además, aquellas destinadas a la comunicación. De esta forma, el término TI es un término más amplio y abarca a las TIC. "Las TI abarcan el dominio completo de la información, que incluye al hardware, al software, a los periféricos y a las redes. Un elemento cae dentro de la categoría de las TI cuando se usa con el propósito de almacenar, proteger, recuperar y procesar datos electrónicamente".[1]

Los humanos han estado almacenando, recuperando, manipulando y comunicando información desde que los sumerios en Mesopotamia desarrollaran la escritura cerca del 3000 a. C., pero el término tecnología de la información en su significado moderno hizo su primera aparición en 1958 en un artículo publicado en la revista Harvard Business Review; sus autores Harold J. Leavitt y Thomas L. Whisler comentaron que “la nueva tecnología no tiene aún un nombre establecido. Deberíamos llamarla tecnología de la información (TI)”. Su definición consistía en tres categorías: técnicas de procesamiento, la aplicación de métodos estadísticos y matemáticos para la toma de decisión, y la simulación del pensamiento de orden superior a través de programas computacionales.[2]

Basándose en la tecnología de almacenamiento y procesamiento empleada, es posible distinguir cuatro eras del desarrollo de TI: pre-mecánica (3000 a. C.-1450 d. C.), mecánica (1450-1840), electromecánica (1840-1940) y electrónica (1940-al presente).[3]

Historia de la informática

Antes de empezar con la historia debemos conocer la definición de informática. Informática se puede definir como la ciencia que se encarga del estudio de la obtención de información por medios automáticos. Para entender mejor esta definición hace falta conocer lo que entiende por información, datos y medios automáticos. Los datos los podemos entender como el conjunto de elementos a través de indicaciones, que se deben dar a cierta máquina para que los procese y nos de un resultado. La información será el conjunto de datos y los resultados que nos da la máquina. Un medio automático lo podemos entender como una máquina capaz, por ella sola, de elaborar o procesar una cierta información sobre la base de unos ciertos datos de entrada que nos condicionarán los resultados del procesamiento de esta.[4]

Han sido utilizados dispositivos para asistir a la computación durante miles de años, iniciando probablemente con el palo tallado. El mecanismo de Anticitera, que data cerca del comienzo del primer siglo a. C., es considerado generalmente como la computadora análoga más antigua descubierta, y el más antiguo mecanismo de engranaje. Dispositivos de engranaje comparables no surgieron en Europa hasta el siglo XVI, y no fue hasta 1645 cuando se inventó la primera calculadora mecánica capaz de realizar las cuatro operaciones aritméticas básicas.

Las computadoras electrónicas, usando tanto relés como válvulas, comenzaron a aparecer a comienzos de la década de 1940. La electromecánica Zuse Z3, terminada en 1941, fue la primera computadora programable del mundo, y, según los estándares modernos, una de las primeras máquinas que podrían ser consideradas de cómputo completa. Colossus, desarrollada durante la Segunda Guerra Mundial para desencriptar mensajes alemanes, fue la primera computadora electrónica digital. Aunque era programable, no era de uso general, habiendo sido diseñada para realizar una única tarea. Carecía además de la capacidad de almacenar su programa en una memoria; su programación se realizaba usando enchufes e interruptores para alterar su cableado interno. La primera computadora de programas almacenados electrónica digital reconocible fue la Máquina Experimental de Pequeña Escala de Mánchester (SSEM por su nombre en inglés: Manchester Small-Scale Experimental Machine), que ejecutó su primer programa el 21 de junio de 1948.

El desarrollo de los transistores a finales de la década de 1940 en los Laboratorios Bell permitió una nueva generación de computadoras diseñadas con un consumo de energía reducido considerablemente. La primera computadora de programa almacenado disponible comercialmente, la Ferranti Mark I, contenía 4050 válvulas y tenía un consumo energético de 25 kilowatts. En comparación, la primera computadora transistorizada, desarrollada en la Universidad de Mánchester y operacional en noviembre de 1953, consumía solo 150 watts en su versión final.