República Bolivariana de Venezuela
Ministerio del Poder Popular Para la Educación
Universidad Nacional Experimental Rafael María Baralt
Cabimas Edo Zulia
Introducción a la informática
Términos básicos
Realizado por:
Álvarez Mosquera
Maibelin Alejandra
C.I: 30.423.360
Sección: 33112
Profesora: Noranyelit
Índice
Parte I Introducción a la Informática
1. Historia del computador
2. Generaciones del computador
3. Que es la introducción a la informática
4. Que nos permite realizar la informática
5. Cuáles son los antecedentes de la informática
Parte II Términos Básicos
1. Sistemas
2. Computador
3. Tipos de computadoras
4. Datos
5. Información
6. Sistema de información
7. Algoritmo
8. Diagrama de flujo
9. Hardware
10. Software
11. Tipos de software
12. Bit
13. Byte
14. Inteligencia artificial
15. Lenguaje de programación
16. Organización
17. Archivos
18. Tecnología
19. Innovación
20. Virus informático
Parte I
Desarrollo
1. Historia del computador
La historia del computador inicia con la creación de las primeras herramientas
para calcular y procesar datos, tales como, el ábaco, la Pascalina, la maquina
diferencial y los programas de tarjetas perforadas. Esta evolución del
procesamiento de datos llevo a la creación de las primeras computadoras como
el Colossus de Tommy Flowers y la ENIAC de la Universidad de Pensilvania.
Con el paso del tiempo la computadora a travesó varias modificaciones que la
hicieron más pequeña, veloz, practica y económica. Esto llevo al surgimiento
de los computadores de segunda generación o computadoras personales, las
cuales fueron gestionas y perfeccionadas por compañías como Microsoft y
Apple, entre otras. En el trascurso de los últimos años la computadora se ha
convertido en una las herramientas más usadas por el hombre, por lo que
actualmente existen diversos tipos ordenadores adaptados a las necesidades
del humano.
Inicios
Después de que fueran creadas las primeras herramientas para el cálculo y el
procesamiento de datos en las civilizaciones antiguas (Egipto, China, Grecia,
etc.), el hombre continuó gestando nuevas herramientas que le permitieran
calcular y recolectar datos de manera práctica y sencilla, pero ante todo
funcional. Uno de los primeros avances desde la creación del ábaco, fue la
Pascalina, máquina que fue creada por Blaise Pascal en 1642. Esta constaba
de una serie de engranajes, los cuales al girar ejecutaban operaciones
aritméticas. Esta máquina es considerada la precursora de
las calculadoras mecánicas. Años más tarde este invento fue perfeccionado
por Gottfried Wilhelm Leibniz, quien además inventaría una máquina para
multiplicar.
Ya en la década de 1880, los avances en materia de procesamiento de datos
llegaron a un nuevo nivel con el surgimiento de los programas de tarjetas
perforadas, idea que nació de la necesidad de procesar los datos que se
conseguirían en el censo poblacional de Estados Unidos de 1890. Este
sistema creado por el estadístico estadounidense Herman Hollerith, utilizaba
una serie de tarjetas horadadas, las cuales pasaban por un sistema con
contactos eléctricos. Pocos años antes de la creación de las tarjetas, el
matemático Charles Babbage concibió los principios de la computadora al
diseñar su máquina diferencial
(hacia 1821), una calculadora que realizaba complejas operaciones
aritméticas. Con el paso del tiempo esta atravesó varias modificaciones, dando
paso a la maquina analítica, dispositivo que muchos historiadores consideran la
base de las computadoras modernas.
Primeros ordenadores
Los primeros ordenadores analógicos empezaron a construirse en las primeras
décadas del siglo XX. Estos modelos realizaban difíciles operaciones
aritméticas mediante una serie de ejes y engranajes giratorios. Fueron
comúnmente utilizados en las dos guerras mundiales (I y II), para calcular la
trayectoria de los torpedos en barcos y submarinos; asimismo se le uso para
manejar la distancia de las bombas lanzadas por los aviones. En el trascurso
de la Segunda Guerra Mundial (1939-1945), un grupo de científicos y
matemáticos que trabajaban Bletchley Park, crearon el primer ordenador
digital. Este sistema fue diseñado por Tommy Flowers y contó con la
participación de los matemáticos Marian Rejewski y Alan Turing, quienes a
través de los sistemas del Colossus consiguieron descifrar los mensajes
trasmitidos por las tropas alemanas. Hecho que favoreció al bando de los
aliados (Inglaterra, Estados Unidos, URSSS y Francia).
Durante la guerra fueron creadas varios prototipos del Colossus, como el
Colossus Mark II (1944). Por ese mismo periodo fueron creadas
las computadoras Z3 y Z4 de Konrad Zuse y la Harvard Mark I (1944), de la
universidad de Harvard. Otro avance gestado en este periodo fue la ENIAC
(Electronic Numerical Integrator And Computer, 1946), computadora que
constaba de 18.000 válvulas de vacío y podía realizar cálculos a gran
velocidad. A finales de los cincuentas el uso del transistor en los computadores
dio paso a la aparición de los elementos lógicos y sistemas más pequeños,
veloces y versátiles. Al ser dejadas de lado las válvulas por los transistores, se
crearon los primeros computadores de segunda generación, los cuales tenían
componentes más pequeños y su fabricación era más barata.
Para finales de los sesentas fue introducido el circuito integrado o Chip,
dispositivo que permitió la reducción en el coste, el tamaño y el porcentaje de
error. Años más tarde este daría paso al microprocesador (1970), el circuito de
integración a gran escala (LSI) y el circuito de integración a mayor escala
(VLSI). Gracias a estos las computadoras entraron en una era de avances y
modificaciones liderados por compañías como Microsoft, Apple, Intel, Hewlett-
Packard (HP), Dell, Toshiba y Lenovo, entre otros. En los ochentas los avances
en el campo de la computación llevarían a la introducción de las computadoras
portátiles
, tales como, la Epson HX- 20 (1981), el Osborne 1 (1981) y la Microtor I
(1985). Con el paso del tiempo los portátiles atravesaron varias modificaciones,
las cuales llevaron al surgimiento de la Desknote (2005) y el PC 2-en-1 o
Laptop 2-en-1, cuyo modelo más conocido es la Lenovo Yoga.
De manera paralela al surgimiento de las portátiles, el computador continuó
experimentando diversos cambios internos y externos, los cuales tenían como
objetivo mejorar su funcionamiento. Los computadores fueron estilizándose y
adaptándose cada vez más a las necesidades del humano, es por esto que
existen gamas especiales para cada tipo de persona. En el mercado actual
pueden encontrarse ordenadores con características especiales para el diseño,
los juegos y el área administrativa. Se espera que, con el paso de los años, las
computadoras sufran más modificaciones, dando paso a una novena o décima
generación.
2. Generaciones del computador
Primera Generación (1951-1958)
En esta generación había un gran desconocimiento de las
capacidades de las computadoras, puesto que se realizó un estudio
en esta época que determinó que con veinte computadoras se
saturaría el mercado de los Estados Unidos en el campo de
procesamiento de datos. Esta generación abarco la década de los
cincuenta. Y se conoce como la primera generación. Estas
máquinas tenían las siguientes características:
Usaban tubos al vacío para procesar información.
Usaban tarjetas perforadas para entrar los datos y los programas.
Usaban cilindros magnéticos para almacenar información e instrucciones
internas.
Eran sumamente grandes, utilizaban gran cantidad de electricidad,
generaban gran cantidad de calor y eran sumamente lentas.
Se comenzó a utilizar el sistema binario para representar los datos.
En esta generación las máquinas son grandes y costosas (de un costo
aproximado de 10,000 dólares).
La computadora más exitosa de la primera generación fue la IBM 650, de la
cual se produjeron varios cientos. Esta computadora que usaba un esquema de
memoria secundaria llamado tambor magnético, que es el antecesor de los
discos actuales.
Segunda Generación (1958-1964)
En esta generación las computadoras se reducen de tamaño
y son de menor costo. Aparecen muchas compañías y las
computadoras eran bastante avanzadas para su época
como la serie 5000 de Burroughs y la ATLAS de la
Universidad de Manchester. Algunas computadoras se
programaban con cinta perforadas y otras por medio de
cableado en un tablero.
Características de esta generación:
Usaban transistores para procesar información.
Los transistores eran más rápidos, pequeños y más confiables que los
tubos al vacío.
200 transistores podían acomodarse en la misma cantidad de espacio que
un tubo al vacío.
Usaban pequeños anillos magnéticos para almacenar información e
instrucciones. cantidad de calor y eran sumamente lentas.
Se mejoraron los programas de computadoras que fueron desarrollados
durante la primera generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y
FORTRAN, los cuales eran comercialmente accesibles.
Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas,
control del tráfico aéreo y simulaciones de propósito general.
La marina de los Estados Unidos desarrolla el primer simulador de vuelo,
"Whirlwind I".
Surgieron las minicomputadoras y los terminales a distancia.
Se comenzó a disminuir el tamaño de las computadoras.
Tercera Generación (1964-1971)
La tercera generación de computadoras emergió con el
desarrollo de circuitos integrados (pastillas de silicio) en las
que se colocan miles de componentes electrónicos en una
integración en miniatura. Las computadoras nuevamente se
hicieron más pequeñas, más rápidas, desprendían menos
calor y eran energéticamente más eficientes. El ordenador
IBM-360 dominó las ventas de la tercera generación de
ordenadores desde su presentación en 1965. El PDP-8 de la
Digital Equipment Corporation fue el primer miniordenador.
Características de esta generación:
Se desarrollaron circuitos integrados para procesar información.
Se desarrollaron los "chips" para almacenar y procesar la información. Un
"chip" es una pieza de silicio que contiene los componentes electrónicos en
miniatura llamados semiconductores.
Los circuitos integrados recuerdan los datos, ya que almacenan la
información como cargas eléctricas.
Surge la multiprogramación.
Las computadoras pueden llevar a cabo ambas tareas de procesamiento o
análisis matemáticos.
Emerge la industria del "software".
Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
Otra vez las computadoras se tornan más pequeñas, más ligeras y más
eficientes.
Consumían menos electricidad, por lo tanto, generaban menos calor.
Cuarta Generación (1971-1988)
Aparecen los microprocesadores que es un gran adelanto de
la microelectrónica, son circuitos integrados de alta densidad
y con una velocidad impresionante. Las microcomputadoras
con base en estos circuitos son extremadamente pequeñas y
baratas, por lo que su uso se extiende al mercado industrial.
Aquí nacen las computadoras personales que han adquirido
proporciones enormes y que han influido en la sociedad en
general sobre la llamada "revolución informática".
Características de esta generación:
Se desarrolló el microprocesador.
Se colocan más circuitos dentro de un "chip".
"LSI - Large Scale Integration circuit".
"VLSI - Very Large Scale Integration circuit".
Cada "chip" puede hacer diferentes tareas.
Un "chip" sencillo actualmente contiene la unidad de control y la unidad de
aritmética/lógica. El tercer componente, la memoria primaria, es operado
por otros "chips".
Se reemplaza la memoria de anillos magnéticos por la memoria de "chips"
de silicio.
Se desarrollan las microcomputadoras, o sea, computadoras personales o
PC.
Se desarrollan las supercomputadoras.
Quinta Generación (1983 al presente)
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial
se ha dado a la tarea de poner también a esa altura el desarrollo del software y
los sistemas con que se manejan las computadoras. Surge la competencia
internacional por el dominio del mercado de la computación, en la que se
perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se
desea: la capacidad de comunicarse con la computadora en un lenguaje más
cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de
computadoras", con los objetivos explícitos de producir máquinas con
innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya
está en actividad un programa en desarrollo que persigue objetivos
semejantes, que pueden resumirse de la siguiente manera:
Se desarrollan las microcomputadoras, o sea, computadoras personales o
PC.
Se desarrollan las supercomputadoras.
3. Que es la introducción a la informática
La informática es la ciencia aplicada que abarca el estudio y aplicación del
tratamiento automático de la información utilizando dispositivos electrónicos y
sistemas computacionales. También está definida como el procesamiento
automático de la información.
Conforme a ello, los sistemas informáticos deben realizar las siguientes tres
tareas básicas:
Entrada: Captación de la información digital.
Proceso: Tratamiento de la información.
Salida: Transmisión de resultados binarios.
En los inicios del procesado de información, con la informática sólo se facilitaba
los trabajos repetitivos y monótonos del área administrativa, gracias a la
automatización de esos procesos, ello trajo como consecuencia directa una
disminución de los costes y un incremento en la producción.
En la informática convergen los fundamentos de las ciencias de la
computación, la programación y metodologías para el desarrollo de software, la
arquitectura de computadores, las redes de datos (como Internet), la
inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se
puede entender por informática a la unión sinérgica de todo este conjunto de
disciplinas.
Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la
actividad humana, como, por ejemplo: gestión de negocios, almacenamiento y
consulta de información, monitorización y control de procesos, industria,
robótica, comunicaciones, control de transportes, investigación, desarrollo de
juegos, diseño computarizado, aplicaciones/herramientas multimedia, medicina,
biología, física, química, meteorología, ingeniería, arte, etc. Una de la
aplicación más importante de la informática es proveer información en forma
oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de
decisiones a nivel gerencial (en una empresa) como permitir el control de
procesos críticos.
Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo
de la informática. Ésta puede cubrir un enorme abanico de funciones, que van
desde las más simples cuestiones domésticas, hasta los cálculos científicos
más complejos.
Entre las funciones principales de la informática se cuentan las siguientes:
1. Creación de nuevas especificaciones de trabajo.
2. Desarrollo e implementación de sistemas informáticos.
3. Sistematización de procesos.
4. Optimización de los métodos y sistemas informáticos existentes.
4. Que nos permite realizar la informática
La informática tiene como propósito clave el almacenamiento y la recuperación
de información, lo cual ha sido una de las preocupaciones clave de
la humanidad desde el inicio de los tiempos. En ese sentido, el primer sistema
de almacenamiento fue la escritura misma, que permitía codificar mensajes y
recuperarlos luego a través de marcas sobre una superficie.
Vista así, la informática ha llevado ese mismo principio al máximo, creando
sistemas y aparatos que almacenen, produzcan, transmitan y reproduzcan
información de manera masiva, eficiente y veloz. No en balde la
informática interviene hoy en día en prácticamente todos los demás campos del
saber de un modo o de otro.
La informática sirve para realizar tareas y análisis en base a los datos
almacenados, los cuales son procesados para obtener reportes que sirvan
para lo toma de decisiones, además de elaborar documentos,
enviar y/o recibir correo electrónico (email), realizar gráficos estadísticos,
manejar la información de una empresa, controlar procesos industriales,
etc. Siendo su objetivo principal automatizar todo tipo de información, para
poder automatizar tareas, aumentar la productividad
y eliminar errores humanos.
5. Cuáles son los antecedentes de la informática
La historia de la computación se remonta a la época de la aparición del hombre
en la faz de la tierra, y se origina en la necesidad que tenía éste de cuantificar a
los miembros de su tribu, los objetos que poseía, la cantidad de animales con
que contaba, etcétera. Cuando el hombre empezó a contar, utilizó los medios
que tenía a su alcance, como eran sus dedos, “piedritas”, trocitos de madera,
tablillas de arcilla o cordones anudados. La computación tiene como principal
objetivo computar o contar, y eso era precisamente lo que necesitaron hacer
aquellos primeros seres pensantes
Parte II
Desarrollo
1. Sistemas
En informática, se entiendo por un sistema a un conjunto de datos ordenados
conforme a una serie de instrucciones o algoritmos, que permiten su ubicación
y recuperación rápida y simple.
Eso es un sistema de información o informático, concepto que también
emplean otras ciencias de la información como la bibliotecología, pero que en
el caso de la informática está administrado de manera automática por
un computador.
2. Computador
Un computador, computadora u ordenador es una máquina digital programable,
de funcionamiento electrónico, capaz de procesar grandes cantidades
de datos a grandes velocidades. Así obtiene información útil que luego
presenta a un operador humano, o transmite a otros sistemas mediante redes
informáticas de distinto tipo.
La computadora es la herramienta más versátil, potente y revolucionaria que
el ser humano ha creado en su historia reciente. Representa el punto cumbre
de la Revolución industrial, científica y tecnológica que presenció el siglo XX
después de la Segunda Guerra Mundial.
Su presencia y popularización en nuestro tiempo no sólo cambió para siempre
el modo de procesar la información en el mundo, sino también la manera de
trabajar y concebir el trabajo, las formas de comunicarse a larga distancia, las
formas de ocio, y muchas otras áreas de la vida cotidiana.
Consisten fundamentalmente en un gran número de circuitos integrados,
componentes de apoyo y extensiones electrónicas. Sin embargo, las
computadoras han cambiado radicalmente a lo largo de su propia y
rápida historia, pasando de ser enormes e incómodas instalaciones, a ocupar
un lugar tan pequeño como el bolsillo de nuestros pantalones, en el caso de los
teléfonos inteligentes
3. Tipos de computadoras
Existen muy diversos tipos de computador, atendiendo a rasgos como su
tamaño, potencia y utilidad. Entre ellos, destacan:
Supercomputadoras. Los aparatos de mayor potencia del mundo son, en
realidad, conjuntos de computadoras distintas integrados en una sola
unidad, que pueden potenciarse de manera exponencial. La
supercomputadora más grande del mundo se encuentra en la Universidad
Nacional de Tecnología de Defensa de China, se llama Tianhe-2 y puede
realizar unos 33.48 mil billones de operaciones por segundo.
Mainframes. Se conocen también como macrocomputadoras, y suelen
tener un gran tamaño (al menos comparado con los computadores
portátiles) y hallarse en habitaciones cuidadosamente refrigeradas dentro
de las grandes empresas o instituciones de un país, en donde llevan a cabo
millones de cálculos y operaciones por segundo, alimentando redes y
sistemas computarizados enteros con información.
Computadoras personales (PCs). Unidades destinadas al uso de un solo
usuario a la vez, permitiéndole realizar muy diversas tareas, entre ellas
conectarse a una red informática y enviar y recibir datos a altas velocidades.
Poseen un microprocesador de potencia variable y son el tipo de
computadoras a los que podemos acceder comercialmente en cualquier
tienda de tecnología. Se les conoce también como computadoras de
escritorio.
Computadores portátiles (laptops, netbooks). Aunque se trata en efecto
de computadoras personales, a este tipo de aparatos los listamos aparte
porque se trata de piezas físicamente ligeras, diseñadas para su uso en
exteriores o para viajar con nosotros en un maletín. Aunque poseen menos
potencia que las PC, lo compensan en practicidad y movilidad.
Tabletas y celulares. La generación más reciente de artefactos
tecnológicos (gadgets) son esencialmente computadoras, aunque
destinadas a funciones distintas (generalmente más lúdicas o
de comunicaciones) y de un tamaño todavía menor a las portátiles. Los
celulares “inteligentes” son pequeñas pero potentes computadoras
dedicadas a las telecomunicaciones y la navegación por Internet, mientras
que las tabletas son pequeñas pantallas táctiles con funciones similares
4. Datos
En informática, los datos son representaciones simbólicas (vale decir:
numéricas, alfabéticas, algorítmicas, etc.) de un determinado atributo o variable
cualitativa o cuantitativa, o sea: la descripción codificada de un hecho empírico,
un suceso, una entidad.
Los datos son, así, la información (valores o referentes) que recibe
el computador a través de distintos medios, y que es manipulada mediante el
procesamiento de los algoritmos de programación. Su contenido puede ser
prácticamente cualquiera: estadísticas, números, descriptores, que por
separado no tienen relevancia para los usuarios del sistema, pero que en
conjunto pueden ser interpretados para obtener una información completa y
específica.
En los lenguajes de programación, empleados para crear y organizar los
algoritmos que todo sistema informático o computacional persigue, los datos
son la expresión de las características puntuales de las entidades sobre las
cuales operan dichos algoritmos. Es decir, son el input inicial, a partir del cual
puede procesarse y componerse la información.
Son particularmente importantes para la estructura de datos, rama de
la computación que estudia la forma particular de almacenaje de la información
en porciones mínimas para lograr una posterior recuperación eficiente.
5. Información
La información es un conjunto organizado de datos relevantes para uno o más
sujetos que extraen de él un conocimiento. Es decir, es una serie
de conocimientos comunicados, compartidos o transmitidos y que constituyen
por lo tanto algún tipo de mensaje. Sin embargo, su definición varía según
la disciplina o el enfoque desde el cual se la piense.
Por ejemplo, en la biología, se entiende como información al conjunto de
estímulos sensoriales que intercambian los seres vivientes, mientras que en
el periodismo la información es el conjunto de mensajes intercambiados por los
actores de una sociedad determinada. A esto podríamos añadir definiciones
provenientes de la informática, la cibernética o la termodinámica.
6. Sistema de información
Cuando se habla de un sistema de información (SI) se refiere a
un conjunto ordenado de mecanismos que tienen como fin la administración
de datos y de información, de manera que puedan ser recuperados y
procesados fácil y rápidamente.
Todo sistema de información se compone de una serie de recursos
interconectados y en interacción, dispuestos del modo más conveniente en
base al propósito informativo trazado, como puede ser recabar información
personal, procesar estadísticas, organizar archivos, etc. Estos recursos pueden
ser:
Recursos humanos. Personal de variada índole y destrezas.
Datos. Cualquier tipo de información masiva que precisa de organizarse.
Actividades. Procedimientos, pasos a seguir, estaciones de trabajo, etc.
Recursos informáticos. Aquellos determinados por la tecnología.
Se debe destacar que no es lo mismo un sistema de información que un
sistema informático, si bien estos últimos constituyan a menudo el grueso de
los recursos de un SI. Pero existen muchos otros métodos para los sistemas de
información, que no necesariamente pasan por la informática.
7. Algoritmo
En informática, un algoritmo es una secuencia de instrucciones secuenciales,
gracias al cual pueden llevarse a cabo ciertos procesos y darse respuesta a
determinadas necesidades o decisiones. Se trata de conjuntos ordenados y
finitos de pasos, que nos permiten resolver un problema o tomar una decisión.
Los algoritmos no tienen que ver con los lenguajes de programación, dado que
un mismo algoritmo o diagrama de flujo puede representarse en diversos
lenguajes de programación, es decir, se trata de un ordenamiento previo a
la programación.
Visto así, un programa no es otra cosa que una serie compleja de algoritmos
ordenados y codificados mediante un lenguaje de programación para su
posterior ejecución en un computador.
Los algoritmos también son frecuentes en la matemática y la lógica, y son la
base de la fabricación de manuales de usuario, folletos de instrucciones, etc.
Su nombre proviene del latín algoritmus y éste apellido del matemático persa
Al-Juarismi. Uno de los algoritmos más conocidos de la matemática es el
atribuido a Euclides, para obtener el máximo común divisor de dos enteros
positivos, o el llamado “método de Gauss” para resolver sistemas de
ecuaciones lineales.
8. Diagrama de flujo
El diagrama de flujo o también diagrama de actividades es una manera de
representar gráficamente un algoritmo o un proceso de alguna naturaleza, a
través de una serie de pasos estructurados y vinculados que permiten su
revisión como un todo.
La representación gráfica de estos procesos emplea, en los diagramas de
flujo, una serie determinada de figuras geométricas que representan cada
paso puntual del proceso que está siendo evaluado. Estas formas definidas de
antemano se conectan entre sí a través de flechas y líneas que marcan la
dirección del flujo y establecen el recorrido del proceso, como si de un mapa se
tratara.
Hay cuatro tipos de diagrama de flujo en base al modo de su representación:
Horizontal. Va de derecha a izquierda, según el orden de la lectura.
Vertical. Va de arriba hacia abajo, como una lista ordenada.
Panorámico. Permiten ver el proceso entero en una sola hoja, usando el
modelo vertical y el horizontal.
Arquitectónico. Representa un itinerario de trabajo o un área de trabajo.
Los diagramas de flujo son un mecanismo de control y descripción de
procesos, que permiten una mayor organización, evaluación o
replanteamiento de secuencias de actividades y procesos de distinta índole,
dado que son versátiles y sencillos. Son empleados a menudo en disciplinas
como la programación, la informática, la economía, las finanzas, los procesos
industriales e incluso la psicología cognitiva.
9. Hardware
se conoce como hardware al total de los elementos materiales, tangibles, que
forman al sistema informático de una computadora u ordenador. Esto se refiere
a sus componentes de tipo mecánico, electrónico, eléctrico y periférico, sin
considerar los programas y otros elementos digitales, que forman en cambio
parte del software.
10. Software
El software está compuesto por un conjunto de aplicaciones
y programas diseñados para cumplir diversas funciones dentro de un sistema.
Además, está formado por la información del usuario y los datos procesados.
Los programas que forman parte del software le indican al hardware (parte
física de un dispositivo), por medio de instrucciones, los pasos a seguir.
11. Tipos de software
Softwares de sistema. Programas que dan al usuario la capacidad de
relacionarse con el sistema, para ejercer control sobre el hardware. El
software de sistema también se ofrece como soporte para otros programas.
Por ejemplo: sistemas operativos o servidores.
Softwares de programación. Programas diseñados como herramientas
que le permiten a un programador desarrollar programas informáticos. Se
valen de técnicas y un lenguaje de programación específico. Por ejemplo:
compiladores o editores multimedia.
Softwares de aplicación. Programas diseñados para realizar una o más
tareas específicas a la vez, pueden ser automáticos o asistidos. Por
ejemplo: videojuegos o reproductores multimedia.
12. Bit
En informática se denomina bit a un valor del sistema de numeración binario.
Dicho sistema se llama así porque comprende únicamente dos valores de
base: 1 y 0, con los cuales se puede representar una cantidad infinita de
condiciones binarias: encendido y apagado, verdadero y falso, presente y
ausente, etc.
13. Byte
Se conoce como byte a la unidad básica de información empleada en
la informática y las telecomunicaciones, equivalente a un conjunto ordenado y
regular de bits (código binario), generalmente estipulado en 8. Es decir: 8 bits
equivalen a un byte, pero dicha cantidad puede alterarse, así que un byte es
equivalente en realidad a n bits ordenados. Esta unidad no tiene un símbolo
convencional de representación, pero en algunos países se emplea la letra B.
14. Inteligencia artificial
Es una tecnología con capacidad de hacer pensar por sí sola una máquina. La
tecnología que emplea una maquina artificial e inteligente está desarrollada por
medio de una serie de algoritmos que le proporciona la capacidad de
interpretación, decisión y resolución de problemas de forma autónoma ante las
señales que recibe. Son conceptos básicos que definen la inteligencia artificial.
15. Lenguaje de programación
En informática, se conoce como lenguaje de programación a un programa
destinado a la construcción de otros programas informáticos. Su nombre se
debe a que comprende un lenguaje formal que está diseñado para
organizar algoritmos y procesos lógicos que serán luego llevados a cabo por un
ordenador o sistema informático, permitiendo controlar así su comportamiento
físico, lógico y su comunicación con el usuario humano.
Dicho lenguaje está compuesto por símbolos y reglas sintácticas y semánticas,
expresadas en forma de instrucciones y relaciones lógicas, mediante las cuales
se construye el código fuente de una aplicación o pieza de software
determinado. Así, puede llamarse también lenguaje de programación al
resultado final de estos procesos creativos.
La implementación de lenguajes de programación permite el trabajo conjunto y
coordinado, a través de un conjunto afín y finito de instrucciones posibles, de
diversos programadores o arquitectos de software, para lo cual estos lenguajes
imitan, al menos formalmente, la lógica de los lenguajes humanos o naturales.
No deben confundirse, sin embargo, con los distintos tipos de lenguaje
informático. Estos últimos representan una categoría mucho más amplia, en
donde están contenidos los lenguajes de programación y muchos
otros protocolos informáticos, como el HTML de las páginas web.
16. Organización
son sistemas grandes compuestos de subsistemas interrelacionados.
Los subsistemas son relacionados por tres amplios niveles de administradores
que toman decisiones (operación, administración media y administración
estratégica) y que cortan horizontalmente a través del sistema organizacional.
Las culturas y subculturas organizacionales influencian la manera en que se
interrelaciona la gente en los subsistemas.
17. Archivos
En informática, se conoce como archivo o fichero a un conjunto organizado de
unidades de información (bits) almacenados en un dispositivo. Se les denomina
de esa manera como metáfora a partir de los archivos tradicionales de oficina,
escritos en papel, ya que vendrían a ser su equivalente digital.
Cada archivo posee una identificación única o nombre, la cual puede ser
modificada o asignada a voluntad del usuario o del programador, y una
extensión que determina qué tipo de archivo es y qué funciones
cumple. Usualmente ambos términos de su nombre están separados por un
punto, por ejemplo: [Link]
Dentro de los archivos existen paquetes pequeños de datos expresados
en bits (la unidad informática más pequeña que existe) y que se ordenan en
registros o líneas, siendo individualmente distintos pero con algún rasgo
común. El modo de agrupación de esta información depende de quién haga el
archivo, por lo que existen numerosas estructuras de archivo, más simples y
más complejas, que están más o menos estandarizadas hoy día.
Estas unidades mínimas de operación y organización de un Sistema
Operativo que son los archivos, entonces, se pueden crear, eliminar, reubicar,
comprimir, renombrar y activar (ejecutar, en lenguaje informático), junto con
otras operaciones básicas de organización.
18. Tecnología
según lo definido por la asociación de la Tecnología Informática de América
(ITAA), es: el estudio, diseño, desarrollo, innovación puesta en práctica, ayuda
o gerencia de los sistemas informáticos computarizados, particularmente usos
del software. La tecnología informática abarca muchos aspectos referidos a la
computadora y la tecnología informática.
La tecnología informática, como su nombre lo indica, se basa en el estudio, el
desarrollo y la práctica de sistemas informáticos, facilitando el manejo de
información de las empresas refiriéndose al uso de software y el hardware, lo
que se puede definir brevemente dentro del mundo de las computadoras, ya
que, por ende, la tecnología informática se ocupa de los procesos y actividades
que influyen directamente en la sociedad. No obstante, como se puede ver en
los últimos años el avance exponencial de la tecnología ha permitido extender
sus plataformas a lo que respecta la computadora. Tengamos en cuenta que
detrás de cada nuevo equipamiento, detrás de cada tarea que sea desarrollada
por el software, se encuentra la tecnología, permitiendo un mejor uso y manejo
de sus herramientas. Y facilitar de esta manera al hombre los trabajos más
arduos.
19. Innovación
El concepto de sistema de innovación destaca que el flujo de información y
tecnología entre personas, empresas e instituciones, es clave para un proceso
innovador. Contiene las interacciones entre los actores necesarios para
convertir una idea en un proceso, producto o servicio en el mercado.
El concepto de sistema de innovación se ha convertido en una herramienta útil
para ayudar a entender las diferencias en las tasas de progreso tecnológico
que experimenta el mundo, por lo que está en constante evolución con la
finalidad de que se pueda convertir en una teoría que permita explicar
procesos. Ahora, la interrelación fluida entre las diferentes instituciones que
participan en la generación, difusión y utilización de conocimiento en los países
exitosos, hace que se piense inmediatamente que estas instituciones funcionan
como un sistema. Sin embargo, aún sabemos poco de la lógica de
funcionamiento de las variables que intervienen en el sistema, y si hay
relaciones causales que se puedan explicitar.
20. Virus informático
Es un software que tiene por objetivo alterar el funcionamiento normal de
cualquier tipo de dispositivo informático, sin el permiso o el conocimiento del
usuario principalmente para lograr fines maliciosos sobre el dispositivo. Los
virus, habitualmente, reemplazan archivos ejecutables por otros infectados con
el código de este. Los virus pueden destruir, de manera intencionada,
los datos almacenados en una computadora, aunque también existen otros
más inofensivos, que solo producen molestias o imprevistos.
Los virus informáticos tienen básicamente la función de propagarse a través de
un software, son muy nocivos y algunos contienen además una carga dañina
(payload) con distintos objetivos, desde una simple broma hasta realizar daños
importantes en los sistemas, o bloquear las redes informáticas generando
tráfico inútil. El funcionamiento de un virus informático es conceptualmente
simple. Se ejecuta un programa que está infectado, en la mayoría de las
ocasiones, por desconocimiento del usuario. El código del virus queda
residente (alojado) en la memoria RAM de la computadora, incluso cuando el
programa que lo contenía haya terminado de ejecutar. El virus toma entonces
el control de los servicios básicos del sistema operativo, infectando, de manera
posterior, archivos ejecutables que sean llamados para su ejecución.
Finalmente se añade el código del virus al programa infectado y se graba en
el disco, con lo cual el proceso de replicado se completa.