0% encontró este documento útil (0 votos)
117 vistas40 páginas

Fundamentos de Química: Método y Materia

Este documento presenta un resumen de cinco temas clave de la asignatura de Química: 1) El método científico, 2) La clasificación de la materia en sustancias puras y mezclas, 3) La relación entre átomos, moléculas y compuestos, 4) El modelo atómico de la materia propuesto por Dalton, y 5) La evolución histórica de los modelos atómicos desde la antigua Grecia hasta el modelo cuántico moderno.

Cargado por

Johan Amado
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
117 vistas40 páginas

Fundamentos de Química: Método y Materia

Este documento presenta un resumen de cinco temas clave de la asignatura de Química: 1) El método científico, 2) La clasificación de la materia en sustancias puras y mezclas, 3) La relación entre átomos, moléculas y compuestos, 4) El modelo atómico de la materia propuesto por Dalton, y 5) La evolución histórica de los modelos atómicos desde la antigua Grecia hasta el modelo cuántico moderno.

Cargado por

Johan Amado
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

ASIGNATURA: QUÍMICA

Temas:
1 Método científico
Es la técnica utilizada en la construcción y prueba de una hipótesis científica.
Consiste en el proceso de observar, hacer preguntas y buscar respuestas a través de
pruebas y experimentos no es exclusivo de ningún campo de la ciencia. De hecho, el
método científico se aplica ampliamente en la ciencia, a través de muchos campos
diferentes.
El método científico es fundamental para el desarrollo de las teorías científicas, que
explican las leyes empíricas (experienciales) de una manera científicamente racional.
En una aplicación típica del método científico, un investigador desarrolla una hipótesis, la
prueba por diversos medios y luego modifica la hipótesis sobre la base del resultado de las
pruebas y experimentos. La hipótesis modificada se vuelve a probar, se modifica más y se
prueba de nuevo, hasta que se vuelve consistente con los fenómenos observados y los
resultados de las pruebas. De esta manera, las hipótesis sirven como herramientas con las
que los científicos recogen datos. A partir de esos datos y de las numerosas y diversas
investigaciones científicas realizadas para explorar las hipótesis, los científicos pueden
desarrollar amplias explicaciones generales, o teorías científicas.

2 Clasificación de la materia
La materia la podemos encontrar en la naturaleza en forma de sustancias puras y de
mezclas.
Las sustancias puras son aquéllas cuya naturaleza y composición no varían sea cual sea
su estado. Se dividen en dos grandes grupos: Elementos y Compuestos.
Elementos: Son sustancias puras que no pueden descomponerse en otras sustancias puras
más sencillas por ningún procedimiento. Ejemplo: Todos los elementos de la tabla
periódica: Oxígeno, hierro, carbono, sodio, cloro, cobre, etc. Se representan mediante su
símbolo químico.
Compuestos: Son sustancias puras que están constituidas por 2 ó más elementos
combinados en proporciones fijas. Los compuestos se pueden descomponer mediante
procedimientos químicos en los elementos que los constituyen. Ejemplo: Agua, de fórmula
H2O, está constituida por los elementos hidrógeno (H) y oxígeno (O) y se puede
descomponer en ellos mediante la acción de una corriente eléctrica (electrólisis).
Los compuestos se representan mediante fórmulas químicas en las que se especifican los
elementos que forman el compuesto y el número de átomos de cada uno de ellos que
compone la molécula. Ejemplo: En el agua hay 2 átomos del elemento hidrógeno y 1
átomo del elemento oxígeno formando la molécula H2O.
Las mezclas se encuentran formadas por 2 ó más sustancias puras. Su composición es
variable. Se distinguen dos grandes grupos: Mezclas homogéneas y Mezclas heterogéneas.
Mezclas homogéneas: También llamadas Disoluciones. Son mezclas en las que no se
pueden distinguir sus componentes a simple vista. Ejemplo: Disolución de sal en agua, el
aire, una aleación de oro y cobre, etc.
Mezclas heterogéneas: Son mezclas en las que se pueden distinguir a los componentes a
simple vista. Ejemplo: Agua con aceite, granito, arena en agua, etc.

3 Relación entre átomo - molécula - elemento compuesto


Un elemento es una sustancia que contiene un solo tipo de átomo como unidad de
repetición. Un elemento monatómico tiene un solo átomo (por ejemplo, cobre, sodio o
helio) como unidad de repetición. En cambio, un elemento poliatómico, tiene una unidad
múltiple de repetición de átomos (por ejemplo, la molécula de hidrógeno H2 y el azufre S8
son elementos poliatómicos).
Un compuesto es una sustancia en la que dos o más átomos o iones diferentes se unen
químicamente.
Existen dos tipos de compuestos: molécula covalente o compuesto iónico. Sin embargo, la
situación es mucho más compleja, ya que algunas moléculas covalentes existen como iones
cargados y estos iones pueden unirse iónicamente con otros grupos de iones con carga
opuesta.
Es difícil separar un compuesto en sus elementos constitutivos ya que el proceso requiere la
interrupción de los enlaces químicos covalentes o iónicos.
Una molécula* contiene ≥2 átomos no metálicos idénticos o no idénticos unidos
covalentemente que son en general eléctricamente neutros (no un ión cargado positiva o
negativamente). Por lo tanto, una molécula puede ser un elemento o compuesto que está
unido covalentemente.
Una mezcla es una sustancia compuesta por cualquier combinación de elementos o
compuestos que no están químicamente enlazados entre sí y que, en general, pueden
separarse mediante procesos físicos (como la destilación o la filtración) en sus elementos o
compuestos constituyentes. Un ejemplo es una solución de agua salada: la sal (cloruro de
sodio) puede separarse del agua por evaporación. Otro ejemplo es la destilación fraccionada
del petróleo crudo; las diferentes moléculas de hidrocarburos alcánicos (como el gasóleo, el
fueloil y la nafta) presentes en la mezcla de petróleo crudo se separan en virtud de sus
diferencias en los puntos de ebullición (y por tanto de condensación) en una torre de
fraccionamiento.

4 Modelo Atómico de la materia


Postulada por primera vez por JOHN DALTON, la teoría atómica de la materia sostiene:
Cada elemento químico está formado por unidades fundamentales llamadas Átomos.
El átomo es la partícula más pequeña característica de un elemento. La dificultad para
observar el átomo estimuló a muchos científicos a proponer modelos atómicos para ayudar
a entender y estudiar su estructura y comportamiento.
Todos los átomos de un elemento dado son idénticos. El oro, el cobre, el hierro, el zinc,
son todos elementos individuales formados por los mismos átomos. Todos los átomos de
oro son exactamente como todos los demás átomos de oro y no como cualquier otro tipo de
átomo. Todos los átomos de cobre son exactamente como todos los demás átomos de cobre
y no como cualquier otro tipo de átomo.
Los átomos se combinan entre sí para formar unidades más complejas llamadas
moléculas. Todas las moléculas están hechas de átomos constituyentes. Todas las
moléculas del agua están hechas de dos átomos de hidrógeno y un átomo de oxígeno,
ningún otro elemento hace agua. Todas las moléculas de agua son exactamente iguales a
todas las demás moléculas de agua: todas están hechas sólo de hidrógeno y oxígeno en
una proporción atómica de dos a uno.

5 Evolución histórica de los modelos atómicos


La teoría atómica es una descripción científica de la naturaleza de los átomos y la materia
que combina elementos de la física, la química y las matemáticas.
La teoría ha evolucionado con el tiempo, desde la filosofía del atomismo hasta la mecánica
cuántica moderna.
El átomo y el atomismo:

Se originó como un concepto filosófico en la antigua India y Grecia. La palabra "átomo"


proviene de la antigua palabra griega atomos , que significa indivisible. Según el
atomismo, la materia consta de partículas discretas. Sin embargo, la teoría fue una de las
muchas explicaciones de la materia y no se basó en datos empíricos. En el siglo V a. C.,
Demócrito propuso que la materia constaba de unidades indestructibles e indivisibles
llamadas átomos.

Teoría atómica de Dalton:

La ciencia tardó hasta finales del siglo XVIII en proporcionar evidencia concreta de la
existencia de átomos. En 1789, Antoine Lavoisier formuló la ley de conservación de la
masa, que establece que la masa de los productos de una reacción es la misma que la masa
de los reactivos. Diez años después, Joseph Louis Proust propuso la ley de proporciones
definidas, que establece que las masas de elementos en un compuesto siempre ocurren en
la misma proporción.

Estas teorías no hacen referencia a los átomos, sin embargo, John Dalton se basó en ellas
para desarrollar la ley de las proporciones múltiples, que establece que las proporciones
de masas de elementos en un compuesto son números enteros pequeños. La ley de Dalton
de proporciones múltiples se basó en datos experimentales. Propuso que cada elemento
químico consta de un solo tipo de átomo que no puede ser destruido por ningún medio
químico. Su presentación oral (1803) y publicación (1805) marcaron el inicio de la teoría
atómica científica.

En 1811, Amedeo Avogadro corrigió un problema con la teoría de Dalton cuando propuso
que volúmenes iguales de gases a la misma temperatura y presión contienen el mismo
número de partículas. La ley de Avogadro hizo posible estimar con precisión las masas
atómicas de los elementos y distinguió claramente entre átomos y moléculas.

Otra contribución significativa a la teoría atómica fue hecha en 1827 por el botánico
Robert Brown, quien notó que las partículas de polvo que flotaban en el agua parecían
moverse al azar sin ninguna razón conocida. En 1905, Albert Einstein postuló que el
movimiento browniano se debía al movimiento de las moléculas de agua. El modelo y su
validación en 1908 por Jean Perrin apoyó la teoría atómica y la teoría de partículas.

Modelo de pudín de ciruela y modelo de Rutherford

Hasta este punto, se creía que los átomos eran las unidades más pequeñas de materia.  En
1897, JJ Thomson descubrió el electrón. Creía que los átomos se podían dividir. Debido a
que el electrón tenía una carga negativa, propuso un modelo de átomo de pudín de ciruela,
en el que los electrones estaban incrustados en una masa de carga positiva para producir
un átomo eléctricamente neutro.

Ernest Rutherford, uno de los estudiantes de Thomson, refutó el modelo del pudín de
ciruela en 1909. Rutherford descubrió que la carga positiva de un átomo y la mayor parte
de su masa estaban en el centro o núcleo de un átomo. Describió un modelo planetario en
el que los electrones orbitaban un núcleo pequeño con carga positiva.

Modelo de Bohr del átomo

Rutherford estaba en el camino correcto, pero su modelo no podía explicar los espectros
de emisión y absorción de los átomos ni por qué los electrones no chocaban contra el
núcleo. En 1913, Niels Bohr propuso el modelo de Bohr, que establece que los electrones
solo orbitan el núcleo a distancias específicas del núcleo. Según su modelo, los electrones
no podían entrar en espiral hacia el núcleo, pero podían dar saltos cuánticos entre los
niveles de energía.

Teoría atómica cuántica

El modelo de Bohr explicó las líneas espectrales del hidrógeno, pero no se extendió al
comportamiento de los átomos con múltiples electrones. Varios descubrimientos
ampliaron la comprensión de los átomos. En 1913, Frederick Soddy describió los isótopos,
que eran formas de un átomo de un elemento que contenía diferentes números de
neutrones. Los neutrones se descubrieron en 1932.

Louis de Broglie propuso un comportamiento ondulatorio de partículas en movimiento,


que Erwin Schrödinger describió utilizando la ecuación de Schrödinger (1926). Esto, a su
vez, llevó al principio de incertidumbre de Werner Heisenberg (1927), que establece que
no es posible conocer simultáneamente la posición y el momento de un electrón.

La mecánica cuántica condujo a una teoría atómica en la que los átomos constan de
partículas más pequeñas. El electrón se puede encontrar potencialmente en cualquier
parte del átomo, pero se encuentra con la mayor probabilidad en un orbital atómico o en
un nivel de energía. En lugar de las órbitas circulares del modelo de Rutherford, la teoría
atómica moderna describe orbitales que pueden ser esféricos, con forma de mancuerna,
etc. velocidad de la luz.

Los científicos modernos han encontrado partículas más pequeñas que componen los
protones, neutrones y electrones, aunque el átomo sigue siendo la unidad más pequeña de
materia que no se puede dividir por medios químicos.

6 Partículas subatómicas fundamentales


Un átomo típico consiste en tres partículas subatómicas: protones, neutrones y electrones.
También existen otras partículas, como las partículas alfa y beta. El modelo de Bohr
muestra las tres partículas subatómicas básicas de manera sencilla. La mayor parte de la
masa de un átomo está en el núcleo, una pequeña y densa área en el centro de cada átomo,
compuesta de nucleones. Los nucleones incluyen protones y neutrones. Toda la carga
positiva de un átomo está contenida en el núcleo, y se origina en los protones. Los
neutrones están cargados neutralmente. Los electrones, que están cargados negativamente,
se encuentran fuera del núcleo.
Protones
Ernest Rutherford en el año 1919 llegó a la conclusión de que los protones existen en un
núcleo y tienen una carga nuclear positiva. El número atómico o número de protones es el
número de protones presentes en un átomo. El número atómico determina un elemento.
Electrones
Los electrones fueron descubiertos por Sir John Joseph Thomson en 1897 Los electrones
se encuentran en una nube de electrones, que es el área que rodea el núcleo del átomo. Los
electrones tienen una carga negativa que es igual en magnitud a la carga positiva de los
protones. Sin embargo, su masa es considerablemente menor que la de un protón o un
neutrón.
Neutrones
Los neutrones fueron descubiertos por James Chadwick en 1932 Los neutrones se
encuentran en el núcleo con los protones. Junto con los protones, constituyen casi toda la
masa del átomo. Los neutrones de un elemento determinan el isótopo de un átomo, y a
menudo su estabilidad. El número de neutrones no es necesariamente igual al número de
protones.
7 El modelo del átomo, hoy

El modelo actual fue desarrollado durante la década de 1920, principalmente por


Schrödinger y Heisenberg.

Se trata de un modelo de gran complejidad matemática, hasta el punto de que al utilizarlo


sólo se puede resolver con precisión el átomo de hidrógeno. Se utilizan métodos
aproximados para resolver átomos distintos del hidrógeno.

En cualquier caso, el modelo atómico mecánico-cuántico encaja muy bien con las
observaciones experimentales.

En este modelo no se habla de órbitas, sino de orbitales. Una órbita es una región del
espacio en la que la probabilidad de encontrar el electrón es máxima. Las órbitas
atómicas tienen diferentes formas geométricas.

Los principios básicos del modelo actual son: La presencia de un núcleo atómico con
partículas conocidas, casi toda la masa atómica en un volumen muy pequeño. Los estados
estacionarios o niveles de energía fundamentales en los que los electrones se distribuyen
en función de su contenido energético.

Partículas atómicas y modelos atómicos: Desde la antigüedad, los humanos se han


preguntado de qué está hecha la materia. Unos 400 años antes de Cristo, el filósofo griego
Demócrito consideraba que la materia estaba formada por partículas diminutas que no
podían dividirse en partículas más pequeñas. Por esta razón, llamó a estas partículas
átomos, que en griego significa indivisible. Demócrito atribuyó a los átomos las cualidades
de eterno, inmutable e indivisible.

8 El principio de Avogadro

La ley de Avogadro, una declaración de que bajo las mismas condiciones de temperatura y
presión, volúmenes iguales de diferentes gases contienen un número igual de moléculas.
Esta relación empírica puede derivarse de la teoría cinética de los gases bajo el supuesto
de un gas perfecto (ideal). La ley es aproximadamente válida para los gases reales a
presiones suficientemente bajas y altas temperaturas.
El número específico de moléculas en un gramo-mol de una sustancia, definido como el
peso molecular en gramos, es de 6,02214076 × 1023, una cantidad denominada número de
Avogadro, o la constante de Avogadro. Por ejemplo, el peso molecular del oxígeno es
32,00, de modo que un gramo molar de oxígeno tiene una masa de 32,00 gramos y
contiene 6,02214076 × 1023 moléculas.
El volumen ocupado por un gramo molar de gas es de unos 22,4 litros (0,791 pies cúbicos)
a temperatura y presión estándar (0 °C, 1 atmósfera) y es el mismo para todos los gases,
según la ley de Avogadro.
La ley fue propuesta por primera vez en 1811 por Amedeo Avogadro, profesor de física
superior de la Universidad de Turín durante muchos años, pero no fue generalmente
aceptada hasta después de 1858, cuando un químico italiano, Stanislao Cannizzaro,
construyó un sistema lógico de química basado en ella.

9 La Mol o la MoleLección
El  mol es la unidad utilizada para expresar la cantidad de una determinada sustancia en
el  Sistema Internacional de unidades (SI), el resultado de expresar la masa atómica de un
elemento o la masa molecular de un compuesto en gramos.
Así, para estos últimos, primero se calcula la masa molecular sumando las masas
atómicas de cada elemento participante multiplicada por el número de veces que aparece
y el número resultante se expresa en gramos. El mol es la cantidad de sustancia que
contiene tantas partículas (átomos, moléculas, iones, etc.) como existen en 12 g del isótopo
de carbono 12. Un mol de cualquier compuesto contiene siempre una cantidad de
moléculas igual al número de Avogadro (6,02.1023) y se utiliza mucho para efectuar los
cálculos químicos.

10 Ley Periódica y Tabla Periódica


La ley periódica fue desarrollada de forma independiente por Dimitri Mendeleev y Lothar
Meyer en 1869. Mendeleev creó la primera tabla periódica y poco después fue seguida por
Meyer.  Ambos organizaron los elementos por su masa y propusieron que ciertas
propiedades se repitieran periódicamente.  Meyer formó su ley periódica basándose en el
volumen atómico o volumen molar, que es la masa atómica dividida por la densidad en
forma sólida. La tabla de Mendeleev es digna de mención porque exhibe valores en su
mayoría precisos para la masa atómica y también contiene espacios en blanco para
elementos desconocidos.
La tabla periódica de Mendeleev es una disposición de los elementos que agrupan
elementos similares. Dejó espacios en blanco para los elementos no descubiertos (masas
atómicas, elemento: 44, escandio; 68, galio; 72, germanio; & 100, tecnecio) para que
ciertos elementos puedan agruparse. Sin embargo, Mendeleev no había predicho los gases
nobles, por lo que no se dejaron lugares para ellos.

Tabla periódica de forma corta


La tabla periódica de forma corta es una tabla en la que los elementos se organizan en 7
filas, períodos, con números atómicos crecientes de izquierda a derecha. Hay 18 columnas
verticales conocidas como grupos. Esta tabla se basa en la tabla periódica de Mendeleev y
la ley periódica.

Tabla periódica de forma larga


En la forma larga, cada período se correlaciona con la construcción de una carcasa
electrónica; los dos primeros grupos (1-2) (bloque s) y los últimos 6 grupos (13-18)
(bloque p) forman los elementos del grupo principal y los grupos (3-12) entre s y p Los
bloques se denominan metales de transición. Los elementos del grupo 18 se denominan
gases nobles y el grupo 17 se denominan halógenos. Los elementos del bloque f, llamados
metales de transición internos, que se encuentran en la parte inferior de la tabla periódica
(períodos 8 y 9); los 15 elementos después del bario (número atómico 56) se llaman
lantánidos y los 14 elementos después del radio (número atómico 88) se llaman actínidos.

11 El enlace Químico

Conocemos como enlaces químicos a la fusión de átomos y moléculas para


formar  compuestos químicos  más grandes y complejos dotados de estabilidad. En este
proceso los átomos o moléculas alteran sus propiedades físicas y químicas, constituyendo
nuevas sustancias homogéneas (no mezclas), inseparables a través de mecanismos físicos
como el  filtrado o el tamizado.

Es un hecho que los átomos que forman la materia tienden a unirse y alcanzar


condiciones más estables que en solitario, a través de diversos métodos que equilibran o
comparten sus cargas eléctricas naturales. Se sabe que los protones en el núcleo de todo
átomo poseen carga positiva (+) y los electrones alrededor poseen carga negativa (-),
mientras que los neutrones, también en el núcleo, no tienen carga, pero aportan masa (y,
por lo tanto, gravedad).

Los enlaces químicos ocurren en la naturaleza y forman parte tanto de sustancias


inorgánicas como de formas de  vida, ya que sin ellos no podrían construirse
las proteínas y aminoácidos complejos que conforman nuestros cuerpos.

De manera semejante, los enlaces químicos pueden romperse bajo ciertas y determinadas


condiciones, como al ser sometidos a cantidades de calor, a la acción de la electricidad, o
a la de sustancias que rompan la unión existente y propicien otras nuevas junturas.

Tipos de enlace químico

Existen tres tipos de enlace químico conocidos, dependiendo de la naturaleza de los


átomos involucrados, así:

 Enlace covalente. Ocurre cuando dos átomos comparten uno o más pares de


electrones de su última órbita (la más externa), y así consiguen una forma eléctrica
más estable. Es el tipo de enlace predominante en las moléculas orgánicas y puede
ser de tres tipos: simple (A-A), doble (A=A) y triple (A≡A), dependiendo de la
cantidad de electrones compartidos.
 Enlace iónico. Se debe a interacciones electrostáticas entre los iones, que pueden
formarse por la transferencia de uno o más electrones de un átomo o grupo de
átomos a otro. Tiene lugar con más facilidad entre átomos metálicos y no
metálicos, y consiste en una transferencia permanente de electrones desde el átomo
metálico hacia el átomo no metálico, produciendo una molécula cargada
eléctricamente en algún sentido, ya sea cationes (+1) o aniones (-1).

 Enlace metálico.  Se da únicamente entre átomos metálicos de un mismo elemento,


que por lo general constituyen estructuras sólidas, sumamente compactas. Es un
enlace fuerte, que junta los núcleos atómicos entre sí, rodeados de sus electrones
como en una nube, y cuesta mucho esfuerzo separarlos.
ASIGANTURA: GEOMETRÍA
Temas:
1 Proposiciones simples y compuestas.
En general las proposiciones se clasifican en dos tipos: Simples y Compuestas,
dependiendo de cómo están conformadas.
Proposiciones Simples:
Son aquellas que no tienen oraciones componentes afectadas por negaciones ("no") o
términos de enlace como conjunciones ("y"), disyunciones ("o") o implicaciones ("si . . .
entonces"). Pueden aparecer términos de enlace en el sujeto o en el predicado, pero no
entre oraciones componentes.
Proposiciones Compuestas:
Una proposición será compuesta si no es simple. Es decir, si está afectada por negaciones
o términos de enlace entre oraciones componentes.

2 Valor de verdad de una proposición.


Entramos en el estudio semántico cuando hacemos referencia al carácter de verdad o
falsedad que pueda tener una proposición. Al hacer referencia al posible valor de verdad o
falsedad que pueda tener una fórmula estamos admitiendo un principio, el principio de
bivalencia: todo enunciado es o verdadero o falso, pero no ambas cosas a la vez.
Si una proposición es verdadera, se dirá que tiene valor de verdad positivo; si es falsa,
negativo. El criterio que se adopta para atribuir valor de verdad o falsedad a una
proposición atómica, no es, según Wittgenstein, un problema de análisis lógico, sino un
problema de experiencia. Si lo enunciado en una proposición está conforme con los
hechos, la proposición es verdadera, de lo contrario es falsa.
Un segundo principio de la lógica bivalente es, aquel que mantiene que el valor de verdad
de las proposiciones moleculares depende del valor de verdad de las proposiciones
atómicas que la forman. En este sentido podemos decir que las fórmulas moleculares son
también funciones de verdad o funciones veritativas, ya que los valores que adoptan son
valores de verdad.
Para determinar el valor de verdad de una proposición molecular, independientemente de
los valores de sus componentes, existe un procedimiento mecánico: las tablas de verdad.
3 Negación.
Cuando una enunciado es verdadero (valor de verdad positivo), su negación es
falsa  (valor de verdad negativo), y a la inversa. Las condiciones de verdad de la negación
se pueden representar de la siguiente manera:
 

4 Conjunción.

En razonamiento formal, una conjunción lógica (^) entre dos proposiciones es un conector
lógico cuyo valor de la verdad resulta en cierto solo si ambas proposiciones son ciertas, y
en falso de cualquier otra forma. Existen diferentes contextos donde se utiliza la
conjunción lógica.

Podríamos unir dos enunciados cualesquiera mediante la cópula "y": p= llueve  q= hace
frío; mediante símbolos: p Ù q .  Al igual que sucede en el lenguaje ordinario una
conjunción es verdadera cuando lo son los dos  enunciados que la forman, y falsa en todos
los demás casos.  A la conjunción en los  Principia Mathematica se representan con un
punto  (.),&, y se la denomina producto lógico, por su analogía con el producto en las
matemáticas.

Puede suceder que en la conjunción alguno de sus miembros esté negado, en este caso es
necesario añadir el valor de verdad del miembro que esté   negado. Los valores, en este
caso, de Ø q son los contrarios de q.

Además, en una conjunción podemos añadir más enunciados. Tres por ejemplo:
p Ù q  Ù r.
En ese caso es verdadera si los son los tres enunciados que la forman.

5 Disyunción

La disyunción es un operador lógico que actúa sobre dos valores de verdad, típicamente
los valores de verdad de dos proposiciones, devolviendo el valor de verdad verdadero
cuando una de las proposiciones es verdadera, o cuando ambas lo son, y falso cuando
ambas son falsas.
Podemos unir dos enunciados en el lenguaje ordinario con la partícula o: p o q; con
símbolos: p Ú q. Se la denomina suma lógica. El significado del disyuntor es el siguiente:
la disyunción es verdadera cuando al menos uno de los enunciados que la forman es
verdadero, falsa los enunciados que la forman son falsos a la vez. Las condiciones de
verdad de la disyunción son la imagen invertida de la conjunción. Para comprobar la
verdad de una disyunción es suficiente con probar la verdad de uno de sus enunciados;
para probar su falsedad es necesario comprobar que son falsos los dos enunciados que la
forman. Pero la traducción al lenguaje formal es parcial e incompleta, aunque se
corresponde con la partícula “o” del lenguaje ordinario, no debe confundirse con ella.

En el leguaje ordinario hay dos usos: uso exclusivo y el uso inclusivo. El uso exclusivo,
no permite que los enunciados sean verdaderos al mismo tiempo; por ejemplo: cuando un
juez pregunta al acusado si es culpable o inocente.

El uso inclusivo, permite que una de las opciones sea falsa; por ejemplo: para aprobar
lógica hay que hacer el examen o presentar un trabajo. En latín existen dos partículas
diferentes aut y vel, la primera tiene un uso exclusivo y la segunda inclusivo.

6 Condicional.

El condicional material es un operador que actúa sobre dos valores de verdad, típicamente
los valores de verdad de dos proposiciones, devolviendo el valor de falso sólo cuando la
primera proposición es verdadera y la segunda falsa, y verdadero en cualquier otro caso.

el símbolo→  recibe el nombre de implicador o condicional y es la formalización, parcial


e incompleta de la partícula del lenguaje ordinario "si ...entonces". En los Principia
Mathematica   el símbolo  es una herradura; el signo de la inclusión en matemáticas. La
expresión que precede a la implicación se llama antecedente, la que le sucede,
consecuente. Una  proposición  condicional es verdadera en todos los casos, salvo que el
antecedente sea verdadero y el consecuente falso. Así, según Filón existen tres modos
como un condicional puede ser verdadero y uno de cómo puede ser falso.

Es verdadero cuando empieza con una verdad y termina con una verdad, “si es de día es
de día”; es verdadero si comienza con una falsedad y termina con una falsedad, “si la
tierra vuela, la tierra tiene alas”; y es verdadero también, si comienza con una falsedad y
termina con una verdad, “ si la tierra vuela, la tierra existe”. Y es falso, si comienza con
una verdad y termina con una falsedad, “si es de día, es de  noche". La tabla del
condicional ha sido muy discutida, esta que se expone aquí es la definición de condicional
material, en la que no se requiere ninguna relación de contenido entre antecedente y
consecuente. Sino sólo  el valor de verdad de sus componentes, a este criterio se
llama  extensional.

7 Bi Condicional.

Se define como bicondicional de dos proposiciones (p, q), a la conjunción de los dos
condicionales posibles (p  q , q  p), es decir que la proposición p es condición para q y,
al mismo tiempo, la proposición q es condición para p.

La bicondicional es una operación binaria lógica que asigna el valor verdadero cuando las
dos variables son iguales y el valor falso cuando son diferentes.

8 Reglas de inferencia

La lógica matemática se usa a menudo para pruebas lógicas. Las pruebas son argumentos
válidos que determinan los valores de verdad de los enunciados matemáticos.
Las reglas de inferencia son esquemas básicos de inferencia deductiva que se suelen
escribir poniendo cada premisa en una línea y la conclusión en otra línea al final. Toda
regla, como toda inferencia deductiva, tiene que estar basada en la implicación de la
conclusión a partir de las premisas. Veamos algunas de las más conocidas:

La regla de modus ponens 

Dice que si una premisa tiene la forma de condicional y la otra afirma el antecedente
entonces es válida la inferencia que consiste en afirmar el consecuente:
P1:     

P2: 

C: 

La regla de modus tollens 

Dice que si se niega el consecuente de un condicional entonces se puede negar su


antecedente:

P1:     

P2: ¬

C: ¬

Está basada en  (((     )  ¬ )  ¬ )

La reglas de introducción de conjunción y disyunción 

Nos permiten concluir la conjunción y la disyunción de dos premisas:

P1: 

P2: 

C1:     

C2:     

Están basadas en  ((     )    (     )) y  ((     )   (     ))

La regla de eliminación de conjunción:

P:     

C1: 

C2: 

Está basada en  ((     )    ) y  ((     )    )


La regla de encadenamiento:

P1:     

P2:     

C:     

Está basada en la transitividad del condicional:  (((     )   (     ))   (     ))

Las reglas anteriores son intuitivamente razonables.

La regla de resolución:

P1:     

P2:  ¬    

C:     

Está basada en  (((     )    (¬     ))   (     ))

Cualquier implicación lógica, y, por tanto, cualquier equivalencia, da lugar a una


inferencia deductiva.

9 Metodos de demostración

El concepto de demostración no es más que la verificación de una prueba anteriormente


corroborada, sea verdadero o falso. Por lo general, la demostración suele usarse para
mostrar una prueba a terceras personas para disipar dudas o inducir la costumbre de que
toda propiedad o teorema debe ser probada.

Demostración directa

Este método se basa en un argumento condicional del tipo p→qp→q, en esta proposición


se toma como punto de partida la hipótesis p que son los requisitos suficientes para q, en
este caso, para la tesis; no olvidar que q es una condición necesaria de p. Luego, si la
proposición condicional p→qp→q es verdadera, se afirma que la
implicación p⇒qp⇒q (p implica q) es verdadera. Si q→pq→p resulta ser falsa pero q
logra ser una condición necesaria para p, la implicación no se cumple y se
escribe  p⇏qp⇏q, una condición necesaria no es una implicación pero si una condicional
material donde se puede negar o afirmar una afirmación.
Demostración por contraposición

Esta es una demostración indirecta donde realizaremos algunos ajustes lógicos a la


implicación p⇒qp⇒q, hemos dicho que  qq es condición necesaria de pp, de aquí se
deduce que qq no es condición suficiente para pp o dicho de otro
modo,  ∼q∼q implica  ∼p∼p, y se escribe así  ∼q⇒∼p∼q⇒∼p, esta afirmación sería
condición suficiente para afirmar p⇒qp⇒q.
Lo único que hemos hecho es cambiar la dirección de la inferencia negando cada término
proposicional pp y qq.

Demostración por reducción al absurdo

Tenemos una proposición p→qp→q, este método consiste considerar p→∼qp→∼q como


verdadera para luego probarlo, si resulta que  p→∼qp→∼q es falsa,
entonces p→qp→q es verdadera.

En el lenguaje natural, es suponer como falsa la tesis del argumento que se intenta
demostrar, luego, bajo una serie de operaciones intentamos buscar que la negación de
tesis es deducible de la hipótesis original del argumento resultando por lo general una
contradicción, es decir, un absurdo, implicando así la verdad del argumento original.

Demostración por el principio de inducción

El principio de inducción matemática es una regla lógica matemática y no una prueba de


ensayo y error para tener cierto grado de certeza para que una teoría sea verdadera, es
decir, una conjetura. En matemáticas, una prueba repetitiva para diferentes números que
sean ordenados o aleatorios de una propiedad no es considerada una como una
demostración rigurosa o más estrictamente hablando, no es una demostración
propiamente dicha.

Demostración constructiva

Aquí podemos encontrar 3 casos diferentes de demostración por construcción, se le dice


por construcción porque se construye un ejemplo que puede afirmar o contradecir un
argumento, este método es un método de probabilidad de existencia, es decir, existe la
probabilidad de que si existe un ejemplo particular para una proposición, entonces la
proposición indica que existe otros casos que la proposición indica. Veamos dos casos
derivadas de estas.

Por existencialidad particular

Este método sirve para demostrar que existe un caso que cumple con los requisitos de una
propiedad hipotética general de existencia que no se puede probar directamente desde la
misma propiedad o por lo menos, no se tiene los requisitos necesarios para demostrar
desde la propiedad.
Por contraejemplo

Este método consiste en considerar una conclusión contraria de una proposición general
(no existencial) como verdadera y encontrar un caso particular que contradiga dicha
conclusión contraria, demostrando de esta manera la proposición general con su
conclusión original, es decir, la conclusión no contraria.

Demostración por casos

También se le llama demostración por exhaustividad, este método se basa para demostrar
una proposición en bajo una serie limitada de únicos casos existentes, por ejemplo, si n∈Z,
entonces n2⩾0
Para demostrarlo, debemos suponer dos casos, esto es para n menor que 0, que sería el
caso 1 y para n mayor o igual a 0 como el caso 2, en cualquiera de los dos únicos casos
posibles, al ser elevado al cuadrado, siempre se cumple n2⩾0 quedando demostrado la
proposición.

Demostración por el método de la disyunción exclusiva

También se le conoce como demostración no constructiva, este método nos ayuda a crear
posibilidades hipotéticas contrarias que si bien no se sabe cuál de las dos es verdadera,
indica que siempre una de las dos debe ser verdadera y no ambas demostrando de esta
manera la verdad de la proposición.

Demostración visual

Es un método de demostración clásica que se usa en la enseñanza media como la


geometría euclidiana y está basado en la intuición lógica, es decir, no es un método formal
de demostración, un método formal de demostración matemática de manera formal y no
visual de la geometría euclidiana.

10 Teorema de Thales.

Dos líneas paralelas atravesadas por una recta que crea dos ángulos. Se trata de dos
ángulos que son congruentes, es decir, uno y otro ángulo tienen la misma medida (también
se conocen como ángulos correspondientes, uno se encuentra en la parte exterior de las
paralelas y el otro en la parte interior).

Hay que tener en cuenta que en ocasiones se habla de dos teoremas de Tales (uno hace
alusión a los triángulos semejantes y el otro se refiere a los ángulos correspondientes pero
ambos teoremas se basan en un mismo principio matemático).

El planteamiento geométrico del teorema de Tales tiene evidentes implicaciones prácticas.


Veámoslo con un ejemplo concreto: un edificio de 15 m de altura proyecta una sombra de
32 metros y, en el mismo instante, un individuo proyecta una sombra de 2.10 metros. Con
estos datos es posible conocer la altura de dicho individuo, ya que hay que tener en cuenta
que los ángulos que proyectan sus sombras son congruentes. Así, con los datos del
problema y el principio del teorema de Tales sobre los ángulos correspondientes, es
posible saber la altura del individuo con una sencilla regla de tres (el resultado sería de
0.98 m).

11 Triángulos semejantes.

El concepto de semejanza corresponde a figuras de igual forma, pero no necesariamente


de igual tamaño. Dos triángulos son semejantes si sus ángulos son iguales dos a dos.

Para denotar que dos triángulos ABC y DEF son semejantes se escribe ABC ~ DEF, donde
el orden indica la correspondencia entre los ángulos: A, B y C se corresponden con D, E y
F, respectivamente.

Una similitud tiene la propiedad (que la caracteriza) de multiplicar todas las longitudes
por un mismo factor. Por lo tanto las razones longitud imagen / longitud origen son todas
iguales, lo que da una segunda caracterización de los triángulos semejantes:

Dos triángulos son semejantes si las razones de los lados correspondientes son
congruentes.

Criterios de semejanza de triángulos:

1.-Dos triángulos son semejantes si tienen dos ángulos iguales.

2.-Dos triángulos son semejantes si tienen dos lados proporcionales e iguales el ángulo
que forman.

3.- Dos triángulos son semejante si sus lados son proporcionales.


ASIGNATURA: INFORMÁTICA
Temas:
1 Seguridad informática
La seguridad informática es básicamente la protección de los sistemas informáticos y de la
información contra daños, robos y uso no autorizado. Es el proceso de prevenir y detectar
el uso no autorizado de su sistema informático.
La seguridad de la información es asegurar la información contra el acceso, la
modificación y la eliminación no autorizados.
Existen varios tipos de seguridad informática que se utilizan ampliamente para proteger la
información valiosa de una organización.
La seguridad de las aplicaciones es asegurar una aplicación mediante la creación de
características de seguridad para evitar las amenazas cibernéticas como la inyección SQL,
los ataques DoS, las violaciones de datos, etc.
Seguridad de la Computadora significa asegurar una máquina independiente
manteniéndola actualizada y parcheada.
La seguridad de la red se consigue asegurando tanto las tecnologías de software como las
de hardware.
La ciberseguridad se define como la protección de los sistemas informáticos que se
comunican a través de las redes informáticas.

2 Redes de datos.
Una red de datos es un sistema que transfiere datos entre puntos de acceso a la red
(nodos) mediante la conmutación de datos, el control del sistema y las líneas de
transmisión de interconexión. Las redes de datos están diseñadas principalmente para
transferir datos de un punto a uno o más puntos (multipunto). Las redes de datos pueden
estar compuestas por diversos sistemas de comunicación, como conmutadores de circuitos,
líneas arrendadas y redes de conmutación de paquetes. Hay predominantemente dos tipos
de redes de datos, de radiodifusión y de punto a punto.
Los tipos de redes de datos van desde las redes de área personal (PAN) de muy corto
alcance hasta las redes de datos de área amplia (WAN). Este ejemplo muestra que un
usuario está transfiriendo datos entre un PDA y una computadora dentro de su red de área
personal (PAN) en su oficina de Chicago. Estos datos pueden transferirse a través de la
red de área local (LAN) de su empresa, a través de una red de área metropolitana (MAN) y
a través de una red de área amplia (WAN) para que puedan llegar a otros lugares como
Nueva York. Cuando los datos llegan a Nueva York, se transfieren de nuevo a una red de
área local (LAN) de interfaz de datos distribuidos por fibra (FDDI) para que puedan
llegar a su computadora de destino.
3 Redes informáticas.
Las redes informáticas son la base de la comunicación en TI. Se utilizan en una gran
variedad de formas y pueden incluir muchos tipos diferentes de redes. Una red de
computadoras es un conjunto de computadoras que están conectadas entre sí para que
puedan compartir información. Los primeros ejemplos de redes de computadoras datan de
la década de 1960, pero han recorrido un largo camino en el medio siglo desde entonces.
Las redes informáticas se utilizan para realizar una gran cantidad de tareas mediante el
intercambio de información.
Algunas de las cosas para las que se utilizan las redes incluyen:
 Comunicarse mediante correo electrónico, video, mensajería instantánea y otros
métodos.
 Compartir dispositivos como impresoras, escáneres y fotocopiadoras.
 Compartir archivos.
 Compartir software y programas operativos en sistemas remotos.
 Permitir a los usuarios de la red acceder y mantener información fácilmente.

4 Historia de las redes de computadores.


1961- La idea de ARPANET, una de las primeras redes informáticas, fue propuesta por
Leonard Kleinrock en 1961, en su trabajo titulado "Flujo de información en las grandes
redes de comunicación".
1965- El término "paquete" fue acuñado por Donald Davies en 1965, para describir los
datos enviados entre computadoras a través de una red.
1969- ARPANET fue una de las primeras redes de computadoras en utilizar la
conmutación de paquetes. El desarrollo de ARPANET comenzó en 1966, y los dos
primeros nodos, UCLA y SRI (Standford Research Institute), se conectaron, iniciando
oficialmente ARPANET en 1969.
1969- La primera RFC surgió en abril de 1969, como un documento para definir y
proporcionar información sobre comunicaciones informáticas, protocolos de red y
procedimientos.
1969- El primer conmutador de red y el IMP (Procesador de Mensajes de Interfaz) fue
enviado a la UCLA el 29 de agosto de 1969. Se utilizó para enviar la primera transmisión
de datos en ARPANET.
1969- Nace oficialmente la Internet, con la primera transmisión de datos enviada entre la
UCLA y el SRI el 29 de octubre de 1969, a las 10:30 p.m.
1970- Steve Crocker y un equipo de la UCLA lanzaron el NCP (NetWare Core Protocol)
en 1970. NCP es un protocolo de intercambio de archivos para su uso con NetWare.
1971- Ray Tomlinson envió el primer correo electrónico en 1971.
1971- ALOHAnet, una red de paquetes inalámbricos UHF, se utiliza en Hawai para
conectar las islas entre sí. Aunque no es Wi-Fi, ayuda a sentar las bases para el Wi-Fi.
1973- Ethernet es desarrollado por Robert Metcalfe en 1973 mientras trabajaba en Xerox
PARC.
1973- La primera conexión de red internacional, llamada SATNET, es desplegada en 1973
por ARPA.
1973- Una llamada experimental de VoIP fue hecha en 1973, introduciendo oficialmente la
tecnología y las capacidades de VoIP. Sin embargo, el primer software que permite a los
usuarios hacer llamadas VoIP no estuvo disponible hasta 1995.
1974- Los primeros enrutadores fueron usados en Xerox en 1974. Sin embargo, estos
primeros enrutadores no fueron considerados verdaderos enrutadores IP.
1976- Ginny Strazisar desarrolló el primer verdadero enrutador IP, originalmente llamado
gateway, en 1976.
1978- Bob Kahn inventó el protocolo TCP/IP para redes y lo desarrolló, con la ayuda de
Vint Cerf, en 1978.
La versión 4 del Protocolo de Internet de 1981, o IPv4, se definió oficialmente en el RFC
791 en 1981. IPv4 fue la primera versión importante del protocolo de Internet.
1981- BITNET fue creado en 1981 como una red entre los sistemas de mainframe de IBM
en los Estados Unidos.
1981- CSNET (Computer Science Network) fue desarrollada por la Fundación Nacional de
Ciencias de los Estados Unidos en 1981.
1983- ARPANET terminó la transición para utilizar el TCP/IP en 1983.
1983- Paul Mockapetris y Jon Postel implementan el primer DNS en 1983.
1986- La NSFNET (National Science Foundation Network) se puso en línea en 1986- Fue
la columna vertebral de ARPANET, antes de que finalmente reemplazara a ARPANET a
principios de los 90.
1986- BITNET II fue creada en 1986 para abordar los problemas de ancho de banda con
la BITNET original.
1988- El primer backbone T1 fue agregado a ARPANET en 1988.
1988- La tecnología de red WaveLAN, el precursor oficial del Wi-Fi, fue introducida en el
mercado por AT&T, Lucent y NCR en 1988.
1988- Los detalles sobre la tecnología de red de cortafuegos se publicaron por primera vez
en 1988. El documento publicado discutió el primer firewall, llamado firewall de filtro de
paquetes, que fue desarrollado por Digital Equipment Corporation el mismo año.
1990- Kalpana, una compañía estadounidense de hardware de red, desarrolló e introdujo
el primer conmutador de red en 1990.
1996- IPv6 se introdujo en 1996 como una mejora sobre IPv4, incluyendo un rango más
amplio de direcciones IP, mejor enrutamiento y encriptación incrustada.
1997- En junio de 1997 se presenta la primera versión del estándar 802.11 para Wi-Fi,
que proporciona velocidades de transmisión de hasta 2 Mbps.
1999- Se oficializa el estándar 802.11a para Wi-Fi, diseñado para utilizar la banda de 5
GHz y proporcionar velocidades de transmisión de hasta 25 Mbps.
1999- A partir de mediados de 1999 se ponen a disposición del público dispositivos
802.11b que proporcionan velocidades de transmisión de hasta 11 Mbps.
1999- En septiembre de 1999 se introduce el protocolo de cifrado WEP para Wi-Fi, para
su uso con 802.11b.
2003- A partir de enero de 2003 se pusieron a disposición del público dispositivos
802.11g, que ofrecían velocidades de transmisión de hasta 20 Mbps.
2003- En 2003 se introduce el protocolo de cifrado WPA para Wi-Fi, para su uso con
802.11g.
2003- En 2004 se introduce el protocolo de cifrado WPA2, como mejora y reemplazo del
WPA. Se exige que todos los dispositivos Wi-Fi estén certificados por el WPA2 para 2006.
2009- La norma 802.11n para Wi-Fi se hizo oficial en 2009. Proporciona velocidades de
transferencia superiores a las de 802.11a y 802.11g, y puede funcionar en los anchos de
banda de 2,4 GHz y 5 GHz.
2018- La Alianza Wi-Fi introdujo en enero de 2018 el cifrado WPA3 para Wi-Fi, que
incluye mejoras de seguridad sobre WPA2.

5 Componentes de una red de datos.


Las redes de computadoras comparten dispositivos, funciones y características comunes,
incluyendo servidores, clientes, medios de transmisión, datos compartidos, impresoras
compartidas y otros recursos de hardware y software, tarjeta de interfaz de red (NIC),
sistema operativo local (LOS) y el sistema operativo de la red (NOS).
Servidores
Los servidores son computadoras que contienen archivos compartidos, programas y el
sistema operativo de la red. Los servidores proporcionan acceso a los recursos de la red a
todos los usuarios de la red. Hay muchos tipos diferentes de servidores, y un servidor
puede proporcionar varias funciones. Por ejemplo, hay servidores de archivos, servidores
de impresión, servidores de correo, servidores de comunicación, servidores de bases de
datos, servidores de fax y servidores web, por nombrar algunos. A veces también se
denomina computadora central, los servidores son computadoras poderosas que
almacenan datos o aplicaciones y se conectan a recursos que son compartidos por el
usuario de una red.
Clientes
Los clientes son computadoras que acceden y utilizan la red y los recursos compartidos de
la red. Las computadoras clientes son básicamente los clientes (usuarios) de la red, ya que
solicitan y reciben servicios de los servidores. Hoy en día, es típico que un cliente sea un
ordenador personal que los usuarios también utilizan para sus propias aplicaciones no
pertenecientes a la red.

Medios de transmisión - Los medios de transmisión son las instalaciones utilizadas para
interconectar las computadoras en una red, como el cable de par trenzado, el cable
coaxial y el cable de fibra óptica. Los medios de transmisión se denominan a veces
canales, enlaces o líneas de medios de transmisión.

Datos compartidos
Los datos compartidos son los datos que los servidores de archivos proporcionan a los
clientes, como archivos de datos, programas de acceso a impresoras y correo electrónico.
Impresoras y otros periféricos compartidos
Las impresoras y los periféricos compartidos son recursos de hardware que los servidores
proporcionan a los usuarios de la red. Los recursos proporcionados incluyen archivos de
datos, impresoras, software o cualquier otro elemento utilizado por los clientes de la red.
Tarjeta de interfaz de red
Cada computadora de una red tiene una tarjeta de expansión especial llamada tarjeta de
interfaz de red (NIC). La NIC prepara (formatea) y envía datos, recibe datos y controla el
flujo de datos entre la computadora y la red. En el lado de la transmisión, la NIC pasa
cuadros de datos a la capa física, que transmite los datos al enlace físico. En el lado del
receptor, el NIC procesa los bits recibidos de la capa física y procesa el mensaje basado
en su contenido.
Sistema operativo local
Un sistema operativo local permite a las computadoras personales acceder a los archivos,
imprimir en una impresora local, y tener y utilizar una o más unidades de disco y CD que
se encuentran en la computadora. Los ejemplos son MS-DOS, Unix, Linux, Windows 2000,
Windows 98, Windows XP, etc. El sistema operativo de la red es el software de la red.
Sirve un propósito similar al que el sistema operativo sirve en una computadora autónoma
Sistema operativo de red
El sistema operativo de red es un programa que se ejecuta en computadoras y servidores
que permite a las computadoras comunicarse a través de la red.
Hub
El Hub es un dispositivo que divide una conexión de red en varios ordenadores. Es como
un centro de distribución. Cuando una computadora solicita información de una red o de
una computadora específica, envía la solicitud al concentrador a través de un cable. El
concentrador recibirá la solicitud y la transmitirá a toda la red. Cada computadora de la
red debe entonces averiguar si los datos transmitidos son para ellos o no.

Switch
El switch es un dispositivo de telecomunicación agrupado como uno de los componentes de
la red de ordenadores. Switch es como un Hub pero construido con características
avanzadas. Utiliza las direcciones físicas de los dispositivos en cada mensaje entrante
para que pueda entregar el mensaje al destino o puerto correcto.
A diferencia de un hub, el switch no difunde el mensaje recibido a toda la red, sino que
antes de enviarlo comprueba a qué sistema o puerto debe enviarse el mensaje. En otras
palabras, el switch conecta directamente la fuente y el destino, lo que aumenta la
velocidad de la red. Tanto el switch como el hub tienen características comunes: Múltiples
puertos RJ-45, fuente de alimentación y luces de conexión.
Enrutador
Cuando hablamos de los componentes de la red de ordenadores, el otro dispositivo que se
utiliza para conectar una LAN con una conexión a Internet se llama enrutador. Cuando se
tienen dos redes distintas (LAN) o se quiere compartir una única conexión a Internet con
varios ordenadores, utilizamos un router. En la mayoría de los casos, los enrutadores
recientes también incluyen un conmutador que, en otras palabras, puede utilizarse como
un interruptor. No es necesario comprar tanto el switch como el router, especialmente si se
trata de instalar redes de pequeñas empresas y domésticas. Existen dos tipos de router:
alámbrico e inalámbrico. La elección depende de la configuración física de su
oficina/hogar, la velocidad y el costo.
Cable LAN
Un cable de red de área local también se conoce como cable de datos o cable Ethernet,
que es un cable alámbrico que se utiliza para conectar un dispositivo a Internet o a otros
dispositivos como computadoras, impresoras, etc.

6 Dispositivos de red.
Los dispositivos de hardware que se utilizan para conectar computadoras, impresoras,
máquinas de fax y otros dispositivos electrónicos a una red se denominan dispositivos de
red. Estos dispositivos transfieren datos de manera rápida, segura y correcta a través de
las mismas o diferentes redes. Los dispositivos de red pueden ser interredes o intra-redes.
Algunos dispositivos se instalan en el aparato, como la tarjeta NIC o el conector RJ45,
mientras que otros forman parte de la red, como el enrutador, el conmutador, etc.
Exploremos algunos de estos dispositivos con mayor detalle.
Módem:
El módem es un dispositivo que permite a una computadora enviar o recibir datos a través
de líneas telefónicas o de cable. Los datos almacenados en la computadora son digitales,
mientras que una línea telefónica o un cable sólo pueden transmitir datos analógicos.
Forma de onda analógico-digital
La función principal del módem es convertir la señal digital en analógica y viceversa. El
módem es una combinación de dos dispositivos: modulador y demodulador. El modulador
convierte los datos digitales en datos analógicos cuando los datos son enviados por la
computadora. El demodulador convierte las señales de datos analógicos en datos digitales
cuando los recibe el ordenador.
Tipos de módem
El módem se puede clasificar de varias maneras, como la dirección en la que puede
transmitir datos, el tipo de conexión a la línea de transmisión, el modo de transmisión, etc.
Dependiendo de la dirección de la transmisión de datos, el módem puede ser de estos tipos
-
Simplex - Un módem simplex puede transferir datos en una sola dirección, de un
dispositivo digital a una red (modulador) o de una red a un dispositivo digital
(demodulador).
Semidúplex - Un módem semidúplex tiene la capacidad de transferir datos en ambas
direcciones pero sólo en una a la vez.

Dúplex completo - Un módem dúplex completo puede transmitir datos en ambas


direcciones simultáneamente.
Conector RJ45
RJ45 es el acrónimo de Jack 45 registrado. El conector RJ45 es un jack de 8 pines usado
por los dispositivos para conectarse físicamente a las redes de área local (LAN) basadas
en Ethernet. Ethernet es una tecnología que define protocolos para establecer una LAN. El
cable usado para las LANs de Ethernet son de par trenzado y tienen pines de conector
RJ45 en ambos extremos. Estos pines entran en el enchufe correspondiente de los
dispositivos y conectan el dispositivo a la red.

Tarjeta Ethernet
La tarjeta Ethernet, también conocida como tarjeta de interfaz de red (NIC), es un
componente de hardware utilizado por las computadoras para conectarse a la red LAN de
Ethernet y comunicarse con otros dispositivos de la red. Las primeras tarjetas Ethernet
eran externas al sistema y debían ser instaladas manualmente. En los sistemas
informáticos modernos, es un componente de hardware interno. El NIC tiene un enchufe
RJ45 donde el cable de red está físicamente conectado.
La velocidad de la tarjeta Ethernet puede variar dependiendo de los protocolos que
soporta. Las viejas tarjetas Ethernet tenían una velocidad máxima de 10 Mbps. Sin
embargo, las tarjetas modernas soportan Ethernet rápidas hasta una velocidad de 100
Mbps. Algunas tarjetas incluso tienen una capacidad de 1 Gbps.
Enrutador
Un enrutador es un dispositivo de hardware de capa de red que transmite datos de una
LAN a otra si ambas redes soportan el mismo conjunto de protocolos. Por lo tanto, un
enrutador suele estar conectado al menos a dos LAN y al proveedor de servicios de
Internet (ISP). Recibe sus datos en forma de paquetes, que son tramas de datos con su
dirección de destino añadida. El enrutador también refuerza las señales antes de
transmitirlas. Por eso se le llama también repetidor.
Router
Un enrutador lee su tabla de rutas para decidir la mejor ruta disponible que el paquete
puede tomar para llegar a su destino de forma rápida y precisa. La tabla de enrutamiento
puede ser de estos dos tipos -
Estática - En una tabla de rutas estáticas las rutas se alimentan manualmente. Por lo
tanto, es adecuado sólo para redes muy pequeñas que tienen un máximo de dos o tres
enrutadores.
Dinámica - En una tabla de enrutamiento dinámica, el enrutador se comunica con otros
enrutadores a través de protocolos para determinar qué rutas están libres. Esto es
adecuado para redes más grandes en las que la alimentación manual puede no ser factible
debido al gran número de enrutadores.
Conmutador
El conmutador es un dispositivo de red que conecta otros dispositivos a redes Ethernet a
través de cables de par trenzado. Utiliza la técnica de conmutación de paquetes para
recibir, almacenar y reenviar paquetes de datos en la red. El conmutador mantiene una
lista de direcciones de red de todos los dispositivos conectados a él.
Al recibir un paquete, comprueba la dirección de destino y transmite el paquete al puerto
correcto. Antes de reenviarlo, se comprueba que los paquetes no colisionen y que no haya
otros errores de red. Los datos se transmiten en modo dúplex completo.
Interruptores
La velocidad de transmisión de datos en los conmutadores puede ser el doble de la de
otros dispositivos de red, como los concentradores utilizados para la red. Esto se debe a
que el conmutador comparte su máxima velocidad con todos los dispositivos conectados a
él. Esto ayuda a mantener la velocidad de la red incluso durante un tráfico elevado. De
hecho, las redes alcanzan velocidades de datos más altas mediante el uso de múltiples
conmutadores.
Puerta de enlace
La puerta de enlace es un dispositivo de red utilizado para conectar dos o más redes
diferentes. En el lenguaje de las redes, las redes que utilizan protocolos diferentes son
redes disímiles. Una pasarela suele ser una computadora con múltiples NIC conectadas a
diferentes redes. Una pasarela también puede configurarse completamente mediante
software. A medida que las redes se conectan a una red diferente a través de las puertas de
enlace, estas puertas de enlace suelen ser anfitriones o puntos finales de la red.
Pasarela
La pasarela utiliza la técnica de conmutación de paquetes para transmitir datos de una red
a otra. De esta manera es similar a un enrutador, con la única diferencia de que el
enrutador sólo puede transmitir datos a través de redes que utilizan los mismos protocolos.

Tarjeta Wi-Fi
Wi-Fi es el acrónimo de fidelidad inalámbrica. La tecnología Wi-Fi se utiliza para lograr
la conexión inalámbrica a cualquier red. La tarjeta Wi-Fi es una tarjeta que se utiliza para
conectar cualquier dispositivo a la red local de forma inalámbrica. El área física de la red
que proporciona acceso a Internet a través de Wi-Fi se llama punto de acceso Wi-Fi. Los
hotspots se pueden instalar en casa, en la oficina o en cualquier espacio público. Los
hotspots mismos están conectados a la red a través de cables.

9 Topologías de red.
La representación geométrica de cómo las computadoras están conectadas entre sí se
conoce como topología. Hay cinco tipos de topología: malla, estrella, bus, anillo e híbrida.
Topología de malla
En la topología de malla, cada dispositivo está conectado a todos los demás dispositivos
de la red a través de un enlace punto a punto dedicado. Cuando decimos dedicado,
significa que el enlace solo transporta datos para los dos dispositivos conectados.
Digamos que tenemos n dispositivos en la red, entonces cada dispositivo debe estar
conectado con (n-1) dispositivos de la red. El número de enlaces en una topología de malla
de n dispositivos sería n (n-1) / 2.
Ventajas de la topología de malla
1. No hay problemas de tráfico de datos ya que hay un enlace dedicado entre dos
dispositivos, lo que significa que el enlace solo está disponible para esos dos dispositivos.
2. La topología de malla es confiable y robusta, ya que la falla de un enlace no afecta a
otros enlaces ni a la comunicación entre otros dispositivos en la red.
3. La topología de malla es segura porque hay un enlace punto a punto, por lo que no es
posible el acceso no autorizado.
4. La detección de fallas es fácil.
Desventajas de la topología de malla
1. La cantidad de cables necesarios para conectar cada sistema es tediosa y dolorosa.
2. Dado que cada dispositivo debe estar conectado con otros dispositivos, la cantidad de
puertos de E / S necesarios debe ser enorme.
3. Problemas de escalabilidad porque un dispositivo no se puede conectar con una gran
cantidad de dispositivos con un enlace punto a punto dedicado.

Topología de las estrellas


En topología en estrella, cada dispositivo de la red está conectado a un dispositivo central
llamado hub. A diferencia de la topología de malla, la topología en estrella no permite la
comunicación directa entre dispositivos, un dispositivo debe tener que comunicarse a
través de un concentrador. Si un dispositivo desea enviar datos a otro dispositivo, primero
debe enviar los datos al concentrador y luego el concentrador transmite esos datos al
dispositivo designado.
Ventajas de la topología en estrella
1. Menos costoso porque cada dispositivo solo necesita un puerto de E / S y debe estar
conectado con un concentrador con un enlace.
2. Más fácil de instalar
3. Se requiere menos cantidad de cables porque cada dispositivo necesita estar conectado
solo con el concentrador.
4. Robusto, si un enlace falla, otros enlaces funcionarán bien.
5. Fácil detección de fallas porque el enlace se puede identificar fácilmente.
Desventajas de la topología en estrella
1. Si el hub deja de funcionar, todo se cae, ninguno de los dispositivos puede funcionar sin
hub.
2. El concentrador requiere más recursos y un mantenimiento regular porque es el sistema
central de topología en estrella.

Topología del bus


En la topología de bus hay un cable principal y todos los dispositivos están conectados a
este cable principal a través de líneas de derivación. Hay un dispositivo llamado tap que
conecta la línea de derivación al cable principal. Dado que todos los datos se transmiten a
través del cable principal, existe un límite de líneas de derivación y la distancia que puede
tener un cable principal.
Ventajas de la topología de bus
1. Fácil instalación, cada cable debe conectarse con un cable principal.
2. Se requieren menos cables que la topología de malla y estrella
Desventajas de la topología de bus
1. Dificultad en la detección de fallas.
2. No es escalable, ya que existe un límite en la cantidad de nodos que puede conectar con
el cable principal.

Topología en anillo
En la topología de anillo, cada dispositivo está conectado con los dos dispositivos a cada
lado. Hay dos enlaces dedicados punto a punto que tiene un dispositivo con los
dispositivos a ambos lados. Esta estructura forma un anillo, por lo que se conoce como
topología de anillo. Si un dispositivo desea enviar datos a otro dispositivo, entonces envía
los datos en una dirección, cada dispositivo en topología de anillo tiene un repetidor, si los
datos recibidos están destinados a otro dispositivo, el repetidor reenvía estos datos hasta
que el dispositivo deseado los reciba.
Ventajas de la topología en anillo
1. Fácil de instalar.
2. La administración es más fácil, ya que para agregar o eliminar un dispositivo de la
topología, solo se requieren dos enlaces para cambiar.
Desventajas de la topología en anillo
1. Una falla de enlace puede fallar en toda la red ya que la señal no avanzará debido a la
falla.
2. Problemas de tráfico de datos, ya que todos los datos circulan en un anillo.

Topología híbrida
Una combinación de dos o más topologías se conoce como topología híbrida. Por ejemplo,
una combinación de topología en estrella y en malla se conoce como topología híbrida.
Ventajas de la topología híbrida
1. Podemos elegir la topología según el requisito, por ejemplo, la escalabilidad es nuestra
preocupación, entonces podemos usar la topología en estrella en lugar de la tecnología de
bus.
2. Escalable, ya que podemos conectar otras redes informáticas con las redes existentes
con diferentes topologías.
Desventajas de la topología híbrida
1. La detección de fallas es difícil.
2. La instalación es difícil.
3. El diseño es complejo, por lo que el mantenimiento es elevado y, por tanto, caro.

10 Medios de transmisión de datos.

Los datos se transfieren en forma de bits entre dos o más dispositivos digitales. Existen dos
métodos para transmitir datos entre dispositivos digitales: transmisión en serie y
transmisión en paralelo. La transmisión de datos en serie envía bits de datos uno tras otro
a través de un solo canal. La transmisión de datos en paralelo envía múltiples bits de datos
al mismo tiempo a través de múltiples canales.

Los bits de datos de transmisión en serie asincrónica se pueden enviar en cualquier


momento. Los bits de parada y los bits de inicio se utilizan entre los bytes de datos para
sincronizar el transmisor y el receptor y para garantizar que los datos se transmitan
correctamente. El tiempo entre el envío y la recepción de bits de datos no es constante, por
lo que los espacios se utilizan para proporcionar tiempo entre transmisiones.

Transmisión en serie síncrona

Los bits de datos se transmiten como un flujo continuo en el tiempo con un reloj
maestro. El transmisor y el receptor de datos funcionan utilizando una frecuencia de reloj
sincronizada; por lo tanto, los bits de inicio, los bits de parada y los espacios no se
utilizan. Esto significa que los datos se mueven más rápido y los errores de sincronización
son menos frecuentes porque la hora del transmisor y el receptor está sincronizada. Sin
embargo, la precisión de los datos depende en gran medida de que la sincronización se
sincronice correctamente entre dispositivos. En comparación con la transmisión en serie
asíncrona, este método suele ser más caro.

Transmisión paralela

Cuando los datos se envían mediante transmisión de datos en paralelo , se transmiten


varios bits de datos a través de varios canales al mismo tiempo. Esto significa que los
datos se pueden enviar mucho más rápido que con los métodos de transmisión en serie.

11 Programas en línea para publicar datos.


Buffer
Es una de las utilidades más conocidas para programar publicaciones en perfiles de redes
sociales. En unos pocos clicks puedes conectar las cuentas de Facebook, Twitter, LinkedIn,
Pinterest y Google+, y empezar a programar y compartir contenido, con gran flexibilidad
en las opciones de programación. De esta forma creas un calendario de publicación con
todos los artículos en cola, y ahorras tiempo.
También cuentas con un acortador de enlaces integrado, y con informes estadísticos para
saber qué tal han funcionado los artículos que has compartido y utilizar estos datos en tu
estrategia de redes sociales.
Hootsuite
Otro clásico de la programación de publicaciones en redes sociales es Hootsuite, que
también cuenta con una versión gratuita de funciones limitadas. Te permite controlar
diversos perfiles de redes sociales (Facebook, Twitter, Instagram, LinkedIn y Google+)
desde un único panel, y programar contenido en todos ellos con enlaces, imágenes o
incluso vídeo integrado.
Dispones también de una herramienta con la que monitorizar tus publicaciones, con
análisis y estadísticas de su alcance, número de clics en los enlaces, y otros datos
interesantes.

Sproutsocial
En Sprout Social encontrarás utilidades para gestionar los perfiles de Facebook, Twitter,
Google+ y LinkedIn, publicar actualizaciones, monitorizar resultados y analizar datos
desde una única interfaz.
Cuando empiezas a usarlo puede parecer un poco confuso, debido a que te da acceso a
mucha información: datos demográficos de tu audiencia, tendencias, impresiones,
interacciones con usuarios, etc.

12 Publisher, InDesign, QuarkXpress, Corel Draw.


Publisher
El  Microsoft  Publisher, denominado formal y oficialmente como Microsoft Office
Publisher , es una aplicación de autoedición de Microsoft Corporation. Generalmente, se
lo considera como un programa netamente para principiantes que se diferencia
ciertamente del popular procesador de textos Word porque el Publisher especialmente
hace hincapié en el diseño y la maquetación de páginas antes que en el proceso y la
corrección de los textos tal lo que ocurre con Word.

InDesign
Es una aplicación que se utiliza para realizar la maquetación de páginas a nivel
profesional. Se encuentra ampliamente difundida en la industria gráfica tradicional para
diarios, revistas, folletos, etcétera; en desarrollos web y en publicaciones digitales
QuarkXPress
Es un programa de Autoedición para ordenadores Mac OS X y Windows, producido
porQuark Inc. Quark Inc. puede ser considerada como una de las primeras empresas
decanas de autoedición (junto con Aldus, Adobe Systems y Apple Computer). La primera
version de QuarkXPress apareció en1987.
Una de las primeras tecnologías que hicieron despuntar al programa fue el uso
de  XTensiones que permiten a desarrolladores externos implantar su propio software
mediante el uso de extensiones creadas por ellos mismos.
Además de QuarkXPress, Quark Inc. comercializa otro producto llamado "QuarkXPress
Passport", que es básicamente el mismo QuarkXPress con la capacidad de usar multiples
lenguajes en su interfaz, separación de palabras, etc.
Aunque comparable a otros programas de Autoedición como Adobe
PageMaker o Microsoft Publisher, QuarkXPress es el único, junto a Adobe InDesign, que
está considerado como una herramienta verdaderamente profesional, dentro del gremio de
editores, impresores y fotomecánicos.

CorelDRAW
Es un software informático de edición gráfica avanzado, que incluye diversos tipos de
funciones de alteración y transformación de imágenes y páginas.

13 Sway (Microsoft), Blogger.


Sway
Es aplicación de Microsoft Office con la que resulta más fácil crear y compartir informes
interactivos, historias personales, presentaciones y más. Comience por agregar su propio
texto e imágenes, buscar e importar contenido relevante de otros orígenes y luego deje
que  Sway haga el resto.
Blogger
Como su nombre lo refleja, es una plataforma para creación de blogs. Su practicidad
puede ayudar a pequeñas empresas que nunca han hecho Marketing de Contenidos a
iniciar esta estrategia.
Muchos dueños de negocios escuchan decir que hacer Marketing Digital es muy
importante, pero olvidan que para desarrollarlo es necesario una serie de acciones e
inversiones que pueden no encajar en su presupuesto ni en el tiempo del equipo de
trabajo.
ASIGNATURA: CATEDRA AFROCOLOMBIANA
Temas:
1 Territorio e identidad en diferentes comunidades étnicas.
La identidad indígena es compleja, porque está inextricablemente unida a la preservación
del territorio. Desde ese presupuesto, la identidad se conserva desde una base en donde se
desarrolla la vida, su cultura, su espiritualidad, y en donde se plasma su cosmovisión. La
identidad se encuentra retroalimentada por el espacio físico, y sin éste de vuelve
prácticamente imposible la sobrevivencia como Pueblos. Esta idea no es menor, porque de
lo que se trata no es que individuos aislados puedan alcanzar diferentes fines, puedan
reinventarse, someterse a procesos de transculturación, etc. De lo que se trata es de
proteger una cosmovisión, una idea de colectividad, una forma de vivir comunitariamente
que requiere de un lugar en donde desplegarse. El territorio y la identidad, así
presentados, forman parte de un entramado de derechos. No es casualidad que la
jerarquización de derechos indígenas contemplados en los instrumentos jurídicos
internacionales no exista. Todos los derechos se encuentran claramente vinculados. Sí es
indiscutible que la reivindicación de derechos territoriales adquiere centralidad
precisamente porque es el soporte desde donde pueden desarrollarse un conjunto de otros
derechos.

2 Historias fundacionales propias de diferentes etnias


De los veintiún países en los que trabaja Ayuda en Acción, Colombia es una de las
naciones con un mayor número de comunidades indígenas en Latinoamérica.
El pueblo wayú: entre Colombia y Venezuela
El pueblo wayú vive en la península de Guajira, una de las zonas más septentrionales de
Sudamérica, y representan el 20 % de la población indígena en Colombia, si bien más de
un 50 % de su población vive en Venezuela. Los wayuus o guajiros hablan casi en su
totalidad wayuunaiki como lengua materna y un 32 % de los mismos también habla
castellano. Sus raíces se encuentran en los pueblos arawak que llegaron a la región
alrededor del 150 ANE y su organización se da en clanes patriarcales que practican la
poligamia y refuerzan los matrimonios mediante acuerdos políticos y económicos entre las
familias.

En las tierras altas, los pastos o nariños


Entre las comunidades indígenas más extensas en Colombia se encuentran también los
pastos (55.739 personas), quienes no conservan su dialecto debido a los continuos
intercambios culturales. Los pastos fueron la tribu más numerosa de la zona interandina
de Nariño, una sociedad agraria con una gran espiritualidad unida a la tierra; entre los
rituales principales de la comunidad se conserva la guayusa chapil, un hervido tradicional
que permite a sus miembros un contacto más directo con la naturaleza.
Los dispersos emberá o chocó
El carácter más expansivo y disperso, tanto por línea paterna como materna, para forjar
alianzas con otros grupos ha permitido a los emberá preservar una población de más de
68.000 entre Colombia, Panamá y Ecuador.

Los emberá, o chocó en Colombia, viven en parcelas construidas a lo largo del caudal del
río Curiche, aunque otras familias de la comunidad también habitan zonas de montaña, de
selva y mar; tienen su propia organización social, centrada en la caza y la pesca y han
preservado su lengua: el waunaan. Sin embargo, quizá lo más interesante sea su visión
cosmológica: el jaibanismo, que considera prioritario el contacto con los espíritus o jai del
agua (Dojura), los espíritus madre de animales y plantas (Wandra) y los jai de animales
selváticos, que consideran transformaciones del espíritu de los humanos que han fallecido
(Antumiá).

Otras comunidades indígenas en Colombia


Aunque el gobierno colombiano ya reconoce 87 grupos indígenas distintos, la
Organización Nacional Indígena de Colombia mantiene que hay 102 comunidades
distintas. En 2005, se contabilizó a casi 1.400.000 personas indígenas: es decir, el 3,5 %
de la población del país. Otras comunidades destacadas son los pueblos guambinos,
agricultores organizados en grupos domésticos patrilocales, los arhuacos, que han
abandonado en gran parte la agricultura tradicional por la producción de café, así como
los uitoto o los pueblos amazónicos ticuna y nukak maku.

Sus poblaciones varían entre unos cientos de individuos y decenas de miles, pero
cualquiera de estas comunidades indígenas en Colombia guarda una historia, una visión
del mundo y una cultura que en Ayuda en Acción creemos que es digna de ser preservada y
empoderada como parte de nuestro conocimiento como especie y por derecho propio de
los pueblos.

3 Leyes de resguardos
Artículo 2.14.7.5.1. Naturaleza Jurídica. Los resguardos indígenas son propiedad colectiva
de las comunidades indígenas en favor de las cuales se constituyen y conforme a los
artículos 63 y 329 de la Constitución Política, tienen el carácter de inalienables,
imprescriptibles e inembargables.
Los resguardos son una institución legal y sociopolítica de carácter especial, conformada
por una o más comunidades indígenas, que con un título de propiedad colectiva que goza de
las garantías de la propiedad privada, poseen su territorio y se rigen para el manejo de éste
y su vida interna por una organización autónoma amparada por el fuero indígena y su
sistema normativo propio.
Parágrafo. Los integrantes de la comunidad indígena del resguardo no podrán enajenar a
cualquier título, arrendar por cuenta propia o hipotecar los terrenos que constituyen el
resguardo. (Decreto 2164 de 1995, art.21)

Artículo 2.14.7.5.2. Manejo y Administración. Las áreas que se constituyan con el carácter
de resguardo indígena serán manejadas y administradas por lo respectivos cabildos o
autoridades tradicionales de las comunidades, de acuerdo con sus usos y costumbres, la
legislación especial referida a la materia y a las normas que sobre este particular se adopten
por aquellas. (Decreto 2164 de 1995, art.22)

Artículo 2.14.7.5.3. Servidumbres y construcción de obras. Los resguardos indígenas


estarán sometidos a las servidumbres establecidas por las leyes vigentes. Cuando en un
resguardo se requiera la construcción de obras de infraestructura de interés nacional o
regional, sólo podrán constituirse previa concertación con las autoridades de la comunidad
y la expedición de la licencia ambiental, cuando esta se requiera, determinando la
indemnización, contraprestación, beneficio o participación correspondiente. (Decreto 2164
de 1995, art.23)

Artículo 2.14.7.5.4. Aguas de uso público. La constitución, ampliación y reestructuración


de un resguardo indígena no modifica el régimen vigente sobre aguas de uso público.
(Decreto 2164 de 1995, art.24)
Artículo 2.14.7.5.5. Obligaciones constitucionales legales. Los resguardos indígenas
quedan sujetos al cumplimiento de la función social y ecológica de la propiedad, conforme
a los usos, costumbres y cultura de la comunidad.
Así mismo, con arreglo a dichos usos, costumbres y cultura, quedan sometidos a todas las
disposiciones sobre protección y preservación de los recursos naturales renovables y del
ambiente. (Decreto 2164 de 1995, art.25)

Artículo 2.14.7.5.6. Procedimientos en curso. Los procedimientos de constitución,


saneamiento y ampliación de resguardos indígenas que se hallen en curso al momento de
entrar a regir el presente decreto, se culminarán con base en los estudios y realizados por el
INCORA, previa complementación de los mismos si a ello hubiere lugar. (Decreto 2164 de
1995, art. 26)

Artículo 2.14.7.5.7. Resguardos coloniales. Los procedimientos de restructuración y


ampliación de resguardos indígenas de origen colonial que se hallen en curso al momento
de entrar a regir el presente decreto, serán definidos por el Instituto y en la providencia que
los culmine se resolverá sobre la vigencia legal de los títulos del resguardo, salvo que los
respectivos estudios ya se hubieren realizado. (Decreto 2164 de 1995, art. 27)
4 Territorio de paz
Es prioridad de una nación buscar los mecanismos que le eviten su desintegración. Los
líderes deben siempre destacarse por su capacidad de iniciativa, por su audacia al
momento de superar los proyectos que han condenado a su pueblo a vivir una historia sin
evolución. Todo ciudadano tiene el derecho a sentir que sus aspiraciones hacen parte de la
construcción de un esfuerzo del colectivo.
Hace años, todas las iniciativas de diálogo con miras a la desmovilización de los grupos
armados debían superar una fase de desgaste, una rutina agotadora para sólo acordar el
lugar donde debía instalarse la mesa de diálogo y el lugar de asentamiento de tropas.
Hecho que prácticamente hacía presagiar el poco alcance de su vuelo. Los gobiernos de
turno esgrimían una razón que aparentaba mucho peso: no se podía permitir la fractura
del territorio, esto es, de la propia soberanía.
Entonces la naturaleza de la discusión se percibía como una dinámica de paz que partía
del acercamiento, pasaba por el cese de hostilidades hasta alcanzar un desenlace de
transición, con o sin reconocimiento de poder.

5 Procesos de desplazamiento de las diferentes comunidades etnicas


La aplicación de diversas violencias asociadas a la guerra, a la acumulación vertiginosa e
ilegal de capital y a la "domesticación" de lo social hacen parte del repertorio de causas
generadoras de desplazamiento forzado en Colombia. El destierro, el despojo y la
deslocalización son tres de los resultados más significativos del proceso de desplazamiento
forzado al que son sometidos muchas personas, familias, comunidades y pueblos indígenas
en Colombia. Estos tres efectos comunes a cualquier desplazamiento forzado tienen
significados, impactos y respuestas diferenciales para su afrontamiento según la edad, el
género y la pertenencia étnica de las personas afectadas. Someter y/o desterrar, despojar y
deslocalizar son a su vez objetivos de los actores armados de la guerra y de otros agentes
violentos que encuentran en el desplazamiento forzado una estrategia directa o colateral
que les permite controlar y/o usufructuar poblaciones, territorios, y recursos, según sus
propios intereses o los de "terceros incluidos" que los financian o promueven. Poderosos
intereses económicos, políticos y culturales están a la base de los procesos de expulsión de
pueblos comunidades y pueblos indígenas, afrocolombianos, campesinos y colonos. En
síntesis, la guerra como "actor" difuso oculta actores, sectores, intereses y disputas más
concretas.
La ubicación estratégica y el correlativo control de territorios en disputa abarcan
corredores de tránsito, zonas de retaguardia o avanzada de los actores armados. Pero
desde una lectura complementaria al registro de la confrontación armada, la disputa por
recursos no menos estratégicos relacionados con la oferta biofísica: biodiversidad, agua
dulce, yacimientos de hidrocarburos, carbón, gas natural, oro, platino, la existencia o
posibilidad de expansión de cultivos de uso ilícito, entre otros recursos, hacen parte de los
motivos por los cuales se expulsan de sus territorios a indígenas, afrocolombianos y
campesinos.
6 Estadísticas sobre dinámicas poblacionales de comunidades afro, indígenas y rom
A partir de la década de 1990, en la República de Colombia se han realizado 12 censos de
población, en 10 de ellos se indagó por la población Indígena, en 4 por la población Negra,
Afrocolombiana, Raizal, Palenquera y en 2 por la población Gitana.

7 Megaproyectos y multinacionales como agentes que provocan deslazamiento en las


comunidades étnicas
Para acceder a las riquezas y adecuarse a la dinámica del mercado global son precisas
una serie de infraestructuras que Colombia comienza construir y que comportan unos
costos económicos y sociales ingentes, costos que el modelo neoliberal del Estado se
encuentra dispuesto a acometer en forma de grandes megaproyectos minero-extractivos,
energéticos o agroindustriales: vías nacionales y regionales, puertos y aeropuertos,
grandes presas y embalses, plantas eléctricas, etc.

Esta situación se deriva de los intereses en materia geoestratégica y ambiental, de manera


que lo convierten en una pieza clave dentro de la coyuntura nacional. Es así como esta
situación ha propiciado importantes modificaciones demográficas y territoriales. Las
primeras afectan a los movimientos espaciales de diferentes etnias y comunidades
campesinas, las segundas se han traducido en un notable deterioro del medio ambiente y
en una modificación de la estructura de la propiedad de la tierra, de la explotación y los
cultivos, así como de los espacios urbanos que reciben a la población desplazada por la
violencia.

8 Políticas publicas frente al fenómeno del desplazamiento


Para el análisis de la política pública en materia de atención a las personas en situación
de desplazamiento forzado en Colombia, se cuenta con buen número de documentos
elaborados por organizaciones no gubernamentales y agencias internacionales, informes
evaluativos de importantes organismos del Estado y memorias resultantes de múltiples
seminarios y jornadas académicas sobre el tema. A través de ellos, se pueden establecer
los alcances y resultados de la aplicación de las políticas públicas; en buena medida se
trata de investigaciones y balances realizados por organizaciones no gubernamentales
como la Consultoría para Derechos Humanos y el Desplazamiento (CODHES), la
Conferencia Episcopal de Colombia, el Alto Comisionado de las Naciones Unidas para los
Refugiados (ACNUR) y agencias del Estado como la Contraloría, las universidades y la
Corte Constitucional. Una parte de estos trabajos ha presentado balances generales desde
un enfoque de derechos (este enfoque busca determinar el grado de cumplimiento de las
obligaciones estatales contraídas en el marco de las leyes y los acuerdos internacionales);
otros trabajos apuntan a señalar los alcances y limitaciones del enfoque gubernamental de
la política, así como las implicaciones que tiene para la población desplazada la
expedición de la Ley 975 de 2005, conocida como Ley de Justicia y Paz.

9 Factores del conflicto armado


El conflicto armado en Colombia, que ha dejado alrededor de siete millones de víctimas,
constituye una responsabilidad compartida entre las Farc, los paramilitares y el Estado.

Algunos de los factores del conflicto son:


 El narcotráfico y la “economía de guerra”, cuyos recursos potenciaban a los
distintos grupos armados y criminales y que posibilitó problemáticas como los
cultivos ilícitos y la asociación de actores políticos con estos grupos.
 Secuestro y extorsión, que dio recursos a los grupos guerrilleros y aumentó su
capacidad de reclutamiento. 
 La precariedad institucional o la debilidad del Estado en materia de obtención de
recursos para las entidades públicas, la infraestructura del territorio, la
satisfacción de las necesidades de la población (educación, salud, justicia, entre
otras) y “el tamaño y la calidad de la Fuerza Pública”.
 El nacimiento de paramilitares, que se sostuvo gracias a la insubordinación de
élites rurales legales, quienes se sentían desprotegidas por el Estado, las
estructuras ilegales, especialmente mafias, la participación de sectores de la clase
política y la participación de agentes del Estado. 

 La incidencia de grupos armados y recursos ilegales en los procesos electorales del


país.
 La inequidad y las irregularidades en la distribución de la tierra y los derechos de
propiedad. 
 El círculo vicioso en que se ha convertido la violencia, la cual genera daños y
precariedad en la sociedad, pero también crea rupturas éticas y en la Ley.

10 Comunidad étnica genérica colombiana


El 3,43% de la población colombiana pertenecen a los 102 pueblos indígenas, 13 más se
encuentran en proceso de reconocimiento por parte de Ministerio del Interior. En la
actualidad existen 737 resguardos legalmente constituidos, ubicados en 234 municipios y
en 27 departamentos. La matrícula de estudiantes indígenas en el país es de 389.779
(Fuente SIMAT 2017).

En el país el 10,62% pertenece a la Población Negra, Afrocolombiana, Raizal Palenquera –


NARP. Actualmente en el Sistema Educativo se encuentran matriculados 314.943
estudiantes pertenecientes a la población Negra, 91.605 estudiantes pertenecientes a la
población Afrodescendiente, 1.632 estudiantes pertenecientes a la población Raizal y 90
estudiantes pertenecientes a la población Palenquera. Para un total de 414.270 estudiantes
pertenecientes a las Comunidades NARP.

El 0,01% de la población colombiana pertenecen al pueblo Rrom o Gitano, esta población


no se ubica en territorios específicos, sino en comunidades Semi-nómadas denominadas
Kumpañy, en la actualidad existen 11 en; Sampués en el Departamento de Sucre, Sahagún
y San Pelayo en el Departamento de Córdoba, Pasto en el Departamento de Nariño, Girón
en el Departamento de Santander, Cúcuta en el Departamento de Norte de Santander,
Ibagué en el Departamento del Tolima, Envigado en el Departamento de Antioquia
Sabanalarga en el Departamento de Atlántico, y dos Kumpany en el Departamento de
Cundinamarca ubicadas en Bogotá. La matrícula es de 125 estudiantes Rrom.
11 Resguardos colombianos, resguardos internacionales

En Colombia

La legislación nacional otorga a los indígenas el derecho sobre los territorios


ancestralmente ocupados, su aprovechamiento y el uso de los recursos naturales. La
legitimización y reconocimiento de las tierras se hace bajo la figura jurídica de
Resguardos Indígenas en propiedad colectiva de la misma, con carácter imprescriptible e
inembargable.

Entre las disposiciones legales más importantes que reconocen el derecho sobre los
territorios existe la Ley 89 de 1890, que hace aportes fundamentales a la protección y
conservación de los pueblos indígenas y sus territorios. La Ley 60 de 1916 dio facultades
para demarcar los territorios habitados por indígenas que se consideraban baldíos. Más
tarde la Ley 135 de 1961 (Reforma Social Agraria), indica en su Artículo 29 que "...no
podrán hacerse adjudicaciones de tierras baldías que estén ocupados por indígenas, si no
es con aceptación de la División de Asuntos Indígenas".

En Colombia la entidad responsable de constituir los Resguardos Indígenas, es el Instituto


Colombiano de la Reforma Agraria (INCORA), a través de la División de Asuntos
Indígenas. A esta por su parte, le ha sido asignada la función de velar por los derechos de
los indígenas sobre sus Resguardos, como también a prestar asesoría, asistencia legal y
promover la constitución de Cabildos.
La Ley 89 de 1980 y demás normas vigentes de la Legislación Nacional, establecen que las
comunidades indígenas tienen pleno derecho a organizar Cabildos de acuerdo a sus
formas de organización tradicional.

En Brasil

La nueva Constitución brasileña establece; "son reconocidos los indígenas, su


organización social, costumbres, lenguas, creencias y tradiciones, y los derechos
originales sobre las tierras que tradicionalmente ocupan, y compete a la Unión
demarcarlas, protegerlas y hacer respetar todos sus derechos".

La entidad federal responsable por la asistencia y la protección a esas comunidades es la


Fundación Nacional del Indígena (FUNAI), vinculada al Ministerio del Interior
(MINTER). De conformidad con el Estatuto del Indígena, la FUNAI realiza una
programación dedicada al desarrollo de las comunidades y la regulación de sus tierras.

De esta manera se busca, su interacción simétrica con la comunidad nacional, basada en


el respeto a los usos, costumbres y tradiciones así como su autosuficiencia

Preguntas:
2-Características
3-Aportes
4-Cuántas generaciones han prevalecido
5-Qué se conoce de esto
6-Qué zonas cubre

También podría gustarte