Expos
Expos
Grupo: 10
Integrantes:
Campos Acosta, Marx Dalesxandro 20200163
Cubas Huaranga Julio Santiago 20200170
Perez Olaguivel, Rolando German 20200197
Quiñonez Flores, Diego 20200233
Terrones Chinchay, Favio Alonso 19200046
Vidalón Flores, Daniel Omar 17200244
Lima, 2022
1
Modelamiento de sólidos: representación de fronteras - Brep
2
Índice
1. Introducción 4
2. Objetivos 5
3. Marco teórico 5
4. Productos 19
5. Conclusiones 21
6. Bibliografía 22
3
1. Introducción
de sólidos. Es un enfoque popular para crear un modelo sólido de un objeto físico. Este
modelo de objeto tridimensional que está encerrado por superficies o caras y tiene su propio
interior y exterior. Describe la forma como una colección de superficies que separan su
interior del entorno exterior. Es adecuado para diseños complejos, las facetas de polígono son
ya que describe solo la superficie orientada de un sólido como una estructura de datos
compuesta de vértices, aristas y caras. Hay que tener en cuenta que un objeto B-rep se
esquema de representación de borde al lado y los operadores de Euler para B-rep. Puntos que
son beneficiosos al momento de realizar las aplicaciones. Por otro lado, la abundancia,
4
Por lo mencionado anteriormente, se ha fijado como objetivo fundamental, estudiar y
producto o programa.
2. Objetivos
representación de fronteras.
3. Marco teórico
5
Figura 1. Niveles de representación de sólidos
representación se basa en el estudio de las aristas, vértices y caras del objeto (Torres, s.f. ).
necesario que sean trasladados primero a una representación poliédrica (Vendrell, 2011 ).
6
Figura 3. Conversión de figura curva a su forma poliédrica
Los sólidos pueden ser representados por medio de un árbol, en donde la raíz es el
objeto como tal, el siguiente nivel son las caras y el siguiente nivel son los bucles (conjunto
7
Figura 5. Representación de árbol de la Figura 4
Las dos formas más conocidas de representar un objeto por medio de la B-rep son por
algoritmo sobre él, se basa en el análisis de cada cara por separado, enumerando y
asociando cada una a una lista de vértices. Esta información se almacena en una única
tabla.
Cara Vértices
1 V1 (0,1,1) V2 (0,0,1) V3 (1,0,1) V4 (1,1,1)
2 V3 (1,0,1) V4 (1,1,1) V5 (1,1,0) V6 (1,0,0)
3 V1 (0,1,1) V4 (1,1,1) V5 (1,1,0) V8 (0,1,0)
4 V1 (0,1,1) V2 (0,0,1) V7 (0,0,0) V8 (0,1,0)
5 V5 (1,1,0) V6 (1,0,0) V7 (0,0,0) V8 (0,1,0)
6 V2 (0,0,1) V3 (1,0,1) V6 (1,0,0) V7 (0,0,0)
8
3.2.2. B-rep por arista alada
más conocida. Esta forma se basa principalmente en el estudio de la arista con sus
vértices y caras asociadas generando tres tablas, una tabla de caras, una tabla de
En esta tabla cada cara es un conjunto orientado de bucles de aristas. Para cada
arista se almacena una sola arista incidente de esa cara en cada uno de los bucles que
la componen.
Cara Arista
CX
CY
… …
Vértice Arista
VX
VY
… …
9
3.2.2.3. Tabla de aristas
En esta tabla cada arista se define con dos vértices incidentes direccionados,
dos caras adyacentes, y las dos aristas para una cara adyacente a la arista y las otras
dos aristas para la otra cara adyacente a la arista. La dirección del análisis de las
vértices de la arista.
B-rep, tomaremos como ejemplo la Figura 4, con los vértices, caras y aristas
10
La arista A3 tiene dos caras adyacentes, C1 y C2, ósea tanto las caras C1
como C2 comparten a la arista A3 como parte de sus aristas. Tiene como vértices al
vértice V3 y V4 y a otras aristas incidentes A2, A7, A4 y A5. Para empezar a elaborar
las tablas, analizamos a detalle la arista A3, como se puede ver en la Figura 6.
cara C2 y la arista A5 es la sucesora. Repetimos este análisis para las demás caras del
11
Tabla 5. Tabla de aristas de la Figura 6
Cara Arista
C1 A4
C2 A5
C3 A12
C4 A11
C5 A7
C6 A4
Vértice Arista
V1 A4
V2 A2
V3 A7
V4 A5
V5 A6
V6 A8
V7 A10
V8 A11
12
3.3. Problemas en la representación de fronteras
“El modelado de fronteras no está exento de problemas, sobre todo si se desea operar
booleanamente con los objetos B-rep.”(Ramos, s.f., p.12).Por ejemplo, supongamos que se
quiere efectuar la unión entre dos objetos en forma de L, tal como se muestra en la figura.
Vemos que el resultado inicial (a) no es un objeto euleriano, dado que la arista (P, Q)
pertenece a 4 caras. Para resolver este tipo de problemas, los sistemas de modelado pueden
- Todos los objetos deben ser eulerianos, por lo que los resultados no eulerianos
serán considerados como error. García( s.f., p.12) plantea que aunque puede dar buenos
resultados, impone severas restricciones a los modeladores, sobre todo los que efectúan
sistema, incluso pueden llegar a rechazar los resultados intermedios resultantes al aplicar los
operadores de Euler.
13
- Los objetos son todos eulerianos, pero se permiten las coincidencias
decir, sean independientes. García y Fernández( s.f., p.12) concluyen que se tiene que dar
aunque sus coordenadas geométricas coincidan. El problema está en que hay dos posibles
interpretaciones topológicas: la “b”, que como vemos se trata de un objeto de grado 0 (familia
de las esferas), y la “c”, que es un objeto euleriano de grado 1 (familia del toro). ¿Cuál de las
dos es la apropiada? Normalmente se opta por la solución más simple, es decir, los resultados
esta es la solución más cómoda, ya que simplifica mucho los algoritmos al no tener que
verificar la integridad de los modelos. En contrapartida, deberá ser el usuario quien ponga
cuidado en que sus modelos sean más o menos coherentes. Por definición, este planteamiento
queda descartado del Modelado Sólido estricto, aunque puede ser válido en otros muchos
algunos problemas prácticos. Una de las causas se debe a que los modelos poliédricos sólo se
aproximan a las superficies de los objetos que no son poliedros, requiriendo gran cantidad de
14
3.4. Validez de los modelos de fronteras
imponen una serie de condiciones a ésta, que pueden verse como una restricción del conjunto
imagen del método. Para la representación de fronteras de un sólido válido se debe cumplir:
geométricas que son costosas. Una forma rápida de detectar modelos no válidos es comprobar
la fórmula de Euler, que establece una relación invariante entre caras, aristas y vértices de
cualquier poliedro.
𝐹ó𝑟𝑚𝑢𝑙𝑎 𝑑𝑒 𝐸𝑢𝑙𝑒𝑟: 𝑉 − 𝐴 + 𝐶 − 2 = 0
Donde:
V= Número de vértices.
A= Número de aristas.
15
C= Número de caras
Ejemplo:
Solución:
V=8
A = 12
C=6
- Sólidos con agujeros: Sólidos que permanecen limitados por una superficie
Donde:
V= Número de vértices.
A= Número de aristas.
C= Número de caras
16
Ejemplo:
Solución:
V=24
A=44
C=18
G=2
- Sólidos con agujeros y huecos internos: Sólidos con huecos internos (burbujas)
Donde:
V= Número de vértices.
A= Número de aristas.
C= Número de caras
S= Número de conchas
L= Número de bucles
17
Ejemplo:
Solución:
V=24
A=36
C=16
G=1
L=18
S=2
18
4. Productos
el resultado de la aplicación en donde se muestran tanto los vértices de cada cara como la
figura resultante.
Para la construcción del cubo en la Figura 12, se inicializan los puntos de los vértices
contorno cuadrado del cubo, finalmente se rellenaron las caras con polígonos
(GL_POLYGON), considerando una función especial que permite tener una mejor
19
Aplicación de B-REP:
muy importante, debido al hiperrealismo que le puede dar a esto, creando criaturas o
monstruos, de acuerdo a la imaginación que el usuaria tenga. Para poder generar estos
modelamientos tan realistas, se utilizan programas como Blender, que es un programa que
permite esculpir, animar y realizar efectos visuales. Estos programas tienen como base el
vértices y aristas.
Ahí vemos que el objeto se toma y se puede configurar o moldear a lo que uno desea,
Cualquier modificación que sufra este objeto, hará que se modifique de manera interna sus
20
5. Conclusiones
Así que sabiendo una de las ventajas de usar la Representación de fronteras - Brep es
su mayor poder expresivo que otros modelamientos de sólidos, debido a que describe la
superficie orientada de un sólido como una estructura de datos compuesta de vértices, aristas
debe tomar en cuenta la estructura compleja y la gran cantidad de información que carga el
superficie, el esquema de representación de la arista alada y los operadores de Euler son para
la Representación de Fronteras. Pero para la validez se tiene que tener en cuenta que
cualquier conjunto de caras no es un sólido, asimismo con el caso Euleriano donde la regla
general (aunque puede no ser válida en algunos casos) dice que la suma de caras y vértices
debe ser igual a la suma de aristas, anillos y al doble de la resta entre cuerpos y perforaciones.
Esto es importante para el diseñador de modelos de fronteras. ya que debe disponer de una
el formato propuesto, iniciando con la creación de las primitivas (vértices, aristas y caras)
tanto como en los ejemplos de B-rep por enlistamiento simple y de Modelamiento de sólidos
en Blender, pero notando otros elementos son el caparazón (un conjunto de caras conectadas),
el bucle (un circuito de bordes que delimitan una cara) y los enlaces de borde de bucle
(también conocidos como enlaces de borde alados o medios bordes ) que se utilizan para
crear los circuitos de borde. Observando una de las ventajas de la B-Rep; cuando el objeto
sufra una modificación el modelo hará que se modifique de manera interna en las primitivas,
21
6. Bibliografía
http://graficacionitca3d.blogspot.com/2012/03/modelados-geometricos.html
https://lsi2.ugr.es/~cad/teoria/Tema5/RESUMENTEMA5.PDF
https://www.youtube.com/watch?v=vg_TZsTM9hE&t=524s&ab_channel=Universitat
Polit%C3%A8cnicadeVal%C3%A8ncia-UPV
García, J. , Guillermo, P., Fernández, J., Agustina, B., Martínez, J.,de Alaiz , J.. Tema VIII
https://nanopdf.com/download/esquemas-de-modelado-solido_pdf
22
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
Modelamiento de Sólidos:
Geometría Constructiva de Sólidos (CGS)
ASIGNATURA:
Computación Visual
DOCENTE:
Avendaño Quiroz, Johny Robert
Grupo 9
INTEGRANTES:
- Apaza Mamani, Danny Wilson
- Carranza Dávila, Williams
- Ramirez Sanchez, Waldir
- Rivas Sandoval, Roberson
- Santos Zegarra, Rodrigo
- Tupayachi Rivas, David Yaku
Lima, 2022
ÍNDICE
Introducción 2
1.1 Historia 2
1.2 Definición 2
1.5 Transformaciones 3
2.1 Aplicativo 1 3
2.2 Aplicativo 2 3
2.3 Aplicativo 3 3
3 Conclusiones. 3
4. Bibliografía. 3
1
Introducción
como las primitivas, para poder combinarlos y formar sólidos más complejos. Se podría decir
que un modelo sólido es un objeto construido por diferentes objetos mediante operaciones
publicidad, diseño, entro muchas más. Las técnicas más utilizadas y más conocidas son la
muchas más, siendo esta última una de las desarrolladas en el tiempo y de la que se enfocará
el presente trabajo.
2
1. Desarrollo estructurado del tema.
1.1. Historia
comienzos de la década de los 60 en los primeros sistemas gráficos; que fueron desarrollados
en la fabricación asistida por ordenador. Debido a ello, se impulsó las industrias de las
cuales permitieron realizar lo que conocemos hoy como superficies esculpidas, las superficies
llamados TIPS y BUILD presentados en Budapest en 1973. El sistema TIPS utiliza figuras
primitivas y operaciones booleanas para definir sólidos en tres dimensiones, lo que se conoce
objetos como un conjunto de superficies, más la información topológica que las relaciona y
dieron algunos de los mayores avances en el género de los videojuegos 3D. Un ejemplo de
3
Utiliza modelos tridimensionales para los jugadores, monstruos, ambiente y otros elementos
(CAD) como por ejemplo tinkercard. Es un programa de modelado 3D online gratuito que se
2011, para crear modelos tridimensionales para impresión, asimismo como introducción de
1.2. Definición
y segundo la combinación de estas. Quiere decir que los objetos sólidos son representados en
una combinación de objetos menos complejos conocidos como primitivas. Son sólidos
árbol binario en el que sus nodos internos son los operadores booleanos, las hojas son las
4
Nota. El gráfico representa un árbol binario de un objeto sólido mediante la CSG donde las
hojas son las primitivas y los nodos internos las operaciones booleanas. Tomado de Modelado
De igual manera este modelado es considerado como una metodología de diseño que
validez es obtenida revisando las primitivas y operaciones booleanas, lo cual lo hace más
descriptivo.
Ventajas
Desventajas
mayormente.
5
1.4. Primitivas CSG
llamados sólidos primitivos que son aquellos sólidos geométricos básicos elementales que
escalar, trasladar o rotar para que de esta manera se tengan las dimensiones y la ubicación en
el espacio con la finalidad de obtener una buena representación del sólido que se desea. A
continuación definiremos algunos de estos parámetros tanto los generales como los
específicos:
valores reales que corresponden al desplazamiento en cada uno de los ejes. Las
primitivas tienen un punto ancla que es usado para definir su posición. Este punto
● Rotación: Permite aplicar una rotación a los vértices. Se representa como una
crean en las coordenadas canónicas y requieren ser trasladadas y rotadas para lograr
específico sería la cantidad de lados de un polígono regular que servirá de base para
un cono o un cilindro.
6
1.5. Transformaciones Geométricas
Los operadores booleanos también son conocidos como operadores lógicos, y son
utilizados para conectar de manera lógica conceptos o grupos de términos con el objetivo de
Geometría Constructiva de Sólido se aplica de manera similar, pero en este caso se busca
conectar a dos sólidos primitivos o iguales o distintos. Es importante mencionar, que para
obtener óptimos, inicialmente se debe fijar la ubicación, orientación y escala de los sólidos a
los cuales se pretender aplicar los operadores booleanos. En caso no se realicen definen estos
parámetros de manera adecuada, las operaciones que se apliquen puede producir modelos no
deseados.
Operador “AND”
Es conocido de manera más práctica como “porción común”, esto debido que al
aplicar este operador a dos sólidos obtenemos el volumen que comparten. Así mismo, la
operación que se realiza con este operador es conmutativa ya que la intersección entre los
7
Ejemplo:
cubo y un cilindro. El volumen que se obtiene como resultado se muestra en el lado derecho.
Por otro lado, no siempre se puede obtener resultados exitosos al aplicar este operador.
Cuando se trata de generar un sólido teniendo solo una arista o vértice en común se obtienen
algunos errores.
Ejemplo:
sólo una de sus aristas, mientras que en la figura de la izquierda se muestra la intersección de
8
Operador “OR”
Al aplicar este operador a dos sólidos obtenemos como resultado un volumen total
menor o igual a la suma de los volúmenes iniciales. Para evitar sumar volumen repetido, se
Ejemplo:
En esta imagen se han utilizado los mismos sólidos que en el ejemplo del operador
derecha. Algunos errores que se pueden obtener con este operador son los siguientes:
● La unión de dos primitivas que no se intersecan no podrá dar como resultado un único
● La unión de dos primitivas donde una contiene por completo a la otra, en este caso el
sólido como resultado será la primitiva que contiene dentro de ella a la otra primitiva.
● La unión de dos primitivas que son tangentes por un punto o una arista.
Operador NOT
Podemos decir de forma práctica que este operador consiste en quitar a un sólido la
intersección que tiene con otro sólido. Por otro lado, esta operación no cumple con la
9
Ejemplo:
mismo operador, pero se obtienen distintos resultados. Esto sucede debido a que en la
operación realizada es la de B-A. Esta diferencia demuestra que este operador no sigue la
propiedad conmutativa.
● La diferencia de dos primitivas que no se intersecan dará como resultado el sólido que
10
● La diferencia de dos primitivas donde la primitiva que ocupa el minuendo contiene
● La diferencia de dos primitivas que crean dos o más objetos nuevos, ya que la zona
donde se intersecan separa en más de una parte a la primitiva que ocupa el lugar del
minuendo.
generación de dos sólidos luego de que una de las primitivas corte en 2 partes a la otra.
Árbol binario
limitado de elementos, que puede estar vacío o compuesto por tres subconjuntos; el nodo raíz,
el subárbol izquierdo y el subárbol derecho. El árbol binario inicia con una raíz que luego se
extiende en dos ramificaciones para finalmente terminar en una hoja. Es decir, un árbol
binario inicia con una nodo llamado raíz, luego, este nodo raíz origina dos nuevos nodos que
se conocen como nodos hijos. Sin embargo, cada nodo del árbol puede tener a lo más dos
ramificaciones, por lo que el grado máximo de un árbol binario es dos. Además, cada
11
Árbol CSG
binario, el nodo raíz representa el objeto construido, los nodos internos representan las
operaciones booleanas o transformaciones que se realizan a los nodos terminales que son las
primitivas empleadas..
Fig 8. Árbol CSG utilizando las operaciones booleanas unión (∪), intersección (∩) y diferencia
se obtiene mediante la operación booleana diferencia entre los objetivo (R2) y (R1), los
cuales a su vez son creados a partir de la operación booleana intersección de las primitivas
(P4) y (P3) y la operación booleana unión entre (P2) y (R0) respectivamente. Además el
12
objeto (R0) también representa un subárbol binario del árbol original, creado a partir de la
2.1. Aplicativo 1
Godot
cuales son útiles para el desarrollo de juegos, tanto en 2D como 3D. Cuenta con las siguientes
características:
● Fuente abierta: Debido a que cualquiera que sepa programar podrá contribuir
8.0.
web.
Por otro lado, CSG es una herramienta importante para los diseñadores de niveles en
Godot, cuyo propósito es usarlo durante la creación del prototipo de nivel, el cual es una
técnica que en base a la combinación de primitivas crea versiones sencillas de las formas más
comunes. Haciendo uso del CSG podemos desarrollar casi en su totalidad un juego sin la
● CSGBox
13
● CSGSphere
● CSGTorus
● CSGPolygon
● CSGMesh
En la imagen anterior se muestra cómo es que se ven las distintas formas en Godot.
Así mismo, las operaciones que se permiten son las que se mencionan en este informe.
Según el autor Linietsky (2018), cada nodo CSG primero procesará a sus nodos hijos
y operaciones (unión, intersección o sustracción) en orden de árbol y los aplicará uno por
uno. Existe también un nodo CSGCombiner, que es una forma vacía que unirá solo nodos
secundarios.
14
2.2. Aplicativo 2
Blender
objeto sólido. Se ha popularizado porque es una herramienta muy usada para desarrollar
creación y motores de videojuegos tales como Unreal Engine o Unity además de poseer su
Programa
Primero se inserta el cilindro que se muestra en la Fig. 11, siguiente a eso se inserta el
15
Fig 13. Cilindro con la operación booleana Fig 14. Nuevo cilindro
Al tener los dos cilindros ubicados se aplica la operación booleana de unión, dando
Seguido de ello se aplica la operación booleana de unión entre la Fig. 14, dando como
resultado el objeto de la Fig. 15. Por último se agrega un cubo en la posición inicial como se
16
Fig 17. Cubo hueco
16, dando como resultado la imagen de la Fig. 17. Siendo esta un cubo hueco con la forma de
2.3. Aplicativo 3
OpenSCAD
modelador 3D basado en scripts que emplea un lenguaje propio y permite solo previsualizar
una vez se haya codificado en el lenguaje del modelador 3D. OpenSCAD proporciona dos
PROGRAMA
en el curso Diseño de piezas con OpenScad, Universidad Carlos III de Madrid, España.
FUENTE:
http://www.iearobotics.com/wiki/index.php?title=Dise%C3%B1o_de_piezas_con_OpenScad
17
PRIMITIVAS
CODIFICACIÓN:
//-- Ejemplo sencillo de como utilizar los modulos
use <rueda_simple.scad>
translate([30,0,0])
cube([100,60,10],center=true);
translate([0,-30,0])
rotate([90,0,0])
rueda_simple();
translate([60,-30,0])
rotate([90,0,0])
18
rueda_simple(grosor=20, diametro=50);
//-- al izquierdo
mirror([0,1,0]) {
translate([0,-30,0])
rotate([90,0,0])
rueda_simple();
translate([60,-30,0])
rotate([90,0,0])
rueda_simple(grosor=20, diametro=50);
booleana diferencia. A partir de ello se empleó este módulo de rueda simple para la ubicación
de cada una de las ruedas de nuestro vehículo a través de las transformaciones de rotación y
traslación para cada rueda del coche. Finalmente para la creación del chasis del vehículo se
19
empleó la primitiva cubo y la transformación traslación para ubicarlo en el centro de las
ruedas.
3. Conclusiones
4. Bibliografía
https://economipedia.com/definiciones/arbol-binario.html
http://www.iearobotics.com/wiki/index.php?title=Dise%C3%B1o_de_piezas_
con_OpenScad
http://di002.edv.uniovi.es/~rr/Tema8.pdf
20
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
“DECANA DE AMÉRICA”
EP INGENIERÍA DE SISTEMA
PROYECTO
Grupo :8
Sección :1
Integrantes :
2022 - I
1. Introducción
la primera experiencia que tienen los seres humanos al nacer. La luz ha sido estudiada a lo
largo de la historia de nuestra civilización y muchos han sido los teóricos que han
los gráficos por computadoras. Cuando los gráficos por computadora se desarrollaron por
Los gráficos por computadoras en la actualidad se han extendido a casi todas las
videojuegos.
2
2. Objetivos
3. Fuentes de iluminación
gráficas. La propiedad de tipo de luz define qué tipo de fuente de luz se está usando.
Poseen características como espectro de emisión (color), una geometría básica (posición y
3.1. Puntual
Las fuentes puntuales emiten luz desde un solo punto en todas las
3.2. Direccional
luz producida por una fuente direccional no cambia con la distancia, ya que la
3
3.3. Spotlight
cuando se acerca a la fuente de luz del foco y al centro del cono de luz. Un
3.4. Ambiental
Las fuentes de luz ambiental iluminan los objetos incluso cuando no hay
completamente uniforme en toda la escena. Esta fuente asegura que los objetos
4. Interacciones de iluminación
componentes. El efecto general de una fuente de luz sobre un objeto está determinado por
la combinación de las interacciones del objeto con estos componentes. Los tres
4.1. Difuso
objeto mediante una cantidad uniforme de luz que interactúa con una superficie de
función de las propiedades de la superficie del objeto, así como del ángulo de la
4
4.2. Ambiente
todas las superficies, con su intensidad determinada por la fuerza de las fuentes de
4.3. De espejo
Esto es distinto de los efectos de espejo porque otros objetos en el entorno no son
5. Modelos de iluminación
modelos de iluminación, replicar los efectos de iluminación tal como ocurren en el mundo
natural requeriría más potencia de procesamiento que la práctica para los gráficos por
cada objeto individualmente, mientras que la iluminación global mapea cómo la luz
interactúa entre los objetos. Actualmente, los investigadores están desarrollando técnicas
de iluminación global para replicar con mayor precisión cómo la luz interactúa con su
entorno.
5
La iluminación local, también conocida como iluminación orientada a objetos, se
define asignando una sola fuente de luz a un solo objeto. Esta técnica es rápida de
toma y se eleva a una potencia decidida por el diseñador. Con esto, el diseñador
puede decidir qué tan amplio desea resaltar en un objeto; debido a esto, el poder se
podría tener un valor de uno. Este modelo crea un resaltado blanco de aspecto
6
tiempo de cálculo reducido. El proceso lleva menos tiempo porque encontrar la
dirección del vector de luz reflejada es un cálculo más complicado que calcular el
similar.
Figura 1
Los modelos de iluminación son técnicas o métodos utilizados para simular la interacción
física que existe entre los objetos con los rayos de luz. Estos métodos mejoran el aspecto de las
imágenes ya que consiguen efectos más realistas. Algunos factores a tomar en cuenta son:
combinación de colores rgb que se emplea para otorgar el color a los polígonos o aristas. El valor
7
● Emisión (E)
I = E + A1 + A2 + D + S
6.1. Emisión
que esta componente está ideada para modelar la luz emitida (no reflejada) por los
iluminadas por una fuente de luz se verían totalmente negras. Para evitar esto, hay
una iluminación uniforme que es el promedio de la luz reflejada por los objetos.
Cada fuente de luz puede aportar luz ambiental a una escena. Además, puede
8
glLightModel.
GLfloat ambientColor[]={0.2f,0.2f,0.2f,1.0f};
glLightModelfv(GL_LIGHT_MODEL_AMBIENT,ambientColor);
de luz ambiental, incluso si no agrega una fuente de luz específica a su escena, aún
9
Figura 2
Nota.Yu-Chung J. (2005)
que estén orientados hacia adelante o hacia atrás. Generalmente se configuran las
posteriores.
10
enciende la iluminación de dos lados con:
glLightModeli(GL_LIGHT_MODEL_TWO_SIDE,GL_TRUE);
polígonos, esto significa que las superficies normales de los polígonos frontales y
Para cada fuente de luz activa, podemos especificar con glLight un color
ambiente, que llamaremos alri, algi, albi; donde i varía desde 0 hasta n-1, siendo n el
ambiente que se usará para los polígonos que se dibujen a continuación (hasta que
11
Figura 3
Las reflexiones difusas según D. Foley et al. (1996) vienen a ser la forma
una superficie rugosa , opaca o mates; es decir, que los rayos reflejados ya no son
paralelos sino se reflejan la luz con igual intensidad en todas las direcciones. .
12
Figura 4
Para explicar este fenómeno entran en juego dos factores. En primer lugar,
se ilustra en la figura 4 que un haz que intercepta una superficie cubre una área
como ley de Lambert, de que la cantidad de luz que reflejan de una área diferencial
mencionados se cancelan.
13
Figura 5
cómo los rayos de luz llegan de forma paralela a la superficie plana y muy lisa
Figura 6
14
Nota. Reflexión especular. D. Foley et al. (1996)
especular se puede observar una manzana con una luz blanca brillante donde el
no aparecede color rojo (solo el punto brillante) sino de color casi blanco.
Figura 7
https://www.aulafacil.com/uploads/cursos/5843/19213_asorc.es.png
Las fuentes de luces en OpenGL se realizan con la función glLight. La construcción de estas
fuentes son con vectores de dirección que apuntan hacia estas, asumiendo que se encuentran a
una distancia infinita. Asimismo, la posición de las fuentes está determinada por dos ángulos que
15
expresan la longitud y latitud del objeto, esta se expresa en coordenadas esféricas. Además hay
que tener en cuenta la transformación dada por la matriz modelview una vez hecha la llamada.
Por eso es necesario especificar la posición cuando la matriz modelview es la matriz identidad.
8. Sombreado en OpenGL
En el aspecto del sombreado en OpenGL, este presenta dos tipos: Flat Shading y
Gouraud Shading. En el Flat Shading o sombreado plano, los polígonos que conforman el
sólido geométrico son coloreados de acuerdo al color que se le asigna a su vértice. Por el
otro lado, el Gouraud Shading hace referencia al sombreado suave, para el coloreado de
los pixeles se evalúa el MI de los vertices del poligono, luego se realiza interpolación
Figura 8
Nota: La esfera de la derecha está con Flat shading y la de la izquierda con Gouraud
16
Como se observa en la anterior figura, en el Flat Shading se observa más los
9. Implementación
mencionados anteriormente.
Figura 9
9.1.1. Luz
void luz(){
17
GLfloat light_position[] = { 1.0, 1.0, 1.0, 0.0 };
glShadeModel(GL_SMOOTH);
glEnable(GL_LIGHT0);
glEnable(GL_NORMALIZE);
glEnable(GL_COLOR_MATERIAL);
glEnable(GL_LIGHTING);
glEnable(GL_DEPTH_TEST);
18
}
9.1.2. Display
void display(){
glClear (GL_COLOR_BUFFER_BIT |
GL_DEPTH_BUFFER_BIT);
glColor3f(1,1,0);
glutSolidTeapot(1);
glFlush ();
9.1.3. Reshape
glMatrixMode (GL_PROJECTION);
glLoadIdentity();
if (w <= h)
else
glOrtho (-1.5*(GLfloat)w/(GLfloat)h,
glMatrixMode(GL_MODELVIEW);
glLoadIdentity();
19
9.1.4. Main
glutInit(&argc, argv);
GLUT_DEPTH);
luz();
glutDisplayFunc(display);
glutReshapeFunc(reshape);
glutMainLoop();
return 0;
20
10. Conclusiones
Además, tras el análisis de sus respectivos conceptos, podemos deducir que cada
21
11. Bibliografía.
D. Foley, J., Van Dam, A., K.Feiner, S., F.Hughes, J. & L.Philips, R. (1996). Introducción
https://es.scribd.com/document/424950120/Introduccion-a-La-Graficacion-Por-Computador-Fole
y-Van-Dam-Feiner-Hughes-Phillips
Almagro. https://lsi2.ugr.es/curena/doce/vr/pracs.ext/03/
https://de.wikipedia.org/wiki/Blinn-Beleuchtungsmodell#/media/Datei:Blinn_phong_comparison.
png
https://repositorio.uci.cu/jspui/bitstream/ident/TD_04789_11/1/TD_04789_11.pdf
https://www.evl.uic.edu/julian/cs488/2005-11-10/index.html
LIGHTING[Video]. Youtube
https://youtu.be/FNf9D555H28
22
Universidad Nacional Mayor de San Marcos
Universidad del Perú. Decana de América
ÁREA DE INGENIERÍA
FACULTAD DE INGENIERÍA DE SISTEMAS E INFORMÁTICA
EP DE INGENIERÍA DE SISTEMAS PERIODO ACAD. 2022-2
1
Índice
Introducción 3
1. Definiciones Previas 4
1.1 Luz: 4
1.2 Fuentes luminosas 7
1.3 Iluminación global 7
4. Software de Aplicación 25
4.1 OpenGL 25
4.2 Pov-Ray 25
4.3 Unity 25
Conclusiones 26
Referencias 27
2
Introducción
3
1. Definiciones Previas
1.1 Luz:
La luz es un fenómeno que, durante siglos, se ha tratado de comprender y ha
sido el origen de diversas teorías que han tratado de explicar su comportamiento; sin
embargo, en el actual informe podemos definirla como la Real Academia Española
(RAE) lo hace, un agente físico que hace visibles los objetos.
Propiedades de la luz:
4
Figura 2: El espectro electromagnético.
Los cuerpos transparentes permiten que gran parte de la luz los atraviese, por lo
que no presentan de mucha absorción y dejan ver lo que hay detrás de ellos; los
cuerpos translúcidos permiten que solo una parte de la luz los atraviese, por lo
que presentan un poco más de absorción y generan una imagen difusa de lo que
se encuentra detrás de ellos; por último, los cuerpos opacos, no permiten el paso
de la luz y la absorben en gran medida.
Además, existe una absorción selectiva de la luz visible, un objeto negro absorbe
toda la luz mientras que el blanco la refleja toda; entonces ¿qué pasa con los
objetos de colores diferentes al negro y blanco? Dichos objetos absorben una
parte del espectro visible y reflejan la otra parte para que sea percibida por el ojo
humano (La Gafería, 2019).
5
Figura 4: Absorción selectiva.
6
1.2 Fuentes luminosas
Las fuentes de luz o luminosas son aquellas fuentes que iluminan su entorno; es
decir, alumbran, dan luz o bañan de resplandor un objeto o lugar (RAE, s.f.). Las
fuentes de luz se pueden clasificar en primarias o secundarias.
➢ Radiosidad
➢ Ray Tracing
2.1 Radiosidad
7
transferencia de calor mediante métodos de elementos finitos a la generación de
imágenes sintéticas.
Hemos de advertir que mientras esta técnica produce unas imágenes fantásticas,
los tiempos de render no son tan fantásticos, además de que también se ha de calcular la
solución de radiosidad de la escena. Sin embargo, esta técnica es fácil de configurar y
8
produce una iluminación muy eficaz, lo que es de incalculable valor al trabajar en el
mundo del diseño arquitectónico.
Ecuación de radiosidad
𝑁𝑒
𝐵𝑖 = 𝐸𝑖 + ρ𝑖 ∫ 𝐵𝑗𝐹𝑖𝑗𝑑𝐴𝑗
𝑗=1
9
𝑉(𝑥, 𝑤) = 𝑑𝑒𝑠𝑐𝑟𝑖𝑏𝑒 𝑙𝑎 𝑣𝑖𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑒𝑛𝑡𝑟𝑒 𝑥 𝑦 𝑥' (1 𝑜 0)
Las ecuaciones que relacionan a 𝐿(𝑥', 𝑤') con 𝐸(𝑥', 𝑤') y ρ𝑥' para todos los
elementos son resueltas y las radiosidades resultantes se transforman para visualizar los
colores de las superficies. Debido a que sólo se calcula la iluminación difusa, los
colores de las superficies son independientes del punto de vista de la escena.
Factor de forma
10
El método de radiosidad jerárquica
11
El método de radiosidad progresiva
El objetivo de esta técnica es obtener una imagen útil (con valor) después de
cada iteración. A diferencia del método jerárquico, el algoritmo progresivo en cada paso
se escoge el elemento que contribuye a la escena con más energía y su radiosidad es
distribuida entre los otros elementos (shooting), como se puede ver en la figura 10. Esto
hace que finalizada una iteración se tenga una estimación de la radiosidad de todos los
elementos de la escena.
12
2.2 Ray tracing
2.2.1 Introducción
El Ray tracing o trazado de rayos es una técnica gráfica con la cual se obtienen
imágenes con efectos de luz hiperrealistas. Debido al elevado coste computacional
anteriormente era irrealizable en tiempo real. Con el paso del tiempo, gracias al
desarrollo tecnológico de las empresas productoras de GPUs, se tienen grandes avances
en la implementación de sistemas para el empleo del Ray tracing en tiempo real.
La puerta de Dürer
Todo inicia en el siglo XVI con el pintor Albrecht Dürer, una de las figuras más
importantes del Renacimiento de Europa del Norte, quien describe la puerta de Dürer, el
cual dibuja los contornos de un objeto al tener un hilo unido al extremo de un lápiz
óptico que un ayudante arrastra, este hilo viaja a través del marco de la puerta hasta
unirse a un gancho de pared.
13
Figura 12: Albrecht Dürer, la perspectiva, 1525
Arthur Appel
14
Figura 14: Vista superior y lateral de la simulación visual de un coche de carreras (3-D Visual
Simulation)
Scott Roth
Turner Whitted
15
hacer posibles que los gráficos de computación sean mucho más sofisticados. De esta
forma Whitted clasifica a los rayos en dos grupos:
➢ Rayos primarios: Son los primeros rayos que genera el algoritmo. Tienen como
origen la posición del observador y atraviesan la cuadrícula que representa la
imagen
➢ Rayos secundarios: Es la intersección que se da cuando un rayo primario hace
contacto con un modelo cuyas propiedades favorecen el rebote de la luz, de este
tipo de rayos podemos encontrar: Rayos por reflexión de la luz y rayos por
refracción de la luz. Dentro de este grupo Whitted incluye un tipo de rayo que no
aparece en el comportamiento habitual de la luz el cual es conocido como
Shadow Ray.
Jim Kayija
16
presentaba el algoritmo de Path Tracing, que permite presentar con precisión la forma
en que la luz se dispersa en una escena.
(a) (b)
(c) (d)
Figura 17: “Cuatro renderizados de cajas rojas-azules”. (a) Local, (b) Ray Trace, (c)
Radiosidad, (d) Monte Carlo: Radiosity and Realistic Image Synthesis. Pág 17
17
referente a un objeto o impactando en el ojo de un observador haciendo visible la fuente
del rayo para el mismo. A continuación, se presenta un esquema describiendo este
proceso:
18
Figura 19: Trayectoria de rayos de luz en un Ray tracer.
Como se observa en la figura 19, tanto la Esfera 1 como la fuente de luz son
visibles para el observador, debido a que todos los rayos originados a partir del mismo
terminan impactando en una fuente de luz. De igual forma, como ningún rayo originado
en el ojo del observador termina impactando contra la Esfera 2 y luego sobre una fuente
de luz, entonces esta no será visible en la escena.
La sombra
19
El rayo originado en el ojo interseca el piso en un punto P, en el algoritmo, se
ubica el ojo en el punto de intersección P y el rayo que sale del ojo, es aquí cuando el
rayo va hacia la fuente de luz. En este punto se determinan las intersecciones con los
objetos de la escena y en el caso de encontrarse se considera si el objeto está a una
distancia menor que la distancia existente entre el punto P y la fuente de luz, si este
fuera el caso, el punto no recibe luz en forma directa y se genera "automáticamente"' la
sombra de los objetos como se muestra en el esquema.
Reflexión y refracción
20
Cuando implica que el rayo reflejado va en dirección al ojo y sólo verá luz
blanca o cuando tome valores cercanos a 0. A este punto de luz blanca se le llama
Phong, y depende del ángulo de incidencia y de la posición del ojo.
21
reflexión manejados en el programa. Es en esta parte, donde el algoritmo se vuelve
recursivo.
La ley de Snell establece que el producto del índice de refracción (la razón de la
velocidad de la luz en el vacío y la velocidad en un material dado) del primer medio y el
seno del ángulo de incidencia de un rayo es igual al producto del índice de refracción
del segundo medio y el seno del ángulo de refracción. De igual forma, el rayo de
incidencia, el rayo refractado y la normal a la superficie de separación de los dos medios
en el punto de incidencia están en el mismo plano como se muestra en la figura (23).
22
Cómo maneja el Ray tracing la transparencia
De acuerdo con la figura (24) cuando entre el punto de intersección del rayo
originado en el ojo con el objeto y la fuente de luz existe un objeto transparente, la
intensidad en el punto de intersección debe disminuirse. Para ello, a cada objeto
transparente se le puede asociar a factores que influyen directamente sobre la intensidad
en el punto de interacción.
23
3. Ventajas y desventajas de los modelos presentados
❖ Es un algoritmo altamente
paralelizable.
❖ Hace innecesario
recalcular la iluminación
de la escena cuando se
produce un cambio en la
posición de la cámara
24
4. Software de Aplicación
4.1 OpenGL
OpenGL es una especificación estándar que define una API multilenguaje y
multiplataforma para escribir aplicaciones que produzcan gráficos 2D y 3D. La interfaz
consiste en más de 250 funciones diferentes que pueden usarse para dibujar escenas
tridimensionales complejas a partir de primitivas geométricas simples, tales como
puntos, líneas y triángulos
4.2 Pov-Ray
Algunas de las características más importantes de este lenguaje es que sirve tanto para
modelar objetos sencillos como también algunos de gran complejidad por medio de la
utilización del CSG, a su vez se puede apreciar que el lenguaje cuenta con muchas
librerías que facilitan la implementación de los algoritmos, por lo que realizar algún
modelo con esta herramienta suele ser sencillo a compasión de otros lenguajes.
4.3 Unity
25
Conclusiones
La Radiosidad permite crear imágenes fotorrealistas de gran calidad, además
requiere del preprocesamiento de poligonal del ambiente, también recrea sombras
suaves y interreflección difusas, simula acertadamente la transferencia de energía y a
mayor detalle en la radiosidad, mayor costo de almacenamiento y cómputo.
Las técnicas vistas anteriormente y el resto de ellas que no han sido incluídas,
proporcionan un realismo mucho mayor que las técnicas de iluminación local; sin
embargo, para hacer uso de las técnicas de iluminación global, a comparación con las de
la local, se necesitan de más recursos computacionales para que funcionen
eficientemente.
26
Referencias
https://la.blogs.nvidia.com/2022/05/10/que-es-el-path-tracing/
https://rdu.unc.edu.ar/handle/11086/2771
http://hdl.handle.net/20.500.12918/4120
http://twanclik.free.fr/electricity/electronic/pdfdone12/Radiosity%20and%20real
istic%20image%20synthesis%20Cohen%20M.F.,%20Wallace%20J.R.%20(AP,
%201995)(412s).pdf
http://ri.itba.edu.ar/handle/123456789/3677
Cataluña. https://upcommons.upc.edu/handle/2099.1/11641
27
History Computer Staff (2022). Ray Tracing vs. Path-Tracing: What's the difference?
https://history-computer.com/ray-tracing-vs-path-tracing-whats-the-difference/#
:~:tex=Ray%20tracing%20is%20a%20technique,by%20following%20individua
l%20light%20rays.
https://lagaferia.com/como-vemos-los-colores/
https://support.unity.com/hc/es/articles/7642130833812-Unity-Qu%C3%A9-es-
y-c%C3%B3mo-funciona-
https://www.ngenespanol.com/traveler/luz-electricidad/
https://repositorio.usj.es/handle/123456789/860
Coruña].Recuperado de
https://ruc.udc.es/dspace/bitstream/handle/2183/810/PadronGonzalez_Emil
ioJose_TD_2006.pdf
28
Real Academia Española. (s.f.) Iluminar. Diccionario de la lengua española.
Recuperado de https://dle.rae.es/iluminar?m=form
https://dle.rae.es/luz
http://catarina.udlap.mx/u_dl_a/tales/documentos/lis/rodriguez_o_o/portada.htm
https://ruc.udc.es/dspace/handle/2183/9887
https://www.colibri.udelar.edu.uy/jspui/handle/20.500.12008/24247
Zapata, Fanny. (14 de septiembre de 2020). Fuentes de luz: tipos y aparatos que emiten
29
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
Universidad del Perú, Decana de América
Sección: 1
Grupo: 6
Integrantes:
Lima, 2022
Dedicatoria
1
Índice
Dedicatoria 1
Índice 2
Índice de Figuras 3
Introducción 4
Historia 5
Texturas 6
Texturas Artificiales Generadas Por Computador 6
Texturas Reales Adquiridas En La Escena 6
Mapeado de Texturas 7
Mapeado Plano 8
Mapeado en Dos Partes 9
Proyecciones Cilíndricas 9
Proyecciones Cúbicas 11
Proyecciones Esférica 11
Técnicas Avanzadas 12
Bump Mapping 12
Normal mapping 13
Displacement Mapping 14
Environment Mapping 15
Mip mapping 17
Projective texture Mapping 18
Parallax Mapping 20
Aplicaciones 21
Conclusiones 27
Bibliografía 28
2
Índice de Figuras
Figura 1. Representación gráfica de la parametrización de una textura................................................. 8
Figura 2. Representación gráfica del Mapeo Plano ............................................................................... 9
Figura 3. Mapeado en dos etapas .......................................................................................................... 9
Figura 4. Representación de una proyección cilíndrica ....................................................................... 10
Figura 5. Proyección cilíndrica para múltiples objetos ....................................................................... 10
Figura 6. Representación de una proyección cúbica a una tetera ........................................................ 11
Figura 7. Representación de una proyección esférica a una tetera ...................................................... 12
Figura 8. Representación gráfica de la aplicación del mapeo de relieve a un objeto tridimensional ... 13
Figura 9. Representación de un Displacement Mapping ..................................................................... 15
Figura 10. Ejemplos de environment mapping.................................................................................... 17
Figura 11. Ejemplo del Mip mapping ................................................................................................. 18
Figura 12. Ejemplo de mapeo de textura proyectiva ........................................................................... 19
Figura 13. Ejemplo de mapeo de textura proyectiva de varias imágenes ............................................ 19
Figura 14. Representación gráfica del Parallax Mapping .................................................................... 20
Figura 15. Texturas de Doom ............................................................................................................. 21
Figura 16. Fotograma de Call of Duty Modern Warfare ..................................................................... 21
Figura 17. Imagen de Toy Story ......................................................................................................... 22
Figura 18. Imágen de Avatar............................................................................................................... 22
Figura 19. Frontis de la facultad ......................................................................................................... 23
Figura 20. Exterior de la FISI modelada en Blender ........................................................................... 24
Figura 21. Interior de la FISI modelada en Blender ............................................................................ 24
Figura 22. Frontis de la FISI texturizada en Blender........................................................................... 25
Figura 23. Parte lateral y trasera de la FISI texturizada en Blender .................................................... 25
Figura 24. Parte lateral y trasera de la FISI texturizada en Blender .................................................... 25
Figura 25. Parte lateral y trasera de la FISI texturizada en Blender .................................................... 26
3
Introducción
Hoy en día, la globalización trajo como consecuencias una mayor virtualización del
mundo que nos rodea, tenemos como ejemplo la creación de videojuegos o animación en 3D,
lo cual se logra mediante polígonos, pero estos solo se logran pintar de manera monocroma, es
decir usando colores RGB (rojo, verde, azul). No obstante, con el avance de la tecnología se
buscó una forma para que los sólido tridimensionales adquieran un estilo diferente, un estilo
más realista, y es allí donde surgió el mapeo de texturas, mediante este método se logrará poner
una imagen personalizada alrededor del sólido tridimensional, logrando así una mejor
percepción de la imágen a recrear.
Es por ello que se han desarrollado diferentes técnicas de mapeo de texturas como el
normal mapping, desarrollado mediante normales reflejadas por la figura logrando
implementar un texturizado uniforme, o el environment mapping, donde se tiene en cuenta el
entorno al momento de texturizar el cuerpo geométrico, logrando mejorar la percepción del
cuerpo digitalizado.
4
Historia
Bustos, B. & Hitschfeld, N.(s.f) mencionaron que todo comienza en 1974, cuando
Edwin Catmull, actualmente cofundador de Pixar Animation Studios y presidente de Pixar y
Walt Disney Animations Studios, presenta por primera vez el concepto de mapeado de texturas
para poder modular los valores de color de una superficie (pp. 10-11). Más tarde, en 1976 los
científicos informáticos, James Blinn y Martin Newell, implementaron el primer algoritmo que
propone una solución rápida para calcular reflexiones. Este algoritmo está basado en la
utilización de mapas de entorno, uno para cada objeto reflectivo. Luego, en 1978, James Blinn
presentó un método el cual llamó Bump Mapping, con este método se implementó lo que se
denomina mapeo de relieve, el cual simula los relieves de una superficie sin necesidad de
realizar modificaciones geométricas en el modelo (Lingard, 1995).
Luego de la implementación de este primer método, fueron surgiendo muchos más, que
ayudaron a que el objeto en el cual se le implementara sea más realista. Entre los métodos que
se fueron implementando están el Mip Mapping, presentado en 1983 por Lance Williams, el
Environment Mapping en 1986, por Ned Green, entre otros. Finalmente, se puede mencionar
que Mark Segal y Kurt Akeley fueron los autores de la especificación original de OpenGL, el
cual es un documento que describe un conjunto de funciones y el comportamiento exacto que
deben tener.
5
Texturas
La textura es lo que rodea al cuerpo geométrico para darle un tono diferente de la escala
de grises, donde el téxel es la unidad mínima de una textura dentro de una superficie usada en
los gráficos por computadora. Existen 2 ramas según el origen de estas texturas: Texturas
artificiales generadas por computador y Texturas reales adquiridas en la escena.
Este proceso de generación de texturas está controlado con un alto nivel de exactitud,
es decir puede evitar algunos problemas que pueden ocurrir durante el proceso de generación
de la textura, tales como el aliasing.
Este proceso puede desarrollarse mediante una escena compuesta solo por polígonos.
Además, según Hernández (2006) “determinan la selección de texturas en el caso de tener
varias imágenes fuentes para el rastreo, según las direcciones de las caras visibles para la
cámara y sus respectivas normales.”
6
Mapeado de Texturas
Este mapeo consiste en asignar una textura a desear sobre un cuerpo geométrico
tridimensional 3D, este se realiza a partir de las coordenadas (𝑥, 𝑦, 𝑧), con esto se busca la
correspondencia a la textura, a esto se le denomina parametrización o registro de imágenes.
Espacio de Textura
Para poder implementar el mapeo de texturas en algún objeto tridimensional, y generar
realismo en este, se necesita encontrar correspondencia entre la textura, la cual se quiere
emplear, y la geometría del objeto. A esto se le conoce como parametrización, en donde se
requiere hallar la relación entre el objeto tridimensional y una representación planar (Ver
Figura 1). De esto básicamente proviene el espacio de textura que viene siendo aquel espacio
preliminar que se tendrá para poder realizar el mapeo en algún objeto geométrico.
Podemos mencionar, además, que el espacio de textura tendrá un rango de [0,1] en los
ejes X e Y puesto que la textura ya no tiene en sí un espacio de coordenadas basado en el
tamaño de una imagen, esto se da para que la textura no dependa de las dimensiones originales
de esta, ya que sería más complicado la texturización si fuera así.
7
Figura 1. Representación gráfica de la parametrización de una textura
Tipos de Mapeado
Mapeado Plano
Cabe resaltar que este tipo de mapeado es ideal para aplicarlo en superficies planas
puesto que la distorsión que se da al momento de su aplicación es mínima solo si las superficies
son paralelas a los planos de proyección. Es por ello que su aplicación sería ideal en paredes,
suelos, etc.
8
Figura 2. Representación gráfica del Mapeo Plano
Es un método de mapeado de dos etapas que consiste en primero mapear una textura de
dos dimensiones a una superficie intermedia, sea esta un cilindro, cubo o esfera, dependiendo
de la forma del objeto que se tenga (llamado también Mapeo S), para posteriormente mapear
esta superficie intermedia a la superficie destino del objeto (llamado también Mapeo O).
Proyecciones Cilíndricas
Según Wolfe (1999), este tipo de mapeado es el más empleado para objetos de forma
cilíndrica, tales como troncos o tubos. Para este tipo de mapeo, las coordenadas (x,y,z) se
convierten en coordenadas cilíndricas de (r, θ, h). Para el mapeo de texturas, solo estamos
interesados en θ y h (altura). Para encontrar el color en un mapa de textura bidimensional, θ se
9
convierte en una coordenada x y h se convierte en una coordenada y. Esto para envolver el
mapa de textura bidimensional alrededor del objeto.
Figura 4. Representación de una proyección cilíndrica
Los objetos con mapa de textura que se observan en la Figura 5 tienen una forma de
mapa cilíndrica, y el eje del cilindro es paralelo al eje y. Se puede observar que los cuadrados
del patrón de textura se convierten en "rebanadas de pastel" en la parte superior e inferior de
cada objeto, es decir, en la posición z más pequeña y grande.
10
Proyecciones Cúbicas
Según Wolfe (1999), para este tipo de proyección, el uso de un cubo como la forma del
mapa es similar al mapeado plano. En lugar de usar solo un mapa de textura, el mapeado de
cajas usa seis, uno para cada uno de los lados (izquierdo, derecho, frontal, posterior, superior e
inferior) del objeto. Para mapear texturas en los lados frontal y posterior, eliminamos el
componente z del punto de un objeto y usamos los componentes x e y restantes para ubicar el
color en los mapas de textura correspondientes.
Nota: En la imagen se puede observar un ejemplo de proyección cúbica a una tetera. Tomado
de: Teaching Texture Mapping Visually, por Wolfe, R., 1999.
Proyecciones Esférica
Según Wolfe (1999), cuando se utiliza una esfera como forma de mapa, el valor (x,y,z)
de un punto se convierte en coordenadas esféricas. Para fines de mapeo de texturas,
mantenemos solo la información de latitud y longitud. Para encontrar el color en el mapa de
textura, la latitud se convierte en una coordenada x y la longitud se convierte en una coordenada
y.
Los objetos tienen una forma de mapa de una esfera, y los polos de la esfera son
paralelos al eje y. En los polos norte y sur del objeto, los cuadrados del mapa de textura toman
la forma de piezas de torta.
11
Figura 7. Representación de una proyección esférica a una tetera
Técnicas Avanzadas
Bump Mapping
Un mapa de relieve (Bump Mapping) es en realidad uno de los tipos de mapas más
antiguos que se han desarrollado en el mundo de la computación gráfica, teniendo sus inicios
en 1978, cuando James Blinn propuso su método llamado mapeo de relieve. Lingard (1995)
menciona que:
El mapeo de relieve simula protuberancias o arrugas en una superficie sin modificaciones
geométricas en el modelo. Las normales de una superficie dada se perturban según el mapa
del terreno. Al sombrear una superficie usando la técnica lambertiana, se usan las normales
perturbadas en lugar de las normales originales. Este método crea una apariencia irregular
en la superficie provocando un efecto de relieve.
Blinn entendió que en lugar de perturbar los vértices para calcular las normales
utilizadas en el sombreado, ¿Por qué no perturbar las normales de la superficie original? Las
normales perturbadas se utilizan en la ecuación de sombra lambertiana. El problema con este
enfoque es que las arrugas simuladas no se extienden hasta el contorno del objeto. Para
implementar el mapeo de relieve, debe encontrar una manera de perturbar la superficie
independientemente de su orientación y posición. Este requisito surge de la observación de que
al animar objetos con protuberancias, no desea que las arrugas de la superficie cambien de
forma o apariencia.
Los mapas de relieve son excelentes para crear pequeños detalles en un modelo, como
poros o arrugas en la piel. También son relativamente fáciles de crear y editar en aplicaciones
12
2D como Photoshop, dado que solo trabaja con valores de escala de grises. El problema con
los mapas de relieve es que pueden dañarse fácilmente si la cámara los mira desde el ángulo
equivocado, como el detalle que se crea es falso y no se agrega ninguna resolución real, el mapa
no afectará los contornos geométricos a los que se aplica el mapa de relieve.
Nota: Figura 3D, Textura y Figura 3D con el efecto de arruga generado por el Mapeo de
Relieve, de izquierda a derecha, en ese orden.
(https://en.wikipedia.org/wiki/Bump_mapping#/media/File:Bump-map-demo-full.png)
Normal mapping
El Normal Mapping suelen denominarlo como una variación nueva y mejorada del
Bump Mapping, es una aplicación de tecnología 3D que permite dar iluminación y relieve más
detallado a la superficie de los objetos. Esta es una evolución del mapeo de relieve, que se
aplica en los videojuegos para hacerlo más realista y en las películas animadas para acelerar
los cálculos y reducir la cantidad de polígonos que tenía originalmente un objeto.
Una de las ventajas es que, gracias a los efectos de iluminación creados al variar el
vector normal, puede lograr un efecto de relieve detallado incluso si el objeto original es plano,
por otro lado, su desventaja es que puede crear efectos de luz, pero no cambia la forma real de
la superficie. También se debe de tomar en cuenta que los detalles dependen de los vértices
generados, por lo que, si desea un buen acabado, debe aumentar el uso de la memoria.
Para mejorar los gráficos 2D se pueden emplear técnicas de iluminación 3D que embellecen
enormemente el resultado final. La primera técnica que podemos aplicar es el Normal
13
Mapping. Esta técnica define la dirección hacia la que está orientado cada pixel en la textura
por lo que podemos calcular cómo incide la luz en él.
Con ellos podemos ver que que esta técnica mejora los gráficos sobre todo en aquellos
juego que son 2D que orientan una iluminación dinámica basada en su técnica de color
Blending.
Podemos concluir que el normal mapping es una técnica excelente para renderizar
pequeños detalles y relieves, como arrugas en la piel o en la ropa (o alteraciones similares),
pero no afecta la imagen lo suficiente como para considerarla en este proyecto. La sensación
de relieve que da es mínima en comparación con lo que quieres, y la única variación posible es
hacer que el sombreado sea más pesado, lo que no ayuda en absoluto a la estética de la imagen
y no mejoraría el sombreado. En partes posteriores, intentaremos mejorar el realismo de la
escena con algunas técnicas simples y bien conocidas, pero no se espera que mejore el resultado
general logrado con esta técnica.
Displacement Mapping
14
Figura 9. Representación de un Displacement Mapping
Nota. Podemos observar un plano de la esfera con el bump mapping y el otro con el
displacement mapping
(https://www.researchgate.net/publication/228860117_Displacement_Mapping)
Una de las ventajas es que los modelos poligonales muy detallados, como los creados
mediante técnicas de escaneo 3D, se pueden modelar de manera efectiva utilizando solo un
mapa de superficie y desplazamiento del área. Los requisitos de memoria son menores porque
un mapa de desplazamiento con valores escalares requiere mucho menos almacenamiento que
una malla poligonal con valores vectoriales. Las subsecciones de transición son una forma
conveniente de mostrar la animación. Los cálculos de animación son más eficientes con una
malla de control simple que con una malla poligonal muy compleja. El detalle de la superficie
se puede modificar fácilmente cambiando el valor del desplazamiento escalar.
Las superficies detalladas son esenciales para lograr gráficos 3D atractivos. Es por ello
que, el mapeo de desplazamiento es una técnica compacta para hacer esto. Hasta ahora, el
mapeo de desplazamiento solo se ha utilizado para fines que no son en tiempo real, como el
modelado de películas animadas. Sin duda, se seguirá utilizando en aplicaciones en tiempo real,
ya que es una manera muy fácil de agregar detalles de superficie para hacer que su modelo sea
más realista. Sin embargo, esto requiere soporte de hardware, que aún no se ha implementado.
Sin duda, pasarán varios años antes de que estas propuestas reflejen en el hardware real.
Environment Mapping
El mapeo ambiental o environment mapping es un esquema que refina las técnicas de
mapeo del cromo y el mapeo de difracción. Esto es útil ya que el trazado de rayos puede ser
muy costoso en entornos reflectantes. El mapeo envolvente proporciona estos reflejos de
manera más económica con poca pérdida de precisión.
15
El cálculo es independiente del nivel de detalle del entorno. Con este mapeado los
objetos están rodeados por una superficie 3D cerrada sobre la que se proyecta el entorno. Un
rayo reflejado es seguido por un objeto, golpea una superficie y se indexa en un mapa. Un mapa
es esencialmente lo mismo que un cromo, excepto que consiste en una imagen del área vista
desde el centro de la habitación para mapear el área.
Para todas las técnicas de mapeo del entorno, la precisión depende de que los objetos
estén centrados en la superficie y los objetos del entorno más alejados del objeto que recibe el
mapa del entorno. La distorsión geométrica aumenta a medida que el objeto crece en relación
con su entorno o a medida que aumenta su distancia desde el centro del mapa. Esto se debe a
que el mapa del entorno se crea como una proyección desde un punto en el centro de la
superficie.
La primera aplicación de mapeo ambiental fue desarrollada por Jim Blinn y Newell. En
este caso, se supone que el objeto está en el centro de una gran esfera interior sobre la que se
proyecta el entorno. El mapeo utilizó un mapa de latitud y longitud indexado por rayos
reflejados, similar al mapeo de Chrome. La función de indexación solo usa la dirección de R,
provocando errores en el plano de los objetos grandes que tienden a indexar el mismo punto en
el mapa. Además, esta figura es esencialmente una proyección esférica y contiene una
singularidad en (0,0, Rz). El mapeo de Chrome tiene un pico, pero en este caso el mapa está
distorsionado alrededor de la singularidad. Esta es una degradación ya que se suma al efecto
final. La diferencia entre el mapeo de latitud-longitud y el cromo es que en el primero el mapa
es el entorno mientras que en el segundo el mapa es una imagen arbitraria. Ambos son idénticos
en términos de implementación
Otra técnica de entorno es proyectar el entorno en las seis caras del cubo. R3 -> La
función de mapeo R2 ya no es esférica y no tiene distorsión. El mapa del entorno se crea
adquiriendo seis imágenes en direcciones mutuamente ortogonales desde un punto fijo
utilizando una cámara con un campo de visión de PI/2 o utilizando un renderizador que crea
un mapa a partir de una escena modelada. El problema de usar una cámara real es que es difícil
crear un mapa de 6 componentes sin encontrar interrupciones geométricas y de iluminación en
16
las costuras y los límites. Esta técnica es popular porque permite una buena combinación de
objetos CGI y escenarios de acción en vivo.
Figura 10. Ejemplos de environment mapping
Mip mapping
El mip mapping fue creado por Lance Williams en el año 1983, la palabra mip nos
quiere decir "mucho en poco" y mapping significa "mapeo" que junto quiere decir mucho
mapas en poco espacio, esta es una técnica de procesamiento de imágenes que toma una textura
o mapa original de alta resolución, filtra la imagen y la escala en varios mapas de textura de
menor resolución en el mismo archivo de textura. Esto simplemente significa que se crean
mapas de textura más pequeños a partir del original, con cada textura más pequeña que la
"capa" anterior, generalmente la mitad de la resolución.
Entonces, si la textura original (capa 0) es 128x128, la capa 1 sería 64x64, la capa 2
sería 32x32, etc. Cada textura reducida se denomina "plano mip" y representa cómo se vería la
textura original si estuviera a cierta distancia de la cámara o el visor. Con la ayuda de filtros,
estas texturas de diferentes tamaños reproducen colores y texturas de forma más natural cuando
se ven desde la distancia. Mezclarlos evita los patrones muaré y reduce la carga de la CPU.
Usada en los juegos 3D para que se pueda reducir el tiempo de renderización y tiene como
objetivo reducir muchas texturas en pocas texturas mediante la suavización.
17
A continuación en la Figura 11 podemos ver una tabla de ajedrez extendida,se puede
visualizar como esta genera unos patrones de rayas, curvas y puntos que distorsionan la imagen
, esto es llamado como el efecto moiré, este efecto solo ocurre en 2 casos, el primer caso es
cuando hay texturas repetidas y el segundo caso se da cuando se tiene una perspectiva lejana
las texturas. Por ello se tiene que aplicar esta técnica para no sufrir de estos efectos que quitan
la fluidez a nuestras texturas.
Nota: En la izquierda hay una textura sin Mipmapping, y en la derecha hay una textura con
el Mipmapping. (http://www.elephantvfx.com/blog/2017/4/5/mip-mapping)
18
Figura 12. Ejemplo de mapeo de textura proyectiva
Nota: Proyección de varias imágenes de texturas sobre una misma escena para la
construcción de un terreno.
(https://www.web3d.org/sites/default/files/presentations/Updates%20on%20Projective%20Te
xture%20Mapping/%285%29ProjectiveTexturemappingDoc%28kwanhee%29.pdf)
19
Parallax Mapping
El Parallax Mapping es una técnica muy reciente propuesta en 2001. Esta técnica
vendría siendo una mejora en sí del Normal Mapping y Bump Mapping ya que ambos dan
profundidad a la superficie texturizada. Vivas (2017) nos expresa que parallax mapping son
texturas con auto-oclusión en función al punto de vista que tiene el espectador, lo cual hace
que aumente la sensación de profundidad y realismo. Esta técnica nos permite representar de
una forma adecuada superficies con ciertas irregularidades, como por ejemplo las superficies
de las rocas o de una pared de ladrillos, ya que con esta técnica se podrá obtener un objeto con
más profundidad y con un realismo mayor al que solía tener (Ver Figura 14).
Figura 14. Representación gráfica del Parallax Mapping
Nota: Se observa la comparación entre las técnicas Normal Mapping y Parallax Mapping.
20
Aplicaciones
21
En el cine también se visualizó una mejora sustancial, en la primera película animada
ya veíamos una producción bien hecha y agradable visualmente como se puede observar en la
siguiente figura.
Figura 17. Imagen de Toy Story
22
Para realizar estos trabajos, se hace uso de potentes softwares que son conocidos en el
mercado como Adobe Premier, Adobe After Effects, etc. Pero a nivel amateur se usan otros
que, a pesar de ser gratuitos, no dejan la calidad de lado como Blender, el cual es un programa
dedicado especialmente al modelado, iluminación, renderizado y la animación, sobre el cual
realizamos el modelado y texturizado de nuestra querida facultad, la FISI (Facultad de
Ingeniería de Sistemas e Informática). Para este proceso hemos dispuesto de 3 pasos:
1er Paso:
Toma de capturas de la facultad para obtener las texturas a utilizar y poder tener una
idea del terreno a modelar. Se tomaron capturas de los exteriores de la facultad, siendo más
específicos, el lateral, el frontis y la parte trasera. Además, se hicieron capturas de la parte
interior de la facultad.
23
Figura 20. Exterior de la FISI modelada en Blender
24
Figura 22. Frontis de la FISI texturizada en Blender
25
Figura 25. Parte lateral y trasera de la FISI texturizada en Blender
26
Conclusiones
De acuerdo con toda la información expuesta en nuestro informe, podemos concluir
que el mapeo de texturas es una técnica actualmente indispensable para insertar más realismo
a las representaciones desarrolladas digitalmente con el objetivo de mejorar la percepción de
cada una de estas. Con el paso del tiempo, el mapeo de texturas ha ido evolucionando
progresivamente puesto que pasamos de cambiar algunos colores de una superficie a emplear
técnicas más desarrolladas que destacan por su mejor manejo en los detalles, siendo estas, por
ejemplo, Bump Mapping, Normal Mapping, Displacement Mapping, etc, técnicas utilizadas
con respecto al tipo de detalle que deseamos obtener.
Ahora, con respecto a estas mismas técnicas, estás pueden ser utilizadas de forma
simultánea, de manera que cada una de estas se desarrolle de forma independiente y finalmente
se pueda insertar al objeto geométrico en gestión. Por último, podemos expresar que el mapeo
de texturas es una técnica aplicada en muchos ámbitos, principalmente en el entretenimiento,
ya sea en películas, videojuegos, entre otros, que busca, principalmente, generar impresión y
realismo en las personas que lo visualizan, haciendo una representación casi exacta de la
realidad.
27
Bibliografía
Bustos, B. & Hitschfeld, N. (s.f) Premio Turing 20019: La revolución de la animación 3D por
computadora.
https://revistasdex.uchile.cl/index.php/bits/article/download/2765/2699/10145
Cem Yuksel(2022) Interactive Graphics 13 - Environment Mapping
https://www.youtube.com/watch?v=PeAvKApuAuA&t=545s
Hernández Londoño, J. (2006). Mapeo de texturas a objetos 3D basado en la geometría de la
escena https://repositorio.unal.edu.co/handle/unal/7077
IMDB (2009) Avatar https://www.imdb.com/title/tt0499549/
Jon E. Marcus W. Marin W. Paul L.(1998)MIP-map Level Selection for Texture Mapping
https://www.researchgate.net/publication/3410856_MIP-
map_Level_Selection_for_Texture_Mapping
J.L Vaquero (2014) Embellece tu juego 2D - Normal Mapping
https://altplusf13.blogspot.com/2014/06/embellece-tu-juego-2d.html
Kimo K (2002)Displacement Mapping
https://www.researchgate.net/publication/228860117_Displacement_Mapping
Kwan-Hee, Y (s.f.) Projective Texture Mapping Component. Extensible 3D (X3D)
https://www.web3d.org/sites/default/files/presentations/Updates%20on%20Projective
%20Texture%20Mapping/%285%29ProjectiveTexturemappingDoc%28kwanhee%29
.pdf
Lingard, B. (1995). Bump Mapping.
https://web.cs.wpi.edu/~matt/courses/cs563/talks/bump/bumpmap.html
Sipiran, I (2022) Clase 11 - Cámara FPS
https://youtu.be/ImIS1cqKDlU?list=PLW5FjBgPdl7IaSq-oSp6GUVbWXIM9rSee
Tomomichi, K (2001) Detailed Shape Representation with Parallax Mapping
https://www.researchgate.net/publication/228583097_Detailed_shape_representation_
with_parallax_mapping
Winter (2018) - Environment Mapping https://cseweb.ucsd.edu
Wolfe, R. (1999). Teaching Texture Mapping Visually. Computer Graphics 31 (4), 66-70.
https://education.siggraph.org/static/HyperGraph/mapping/r_wolfe_mapping.pdf
Vivas, L (2017) Mapeado de Texturas https://docplayer.es/54180574-Mapeado-de-texturas-
computacion-geometrica-luis-alberto-vivas-tejuelo.html
28
Universidad Nacional Mayor de San Marcos
Universidad del Perú. Decana de América
VICERRECTORADO ACADÉMICO DE PREGRADO
COMISIÓN ORGANIZADORA DE LA ESCUELA DE ESTUDIOS GENERALES
Resolución Rectoral N°05389-R-16
AREA DE INGENIERIA
INVESTIGACIÓN OPERATIVA
SECCIÓN : N°1
GRUPO : N°6
Lima-Perú
2022
Índice
2. Desarrollo
a. Definición de coherencia
i. Back-Face Culling
ii. Warnock
iii. Z-Buffer
3. Aplicaciones
c. Back-Face Culling
d. Warnock
e. Z-Buffer
4. Conclusiones
5. Referencias
OCULTAMIENTO DE SUPERFICIES
vienen a ser las pantallas de los dispositivos electrónicos, donde solo debería
renderizado innecesarios.
infinito, sino que deben mantener una velocidad constante. Por eso aquí es
métodos de determinación caras visibles nos sirven para identificar qué partes
eficiente.
2. Desarrollo
a. Definición de coherencia
cálculos realizados con una parte del mundo o imagen en zonas cercanas,
incluso sin cambios o con cambios incrementales que son más eficientes
es la cara completa.
puntos de intersección.
situación surge si, por ejemplo, un grupo de píxeles está cubierto por el
sobre capas, uno por uno, para poder representar los objetos que
profundidad.
para ello que existen métodos, siendo uno de los más utilizados
será comparado y aquel que cuente con mayor altura será puesto
posicionando en él.
i. Back-Face Culling
para ejecutarlo.
normal es menor a 90° nos indica que dicha cara es visible para
contrario la ocultaremos.
Procedimiento:
normal N.
punto A.
la cámara.
cara.
ii. Warnock
visualización.
(Johnson, A, 2005)
Clasificación de polígonos:
de píxeles actual:
“rodea”.
disjunto.
circundante.
Función Recursiva:
inicio:
siguientes casos:
1. Primer caso:
color de fondo.
polígono.
el bloque.
3. Tercer caso:
Dibuja LP en VP
Sino
FinSi
FinAlgoritmo
iii. Z-Buffer
profundidad.
la anterior.
Procedimiento
de (x, y) en el polígono.
(x, y)
posición de píxel (x, y). Una vez que se procesan todas las
superficies.
Codificación
profundidad
- glEnable(GL_DEPTH_TEST);
- glDisable(GL_DEPTH_TEST);
Para habilitar el uso de la función
- glutInitDisplayMode(GLUT_DOUBLE | GLUT_RGB |
GLUT_DEPTH);
siguiente función:
- glClear( GL_DEPTH_BUFFER_BIT );
3. Aplicaciones
(https://www.youtube.com/watch?v=e0W65ScZmQw)
(https://www.youtube.com/watch?v=QHUo2j-_G5Q)
determinar la visibilidad.
4. Conclusiones
visualización.
mostradas.
visualización determinada.
5. Referencias
Acervolima.com.
https://es.acervolima.com/algoritmo-de-pintor-en-graficos-por-computadora/
YouTube. https://www.youtube.com/shorts/TRBobJj_gCw
de, C. (2006, March 24). Algoritmo del pintor. Wikipedia.org; Wikimedia Foundation,
Inc. https://es.wikipedia.org/wiki/Algoritmo_del_pintor
de, C. (2007, June 19). Partición binaria del espacio. Wikipedia.org; Wikimedia
Foundation, Inc.
https://es.wikipedia.org/wiki/Partici%C3%B3n_binaria_del_espacio
https://www.youtube.com/watch?v=dU6h2i67Afs
https://www.slideserve.com/emerald-england/superficies-visibles
https://www.youtube.com/watch?v=e0W65ScZmQw
https://www.witpress.com/Secure/elibrary/papers/VID93/VID93005FU.pdf
Main Page [Introducción a los gráficos por computadora - Notas del curso
Illinois.
https://www.cs.uic.edu/~jbell/CourseNotes/ComputerGraphics/index.html
Kustaa. (2012). Backface Culling en Cinema 4D [YouTube Video]. In YouTube.
https://www.youtube.com/watch?v=QHUo2j-_G5Q
Ono, L. (2016). Java 3D from scratch - Warnock’s algorithm test (quadtree) [YouTube
Jaavargasar.github.io. https://jaavargasar.github.io/workshop.html
http://medialab.di.unipi.it/web/IUM/Waterloo/node68.html
Realidad Virtual 1
Realidad Virtual
Tabla de contenido
Introducción 4
Definición de la Realidad Virtual 5
Conceptos que estructuran la Realidad Virtual 5
Inmersión 5
Manipulación 5
Navegación 6
Características de la realidad virtual 6
Pasivo 6
Exploratorio 6
Interactivo 6
Otros conceptos 7
Realidad Aumentada 7
Realidad Mixta 7
Historia de la Realidad Virtual 7
Tipos de Realidad Virtual 9
Realidad virtual inmersiva 9
Realidad virtual no inmersiva 10
Realidad virtual semi-inmersiva 10
Inducción electrónica de los sentidos 11
Representatividad 11
Dispositivos de entrada o motrices 12
Dispositivos de salida o sensoriales 12
Herramientas Utilizadas 13
Software 13
Software para el modelaje Tridimensional 13
Software para Gráficos Bidimensionales 13
Software para Simulación 13
Hardware 14
Dispositivos para Estimulación de los Sentidos 14
Dispositivos Visuales 14
Dispositivos Auditivos 14
Tarjetas Aceleradoras Gráficas 14
Técnicas de Interacción en la Realidad Virtual 14
Técnicas Basadas en la Acción de Selección 15
Reconocimiento de Miradas 15
Gestos 15
Entrada del Controlador 16
Realidad Virtual 3
Introducción
misma, su historia, su clasificación, las herramientas que utiliza hasta las aplicaciones en
donde algunas serán más necesarias que otras de acuerdo a la clasificación de la realidad
virtual. El principal objetivo de este trabajo es explicar los conceptos que se encuentran
videos que ejemplifiquen la realidad virtual y logre ser entendida de una manera más
dinámica.
El desarrollo de este trabajo, resulta significativo pues la realidad virtual nos permite
en todo caso el aprendizaje de escenarios realizados para propósitos específicos. Del mismo
verdad es que la realidad virtual se encuentra cada vez más presente en nuestras vidas desde
sectores.
Realidad Virtual 5
Según Navarro et al. (2018) la realidad virtual está definida como un espacio virtual
que aparenta ser real o no real en donde encontramos a un usuario con la sensación de
informático. Por otro lado, para lograr visualizar los entornos virtuales creados se requiere de
ciertos dispositivos que variarán dependiendo del sistema y del nivel de inmersión.
como las plataformas de detección de pasos aunque este tipo de dispositivo puede alterar el
equilibrio de algunos usuarios, ante ello, se suele cambiar por mandos que indiquen el cambio
Inmersión
sensación que se genera al incorporarse en un ambiente virtual real o no, creado por un
ordenador. Esta característica de la realidad virtual, la divide en dos tipos: realidad virtual
Manipulación
en la vida real; sin embargo, hay que tener en cuenta que esto tiene sus limitaciones y solo es
datos, en el caso de la realidad virtual inmersiva; por otro lado, el ratón sirve para interactuar
Navegación
tridimensional” (Zapatero, 2011), esto quiere decir que se tiene un control completo del
través de su ordenador.
usuarios pueden participar en un mismo ambiente siendo esto generado por un ordenador; sin
embargo, de acuerdo con Levis (2006) la realidad virtual debe tener presente tres
Pasivo
pero no interactivo. Esto significa que el espacio virtual en el que se encuentra el usuario
podrá ver, oír y según su nivel de inmersión podrá “sentir” lo que sucede. Asimismo, respecto
Exploratorio
Interactivo
exploración y modificación del entorno virtual. Asimismo, es importante resaltar que existen
niveles de interactividad; así en un entorno inmaterial ideal se tiene una libertad aparente, es
Realidad Virtual 7
decir, una libertad bajo el marco de un programa informático. Por añadidura, cuanto menos
intrusivo y más intuitivo sea, el entorno virtual tendrá mayor nivel de interactividad.
Otros conceptos
Existen otros conceptos que suelen confundirse, por lo que debemos entender y saber
Realidad Aumentada
Según Moreno et al. (2017) define la realidad aumentada de la siguiente manera: “La
realidad aumentada es aquella tecnología que nos permite crear entornos de aprendizaje
En relación a lo mencionado por el autor Moreno, los elementos virtuales son objetos
beneficiarse lo máximo posible de esta aplicación. Por otro lado, la realidad virtual crea un
realidad.
Realidad Mixta
Según Milgram y Kishino (1994) la realidad mixta es una tecnología que se encuentra
entre los extremos del continuo de virtualidad, esto es, el mundo real y el mundo virtual. En
otras palabras, podemos definir la realidad mixta como una combinación entre el universo
físico y digital que permite interacción tridimensionales naturales e intuitivas entre las
Si bien la realidad virtual es mayormente conocida por las personas gracias a los
1965, cuando Ivan Sutherland, considerado como “el padre de la computación gráfica”, la
presenta como “crear un mundo que se vea en una pantalla y que parezca real, con sonido
Realidad Virtual 8
real, que se sienta real, y que responda de manera realista a las acciones del espectador”
de la realidad virtual, mostrando los diversos aportes que se han hecho a través de los años,
los cuales la llevaron a convertirse hoy en día en una herramienta importante para
experiencia real.
display).
HMD, siendo el primer sistema de realidad virtual construido, no solo como concepto.
interacción de usuarios sin utilizar cascos, sino proyecciones en las paredes. Él acuñó
● A fines de los años 70, el MIT logra mapear la ciudad de Aspen, Colorado. En la
simulación, el usuario podía manejar por las calles, bajarse y explorar edificios.
● La NASA desarrolló el Vived en 1986, el cual eran unas gafas de realidad virtual que
permitían la visión de 120° en cada ojo, además de otras funcionalidades. Fue una de
mercado.
● La película “El hombre del jardín” se estrenó en 1992. Fue una de las primeras
● En 1995, Nintendo lanzó al mercado el Virtual Boy, una de las primeras consolas de
está en un mundo artificial; es decir, lo vive con los cinco sentidos y, a diferencia de la
inmersión que tenga el usuario es lo que define las tres categorías en las que se divide la
realidad virtual.
Utiliza diversos equipos tecnológicos, tales como cascos o gafas de realidad virtual,
auriculares, guantes, trajes especiales etc., con el objetivo de estimular la mayor cantidad de
sentidos posibles del usuario para que este tenga la sensación de formar parte completamente
de un entorno virtual, sin tener contacto con la realidad (Otegui, 2017). En este tipo de
La realidad virtual inmersiva puede ser usada en diversos ámbitos, tales como la
conocida por su aplicación en los videojuegos, siendo esta la industria que generó los
década.
entorno virtual, ya que mantiene gran interacción con el entorno real. Además de una pantalla
estimulen los sentidos. Esto es mayormente visto en los videojuegos, puesto que muchos de
estos “demuestran cómo puede conseguirse una sensación de inmersión psicológica aún
cuando no exista inmersión sensorial completa” (Levis, 2006). En otros ámbitos en los que
pero permitiéndole mantener contacto con elementos de la realidad. En este tipo de realidad
virtual también se hace uso de aparatos tecnológicos, tales como gafas, controles, dispositivos
que siguen el movimiento de la cabeza, etc., aunque lo más usual son las pantallas que rodean
simuladores de conducción de vehículos, puesto que, por lo general, estos cuentan con
cabinas que imitan el entorno real, pero con pantallas que proyectan la simulación.
Realidad Virtual 11
● El Usuario
● El Ordenador
● El entorno virtual
equipo de control sirve de puente en “tiempo real” (de manera instantánea) entre el usuario y
el entorno virtual. También existe un entorno virtual que fue creado por un diseñador (el
creador del programa) y un ordenador que actualiza la escena simulada de acuerdo a las
instrucciones generadas por las acciones del usuario que son introducidas a través de los
dispositivos de entrada mientras las interfaces de salida sirven para enviar continua e
del operador.
Después de todo existe una estrecha relación entre el ser humano y la máquina. Para
Representatividad
Las presentaciones de las máquinas y dispositivos existentes están muy lejos de lo que
la percepción y el sistema cognoscitivo humano exigen para considerar que algo forma parte
de la realidad física. Así, como señalan Pimentel y Texeira (1995) “la construcción de
Realidad Virtual 12
205).
Estos dispositivos deben ser capaces de interpretar los gestos y acciones del usuario
tratase de la vida real. A pesar de que existen algunas aplicaciones que se aproximan a este
objetivo, Lajirani (1994) “señala que en el mejor de los casos llevará muchos años desarrollar
Estos dispositivos son instrumentos capaces de transmitir a los sentidos del usuario,
sistema informático. Información que para ser eficaz debe llegar a los órganos sensoriales a
los que está dirigida. Es lo que Coiffet (1995) denomina distribución primaria de los tipos de
información.
hacia otro sentido, se puede aprovechar esto para generar interfaces de salida de un sistema
Herramientas Utilizadas
necesarios para la interacción con el usuario. Teniendo en cuenta el modelo realizado por
virtual y el hardware.
Software
Dado que un ambiente virtual es un medio 3D, todos los objetos en un mundo virtual
tienen que ser descritos de manera que puedan ser vistos desde cualquier ángulo. Una simple
imagen del objeto no es suficiente. La verdadera geometría de los objetos tiene que
virtual.
gráficos bidimensionales, llamados a menudo “programas para pintar”. Las imágenes creadas
con este tipo de software (o fotografiadas, digitalizadas, y luego editadas con este software)
pueden ser luego usadas para “forrar” la armazón geométrica producida en el software de
El software tiene que ser capaz de procesar las señales provenientes de los
localizadores y otros dispositivos de entrada para actualizar las visualizaciones por lo menos
20 veces cada segundo. Esto sin tener en cuenta que pueden haber más de un participante en
videojuegos en 3D y 2D, así como una herramienta de creación integrada para crear
Hardware
Dispositivos Visuales
Dado que la mayoría de las personas poseen dos ojos, un modo natural de ver el
mundo requiere no un display, sino dos. Un modo común de producir una vista 3D de un
Dispositivos Auditivos
La mayoría de las personas también tiene dos orejas. Esta es la principal razón para la
preferencia por el sonido estereofónico. Exactamente igual que dos perspectivas visuales
producen una imagen 3D, dos perspectivas de audio pueden producir un paisaje sonoro 3D.
Desde la producción de tarjetas aceleradoras gráficas 3D que con el pasar del tiempo
sus costos fueron disminuyendo, por ejemplo Silicon Graphics ha desarrollado nuevas
sensación de ser parte del escenario o estar inmerso en él. Al pasar los años, las
Realidad Virtual 15
investigaciones relativas a este objetivo han logrado obtener resultados favorables, con los
cuales la interacción del usuario con el objeto o escenario va adoptando mayor naturalidad.
Estas técnicas se centran en acciones específicas entre las cuales podemos encontrar a
la selección, la cual se basa en señalar con qué elemento de la interfaz de usuario se desea
reconocimiento de miradas, los gestos y las entradas desde el controlador son unos ejemplos
de cómo puede realizarse la selección. Por otro lado, tenemos a la acción de manipulación, la
cual entra al escenario luego de realizarse la selección, consiste en emitir órdenes a los
virtual es fundamental para que pueda existir una correcta interacción con los elementos, es
Reconocimiento de Miradas
o la mirada real del usuario, esta última opción se caracteriza por ser más compleja y costosa
los giroscopios que poseen los cascos de realidad virtual, estos detectan con mayor facilidad
Para que ocurra la acción de selección, el usuario debe tener una postura adecuada en
función del elemento que desea seleccionar. Luego, el usuario mira directamente al elemento
Gestos
Capturar los gestos del usuario se ha convertido en una técnica más común dado su
facilidad de uso y eficiencia. Gracias a las cámaras, se pueden reconocer una diversa serie de
Realidad Virtual 16
confirmación de la selección se puede lograr con punteros láser de mano o gestos claves que
láser de sí, este se dirige al elemento objetivo para realizar la selección, a su vez el usuario
puede reorientar la dirección a la que está apuntando y con ello facilitar la interacción.
Si bien se trata de una buena técnica de selección, requiere que el diseñador del
entorno de realidad virtual esté al pendiente de que no ocurran problemas como la oclusión,
producidas por la intersección del láser con un elemento no deseado durante la reorientación
manipularlo de acuerdo a sus necesidades, pero estas acciones se deben realizar teniendo en
cuenta las limitaciones del elemento. Por ejemplo, el usuario no puede transformar las
dimensiones del elemento si este no ha sido programado para responder a dicha función. Es
por este motivo, que el desarrollador del entorno virtual, debe asegurarse de que no existan
incongruencias entre los elementos del entorno y las capacidades de entrada del hardware
Escalar/Rotar/Trasladar (S/R/T)
controladores sencillos o complejos, con los que manipulan los elementos, siempre y cuando
Teletransporte
Dentro del entorno de realidad virtual el usuario puede tomar la decisión de moverse a
algún lugar del escenario. Esta acción se puede combinar con acciones como la rotación,
ayuda de un raycast, elemento perteneciente a la cámara del dispositivo que apunta hacia un
Locomoción y vección
visual del usuario identifica movimiento, sin embargo, el sistema de equilibrio de su cuerpo
no detecta ningún movimiento. Esto provoca náuseas y mareos durante su uso. Ante ello,
surgen las técnicas de locomoción que gestionan la vección para evitar este tipo de conflictos.
En ciertos entornos de realidad virtual, una de las características del movimiento del
usuario es que está controlado por un sistema que simula a los rieles del tren, es decir que
sigue un patrón específico. Este punto, debe ser tratado con cuidado pues genera vección si
no es manejado correctamente.
rieles), consiste en que la dirección mirada o apuntada por el usuario, será la dirección de
destino en la cual se moverá el usuario en cuestión. Aporta mayor interacción del usuario.
Realidad Virtual 18
una etapa de declive respecto a tecnologías de realidad virtual. Sin embargo, hay ciertas áreas
donde la tendencia es estable o ligeramente al alza”. Ante ello, reconocemos que existen
algunos sectores en los que la realidad virtual no tiene un papel sobresaliente, pues las
aplicaciones e investigaciones no son tan amplias; sin embargo, en otros sectores la realidad
En la actualidad, son la Unión Europea y Estados Unidos las regiones que presentan
más aportes respecto a la realidad virtual. Por otro lado, una investigación desarrollada por
Domínguez et al (2020) nos presenta una distribución de los sectores que poseen más
Figura 1
Nota: El gráfico muestra los porcentajes que cada sector posee respecto al desarrollo de
Reality Evolution and Future Tendency” (p. 322), por Munoz, L. et al 2020, Applied
Sciences-Basel, 10 (1).
Realidad Virtual 19
Por otro lado, el sector de salud con un 25.8% revela el gran desarrollo que tiene la
entrenamientos de los cirujanos de manera que se reduzcan los riesgos durante la cirugía; y la
dividen para tres categorías (edad temprana, media y alta). Se centra en brindar ayuda a los
depende de la categoría.
trabajadores son los tres aspectos sobre los que recaen sus aplicaciones.
ambiente, esto se debe a que está ligada al desarrollo sostenible. “Las tecnologías RVI y
costos energéticos, aunque la RVI produce más costes en comparación de la RVNI. A su vez
Realidad Virtual 20
favorece en el ámbito de la economía y tiene un bajo impacto ambiental. Por otro lado,
esto debido a que ha favorecido en gran medida en muchos sectores, ya sea optimizando o
mitigando situaciones que logren facilitar la vida cotidiana del ser humano. Para lo cual,
tratamiento de fobias y traumas psicológicos, e incluso el control del dolor gracias al uso de
técnicas de distracción.
estudiantes de medicina. Espinoza G., H. (2019) enfatizó que “la falta de práctica en
porque no hay un ambiente donde aplicarlo”. En ese sentido, el uso de la realidad virtual
proporciona un lugar de desarrollo para los estudiantes y así lograr ser más eficaces en sus
cien por ciento, no basta con su uso para comenzar a realizar operaciones quirúrgicas, ya que
existen factores naturales que no están determinado por completo en una simulación, por
ende, puede ser requerido su implementación para tener conocimientos previos a las prácticas
cual, la realidad virtual está teniendo un rol importante en el aprendizaje de los estudiantes,
logrando elaborar diversas metodologías de enseñanza que sirven como complemento, y así
La realidad virtual resulta ser muy útil en las carreras de ingeniería, debido a que el
estudiante requiere interactuar con los componentes y así evitar riesgos o reducir costos de
implementación, tal como lo dicen Cruz J. et al en el año 2014, enfatizando que “la realidad
virtual no solo permite saber cómo operan los equipos previamente, sino también identificar
fallas sin ningún riesgo”. Acotando a esta idea, su implementación se podría simular las veces
Por otro lado, el uso de esta tecnología requiere de supervisión y una correcta
implementación, ya que esto tiene como objetivo contribuir con el aprendizaje de los alumnos
En inicios, la realidad virtual tuvo otros objetivos y destinado para esas personas que
incremento en el entretenimiento, causando así una mayor demanda por parte del público que
buscaba aventura y excitación sin tener que preocuparse por presentar riesgos en la vida real.
estimulación de conocimientos con el uso de una consola o celular. Por lo cual, la mayoría de
personas lo usa con fines de entretenimiento y así aprovechar la tecnología en actividades que
Por otro lado, su uso puede generar adicción, ya que todo juego es adictivo y la
experiencia que esta tecnología ofrece es mucho más intensa. Es por ello, que su utilización
debe ser controlada y supervisada, esto debido a que puede causar en las personas
Productos
apoyo de una página web llamada “Roundme”, el cual permite incorporar imágenes 360°
panorámicas para crear recorridos virtuales de manera interactiva, cabe destacar que es de
en cada una de las imágenes para volverlo interactiva y así avanzar a los diversos ambientes
en la facultad.
Por último para su ejecución se requiere la publicación del tour creado y un link que
tour elaborado y así tener una linda experiencia en cuanto a la visualización de la Facultad de
Figura 2
Apartado “Puerta principal” dentro del tour creado en la página web RoundMe.
Elaboración propia.
Instalacion de modulos
Figura 3
Nota. En la figura se observa la versión de Unity que se usará para el producto desarrollado.
Elaboración propia.
Realidad Virtual 24
Para realizar este producto haremos uso de Unity 2021.3.1 versión LTS. Se
Figura 4
Nota. En la figura se distinguen los módulos necesarios para el desarrollo del producto.
Elaboración propia.
que desarrollaremos. En este caso se desarrollará para Android, por lo tanto tenemos
añadidos los módulos Android Build Support, OpenJDK y Android SDK & NDK Tools.
Realidad Virtual 25
Figura 5
Figura 6
Figura 7
https://github.com/googlevr/cardboard-xr-plugin.git
En este repositorio se encuentra el SDK para Unity, con el que se puede crear
experiencias VR para cardboard. Proceder a descargar la última versión del SDK. Una vez
Figura 8
proyecto.
Nos dirigimos al botón con el signo más, luego a la opción “Add package from disk”
descargado.
Figura 9
Una vez agregado el SDK al proyecto, siguiendo una ruta específica, se puede
entorno según el dispositivo en el cual lo usaremos, para este caso usaremos la plataforma
Figura 10
orientación de la escena.
Realidad Virtual 29
Figura 11
defecto que se desea (Default Orientation) y además desactivar la optimización del ritmo de
multiplataforma de gráficos a OpenGL tal y como se muestra en la figura 12. Por otro lado, la
Figura 12
Figura 13
Nota. En la imagen observamos el nivel mínimo de API que vendría a ser Android desde la
versión 7.0.
algunas líneas de código proporcionado por la página de desarrolladores de google. Las tres
Figura 14
Creación de clases.
desarrolladores de google.
Configuración del proyecto > Reproductor > Configuración de la publicación. Nos dirigimos
lo siguiente:
implementation 'androidx.appcompat:appcompat:1.4.2'
Realidad Virtual 32
implementation 'com.google.android.gms:play-services-vision:20.1.3'
implementation 'com.google.android.material:material:1.6.1'
implementation 'com.google.protobuf:protobuf-javalite:3.19.4'
Assets/Plugins/Android/gradleTemplate.properties.
android.enableJetifier=true
android.useAndroidX=true
Finalmente, con toda esta configuración, podremos observar la ejecución final del
proyecto de realidad virtual como observamos en las siguientes imágenes tanto la escena
Figura 15
Nota. En la figura observamos la ejecución final del proyecto siendo lo que se reproducirá lo
Figura 16
movimiento de la cámara.
Conclusión
presenta tres características básicas que resultan ser su rasgo diferenciador de otros tipos de
que a través de los años la realidad virtual se ha ido desarrollando progresivamente y a su vez
se ha vuelto más importante. En diversos sectores, la realidad virtual se destaca gracias a sus
medicina, la educación y el entretenimiento pues son los que presentan más avances respecto
a la realidad virtual. Por otro lado, gracias a la amplia variedad de herramientas y técnicas
que los usuarios puedan vivir una experiencia completa. Es evidente que en los próximos
estrategias. z
Realidad Virtual 35
Referencias bibliográficas
Bockholt, N. (mayo del 2017). Realidad virtual, realidad aumentada, realidad mixta. y ¿qué
https://www.thinkwithgoogle.com/intl/es-es/futuro-del-marketing/tecnologia-emergen
te/realidad-virtual-aumentada-mixta-que-significa-inmersion-realmente/#:~:text=Inme
rsi%C3%B3n%3A%20c%C3%B3mo%20sumergirse%20en%20mundos%20virtuales
&text=En%20el%20contexto%20de%20la,interact%C3%BAa%20con%20el%20ento
rno%20virtual.
Cruz, J. A. F., Gallardo, P. C., & Villarreal, E. A. (2014). La realidad virtual, una tecnología
https://hdl.handle.net/20.500.12805/1748
https://www.youtube.com/watch?v=u3cUCJaHzBM
https://www.futurelearn.com/info/courses/construct-a-virtual-reality-experience/0/step
s/96390
https://www.academia.edu/download/30471870/que_es_rv.pdf
Realidad Virtual 36
https://search.ieice.org/bin/summary.php?id=e77-d_12_1321
Moreno, N., Leiva, J., Galván, M., López, E. y García, F. (2017). Realidad aumentada y
http://www.enriquesanchezrivas.es/congresotic/archivos/Form_Compet_metodos/Mor
enoMartinez_Otros.pdf
Munoz, L., Miro, L. y Dominguez, M. (2020). Augmented and Virtual Reality Evolution and
https://doi.org/10.3390/app10010322
https://books.google.com.pe/books?id=zI6fDwAAQBAJ&lpg=PA4&hl=es&pg=PA4#
v=onepage&q&f=false
https://addi.ehu.es/bitstream/handle/10810/24910/9.J.Otegui.pdf?sequence=1&isAllo
wed=y
Rodríguez, G., Alcázar, J., Francisco, J., & Massa, S. M. (2021). Videojuegos, gamificación y
realidad virtual: formas de socialización del siglo XXI. Mar del Plata, Universidad
http://teg20.org/es/Videojuegos,%20gamificacio%CC%81n%20y%20realidad%20virt
ual%20-%20impresio%CC%81n.pdf
Realidad Virtual 37
Unity Adventure (9 de agosto 2022). Realidad Virtual Google Cardboard Tutorial Unity -
Vergara, D., Fernández, P., De Santos, C. y Anton, A. (2022). Virtual Reality: Sustainable
Zapatero, D. (2011). La realidad virtual como recurso y herramienta útil para la docencia y la
REALIDAD AUMENTADA
Grupo: 3
Integrantes:
Lima, Perú
2022
1
Tabla de Contenido
Introducción 3
1. Diferencia entre realidad aumentada y realidad virtual 4
2. Dispositivos de realidad aumentada: 4
3.1. Heads up displays (HUD’s): 4
3.2. Holographic displays: 5
3.3. Smart glasses 5
3. Funcionamiento de la realidad aumentada: 6
4. Niveles de la realidad aumentada 9
5. Tipos de realidad aumentada 12
6. Aplicaciones de la realidad aumentada 16
7.1. Marketing: 16
7.1.1 Impacto: 17
7.1.1.1. Clientes: 17
7.1.1.2. Empresas: 17
7.1.2. Alcances: 18
7.2. Arquitectura y construcción 18
7.2.1. Morpholio AR Sketchwalk. 19
7.3. Medicina: 19
7.4. Videojuegos 20
7.4.1. Pokémon GO 20
7.4.2. Jurassic World Alive 20
7.4.3. Minecraft Earth 21
7.5. Arte 21
7.6. Turismo 21
Conclusiones 23
Bibliografía 24
2
Introducción
interactuamos con el mundo. Desde cómo te relacionas hasta cómo te comunicas con los
demás y con quienes te rodean. En ese sentido, notamos que el mundo se está convirtiendo en
aparece y nos ayuda a obtener está información de una manera muy simple y sencilla, incluso
La realidad aumentada es una tecnología que combina el mundo físico con el mundo
virtual en tiempo real. Si bien es un término que a primeras impresiones suena a algo nuevo,
este concepto nació hace mucho tiempo y ha ido creciendo a pasos agigantados desde
entonces. Además la realidad aumentada nos permite acceder a experiencias más interesantes,
recolectando información que luego será potenciada para mejorar la información que se
diferencias que tiene con la realidad virtual, los dispositivos, el funcionamiento, los niveles,
los tipos y las aplicaciones de la realidad aumentada y, por último, la importancia que tiene en
el ámbito de la educación.
3
1. Diferencia entre realidad aumentada y realidad virtual
Existe una gran brecha entre los términos realidad virtual (RV) y realidad aumentada
(RA) cuando. La diferencia más resaltante es que ofrecen experiencias totalmente distintas.
En resumen, cabe resaltar que la realidad virtual pretende presentar un mundo completamente
Entre las diferencias entre ambas tenemos que el propósito de la realidad aumentada
tiene que ver en que se adiciona al mundo real teniendo parcialmente el control de la
situación, en cambio a la realidad virtual esta crea un entorno visual el cual el usuario se
imágenes y caras de objetos reales en la pantalla de una computadora. Una vez más, la
más preciso requiere lentes y medidas adicionales, lo que lo hace aún más difícil.
orientación, así como algoritmos para determinar la posición y orientación de la cámara. Así,
la tecnología de realidad aumentada son los gráficos 3D en una cámara que superponen
imágenes generadas por computadora desde la perspectiva del mundo real (Peddy, 2017, p.
24) .
4
2. Dispositivos de realidad aumentada:
Son sistemas que proyectan información, como la velocidad o las instrucciones del
Head Medium Display, en el cual proyecta la información sobre una làmina transparente,
simplificadas del navegador, por otro lado tenemos Head Up Display, el cual es más
Figura x
la luz para mostrar una imagen tridimensional al espectador. Las pantallas holográficas se
distinguen de otras formas de pantallas 3D en que no requieren que el espectador use anteojos
5
especiales o equipo externo para poder ver la imagen, y no causan el conflicto de
vergencia-acomodación .
con imágenes generadas por computadora para que el usuario las vea. Ejemplo
Figura x
6
Fuente: Kore(2018)
proyectadas las imágenes virtuales, entre los elementos principales tenemos al:
mundo virtual.
rendimiento.
■ Sensor profundidad
■ Giroscopio
■ Sensor proximidad
■ Acelerómetro
❖ Software: Este componente interpreta el mundo que nos rodea con ayuda de
7
➢ Comprensión del entorno: El seguimiento de movimiento permite que
❖ Aplicación:
de ello es Plant Life Balance que nos permite ver en tiempo real, algún tipo de planta
decorativa para el hogar, esto es útil ya que nos da una noción del producto en casa.
sus propios objetos o filtros en 3D, como por ejemplo Pokémon GO, Instagram o
lógica de activación.
Una vez explicado qué es lo que se necesita para correr una aplicación en
aumentada?
paso sería que el usuario enfoque con los sensores del dispositivo hacia un objeto o
8
va a desplegar en la pantalla, ya sea un objeto o una criatura de un videojuego, y es
Figura X
9
Fuente: Rigueros, C. (2017)
profundidad con que se utiliza; así, se tienen diferentes utilidades, desde un código
QR que abre un link de publicidad hasta unas gafas, las cuales permiten ver rutas de
10
Considerado el nivel más básico, su utilidad se basa en el reconocimiento de
Figura x
https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf
se hace uso de los marcadores, que son figuras generalmente cuadradas impresas en
blanco y negro. Este nivel cuenta con un nivel más desarrollado que es el
Figura x
11
Nota. Adaptado de Niveles de la realidad aumentada, 2016,
https://sites.google.com/site/realidadaumentadainac2016/indice/1-7-niveles-de-la-reali
dad-aumentada
En este nivel el uso de los marcadores es sustituido por el uso del GPS y la
Figura x
https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf
todo esto gracias a los dispositivos tecnológicos, donde se permite que la realidad
Figura x
12
Nota. Adaptado de Realidad aumentada y aplicaciones, 2018,
https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf
este marcador lo podemos mencionar como si fuera un ancla que conecta el mundo
imágenes, etc.
Figura x
13
Nota. Diferentes tipos de Realidad Aumentada, 2018,
https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf
Figura x
14
Nota. Diferentes tipos de Realidad Aumentada, 2018,
https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf
Este tipo de realidad aumentada vincula la imagen virtual a una zona o lugar
en específico, teniendo en cuenta los datos del tiempo real con ayuda de la cámara,
del usuario.
y luego se muestran cuando los datos del dispositivo de un usuario coinciden con la
ubicación.
lugares, búsquedas del tesoro o incluso guías turísticas virtuales e información local.
Figura x
15
Nota. Diferentes tipos de Realidad Aumentada, 2018,
https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf
7.1. Marketing:
Según los casos mencionados por Melo, I. M. (2018). La realidad aumentada puede
facilitar un comportamiento más interactivo entre la publicidad por parte de las empresas y
16
Nota: Extraído de Ruiz S. & Polo D. (2012). “La Realidad Aumentada Como Nuevo
https://pixelfield.co.uk/blog/how-to-use-ar-in-campaigns-the-ultimate-guide-to-augme
nted-reality-marketing/
7.1.1 Impacto:
7.1.1.1. Clientes:
los anuncios y los clientes; dando como resultado un incremento del interés de los mismos, ya
sea en un programa de televisión o algún refresco. Además del hecho de que el uso de RA
17
puede ayudar a los clientes a saber cómo será el producto final sin la necesidad de compartir
un espacio físico.
7.1.1.2. Empresas:
publicitario está teniendo un gran impacto en las marcas y en los volúmenes de compras, esto
debido a que los consumidores buscan una experiencia más personalizada y comprometida.
Lo que conllevo a que las empresas que emplean dicha tecnología obtuvieron un 41 % más de
los consumidores está de acuerdo en que la realidad aumentada les brinda más confianza en
7.1.2. Alcances:
joven o generación Z, por lo cual Velichko(2021) propone si las marcas quieren llegar al
permite presentar los resultados incluso antes de que se termine con la obra, lo cual afirma
Ellis(2022) al mencionar que “AR también se puede usar para mostrar modelos 3D e incluso
ofrecer recorridos, dando a los clientes una idea sólida de cómo se vería un edificio antes de
construirlo”.
18
Nota: Extraído de The Power of Augmented Reality (AR) in Construction. Ellis G.(2022)
Así mismo podemos mencionar que se puede ligar su aplicación a la seguridad del
oficina, poder mostrar texto o incluso modelos tridimensionales para comunicar información
de seguridad o peligro.
espacio real a través de un dispositivo móvil como una tableta, permitiendo alterar los
diseños para tener una mejor idea de la distribución de espacios, haciendo que la presentación
19
Nota: Aplicación de Morpholio AR Sketchwalk
7.3. Medicina:
con los que no haya necesidad de compartir un espacio físico, en el ámbito de la medicina,
Según Ortiz C. (2011) una de las áreas en medicina más beneficiadas de la aplicación
de esta tecnología sería la cardiología, la cual a través de mapas electro anatómicos que
7.4. Videojuegos
audiovisual del juego con el entorno del usuario en tiempo real. Por lo general, la realidad
La realidad aumentada no es solo el futuro, sino el presente. Dentro de unos años, los
teléfonos inteligentes como los conocemos hoy en día quedarán obsoletos. Hasta entonces,
deberíamos contentarnos con usar esta nueva tecnología en las pantallas de nuestros
dispositivos móviles a través de aplicaciones como Google Maps. Pero también puede
resultar un pasatiempo muy divertido para todo tipo de público según la temática a gusto. A
20
7.4.1. Pokémon GO
teniendo a miles de millones de personas alrededor del mundo saliendo de sus casas para
capturar “Pokémones”.
Surge después del éxito de Pokémon GO. Presenta la misma temática que este, pero
socializar con otros compañeros, Minecraft siempre ha dado múltiples opciones a la hora de
jugar.
7.5. Arte
tridimensionales (3D) en el espacio físico real que se encuentra en las definiciones más
clásicas de la tecnología. Hablamos de combinar una imagen del espacio real con un objeto
7.6. Turismo
21
actividades; desde información sobre el lugar, sus monumentos y edificios, hasta itinerarios
opciones
Como ejemplo podemos citar el caso de la aplicación móvil Guideo, el cual ,entre las
tridimensional que el usuario pueda llegar a los diferentes destinos turísticos de interés
referenciados en las rutas mostrando la historia relacionada a dicho punto de forma acústica
Nota: Adaptado de Fernández Alles, M.T. y Cuadrado Marqués, R. (2014). Ejemplo de mapa
en 3D de la app Guideo
https://idus.us.es/bitstream/handle/11441/77065/El%20impacto%20de%20las%20nuevas%20
tecnolog%c3%adas%20en%20el%20sector%20tur%c3%adstico.pdf?sequence=1&isAllowed
=y
22
Conclusiones
embargo, su breve introducción es una nueva tendencia en varios campos con un sinfín de
programas que están mejorando y expandiéndose con el mismo objetivo, el cual se centra en
brindar una mejor experiencia para muchos usuarios, proporcionando situaciones inmersivas
y el avance de sus partes tienen grandes beneficios, tales como que el mundo real se puede
complementar con el mundo virtual, en donde este ciberespacio nos ayudaría a mejorar
tecnología, la educación y la tecnología. Es por esto que decimos que es muy probable que en
un futuro no muy lejano, podamos experimentar de una manera más frecuente la realidad
aumentada, permitiéndonos así cambiar y mejorar diversos aspectos de nuestra vida diaria.
23
Bibliografía
Augmented Reality in Marketing and Sales: Practical Yet Innovative. (2022). Movidev.
https://mobidev.biz/blog/augmented-reality-marketing-sales
Deloitte Digital (2021). Deloitte Digital and Snap Inc. Report Reveals the Rich, Untapped
https://www.prnewswire.com/news-releases/deloitte-digital-and-snap-inc-report-revea
ls-the-rich-untapped-future-of-augmented-reality-for-customer-experience-301290445
.html
DPL News. (2021, 13 septiembre). Huawei presenta un HUD de Realidad Aumentada para
automóviles.
https://dplnews.com/huawei-presenta-un-hud-de-realidad-aumentada-para-automovile
s/
Ellis G.(2022). The Power of Augmented Reality (AR) in Construction. Autodesk. Extraido
de: https://constructionblog.autodesk.com/augmented-reality-ar-construction/
Fernández Alles, M.T. y Cuadrado Marqués, R. (2014). El impacto de las nuevas tecnologías
https://idus.us.es/handle/11441/77065
Juez, I. (2021). Diez juegos de realidad aumentada para móviles con los que los niños
alucinarán. El Correo.
https://www.elcorreo.com/familias-bbk-family/seis-juegos-realidad-aumentada-ninos-
20210421142855-nt.html
https://uxdesign.cc/augmented-reality-device-types-a7668b15bf7a
24
Melo, I. (2018). Realidad aumentada y aplicaciones. Tecnología, Investigación y Academia,
https://sites.google.com/site/realidadaumentadainac2016/indice/1-7-niveles-de-lareali
dad-aumentada
https://www.neosentec.com/realidad-aumentada/
Rigueros, C. (2017). La realidad aumentada: lo que debemos conocer. TIA, 5(2), pp.
257-261. https://revistas.udistrital.edu.co/index.php/tia/article/view/11278
Rodríguez L., Guerrero J. & Olmos I, (2020) La Realidad Aumentada: creando experiencias
https://elementos.buap.mx/directus/storage/uploads/00000005453.pdf
Ruiz Davis, S., & Polo Serrano, D. (2012). La realidad aumentada como nuevo concepto de
Recuperado a partir de
https://www.revistarazonypalabra.org/index.php/ryp/article/view/492
Velichko Y.(2021). AR Advertising: A Ploy or the Future of Digital Marketing?. Extraído de:
https://postindustria.com/ar-advertising-a-ploy-or-the-future-of-digital-marketing-3d-
models/
25
UNMSM
Facultad de Ingeniería de
Sistemas e Informática
Geometría
Fractal
Y SUS APLICACIONES
Grupo Nº2:
● Ortiz Abanto Kevin Miguel 20200230
● Pachas Lopez Nabia Jasmin 20200231
● Robles Matienzo Ruben David 20200204
● Retuerto Santillan Mauro Alejandro 20200202
● Chanhualla Fernandez Corina 10200025
2022
ÍNDICE GENERAL
aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
INTRODUCCIÓN 1
GEOMETRÍA FRACTAL 2
1.1. Definiciones 2
1.2. Historia de la Geometría Fractal 2
1.3. Construcción matemática de fractales 3
1.3.1. Conceptos Matemáticos Clave 9
1.3.2. Métrica y dimensión de Hausdorff-Besicovitch 9
1.3.3. Dimensión de Conteo de Cajas 12
1.3.4. Definición Matemática de Fractales 12
1.4. Características de los fractales 13
1.5. Funciones fractales 13
1.5.1. Funciones como límites de series 14
1.5.2. El Operador de Read-Bajraktarevic 15
1.5.3. Funciones en base a IFS interpolantes 18
1.6. Fractales Famosos 19
1.6.1. El conjunto de Cantor 19
1.6.2. El atractor de Lorenz 21
1.6.3. El triángulo de Sierpinski 22
1.6.4. Curvas de Peano 23
1.6.5. El juego del caos 25
1.6.6. La curva de Koch 25
1.6.7. Desplazamiento del punto medio 27
1.6.8. Conjunto de Julia y Mandelbrot 30
1.7. Tipo de Fractales 31
1.7.1. Fractales escalantes 31
1.7.2. Fractales no escalantes 32
1.7.3. Fractales aleatorios estratificados 32
1.7.4. Fractales y movimiento brownianos 32
CONCLUSIONES 59
BIBLIOGRAFÍA 60
ÍNDICE DE FIGURAS
aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa.XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
mercados financieros 43
INTRODUCCIÓN
La geometría fractal es una de las disciplinas que ha protagonizado diferentes
investigaciones a lo largo de los años. El impacto que ha adquirido se debe
principalmente al esfuerzo que ha puesto la humanidad en modelar las diferentes
formas y estructuras presentes en la naturaleza. Antes de la aparición de los fractales, la
geometría euclidiana era la herramienta central para el modelamiento de elementos.
Utilizaba puntos, líneas, curvas, entre otros objetos para representar estructuras
regulares. Sin embargo, la imposibilidad de aplicar esta geometría en estructuras
irregulares contribuyó al surgimiento de la geometría fractal.
Esta nueva geometría soluciona los problemas que presenta la euclidiana. Gracias
a su introducción ahora se pueden realizar modelamientos de formas de la naturaleza
que presentan una estructura irregular. Entre algunas estructuras conocidas que se le
atribuye a los fractales son: la forma de una nube, de una montaña, de una costa, de los
troncos y hojas de árboles. Estos elementos mencionados tienen la peculiaridad de que
ninguno puede ser representado netamente por formas atribuibles a la geometría
euclidiana; es decir, no son formas esféricas, cónicas, cilíndricas ni rectilíneas: son
formas fragmentadas.
1
CAPÍTULO I
GEOMETRÍA FRACTAL
1.1. Definiciones
Fractal es un término acuñado por Benoît Mandelbrot en 1975, y explicado a
mayor profundidad en su libro “La Geometría Fractal de la Naturaleza” en 1977. Este
parte del adjetivo latino fractus, el cual se relaciona con los conceptos de fragmentado,
fraccionario e irregular (Mandelbrot, 1977). Es a partir de aquella palabra que diferentes
autores han realizado sus propias abstracciones en busca de brindar una mayor
comprensión sobre el verdadero significado de los fractales:
- Según Uahabi & Atounti (2015) “los fractales son estructuras que parecen
irregulares y se perciben como aleatorias, sin embargo, estas tienen una
autosemejanza desde diferentes aumentos”, una interpretación muy acorde a lo
visto en los modelos de fractales.
- Según Dun et al (2021) “en la naturaleza, los fractales poseen patrones repetidos
en direcciones de diferentes ejes, lo cual se denomina como naturaleza autofin.
Además, su autosimilitud es estadística, por lo que no son desviaciones del objeto
en escalas variadas”.
- Asimismo Al-Majdalawi (2005) define a los fractales como “objetos geométricos
que están compuestos de elementos, también geométricos, que tienen un
tamaño y orientación variable, sin embargo, cuentan con un aspecto similar.
Además, cuenta con una estructura geométrica recursiva que se asemeja a las
ramas de un árbol, ya que existen elementos de orden mayor compuestos por
elementos de orden menor”.
“La gráfica de toda función continua posee una tangente bien definida en todos sus
puntos, salvo quizás en un número finito de ellos” (Correa & Velezmoro, 2017).
2
Por otra parte, un año después, Jules Poincaré introduce la noción de dimensión
topológica de forma inductiva de la siguiente manera:
La dimensión del vacío es -1. Si la frontera de las vecindades de todos los puntos de
un objeto tiene dimensión “n-1” entonces el objeto tendrá dimensión “n”.
3
exactamente qué es un fractal desde una perspectiva matemática, tomando en cuenta
algunos conceptos básicos que permitan una mayor abstracción.
a. Operador Contractivo
Se le llama operador contractivo o aplicación contractiva a una función que es
capaz de contraer las distancias de un espacio métrico dada cierta razón de contracción
k, la cual es estrictamente menor a la unidad. (Correa & Velezmoro, 2017)
4
teorema muy importante denominado el teorema del punto fijo, el cual se explicará más
adelante.
Tomando ello como base, se puede empezar a generar fractales utilizando tan
solo sistemas de funciones iteradas aplicadas de manera recursiva.
Ejemplo:
Suponga que posee una línea recta horizontal sobre la cual se desea aplicar el
1
operador contractivo 𝑇 = 3 𝑥 . Si se aplica el operador se obtiene una línea contraída,
1
que en este caso, corresponde a un tercio de la línea original.
5
Figura 3: Efecto del operador T2
6
En la siguiente tabla, se muestran los sistemas de funciones iteradas de 4
fractales importantes:
IFS
Conjunto de Cantor
𝑇:
1
𝑇(𝑥)1 = 3
𝑥
1 2
𝑇(𝑥)2 = 3
𝑥 + 3
Triángulo de Sierpinski
𝑇:
𝑇(𝑥, 𝑦)1 = ( 1
2
𝑥,
1
2
𝑦)
=( 𝑦) + ( )
1 1 1
𝑇(𝑥, 𝑦)2 2
𝑥, 2 2
,0
=( 𝑦) + ( )
1 1 1 3
𝑇(𝑥, 𝑦)3 2
𝑥, 2 4
, 4
𝑇:
𝑇(𝑥, 𝑦)1 = ( 1
3
𝑥,
1
3
𝑦)
𝑇(𝑥, 𝑦)2 = ( 1
6
𝑥 − 6
3
𝑦, 6
3
𝑥 +
1
6 ) ( , 0)
𝑦 +
1
3
=( 𝑦) + ( , )
1 3 3 1 1 3
𝑇(𝑥, 𝑦)3 6
𝑥 + 6
𝑦, − 6
𝑥 + 6 2 6
𝑇(𝑥, 𝑦)4 = ( 1
3
𝑥,
1
3 ) (
𝑦 +
2
3
,0 )
7
Curva de Peano
𝑇:
𝑇(𝑥, 𝑦)1 = ( 𝑥 , 𝑦)
1
3
1
3
= (− 𝑦 , 𝑥) + ( , 0)
1 1 1
𝑇(𝑥, 𝑦)2 3 3 3
= ( 𝑥 , 𝑦) + ( , )
1 1 1 1
𝑇(𝑥, 𝑦)3 3 3 3 3
= ( 𝑦 , − 𝑥) + ( , )
1 1 2 1
𝑇(𝑥, 𝑦)4 3 3 3 3
= (− 𝑥 , − 𝑦) + ( , 0)
1 1 2
𝑇(𝑥, 𝑦)5 3 3 3
= ( 𝑦 , − 𝑥) + ( , 0)
1 1 1
𝑇(𝑥, 𝑦)6 3 3 3
= ( 𝑥 , 𝑦) + ( , − )
1 1 1 1
𝑇(𝑥, 𝑦)7 3 3 3 3
= (− 𝑦 , 𝑥) + ( , − )
1 1 2 1
𝑇(𝑥, 𝑦)8 3 3 3 3
= ( 𝑥 , 𝑦) + ( , 0)
1 1 2
𝑇(𝑥, 𝑦)9 3 3 3
8
Esto es de vital importancia porque implica que 𝑥 es un atractor global de
𝑃
la aplicación contractiva por lo que todo punto de la sucesión 𝑋 = {𝑥, 𝑇(𝑥), 𝑇(𝑇(𝑥)), ...}
converge en dicho punto. (Correa & Velezmoro, 2017) I
d. Operador de Hutchinson
Este operador fue creado por el matemático inglés Jhon. E. Hutchinson en el año
1981 con la finalidad de formalizar la construcción de conjuntos fractales en base al
teorema del punto fijo.(Correa & Velezmoro, 2017)
𝐴 = lim 𝑆𝑛
𝑛→∞
9
La definición de dimensión de Hausdorff va asociada a un proceso de medida
(Correa & Velezmoro, 2017). Esta última matemáticamente se expresa como:
Sin embargo, una dimensión entera no siempre describe los conjuntos tal como
son, especialmente si estos son estructuras fractales. En el caso del conjunto de Cantor,
la dimensión cero es demasiado pequeña para describirlo (tiene infinitos puntos),
mientras que la dimensión uno es demasiado grande porque no nos permite verlo, ya
que mide cero. Es en base a este dilema que surge el concepto de dimensión
fraccionaria, la cual también es calculable a través de la métrica de Hausdorff. (Sastre,
2002)
10
Para entender un poco de qué trata el conteo de cajas, considere un segmento de
recta de longitud 1 y considere. ¿ Cuántos segmentos de igual longitud como mínimo se
necesitan para cubrirlo?
1 −1
Ahora bien; en el segmento, el mínimo número de conjuntos es 2 = ( )
2
, para el
1 −2
cuadrado se tiene 4 = ( )
2
. Y en general para un cubo n-dimensional se necesitan
1 −𝑛
como mínimo ( )
2
.
11
Si se despeja 𝑛 para obtener la dimensión de conteo de cajas (box-counting
dimension) y se utiliza una definición más matemática se obtiene:
𝑛
Conteo de cajas: Sea 𝐹 ⊂ 𝑅 un subconjunto acotado diferente del vacío y sea 𝑁δ(𝐹) el
menor número de conjuntos con diámetro menor o igual que δ que cubren a F , a la
dimensión se le define como:
𝑑𝑖𝑚𝐵(𝐹) = 𝑛 = lim
δ→0
( 𝑙𝑛 𝑁δ(𝐹)
𝑙𝑛 δ )
Aunque para dimensiones enteras y conjuntos fractales clásicos se verifica que:
𝑙𝑛 𝑁δ(𝐹)
𝑑𝑖𝑚𝐵(𝐹) =
𝑙𝑛 δ
Ejemplo:
En el caso de la curva de Koch, se necesitan como mínimo 4 cajas (intervalos) de
longitud 1/3 para cubrirla:
𝑙𝑛 𝑁 1 (𝐹)
3 𝑙𝑛4
𝑑𝑖𝑚𝐵(𝐹) = 1 = 𝑙𝑛3
= 1. 261859507
−𝑙𝑛 3
12
● Un espacio métrico completo, conformado por todos los subconjuntos
𝑛 𝑛
compactos de 𝑅 , denotado por ℎ(𝑅 ).
● Un operador constructivo, específicamente el operador de Hutchinson, definido
∞
mediante 𝐻 = ⋃ 𝑇𝑖
𝐼=1
● Una métrica, la cual actuará sobre dicho espacio, comúnmente la métrica de
Hausdorff.
13
1.5.1. Funciones como límites de series
El término diferenciabilidad está relacionado con los límites de series y la idea
clásica que se concebía era que la gráfica de toda función continua posee una tangente
bien definida en todos sus puntos, salvo en un número finito de ellos. Sin embargo, Carl
Weierstrass, matemático alemán, contradijo esta idea elaborando una función, a la cual
se le atribuye su nombre. (Correa & Velezmoro, 2017)
∞ 𝑖
(𝑠−2) 𝑖
𝑤(𝑡) = ∑ λ 𝑠𝑖𝑛(λ 𝑡)
𝑖=1
14
Tabla 2: Función de Riemann y Tienda de Campaña
∞ 2 ∞ 𝑛
𝑠𝑖𝑛(𝑛 π𝑡) 𝑓(2 𝑥)
𝐵(𝑡) = ∑ 2 𝑇(𝑥) = ∑ 𝑛
𝑛=1 𝑛 𝑛=0 2
Donde
1
𝑓(𝑥) = 2𝑥 , 𝑥 ϵ [0, 2
]
Gráfica 1
𝑓(𝑥) = 2 − 2𝑥 , 𝑥 ϵ < 2
, 1]
Gráfica
10 sumandos 15 sumandos
𝑁
−1 −1
Φ[𝑓(𝑥)] = ∑ [𝑣𝑖(𝑢𝑖 (𝑥), 𝑓(𝑢𝑖 (𝑥)))]𝜒𝑥𝑖(𝑥)
𝑖=1
Donde, 𝑥𝑖=𝑢𝑖(𝑥)
15
& Velezmoro (2017) a manera de ejemplificar la aplicación de dicho operador, realizaron
un modelo empleado tres, cuatro y diez iteraciones.
𝑥 𝑥
𝑢1(𝑥) = 2
, 𝑢2(𝑥) = 1 − 2
3 2 3
𝑣1(𝑥, 𝑦) = 𝑥 + 4
𝑦, 𝑣2(𝑥, 𝑦) = 𝑥 + 4
𝑦
3 1
2𝑥 + 4
𝑓(2𝑥) , 𝑥 ϵ [0, 2
]
Φ[𝑓(𝑥)]
2 3 1
(2 − 2𝑥) + 4
𝑓(2 − 2𝑥) , 𝑥 ϵ [ 2 , 1]
16
Figura 11: Funciones empleando el Operador de Read-Bajraktarevic
𝑥 𝑥+1
𝑢1(𝑥) = 2
, 𝑢2(𝑥) = 2
𝑥 1 1−𝑥 1
𝑣1(𝑥, 𝑦) = 2
+ 4
𝑦, 𝑣2(𝑥, 𝑦) = 2
+ 4
𝑦
1 1
𝑥+ 4
𝑓(2𝑥) , 𝑥 ϵ [0, 2
]
Φ[𝑓(𝑥)]
1 1
1−𝑥+ 4
𝑓(2 − 2𝑥) , 𝑥ϵ[ 2
, 1]
17
De manera iterativa se empieza a construir los fractales a partir 𝑓0
𝑤1(𝑥, 𝑦) = (𝑎𝑥 + 𝑏𝑦 + 𝑐, 𝑑𝑥 + 𝑒𝑦 + 𝑓)
𝑤2(𝑥, 𝑦) = (𝑔𝑥 + ℎ𝑦 + 𝑖, 𝑗𝑥 + 𝑘𝑦 + 𝑙)
18
transformaciones. A continuación se mostrará la forma en la que se puede representar.
(Correa & Velezmoro, 2017)
1 1 1 1
𝑤1(𝑥, 𝑦) = ( 2 𝑥 + 𝑦, 𝑥 − 2
𝑦)
2 3 2 3
1 1 3 1 1 3
𝑤2(𝑥, 𝑦) = ( 2 𝑥 − 𝑦+ 2
,− 𝑥 − 2
𝑦+ 2
)
2 3 2 3
Definición Numérica
19
Definición Geométrica
𝐶: 𝑅𝑒𝑐𝑡𝑎 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙
1 2
𝐶1 = 𝐼1 ∪ 𝐼1
● Retirar a cada uno de los nuevos intervalos sus respectivos tercios interiores,
1 2 7 8
identificados con los intervalos abiertos < 9
, 9
>y< 9
, 9
>. Es así que se
1 2 3 4 1
tienen cuatro intervalos 𝐼2, 𝐼2, 𝐼2, 𝐼2 de longitud 9
.
1 2 3 4
𝐶2 = 𝐼2 ∪ 𝐼2 ∪ 𝐼2 ∪ 𝐼2
20
𝑛
∞ ∞ 2
𝑖
𝐶 = ⋂ 𝐶𝑛 = ⋂ ⋃ 𝐼𝑛
𝑛=0 𝑛=0 𝑖=1
𝑑𝑥
𝑑𝑡
= σ(𝑦 − 𝑥)
𝑑𝑦
𝑑𝑡
= 𝑥(ρ − 𝑧) − 𝑦
𝑑𝑧
𝑑𝑡
= 𝑥𝑦 − β𝑧
El atractor toma una forma única y parece conservar cierto orden; sus infinitas
trayectorias nunca se cortan, y presenta la autosimilitud característica de los fractales.
Específicamente se puede afirmar que este extraño atractor es un fractal de dimensión
de Hausdorff entre 2 y 3.
21
Figura 15: Atractor de Lorenz
22
Figura 16: Construcción del Triángulo de Sierpinski
23
Tabla 3: Curva Original de Peano
Nota. Muestra del generador y la gráfica de la Curva Original de Peano. Recuperado de:
Mandelbrot, 1997
A partir de esta expresión surgen otro tipo de figuras. Las cuales deberán
lógicamente modificar tanto el iniciador como el generador para obtener un resultado
diferente. A manera de ejemplo se tomará el barrido de copo de nieve, para el cual se
utiliza un iniciador [0,1] y se emplea un generador S y su inverso llamado F, expresando
una imagen de S según la vertical x=1/2. Para el barrido del copo de nieve se podrá
utilizar cualquier generador de los especificados, sea S o F, lo cual generará un barrido
distinto. (Mandelbrot, 1997)
D=2 N=7
Nota. Muestra del generador y la gráfica que da origen al barrido del Copo de Nieve de
Koch. Recuperado de: Mandelbrot, 1997
24
1.6.5. El juego del caos
Existe un método que permite generar fractales iterativos gracias al uso de los
polígonos, este se denomina algoritmo de iteración aleatoria o comúnmente conocido como
el juego del caos (Berg, 2022), el cual se puede explicar eligiendo 3 puntos en los vértices de
cualquier tipo de triángulo, después se colorean cada uno de los vértices de 3 colores
cualesquiera, en este caso, rojo, azul y verde, respectivamente. Luego, se toma un dado y se
pintan 2 caras por cada color elegido, lo que nos permite observar 2 caras rojas, 2 azules y 2
verdes. Ahora, se elige un punto aleatorio en el triángulo, el cual será nuestra semilla, luego
tiramos el dado y en base al color que aparezca se moverá nuestra semilla al medio de la
distancia entre el vértice del color obtenido y el punto donde nos encontramos actualmente,
lo cual hará de este último nuestra nueva semilla.
Introducida por el matemático sueco Helge von Koch en 1904, fue construida
como un ejemplo de curva continua y cerrada que no posee derivada en ninguno de sus
puntos; es decir, no es diferenciable en ningún punto. Añadido a esto, esta curva
presenta una longitud infinita, aunque esté englobada en un área finita.
25
anterior recursivamente en cada uno de los 4 intervalos que se han formado. En el límite
se obtendrá una curva de longitud infinita sin derivada en ninguno de sus puntos, la
curva de Koch.
De la misma manera, Helge von Koch construyó una curva cerrada siguiendo un
proceso parecido al anterior, dando como resultado, el hoy en día denominado Copo de
Nieve de Koch. Esta curva también posee la propiedad de ser continua, autosemejante y
no diferenciable. Ambas formas cuentan con una dimensión 𝐷 = 𝑙𝑜𝑔4/𝑙𝑜𝑔3 = 1, 2618,
con una razón de homotecia (r) igual a 1/3.
La Curva de Koch se relaciona con el contorno de las costas porque sus figuras
son muy semejantes entre sí. En “La geometría de la naturaleza”, Mandelbrot plantea la
siguiente pregunta: ¿Cuánto mide la costa de Bretaña? Reflejando como solución que
mientras el tamaño del instrumento de medida vaya disminuyendo, el perímetro de la
costa resultante será más preciso; por lo tanto, mientras más pequeño el instrumento
mayor la medida, que tenderá al infinito. (Valdes, 2016)
26
1.6.7. Desplazamiento del punto medio
El desplazamiento del punto medio es un algoritmo que se utiliza para crear el
movimiento browniano aleatorio. Consiste en alterar la posición en un punto intermedio
calculando el valor medio de los puntos extremos más un cierto valor aleatorio
gaussiano que puede ser positivo o negativo (Mandelbrot, 1997). Este procedimiento se
realiza de manera iterativa, tal como se muestra en la figura:
27
Figura 21: Movimiento browniano fraccionario con diferentes
exponentes de Hurst
Las variaciones sobre el color que se asigna a cada franja de altura permiten
generar diferentes imágenes. Por ejemplo, una gama de verde para alturas pequeñas,
haciéndose más oscuro según aumenta la altura; una gama de marrón para alturas
mayores y blanco a partir de una cierta elevación, se consiguen imágenes muy realistas.
Otra variación es utilizar una gama de verde o marrón para alturas positivas y una gama
de azul para alturas negativas, generando así la imagen de un posible paisaje. (Sastre,
2002)
28
Figura 23: Superficies brownianas
Una opción diferente es utilizar gamas de color para generar texturas: nubes,
fuego, madera, humos, etc. Por ejemplo, con una gama de azul y blanco se generan
nubes. Con una gama de rojos y amarillos se puede generar la textura del fuego. (Sastre,
2002)
29
Figura 25: Movimiento browniano fraccionario
30
Figura 26: Conjunto de Julia para c = 0.28 + 0.008i
Nota. Los puntos que pertenecen al conjunto están en negro y los que escapan en un gris cuya
intensidad dependerá del número de iteraciones realizadas, cuantas más iteraciones se realicen
más brillante será el gris (o más tiende al blanco). Recuperado de: PixinPix, 2017
Conjunto de Mandelbrot
El conjunto de Mandelbrot fue descubierto por Benoît Mandelbrot en la década
de 1970, gracias a la ayuda de los recursos informáticos brindados por IBM.
31
Figura 27: Conjunto de Mandelbrot con vista ampliada
Nota. Conjunto de Mandelbrot que se amplía a) Figura original b) Figura con zoom
aplicada a la anterior. Recuperado de: Valdés Vasquez, 2016
32
no determinísticos y es necesario hacer uso de la probabilidad, esto es, el uso de
procesos aleatorios para su construcción, lo cual permite abstraer las características de
únicos e irrepetibles de esta categoría de fractales.
33
CAPÍTULO II
TEORÍA DEL CAOS
34
Figura 29: Estimación de la Población con Variaciones
2.1.1. Flexibilidad
Los sistemas caóticos presentan flexibilidad ante las situaciones naturales en las
que se encuentre. Bonev (2002), muestra por ejemplo un río y una piedra. Donde si se
tira la piedra al río las partículas del agua no cambia su cauce, sino el caos que produce
esta acción se logra adaptar. Lo más importante desde su punto de vista es el poder
comprender el término de caos y no intentar enfocarlo a una interacción específica, en
35
otras palabras, no estar obsesionados en controlarlo. Para él lo más importante es
aprender a vivir con el caos y vivir en la creatividad que proporciona.
2.1.2. Creatividad
Bonev (2002), menciona que para poder abrir la creatividad de una persona es
necesario el poder dejar de lado los prejuicios. En tal caso llegará un momento en el que
se alce un punto de bifurcación en el sistema caótico de la mente. Esto abrirá el flujo de
la creatividad, donde el papel de la autoconciencia quedará relegado. Asimismo, Bonev
(2002) nos menciona que la creatividad caótica debe tener presente la diversidad, dado
que la agrupación de individuos generará un potencial creativo, en donde si los sistemas
caóticos se juntan los grados de libertad aumentarán. Por el contrario, si esto ocurre
con sistemas que siguen un orden artificial, los grados de libertad disminuirán.
2.1.4. Intermitencia
La intermitencia se refiere a la alternancia constante entre lo complejo y lo
simple, donde la presencia de uno conlleva a la aparición del otro. Bonev (2002) pone
como ejemplo a los fractales, estos están desarrollados por fórmulas matemáticas
simples pero que siguen una complejidad elevada en la generación de sus figuras.
Asimismo, Bonev (2002) menciona que la intermitencia no solo se refiere a que el caos
surja del orden sino que también puede presentarse de manera inversa.
36
2.2.1. Significado de la curva logística
37
Figura 32: Variación de la población con respecto a una
tasa de crecimiento r>3,57
38
Figura 34: El diagrama de bifurcación en el conjunto
de Mandelbrot
39
Figura 35: Caos en la naturaleza
Otro ejemplo de sistema caótico es el cuerpo humano. Aunque esté claro que es
imposible predecir el recorrido de una partícula cualquiera dentro de nuestro cuerpo o
la evolución del cuerpo de determinado individuo; el cuerpo humano, a pesar de las muy
diferentes condiciones externas a que puede estar expuesto (clima, alimento, esfuerzo
físico, etc.), siempre mantiene una forma general. Esto se puede formular a que es tan
resistente a cambios debido a que los sistemas caóticos son muy flexibles. Una
enfermedad es de carácter impredecible, pero si el cuerpo no tuviera la libertad de
ponerse enfermo, con cualquier cambio producido, el sistema se desmoronaría.
40
Figura 36: Caos en el cuerpo humano
41
CAPÍTULO III
APLICACIONES DE LOS FRACTALES
Índice S&P
El índice Standard &
Poor's 500, es uno de los
índices bursátiles más
importantes de Estados
Unidos, se lo considera el
índice más representativo
de la situación real del
mercado.
42
Vix Index
Un valor alto de VIX se
correlaciona con caídas
del S & P 500, indicando
que en el mercado hay
miedo y pesimismo.
Tipo de Cambio
USD/GBP
De Dólar estadounidense
a Libra esterlina
Tipo de Cambio
USD/JPY
De Dólar estadounidense
a Yen
43
Tabla 6: Resultados de la investigación de mercados financieros
Períodos de Tipo de
Datos Indice S&P Dow Jones VIX index Tipo de cambio USD
cambio USD JPY
GBP
3.2. Neurociencia
Según Benoit Mandelbrot, quien desarrolló la geometría fractal, un fractal es un
objeto con una estructura simple, dividida o irregular que se repite a diferentes escalas,
por el cual esta geometría permitirá caracterizar a estos objetos irregulares. Existen
fractales matemáticos y fractales naturales, los cuales son aproximados y su
autosimilitud sólo es aplicable a un rango de escalas limitadas.
Velasco & Rodriguez (2015) nos dice que hasta el día de hoy no hay reportes del
uso de geometría fractal aplicada a patologías neuroquirúrgicas. Por ello han realizado
una investigación del estudio aplicando geometría fractal a los ventrículos cerebrales. El
objetivo principal es desarrollar una nueva medida histomorfometrica objetiva y
reproducible para la caracterización de los ventrículos cerebrales normales a partir de
geometría fractal, que sea de utilidad como medida de referencia para mediciones
futuras de estructuras ventriculares con diferentes patologías. Respecto a las futuras
aplicaciones de la geometría fractal en neurocirugía en pacientes con patologías como
hidrocefalia, trauma, tumores cerebrales y aneurismas podrían evidenciar avances en
predicción de deterioro neurológico, tiempo para intervenir quirúrgicamente a un
paciente o calcular el riesgo de deterioro.
44
Figura 37: Imagen de RM cerebral simple adaptada al proceso de Box-Counting
Nota. Ejemplo de las medidas fractales realizadas, se pueden observar ambos ventrículos
laterales. Recuperado de: Velasco & Rodriguez, 2015
Descubrieron que las estructuras fractales poseen una mayor área superficial
con respecto a su volumen, lo cual significa que el material usado para la detección del
gas tendrá mayor área de contacto con las moléculas del mismo, influyendo
positivamente en lo que respecta la sensibilidad del sensor, lo que significa que el
rendimiento de la detección de gases mejora. (Tian et al., 2021)
45
Figura 38: Área de Superficial de los Fractales en relación al Volumen
3.4. Telecomunicaciones
El campo de estudio de las telecomunicaciones es muy variado, sin embargo,
existe uno en particular que abarca temas relacionados a las comunicaciones
inalámbricas, dentro del cual se encuentra el diseño de antenas. Entonces, si este
espectro en mención se complementa con las misiones espaciales de CubeSats, se da
origen al estudio realizado por Orlando Gonzáles, estudiante de ingeniería electrónica,
quien planteó el diseño y desarrollo de una antena fractal micro-strip según el estándar
FR-4. La idea de este proyecto parte de las ventajas de un diseño fractal, tales como
permitir reducir el tamaño y mantener un amplio ancho de banda según el número de
iteraciones.
Entonces, para la construcción de esta antena se realizaron simulaciones en base
a la geometría fractal con el objetivo de hallar dimensiones que tengan afinidad a la
máxima ganancia de frecuencia acorde al número adecuado de iteraciones del IFS. El
resultado de esta actividad es una antena que va desde 2.25 GHz a 2.45 GHz y se
sintoniza a 2.3 GHz, además de tener un patrón de radiación omnidireccional (Correa y
Velezmoro, 2017). Es así que, para futuros trabajos de mejora, se plantea realizar un
análisis de la dimensión fractal utilizada y su influencia sobre los campos
electromagnéticos de la antena, con el fin de mejorar el patrón de radiación.
46
Figura 39: Antena con el diseño fractal propuesto
47
(IFS) adecuado podría modelar algunas de ellas. Este procedimiento a utilizar estaría
basado en el siguiente proceso:
48
En el estudio en mención, se considera la dimensión fractal (D) en una escala de
1.3-1.5 y patrones fractales, en suma de lugares como bosques, temperatura de colores y
pantallas de alto tamaño como aquellas variables que determinan resultados favorables
en las emociones de las personas. Con este aspecto en consideración, Abboushia et al
(2019) mencionan que estos estudios “podrían tener implicaciones adicionales para el
diseño de sistemas de fachada, particularmente sistemas de sombreado como cortinas
enrollables y pantallas perforadas”, lo cual se va a relacionar a la arquitectura de
espacios de interiores y como generar una mayor satisfacción en los habitantes.
Nota. Espacio renderizado que muestra un fractal con un patrón D = 1.7, el cual se
proyecta en las paredes de un cuarto. Recuperado de: Abboushia et al., 2019
3.7. Modelamiento 3D
La geometría fractal ofrece una nueva perspectiva del modelado geométrico.
Puede modelar de forma realista objetos que se encuentran en el mundo natural y de los
organismos vivos. Dos conceptos son claves en la geometría fractal, uno de ellos es la
forma autosimilar y la dimensión fractal. El concepto de forma autosimilar se ha
utilizado en la biología para modelar estructuras, identificar patrones, investigar
problemas teóricos y medir la complejidad. Al igual que el concepto de forma
autosimilar, el concepto de dimensión fractal se ha utilizado ampliamente para
cuantificar la complejidad de la ingeniería de fabricación para procesar señales, detectar
el desgaste de las herramientas y cuantificar la rugosidad. Es así que la impresión 3D y la
geometría fractal tienen una relación íntima. Por ejemplo, algunas estructuras utilizadas
en biomédicas y aplicaciones de ingeniería no pueden fabricarse sin utilizar fabricación
aditiva o impresión 3D.
49
3.8. Instrumentos musicales y fractales
La música se ha vuelto muy importante en la vida cotidiana de las personas. Por
lo que, para poder simplificar el proceso de aprendizaje de los fractales muchos autores
han buscado relacionarlos con instrumentos musicales. Pothiyodath & Murkoth (2022), a
través de una revisión literaria, identificaron que la dimensión fractal crea mayor interés
en los estudiantes si se utilizan muestras sonoras o instrumentos musicales. Por ello,
elaboraron un método donde la medición de la dimensión fractal se realiza mediante el
uso de instrumentos musicales.
Para este método se emplean sonidos que duran un segundo, esto dado que las
muestras pequeñas y finas otorgan valores o parámetros más precisos. Las frecuencias
obtenidas fueron halladas utilizando la herramienta MIR y para identificar la dimensión
fractal de dichas muestras sonoras se usó el software Fractalyse. Tal como se puede
apreciar en la figura “x”, la línea roja hace referencia a los valores esperados, mientras
que, la línea azul muestra los datos que se han trazado. (Pothiyodath & Murkoth, 2022)
3.9. Textiles
El aumento de la competitividad en los distintos sectores obliga a las empresas a
replantear sus sistemas de trabajo y tomar decisiones innovadoras en busca de seguir
50
atendiendo las necesidades del mercado, este panorama no es ajeno a la industria textil,
la cual busca realizar diseños más complejos, pero con un periodo de entrega reducido.
Así, a modo de ejemplificar lo mencionado, se presenta el trabajo de Hernández,
Palominos, Orellana y Ochoa, quienes plantean el desarrollo de un programa
informático que genere los fractales y permita su posterior manipulación para cumplir
con los requisitos del diseño de estampados.
51
geometría fractal y euclidiana. Esto está basado en la necesidad de cuantificar el grado
de irregularidad que presenta un objeto, en este caso una célula, y una medida ideal
para este es la dimensión fractal. (Rodríguez et al, 2017)
52
Figura 46: Dimensión Fractal de las células
53
CAPÍTULO IV
PROGRAMAS SOBRE FRACTALES
54
Teniendo como base los fractales básicos, se implementan los fractales de
terreno, para que después se pueda simular estructuras físicas en ellos.
Nota. Este fractal simula el océano - OpenGL . Recuperado de: DiegoBV, 2021
Nota. Se muestra el resultado de la combinación del shader de terreno con el shader del
objeto en OpenGL. Recuperado de: DiegoBV, 2021
55
Figura 51: Visualización del objeto(Pacman) en el terreno fractal
56
El programa está diseñado para que el usuario pueda hacer click en cualquier
parte del fractal, de manera que, a partir de un punto seleccionado C, se muestre la
sucesión de puntos generados (órbita roja). Esta órbita puede tener un periodo y una
forma diferente dependiendo del punto que se elija.
57
Para lograr producir sonido a partir del fractal, se transforma cada órbita en
ondas de sonido. Se convierten las coordenadas X,Y del punto seleccionado en la
amplitud de las ondas sonoras que se reproducirán en el auricular izquierdo y derecho
respectivamente.
Cada uno de estos fractales puede ser visualizado con sus colores habituales:
negro para representar los puntos que pertenecen al conjunto y diferentes tonalidades
de otros colores para representar aquellos puntos que no pertenecen. Asimismo, a cada
fractal se le puede cambiar el pintado de la imagen para que en vez de mostrar si el
punto pertenece o no al conjunto, se observe el color asociado a las frecuencias que se
generan al hacer click en cada punto.
58
Figura 56: Repintado del Conjunto de Mandelbrot
59
CONCLUSIONES
Los fractales pueden ser encontrados en diversos ámbitos del mundo real, si es
que uno se pone a analizar detenidamente un cuerpo se puede notar ciertos patrones
característicos de los fractales, siendo así que se plantea que el mundo entero es un
fractal que se autoasemeja a diferentes escalas, es en este desarrollo donde se enfatiza
la teoría del caos, que resulta de suma importancia para comprender estructuras
complejas.
La geometría fractal cuenta con una gran capacidad de aplicaciones, siendo útil
en diversas ramas como lo serían las finanzas, permitiendo establecer predicciones ante
futuros eventos como prevención de crisis o realización de alguna inversión, las
telecomunicaciones para un mejor patrón de radiación de las antenas, la medicina para
el diagnóstico de enfermedades, área de computación con la encriptación de imágenes,
entre otros.
60
BIBLIOGRAFÍA
Abboushi, B., Elzeyadi, I., Taylor, R. y Sereno, M. (2019). Fractals in architecture: The
visual interest, preference, and mood response to projected fractal light patterns
in interior spaces. Journal of Environmental Psychology, 61, 57–70.
https://www.sciencedirect.com/science/article/abs/pii/S0272494418302974
Battle, A. & Grebol, S. (2009). Fractales en los Mercados Financieros [Tesis de maestría,
UPF Barcelona School of Management].
https://www.bsm.upf.edu/documents/Tesina-Fractales-en-los-mercados-finan
cieros.pdf
Berg, I. (2022). The Chaos Game - Introducción al mundo de los fractales. Beltoforion.
https://beltoforion.de/en/recreational_mathematics/chaos_game.php
DiegoBV. (14 de febrero del 2021). Generación De Terrenos Fractales Para Escenas 3d, En
Opengl Y Vulkan. GitHub.
https://github.com/DiegoBV/Generacion-de-terrenos-fractales-para-escenas-
3D-en-OpenGL-y-Vulkan
Duan, Q., An, J., Mao, H., Liang, D., Li, H., Wang, S. & Huang, C. (2021). Review about the
Application of Fractal Theory in the Research of Packaging Materials. Materials,
14(4), 860.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7916937/pdf/materials-14-00
860.pdf
61
GobiernodeCanarias. (16 de junio del 2020). Conjuntos De Julia Y Mandelbrot -
Aprendemos Matemáticas.
https://www3.gobiernodecanarias.org/medusa/ecoblog/mrodperv/fractales/c
onjuntos-de-julia-y-mandelbrot/
Gonzales, P & Lowe, J. (2015). Movimiento Fractal Browniano. El Libro de los Shaders.
https://thebookofshaders.com/13/
Hernández, F., Palominos, P., Orellana, M. & Ochoa, M. (1996). Los Fractales y su
Contribución al Diseño de Estampados Textiles. Boletín Intexter del Instituto de
Investigación Textil y de Cooperación Industrial, (109), 47-110.
https://upcommons.upc.edu/bitstream/handle/2099/6412/Article06.pdf?sequ
ence=1&isAllowed=y
Hyman, J. (18 de febrero del 2020). Visualizaciones de las conexiones entre la teoría del
caos y los fractales a través del mapa logístico. GitHub.
https://github.com/jonnyhyman/Chaos
62
Indigo Renderer. (s.f.). Ruido de movimiento browniano fraccional avanzado.
https://www.indigorenderer.com/indigo-technical-reference/indigo-shader-la
nguage-reference/built-functions-%E2%80%93-procedural-noise-fun-0
Martin, M. (2003). Caos y fractales. Ars Medica. Revista de Humanidades, 2(1), 68-79.
https://www.fundacionpfizer.org/sites/default/files/ars_medica_2003_vol01_
num03_068_079_martin.pdf
Pothiyodath, N., & Murkoth, U. K. (2022). Fractals and music. Momentum: Physics
Education Journal, 6(2), 119-128.
https://ejournal.unikama.ac.id/index.php/momentum/article/view/6796
Rodríguez Rodríguez, I. F., Amaya Barrera, E. I., Suarez Parra, C. A., & Moreno Posada, J.
D. (2017). Algoritmo de Encriptación de Imágenes Utilizando el Atractor Caótico
de Lorenz. Ingeniería, 22(3), 396.
https://www.researchgate.net/publication/321176830_Algoritmo_de_Encripta
cion_de_Imagenes_Utilizando_el_Atractor_Caotico_de_Lorenz
Rodríguez, J., Sánchez, M., Barrios, F., & Soracipa, Y. (2017). Geometría fractal y
euclidiana aplicada al diagnóstico de grados de lesión de células de cuello
uterino. Revista U.D.C.A Actualidad & Divulgación Científica, 20(1), 13–21.
https://doi.org/10.31910/rudca.v20.n1.2017.405
63
Tian, F., Jiang, A., Yang, T., Qian, J., Liu, R., & Jianga, M. (2021). Application of Fractal
Geometry in Gas Sensor: A Review. IEEE Sensors Journal, 21(13), 14587 - 14600.
https://doi.org/10.1109/JSEN.2021.3072621
Tobal. (2014). Curva Y Copo De Nieve De Von Koch Con Python 3. Linux Music 3.0.
https://crislosi.wordpress.com/2014/01/08/curva-y-copo-de-nieve-de-von-ko
ch-con-python-3/
Ullah, A. S., D’Addona, D. D., Seto, Y., Yonehara, S. & Kubo, A. (2021). Utilizing Fractals for
Modeling and 3D Printing of Porous Structures. Fractal and Fractional, 5(2), 40.
https://doi.org/10.3390/fractalfract5020040
Veritasium. (29 de diciembre del 2019). La ciencia del efecto Mariposa [Archivo de Vídeo].
Youtube. https://www.youtube.com/watch?v=gIwvFMiJNVU
Veritasium. (31 de enero del 2020). Esta ecuación cambiará tu modo de ver el mundo
[Archivo de Vídeo]. Youtube.
https://www.youtube.com/watch?v=EOvLhZPevm0&t=6s
64
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
Universidad del Perú, Decana de América
Facultad de Ingeniería de Sistemas e Informática
Procesamiento de Imágenes
Computación Visual
Sección: 1
Grupo: 1
Integrantes:
Lima, 2022
Contenido
1. Introducción ........................................................................................................................ 3
2. Procesamiento de Imágenes................................................................................................ 4
2.1. ¿Qué es una imagen digital?........................................................................................ 4
2.2. ¿Qué es el procesamiento de imágenes? ..................................................................... 5
2.3. Aplicaciones ................................................................................................................ 5
2.4. Historia ........................................................................................................................ 8
2.5. Etapas del Procesamiento de Imágenes ..................................................................... 10
2.5.1. Adquisición de Imagen. ..................................................................................... 11
2.5.2. Preprocesamiento. .............................................................................................. 11
2.5.3. Segmentación. .................................................................................................... 11
2.5.4. Representación y Descripción............................................................................ 12
2.5.5. Reconocimiento e interpretación. ...................................................................... 12
2.6. Métodos de Procesamiento........................................................................................ 12
2.6.1. Definiciones previas........................................................................................... 13
2.6.2. Métodos en el Dominio Espacial. ...................................................................... 14
2.6.3. Métodos en el Dominio de la Frecuencia. ......................................................... 23
2.6.4. Métodos de Extracción de Características. ........................................................ 37
3. Productos .......................................................................................................................... 45
3.1. Segmentación de Imagen a Color.............................................................................. 45
3.2. Filtros en el Dominio de la Frecuencia Utilizando Python ....................................... 51
4. Conclusiones ..................................................................................................................... 55
5. Bibliografía ....................................................................................................................... 56
2
Procesamiento de Imágenes
1. Introducción
Las imágenes y las imágenes digitales están presentes en todos los distintos campos del
dentro del día a día, ya sea desde la simple captura fotográfica que hacemos cotidianamente
captura de imágenes digitales es una herramienta importante que sirve para distintos
propósitos de distintos niveles y, con ello, se han desarrollado técnicas que permiten tratar
estas imágenes para mejorar su calidad, resaltar algún detalle en específico o modificarlas con
procesamiento de imágenes.
términos introductorios como qué es una imagen digital, profundizando hasta los dominios
3
2. Procesamiento de Imágenes
Para empezar, Miranda (2009) proporciona una definición cualitativa acerca de las
imágenes digitales, según este autor “las imágenes digitales son fotos electrónicas tomadas de
Según Mejía (2005), una imagen digital se define de forma matemática como una función
imagen en esa coordenada. Además, los valores de x, y y f son cantidades finitas, con un
lugar y valor específicos. A estos elementos se les conoce como píxeles, y representan la
unidad mínima de una imagen digital. En la Figura 1 se puede observar una imagen en forma
de cuadrícula, en donde sus píxeles tienen valores de 0 para el negro y 1 para el blanco.
Figura 1
4
2.2. ¿Qué es el procesamiento de imágenes?
Según Vela (2013) "el procesamiento digital de imágenes es el conjunto de técnicas que
Otra definición acerca del procesamiento de imágenes digitales es brindada por Graffigna
(2003), quien indica que "el procesamiento de imágenes consiste en alterar la información
visual para obtener mejores resultados o para aislar algunas características particulares de las
aplicación de técnicas a una imagen digital con el fin de mejorar su calidad o de resaltar
2.3. Aplicaciones
Las imágenes digitales están presentes en todos los campos de conocimiento, en algún
momento se necesita tomar fotografías, escanearlas, enviarlas y modificarlas, es por ello por
obtenidas.
Según Mejía (2005), dentro del área de la medicina nuclear las tomografías son formadas
de un isótopo radioactivo. Las imágenes de este tipo, como se aprecia en la Figura 2 son
5
Figura 2
Nota. Tomado de Tomografía por emisión de positrones (PET), por Mejía, 2005.
imágenes, como la microscopía, astronomía, detección remota, industria y forense, solo por
mencionar algunos, estos campos utilizan el procesamiento de imágenes más a menudo para
diversos propósitos, generalmente estos campos trabajan con el espectro de la luz visible.
Además, respecto a la detección remota, Gonzales (2008) señala que los satélites
obtienen y transmiten imágenes con el objetivo de monitorear las condiciones del entorno del
planeta, este campo trabaja dentro del espectro de luz visible e infrarrojo. En la Figura 3
podemos observar las diferentes bandas y el rol que cumple el procesamiento de imágenes
dentro de estas.
Figura 3
Nota. Adaptado de Thematic bands in NASA’s LANDSAT satellite, por Gonzales, 2008.
6
Otra aplicación adicional que destaca Gonzales (2008) para imágenes obtenidas dentro
del espectro de luz visible es el reconocimiento de huellas dactilares, estas son procesadas en
una computadora para mejorar su resolución y/o encontrar características que ayuden en la
placas de vehículos que no son del todo legibles, incluso de forma automática, como se
observa en la Figura 4.
Figura 4
quien presenta el reconocimiento dinámico del crecimiento de una hoja a través de imágenes
tomadas minuto a minuto, con el objetivo de medir la tasa de crecimiento en el ciclo diurno,
7
Figura 5
Nota. Tomado de Growth studies in botany, por Jähne, 2002. La imagen de la izquierda
muestra una hoja de planta de ricino y la imagen de la derecha muestra el mapa de la tasa de
crecimiento.
2.4. Historia
Según Mejía (2005), el uso de las imágenes digitales se remonta a la primera parte de la
década de los veinte en la industria del periódico, cuando se realizó el envío de fotografías
por medio de cable submarino entre Londres y Nueva York. Se utilizaba el sistema de
aplicar equipo de impresión especializado que codificaba las fotografías desde el origen, para
reconstruirlas a su llegada. Una fotografía enviada por este medio se observa en la Figura 6.
Figura 6
Nota. Tomado de Fotografía digital de 1921 obtenida con una impresora telegráfica
con tipos especiales, de Mejía, 2005.
8
Mejía (2005) también indica que en la misma década se abandonó esa técnica de envío y
se sustituyó por una técnica basada en cintas que se perforaban en la terminal telegráfica
Figura 7
Nota. Tomado de Fotografía digital de 1922 obtenida a partir de una cinta perforada
después de que las señales cruzaron el atlántico dos veces, de Mejía, 2005.
Sin embargo, Mejía (2005) menciona que estas técnicas no entran en la definición de
imagen digital como tal, por el hecho de que no se utilizaban computadoras en aquel
Propulsión de Pasadena California procesó varias fotos de la luna para corregir varios tipos
Figura 8
9
Nota. Tomado de La primera fotografía de la luna de una nave espacial
estadounidense, Mejía, 2005.
técnicas para el área médica, para observaciones remotas de la tierra y la astronomía. Una de
computarizada, la cual realiza barridos alrededor del paciente y con ello se obtiene una
imagen 3D del interior del paciente. Luego de los años sesenta hasta la actualidad, el
geólogos que estudian la contaminación con imágenes satelitales, arqueólogos que restauran
hacemos la adquisición de una imagen, para luego preprocesarla realzando sus detalles, y que
10
posteriormente mediante la segmentación la dividimos en los objetos que nos interesa
identifica a los objetos para finalmente interpretarlos en base a las características de interés
(p. 7).
2.5.1. Adquisición de Imagen. Graffigna (2003) menciona que para esta etapa no
solo es importante captar una imagen sino convertirla en una imagen digital, a través
primero es el muestreador, con el que se puede acceder a cada uno de los pixeles; el segundo
es el barrido con el cual se recorre toda la imagen; el tercero es el sensor de brillantez para los
pixeles, el cual convertirá la señal de luz en una señal eléctrica. El cuarto elemento es el
de luz; finalmente, el quinto elemento es el digitalizador que será el medio de salida (p. 8).
confiable y precisa, en la cual debe ser posible dividir la imagen en base a una
binarizacion, el cual consiste representar una imagen a color en una binaria que
2.5.3. Segmentación. Para Moreira (2009), esta etapa consiste en clasificar los
pixeles indicando las clases a la que pertenecen, si son arte del objeto o el fondo.
11
similitud. Con respecto a la discontinuidad se obtiene los pixeles del contorno y
por ende las regiones. En tanto que la similitud permite hallar regiones y con
se obtienen los datos de pixeles, que son constituyentes de contorno o los puntos
de la región interna. Visto esto se debe decidir si los datos se deben representar
como un contorno o una región. Esto dependerá del interés, cuando se quiere
internas como la textura del objeto. Cabe mencionar que ambas representaciones
El principal objetivo de los métodos es procesar una imagen para que el resultado sea
más conveniente que la imagen original para una aplicación específica. Un método
12
en 3 categorías: métodos del dominio espacial, métodos del dominio de la frecuencia
cuadrado o una subimagen o área rectangular centrada en (x, y), como se muestra en la Figura
superior izquierda. El operador T se aplica a cada lugar (x, y) para producir g en ese lugar. El
proceso utiliza solamente los pixeles en el área de la imagen que ocupa la vecindad (Mejía,
2005, p. 38).
Figura 9
Las vecindades más grandes se prestan a mayor flexibilidad. Uno de los principales
13
naturaleza del proceso, como el realzado de la imagen. Este enfoque se denomina
2.6.2. Métodos en el Dominio Espacial. Los métodos del dominio espacial trabajan
pixel por pixel de k imágenes para reducir el ruido) (Mejía, 2005, p. 38).
En general se representa como un gráfico de barras en el que las abscisas son los
distintos colores de la imagen y las ordenadas la frecuencia relativa con la que cada color
la imagen, y puede ser utilizado para ajustar estos parámetros, eliminar ciertas tonalidades
molestas. (Lemared,2021)
Figura 10
14
Nota. Tomado de Mejoramiento de Imágenes en el dominio Espacial, Lemared, 2021.
p ∗ q. , División: p/q. Las operaciones lógicas principales se pueden resumir como sigue: p
36)
Figura 11
15
Además del procesamiento de imágenes completas píxel a píxel, las operaciones
La idea subyacente en las operaciones con máscaras consiste en permitir que el valor
asignado a un determinado píxel sea una función de su propio nivel de gris y de los niveles de
gris de sus vecinos. Por ejemplo, considere una porción de imagen y suponga que se desea
Figura 12
Adición. Según la UNSJ (2017) “se trata de la suma de un valor constante a todos los
pixeles de la imagen para aumentar su brillo. Por ejemplo, 50, en la siguiente figura” (p. 38)
Figura 13
16
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.
Sustracción. Según la UNSJ (2017) define la sustracción como “un uso común de esta
la iluminación, pero si colocar una hoja de papal blanco en la escena. Típico en microscopía,
Figura 14
Según la UNSJ (2017) “se procede a restar la imagen del fondo con la original. Previo
a esto se le suma a la imagen original el valor 100 para evitar los niveles de gris negativos. El
Figura 15
17
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.
mayor a 1 hará la imagen más brillante, y si es menor a 1 la hará más oscura. Esta técnica
produce mejores resultados que la suma. Por ejemplo, multiplicando por 3 cada píxel se
Figura 16
Otra vez, se puede producir wrapped around, se soluciona saturando la salida, como
Figura 17
18
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.
División. Según la UNSJ (2017) “uno de los usos más importantes de la división es en
Figura 18
Figura 19
19
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.
Producto Lógico (AND). Según la UNSJ (2017) “el uso más común de esta operación
es calcular la intersección entre dos imágenes. Por ejemplo, se desea detectar aquellos objetos
en una escena que no han tenido movimiento entre dos imágenes” (p. 45)
Figura 20
Detección de objetos de una escena que no han tenido movimiento entre 2 imágenes
Figura 21
Detección de objetos de una escena que no han tenido movimiento entre 2 imágenes
Suma Lógica (OR). Según la UNSJ (2017) “se puede ejemplificar el uso del operador
OR para obtener la unión entre dos imágenes. Las imágenes muestran una escena con dos
20
Figura 22
Figura 23
Figura 24
21
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.
para suavizar los bordes de una imagen, reducir los picos de ruido o simplemente hacer
elegida (Figura adjunta). Cuanto mayor sea la ventana, mayor será el efecto de
Figura 25
Diferentes tamaños de la mascara de filtro media y sus resultados sobre una imagen
22
Nota. Tomado de Implementación de un sistema de detección de señales de tráfico mediante
visión artificial, Aguirre, 2013.
Similar al filtro media, pero aplicando una máscara diferente, donde los píxeles más
cercanos al píxel actual tienen más peso que los exteriores. Los pesos de los píxeles se
varianza indica el nivel de suavizado. Los filtros gaussianos tienen como ventaja el
Figura 26
matemático, cabe destacar que, según Vela (2013) “a principios del siglo XIX,
23
Joseph Fourier indica que toda función periódica puede ser expresada como una
Las señales también son representadas como funciones periódicas, entendemos a una
señal como una manifestación de energía que transmite información que puede ser de
Los elementos de una señal y que se encuentran relacionados con la frecuencia son el
hercio, el cual es la unidad de medida de la frecuencia; el ciclo, que representa una onda
cual es el tiempo necesario para producir un ciclo completo (Fluke, s.f.). Así mismo,
podemos encontrar métodos matemáticos que descompongan estas señales para determinado
número infinito de aquéllos para obtener ésta de forma exacta. A la suma total de
Figura 27
Señal que representa una corriente alterna con frecuencia de 3hz
24
Nota. Adaptado de Corriente Alterna [Imagen], por Fluke, s.f., Fluke
(https://www.fluke.com/es-pe/informacion/blog/electrica/que-es-la-frecuencia).
siguiente:
Un buen ejemplo de eso es lo que hace el oído humano, ya que recibe una onda
que pasa el tiempo, sin embargo, la transformada de Fourier contiene todas las
función. (p. 1)
Fourier existe siempre que una función f(x) sea continua e integrable, y a su vez que la
25
transformada F(u) sea integrable. En primer lugar, se explica la transformada de una función
Figura 28
Ruiz (2016) también señala que, a su vez, se puede integrar la función mostrada
anteriormente, de forma que se obtiene la transformada inversa de Fourier, esta toma la forma
Figura 29
Debemos reconocer las dos partes de la transformada de Fourier, según Ruiz (2016),
esta posee una parte real R(u) y una parte imaginaria I(u), como se muestra en la Figura 30.
Figura 30
Ruiz (2016) también señala que la función inicial f(x) está formada por infinitas
funciones seno y coseno, de forma que la transformada de Fourier se entiende como la suma
de todas estas funciones, en donde el valor de u representa la frecuencia de los pares seno y
26
función bidimensional f(x,y), junto a su transformada inversa, obteniendo ahora dos variables
Figura 32.
Figura 31
Figura 32
cosa que el uso de sumatorias en lugar de las integrales que aparecen en la transformada
continua. Esta transformada considera como entrada una función con duración finita que
pueden tener su origen en fenómenos de la realidad. Según Kriger (2015) “la DFT es ideal
analizar las frecuencias que contiene una señal muestreada” (p. 4).
Una imagen digital puede ser entendida como una señal digital, de esta forma,
27
Citando a Ruiz (2016), la transformada discreta de Fourier y su inversa para una
función bidimensional como lo es una imagen digital toma la forma que se muestra en la
Figura 33
𝑀−1 𝑁−1
1 𝑢𝑥 𝑣𝑦
𝐹(𝑢, 𝑣) = ∑ ∑ 𝑓(𝑥, 𝑦)𝑒 −𝑗2𝜋( 𝑀 + 𝑁 )
𝑀𝑁
𝑥=0 𝑦=0
Figura 34
𝑀−1 𝑁−1
𝑢𝑥 𝑣𝑦
𝑓(𝑥, 𝑦) = ∑ ∑ 𝐹(𝑢, 𝑣)𝑒 𝑗2𝜋( 𝑀 + 𝑁 )
𝑢=0 𝑣=0
Ruiz (2016) además menciona que en el caso de que la función bidimensional se trate
de una imagen digital, esta imagen puede ser entendida como una matriz de píxeles, en donde
frecuencia fue dada por Pinilla, et al. (1997), quien postula lo siguiente:
espacial. Sin embargo, la misma imagen puede ser considerada como una función no
por la amplitud y la frecuencia para cada dirección de la imagen. Este nuevo espacio
28
de referencia para la descripción de la imagen se conoce como dominio de la
frecuencia. (p. 1)
filtros. Según Otarola (2015) “el teorema de convolución establece que, bajo determinadas
Por lo tanto, la convolución de dos funciones puede ser hallada de manera más
práctica como el producto de estas, con la característica de que presenta una dualidad al
calculando la transformada inversa de Fourier del producto de F(u,v) por H(u,v)”. Como se
Figura 35
operaciones a realizar, aun a cuesta de tener que realizar las transformaciones: una hacia el
dominio de frecuencia y otra para retornar al dominio espacial de la imagen” (Veroni, 2014,
p. 3).
a un concepto temporal, como hemos definido anteriormente, esta representa cada cuánto
tiempo se repite algún evento. Sin embargo, si nos trasladamos al campo de las imágenes
29
digitales, ya no utilizamos el concepto del tiempo, sino del espacio, ya que una imagen no
presenta características que se muestreen a través del tiempo, sino del espacio. Ahora
transformada de Fourier sobre el espacio, según Pinilla et al. (1997) “esta no describe otra
cosa que el grado de repetitividad de los niveles digitales de una imagen”. En la Figura 36
podemos ver dos gráficos, el de la izquierda representa los niveles digitales de las columnas
de una sola fila de una imagen, y el de la derecha muestra los niveles digitales habiendo
Según Reuter (2015) el nivel digital es un valor numérico que representa una
intensidad visual o un nivel de gris sobre un determinado píxel de una imagen digital, es
decir, cada píxel de una imagen está definido por un número entero, el cual puede convertirse
Figura 36
30
Por lo tanto, resumiendo, dentro del procesamiento de imágenes digitales nos
referimos a frecuencia espacial como el grado de repitencia de los niveles de grises en una
imagen. Ejemplos de imágenes con diferentes frecuencias se puede observar en la Figura 37.
Figura 37
Una vez entendida la frecuencia dentro del campo de las imágenes digitales, podemos
señalar que existen dos tipos: frecuencia alta y frecuencia baja. Según Aguirre (2013) “las
frecuencias bajas son responsables de la mayoría de los niveles de gris de una imagen sobre
áreas suaves. Mientras que las frecuencias altas tienen que ver con los detalles de la imagen,
frecuencia:
31
de tales patrones se pueden detectar y alterar directamente elementos presentes en las
considerando el conocimiento que hay por detrás. Sin embargo, existen algoritmos que
permiten calcular la transformada de Fourier de una imagen de manera más práctica, tal como
realizan utilizando máscaras, es decir, matrices que contienen valores numéricos que
representan la intensidad luminosa o el nivel de gris de cada píxel; sin embargo, a estos filtros
también se les puede aplicar la transformación de Fourier para obtener un filtro en forma de
impulso que permita aplicarlo a una imagen en el dominio de la frecuencia. Una explicación
32
clara acerca de los filtros en el dominio de la frecuencia la podemos obtener por Vela (2013),
el cual menciona:
imagen origen, otra final cuyo resultado sea más adecuado para una aplicación
Así mismo, detalla los objetivos que se persiguen con el proceso de filtrado:
vecinos.
• Eliminar ruido: eliminar aquellos píxeles cuyo nivel de intensidad es muy diferente al
• Detectar bordes: detectar los píxeles donde se produce un cambio brusco en la función
intensidad.
Es importante destacar que existen filtros sobre el dominio del espacio y sobre el domino
de la frecuencia; sin embargo, en esta sección solo se expondrá lo referente a los filtros en el
dominio de la frecuencia.
convolución, como se muestra en la Figura 38. Según Vela (2013), los pasos a realizar son
los siguientes:
33
Se aplica la Transformada de Fourier, luego se multiplica por la función del filtro que ha
Figura 38
frecuencia, esto es, que a ambas funciones periódicas se les aplique la transformada de
Figura 39.
Figura 39
34
• Filtro paso bajo: atenúa las frecuencias altas y mantiene sin variaciones las bajas. El
altas frecuencias que son filtradas se corresponden con los cambios fuertes de
• Filtro paso alto: atenúa las frecuencias bajas manteniendo invariables las frecuencias
altas. Puesto que las altas frecuencias corresponden en las imágenes a cambios
bruscos de densidad, este tipo de filtros es usado, porque entre otras ventajas, ofrece
• Filtro paso banda: atenúa frecuencias muy altas o muy bajas manteniendo una banda
Figura 40
35
Figura 41
Figura 42
Figura 43
Filtro paso alto, paso bajo y paso banda aplicados a una imagen
36
Nota. Tomado de L. Otarola, 2015.
dominio de la frecuencia, estos filtros tienen sus respectivas variaciones en paso alto y paso
bajo, sirviendo para diferentes propósitos y resultados. Según Aguirre (2013) “los filtros en el
extraer atributos como son las coordenadas de objetos que cumplan ciertas
crearon sistemas de visión artificial los cuales tendrán el propósito de obtener la información
Según destaca Aguirre (2003) estos sistemas deben cumplir, entre otras, las siguientes
condiciones:
37
• La extracción de información útil a partir de la imagen no debería suponer un coste
excesivo al sistema en el cual está integrado, y el tiempo total dedicado a esta tarea
Según La Serna (2009) “La segmentación subdivide una imagen en sus partes
constituyentes, con el fin de separar las partes de interés del resto de la imagen, por lo tanto,
el nivel al que se lleva a cabo esta subdivisión depende del problema a resolver” (p.11)
Visto esto, la segmentación consiste en dividir una imagen en sus regiones u objetos
similitud, ésta se logra mediante la partición de una imagen en regiones que son similares de
38
Ya en el proceso de segmentación se evalúa cada pixel y se verifica si contiene o no
las características de interés. Como resultado, este método genera una imagen binaria, donde
los píxeles que pertenecen al objeto se representan con un '1' (objeto en primer plano),
mientras que los que no pertenecen al mismo se representan con un '0' (fondo). En la figura
Figura 44
Según Aguirre (2013), para poder aplicar correctamente estas técnicas se debe tener
en claro el objetivo que se persigue, el tipo de imagen a analizar y sus características. Y para
ello previamente se necesita tener claro qué objetos interesan y qué características poseen.
(p.63)
tipos de segmentación.
El caso ideal es aquel en el cual los objetos poseen un rango de colores o intensidad
de gris muy estrecho, siendo el fondo uniforme. En este caso se puede definir un umbral de
39
segmentación para separar el objeto del fondo. A esta técnica de asignación de un umbral se
umbral y tomar los píxeles en este rango según pertenezcan o no al fondo: se toman los que
Hough permite detectar curvas en una imagen y es una de las técnicas de segmentación
alineados. Esto se reduce a hallar los píxeles de una imagen que satisfagan la siguiente
(x,y) en el espacio polar de parámetros (ρ, θ). En la siguiente transformación, una recta en el
espacio (x, y) que esté a distancia ρj del origen y posea pendiente θi, se representa como un
sólo punto (ρj, θi) en el espacio transformado. En la Figura 45 se puede observar esta
transformación.
Figura 45
40
La transformada de un punto en el plano (x,y) corresponde a una curva sinusoidal en
el plano (ρ, θ). Los puntos de cruce de todas las curvas en el espacio de Hough, definen la
recta a la que pertenecen dichos puntos en el espacio imagen. En la Figura 46 se puede ver la
transformada de 3 puntos.
Figura 46
implementación en paralelo.
recursos.
• No ofrece respuesta absoluta, sino un índice de probabilidad de que cada una de las
41
Etiquetado de Componentes Conectados. Para entender mejor este concepto recordemos
Según Moreira (2010) “Una representación común de una imagen digital en dos
Como resultado, se obtiene una imagen en la cual se separa cada objeto con una
Figura 47
Debido a la naturaleza del escaneo de una imagen (de arriba a abajo y de izquierda a
derecha), los algoritmos para etiquetar dan excelentes resultados con objetos convexos, pero
42
En la Figura 48 podemos ver como el escaneo de arriba abajo, etiqueta con el color
rojo a los primeros pixeles y cuando pasa por un pixel distante lo etiqueta de azul
considerando que pertenece a otro conjunto; sin embargo, al llegar más abajo ocurre una
colisión debido a que estos pixeles pertenecen a un mismo objeto y deberían etiquetarse del
mismo color.
Figura 48
Para solucionar esto se una el método de fusión de etiquetas, el cual consiste en que,
al detectar una colisión, se decide cual es la etiqueta menor (por ejemplo, las de color rojo), y
aplicar en sistemas en tiempo real o sistemas de video, ya que las imágenes fluyen sin
almacenarse siendo imposible acceder a los pixeles en cualquier momento para cambiar su
etiqueta
continuación.
43
datos en la tabla de equivalencia indicando qué etiquetas pertenecen al mismo objeto. Al
segunda pasada se sobrescriben todas las etiquetas mayores que han colisionado con una
menor.
de salida, ya que la imagen etiquetada que se obtiene tras la primera pasada debe almacenarse
memoria para almacenar las equivalencias ocurridas durante los pases. Esta técnica implica
múltiples pasadas sobre la imagen binaria, tanto hacia atrás como hacia adelante, hasta que no
Algoritmo por seguimiento de contorno. Usa técnica para detectar contornos de los
Tiene la ventaja de necesitar solamente una pasada para etiquetar todos los contornos,
44
Algoritmo de pase simple. Es creado especialmente para etiquetado de componentes
las etiquetas de un fotograma completo, sino que todo se hace en el contexto de las
vecindades del píxel. Otra ventaja es que al mismo tiempo que se etiquetan los píxeles de la
imagen binaria, se van extrayendo las características de los objetos: su tamaño, su número, su
3. Productos
Las siguientes implementaciones han sido replicadas tomando como referencia el curso
es decir, un valor a partir del cual podamos decidir qué píxeles de la imagen tomarán los
valores de 1 (o sea, de color blanco), y los valores de 0 (de color negro). Para el caso de
ahora se realizará en cada canal de la imagen por separado, para luego unir los tres canales
una imagen que contiene a una planta y los frutos de dicho color, como se puede observar en
la Figura 49.
Figura 49
45
Imagen de planta con frutos rojos
Figura 50
46
Ahora debemos separar la imagen en sus respectivos canales RGB, una vez hecho esto
mostramos la imagen en sus tres canales como se puede apreciar en la Figura 51.
Figura 51
donde hay más predominancia del color en cuestión se ha convertido a un color que tiende
hacia blanco, y en donde no hay presencia de este color tiende a gris o negro.
Ahora podemos pasar a segmentar cada canal de la imagen, usaremos un método manual
para conseguir el umbral para cada canal como se aprecia en la Figura 52. Para ello nos
fijamos en lo que queremos conseguir. Del canal rojo solo queremos obtener los frutos, en
donde hay bastante presencia del color rojo, además, necesitamos eliminar el fondo; del canal
verde podemos resaltar el fondo, ya que es la parte de la imagen donde hay bastante presencia
del color verde; del canal azul también podemos resaltar el fondo y algunos otros detalles
47
Figura 52
Ahora, ¿por qué deseamos resaltar los colores que no deseamos en la segmentación?
Porque de esta forma podremos realizar una operación ‘and’ entre estos tres canales y
finalmente borrar el fondo y obtener los frutos deseados como se aprecia en la Figura 53.
Figura 53
48
Nota. Elaboración propia.
El resultado obtenido muestra a los frutos rojos segmentados, pero con agujeros, por
lo cual hay que rellenarlos. La lógica que se utilizó fue rellenar con píxeles blancos los
píxeles negros que se encuentren entre dos píxeles blancos. El resultado se puede observar en
la Figura 54.
Figura 54
Segmentación rellenada
49
Nota. Elaboración propia.
El siguiente paso será colocar bordes a los frutos segmentados, para ello la lógica será
crear una imagen “vacía” y redibujar los píxeles de la imagen original que representen el
umbral entre píxeles blancos y negros. Finalmente, se coloca el borde dibujado sobre la
Figura 55
50
3.2. Filtros en el Dominio de la Frecuencia Utilizando Python
común el diseño y aplicación de filtros en imágenes con diferentes propósitos, para ello se
Fourier y los niveles de frecuencia tanto de la imagen como del filtro. En la Figura 56
las frecuencias altas y solo se mantienen las frecuencias bajas; aplicamos la transformada de
Fourier discreta a la imagen original con el fin de obtener la representación de las frecuencias
en cada pixel, la frecuencia media F(0,0) o frecuencia central es el primer píxel de la esquina
imagen. Ahora bien, la frecuencia central del filtro está justo al medio, por lo que no se puede
realizar una convolución directa con la imagen transformada ya que las frecuencias no
frecuencia central hacia la esquina superior izquierda del filtro. De esta forma se consigue
Figura 56
Proceso de diseño y aplicación de filtro en una imagen dentro del dominio de la frecuencia
51
Nota. Tomado de Domingo Mery. (05 de octubre de 2021). 15 Procesamiento de Imágenes:
Filtros usando Fourier 2D. [Archivo de Vídeo]. Youtube. https://youtu.be/JpHN9D_cF_c
Se aplicará un filtro Gaussiano de paso bajo y paso alto a una imagen de Machu Picchu,
El filtro Gaussiano de paso bajo se puede apreciar en la Figura 57. Este filtro es uno de
los más usados ya que realiza el filtrado de una manera bastante suave, debido a la caída que
frecuencia de corte a partir de la cual las frecuencias van decayendo desde el centro hasta
Figura 57
52
Nota. Tomado de Domingo Mery. (05 de octubre de 2021). 15 Procesamiento de Imágenes:
Filtros usando Fourier 2D. [Archivo de Vídeo]. Youtube. https://youtu.be/JpHN9D_cF_c
La implementación del filtro Gaussiano en su versión paso bajo y paso alto se puede
Figura 58
aplicamos la función fftshift al filtro Gaussiano para que la frecuencia central se distribuya
hacia las esquinas, luego realizamos la convolución del espectro de la imagen con el filtro,
53
inversa de Fourier, este proceso se realizó con un filtro pasa bajo y paso alto, como se
Figura 59
Figura 60
podría decirse que borrosa, esto último tiene un propósito explicativo, sin embargo, también
54
se le da uso dependiendo de lo que se requiera; por ejemplo, este filtro podría utilizarse de
En la Figura 60 en cambio, podemos observar que a través del filtro paso alto se obtuvo
una imagen mucho más oscura, pero en donde se resaltan los bordes de los objetos. Este filtro
podría utilizarse para reconocer los bordes y caminos dentro de algún terreno o
reconocimiento topográfico.
4. Conclusiones
El procesamiento de imágenes digitales demuestra ser una herramienta poderosa que tiene
resalta la importancia de esta, desde la obtención de una imagen digital hasta su tratamiento
Se consiguió comprender los pasos del procesamiento de imágenes, así como los términos
que intervienen, tal como las imágenes digitales, los dominios en los que se trabaja y sus
aplicaciones.
A través de diversas fuentes se logró visualizar los procesos en donde se interviene a una
imagen digital, así mismo, se replicaron y estudiaron aplicaciones que permitieron una mayor
55
5. Bibliografía
mediante visión artificial basado en FPGA [Proyecto Fin de Carrera, Universidad de Sevilla].
https://biblus.us.es/bibing/proyectos/abreproy/12112/direccion/Documento_completo%252F
pe/informacion/blog/electrica/que-es-la-frecuencia
http://sdeuoc.ac.in/sites/default/files/sde_videos/Digital%20Image%20Processing%203rd%2
0ed.%20-%20R.%20Gonzalez%2C%20R.%20Woods-ilovepdf-compressed.pdf
https://library.uoh.edu.iq/admin/ebooks/75289-bernd-jahne---digital-image-processing-5th-
ed.pdf
http://lcr.uns.edu.ar/fvc/NotasDeAplicacion/FVC-KrigerJulianaBelen.pdf
https://revistasinvestigacion.unmsm.edu.pe/index.php/sistem/article/view/3299/2749
56
Mejía, J. (2005). Apuntes de Procesamiento Digital de Imágenes. Facultad de Ingeniería
UASLP.http://laurence.com.ar/artes/comun/Apuntes%20procesamiento%20digital%20de%2
0imagenes.pdf
35032009000200016&lng=es&tlng=es
Guayaquil. http://www.dspace.espol.edu.ec/handle/123456789/13793
http://lcr.uns.edu.ar/fvc/NotasDeAplicacion/FVC-LucaOtarola.pdf
http://www.aet.org.es/revistas/revista8/AET8_5.pdf
Recuperado de https://dle.rae.es/frecuencia
Recuperado de https://dle.rae.es/segmentar
Recuperado de https://dle.rae.es/etiquetar
57
Reuter, F. (2002). Procesamiento digital de imágenes. Carpeta de Trabajos Prácticos:
https://fcf.unse.edu.ar/archivos/lpr/pdf/p9.PDF
Power Point].http://asignatura.us.es/imagendigital/Tema2-ParteI_transf_intensidad.pdf
http://dea.unsj.edu.ar/imagenes/recursos/Capitulo1.pdf
http://lcr.uns.edu.ar/fvc/notasdeaplicacion/fvc-vela%20franco.pdf
Camila%20Veroni%20Alsina.pdf
58