0% encontró este documento útil (0 votos)
199 vistas345 páginas

Expos

El documento describe la representación de fronteras (B-rep) para el modelado de sólidos tridimensionales. La B-rep representa un sólido mediante sus vértices, aristas y caras que definen su superficie. Existen dos métodos principales de B-rep: la representación por enlistamiento simple y la representación por arista alada, la cual utiliza tres tablas (caras, vértices y aristas) para almacenar la información del sólido. El documento provee ejemplos detallados de ambos métodos aplicados a un cubo.

Cargado por

samuel .04
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
199 vistas345 páginas

Expos

El documento describe la representación de fronteras (B-rep) para el modelado de sólidos tridimensionales. La B-rep representa un sólido mediante sus vértices, aristas y caras que definen su superficie. Existen dos métodos principales de B-rep: la representación por enlistamiento simple y la representación por arista alada, la cual utiliza tres tablas (caras, vértices y aristas) para almacenar la información del sólido. El documento provee ejemplos detallados de ambos métodos aplicados a un cubo.

Cargado por

samuel .04
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

Universidad del Perú, Decana de América

Facultad de Ingeniería de Sistemas e Informática


E. P. Ingeniería de Sistemas

Asignatura de Computación Visual


Sección: 1
Docente: Avendaño Quiroz, Johnny Robert

Tema: “Modelamiento de sólidos: Representación de


fronteras - Brep”

Grupo: 10
Integrantes:
Campos Acosta, Marx Dalesxandro 20200163
Cubas Huaranga Julio Santiago 20200170
Perez Olaguivel, Rolando German 20200197
Quiñonez Flores, Diego 20200233
Terrones Chinchay, Favio Alonso 19200046
Vidalón Flores, Daniel Omar 17200244

Lima, 2022

1
Modelamiento de sólidos: representación de fronteras - Brep

2
Índice

1. Introducción 4

2. Objetivos 5

2.1. Objetivo general 5

2.2. Objetivos específicos 5

3. Marco teórico 5

3.1. Modelamiento de sólidos 5

3.2.2. B-rep por arista alada 9

3.2.2.1. Tabla de caras 9

3.2.2.2. Tabla de vértices 9

3.2.2.3. Tabla de aristas 10

3.3. Problemas en la representación de fronteras 13

3.4. Validez de los modelos de fronteras 14

4. Productos 19

5. Conclusiones 21

6. Bibliografía 22

3
1. Introducción

B-rep o representación de límites es una técnica de representación para el modelado

de sólidos. Es un enfoque popular para crear un modelo sólido de un objeto físico. Este

modelo de objeto tridimensional que está encerrado por superficies o caras y tiene su propio

interior y exterior. Describe la forma como una colección de superficies que separan su

interior del entorno exterior. Es adecuado para diseños complejos, las facetas de polígono son

uno de los ejemplos de representación de límites.

Esta representación es práctica y muy usada en proyectos de la Computación Visual,

ya que describe solo la superficie orientada de un sólido como una estructura de datos

compuesta de vértices, aristas y caras. Hay que tener en cuenta que un objeto B-rep se

representa fácilmente en un sistema de visualización gráfica.

Las operaciones básicas incluyen la revisión de los posibles tipos de superficie, el

esquema de representación de borde al lado y los operadores de Euler para B-rep. Puntos que

son beneficiosos al momento de realizar las aplicaciones. Por otro lado, la abundancia,

complejidad y variedad de disciplinas afines hacen del modelamiento de sólidos una

abundante área de desarrollo intelectual con espacio para la investigación y el desarrollo,

convirtiéndolo en un excelente soporte para el trabajo interdisciplinario (diseño, matemáticas,

tecnología de la información, manufactura).

4
Por lo mencionado anteriormente, se ha fijado como objetivo fundamental, estudiar y

detallar conceptos sobre la representación de fronteras, asimismo, encontrando ventajas y

desventajas en su aplicación y, finalmente, la aplicación de este mediante la elaboración de un

producto o programa.

2. Objetivos

2.1. Objetivo general

i. Estudiar el modelamiento de sólidos mediante la representación de fronteras.

2.2. Objetivos específicos

i. Comprender el modelamiento de objetos tridimensionales mediante la

representación de fronteras.

ii. Aplicar lo aprendido mediante la construcción de un programa.

3. Marco teórico

3.1. Modelamiento de sólidos

El modelamiento de sólidos es un conjunto de técnicas y teorías que buscan la

representación completa de sólidos, en donde dicha representación debe permitir calcular

cualquier propiedad conocida del sólido.

5
Figura 1. Niveles de representación de sólidos

Nota. Universidad de Granada

3.2. Representación B-Rep

La representación de fronteras o B-rep (Boundary Representation) se refiere a la

forma de representar sólidos tridimensionales por medio de su superficie. Esta forma de

representación se basa en el estudio de las aristas, vértices y caras del objeto (Torres, s.f. ).

Figura 2. Descomposición de figura poliédrica en caras

Nota. Graficación (2012)

Para realizar la B-rep es necesario asumir al objeto como un poliedro (objeto

tridimensional compuesto de caras planas), por lo que, en el caso de figuras curvas, es

necesario que sean trasladados primero a una representación poliédrica (Vendrell, 2011 ).

6
Figura 3. Conversión de figura curva a su forma poliédrica

Nota. Universidad Politécnica de Valencia (2011)

Los sólidos pueden ser representados por medio de un árbol, en donde la raíz es el

objeto como tal, el siguiente nivel son las caras y el siguiente nivel son los bucles (conjunto

ordenado e interrelacionados de aristas y vértices que conforman una cara).

Figura 4. Elementos de un cubo

Nota. Elaboración propia

7
Figura 5. Representación de árbol de la Figura 4

Nota. Universidad Politécnica de Valencia (2011)

Las dos formas más conocidas de representar un objeto por medio de la B-rep son por

la representación por enlistamiento simple y la representación arista alada.

3.2.1. B-rep por enlistamiento simple

Esta forma de representación rápida y poco eficiente, cuando se le aplica un

algoritmo sobre él, se basa en el análisis de cada cara por separado, enumerando y

asociando cada una a una lista de vértices. Esta información se almacena en una única

tabla.

Tabla 1. Lista simple de vértices de la Figura 4

Cara Vértices
1 V1 (0,1,1) V2 (0,0,1) V3 (1,0,1) V4 (1,1,1)
2 V3 (1,0,1) V4 (1,1,1) V5 (1,1,0) V6 (1,0,0)
3 V1 (0,1,1) V4 (1,1,1) V5 (1,1,0) V8 (0,1,0)
4 V1 (0,1,1) V2 (0,0,1) V7 (0,0,0) V8 (0,1,0)
5 V5 (1,1,0) V6 (1,0,0) V7 (0,0,0) V8 (0,1,0)
6 V2 (0,0,1) V3 (1,0,1) V6 (1,0,0) V7 (0,0,0)

Nota. Elaboración propia

8
3.2.2. B-rep por arista alada

Introducida por Bruce Baumgart en 1972, es la representación de fronteras

más conocida. Esta forma se basa principalmente en el estudio de la arista con sus

vértices y caras asociadas generando tres tablas, una tabla de caras, una tabla de

vértices y una tabla de aristas.

3.2.2.1. Tabla de caras

En esta tabla cada cara es un conjunto orientado de bucles de aristas. Para cada

arista se almacena una sola arista incidente de esa cara en cada uno de los bucles que

la componen.

Tabla 2. Modelo de tabla de aristas

Cara Arista
CX
CY
… …

Nota. Elaboración propia

3.2.2.2. Tabla de vértices

En esta tabla cada vértice es adyacente a un conjunto de aristas. Se tiene que

especificar una sola arista incidente para cada vértice.

Tabla 3. Modelo de tabla de vértices

Vértice Arista
VX
VY
… …

Nota. Elaboración propia

9
3.2.2.3. Tabla de aristas

En esta tabla cada arista se define con dos vértices incidentes direccionados,

dos caras adyacentes, y las dos aristas para una cara adyacente a la arista y las otras

dos aristas para la otra cara adyacente a la arista. La dirección del análisis de las

aristas se realiza en sentido horario en dirección opuesta a la dirección de los dos

vértices de la arista.

Tabla 4. Modelo de tabla de aristas

Aristas cara Aristas cara


Arist Vértices Caras
izquierda derecha
a
desde hacia izq der prec suc prec suc
AX
AY
… … … … … … … … …

Nota. Elaboración propia

Para hacer un ejemplo de cómo se procede con la elaboración de las tablas

B-rep, tomaremos como ejemplo la Figura 4, con los vértices, caras y aristas

descritos. Consideramos como primera arista a analizar la arista A3.

Figura 6. Elementos detallados del cubo unitario.

Nota. Elaboración propia.

10
La arista A3 tiene dos caras adyacentes, C1 y C2, ósea tanto las caras C1

como C2 comparten a la arista A3 como parte de sus aristas. Tiene como vértices al

vértice V3 y V4 y a otras aristas incidentes A2, A7, A4 y A5. Para empezar a elaborar

las tablas, analizamos a detalle la arista A3, como se puede ver en la Figura 6.

Figura 7. Detalle de la arista A3

Nota. Elaboración propia.

Analizamos la arista A3 desde vértice V3 hasta el vértice V4 por tanto vértices

incidentes desde V3 a V4.Las caras adyacentes son la C1 y la C2 entendiendo esta

orientación de la arista, la cara C1 queda a la izquierda y la cara C2 a nuestra derecha.

Luego tenemos que analizar las aristas incidentes, si vemos la orientación de

cada cara, la arista A4 es la arista precedente en la definición del bucle de la cara C1

precedente a nuestra arista A3 y la cara A2 es la arista sucesora, por tanto la

precedente a la cara izquierda es A4 y la sucesora en cara izquierda la A2.

La cara C2 está a la derecha por lo que si vemos la orientación en sentido

horario la arista A7 es la precedente a nuestra arista A3 en la definición de nuestra

cara C2 y la arista A5 es la sucesora. Repetimos este análisis para las demás caras del

sólido construyendo las siguientes tablas.

11
Tabla 5. Tabla de aristas de la Figura 6

Aristas cara Aristas cara


Vértices Caras
Arista izquierda derecha
desde hacia izq der prec suc prec suc
A1 V2 V1 C4 C1 A11 A9 A2 A4
A2 V3 V2 C5 C4 A9 A7 A3 A1
A3 V3 V4 C1 C2 A4 A2 A7 A5
A4 V4 V1 C1 C6 A1 A3 A5 A11
A5 V4 V5 C6 C2 A12 A4 A3 A6
A6 V6 v5 C2 C3 A5 A7 A8 12
A7 V3 V6 C2 C5 A6 A3 A2 A8
A8 V7 V6 C5 C3 A7 A9 A10 A6
A9 V2 V7 C5 C4 A8 A2 A10 A1
A10 V7 V8 C3 C4 A12 A8 A9 A11
A11 V8 V1 C6 C4 A4 A12 A10 A1
A12 V8 V5 C3 C6 A6 A10 A11 A5

Nota. Elaboración propia

Tabla 6. Tabla de caras de la Figura 6

Cara Arista
C1 A4
C2 A5
C3 A12
C4 A11
C5 A7
C6 A4

Nota. Elaboración propia

Tabla 7. Tabla de vértices de la Figura 6

Vértice Arista
V1 A4
V2 A2
V3 A7
V4 A5
V5 A6
V6 A8
V7 A10
V8 A11

Nota. Elaboración propia

12
3.3. Problemas en la representación de fronteras

“El modelado de fronteras no está exento de problemas, sobre todo si se desea operar

booleanamente con los objetos B-rep.”(Ramos, s.f., p.12).Por ejemplo, supongamos que se

quiere efectuar la unión entre dos objetos en forma de L, tal como se muestra en la figura.

Figura 8. Diferentes interpretaciones de un mismo resultado

Nota. Esquemas de modelado sólido, R. Ramos, pg.12

Vemos que el resultado inicial (a) no es un objeto euleriano, dado que la arista (P, Q)

pertenece a 4 caras. Para resolver este tipo de problemas, los sistemas de modelado pueden

adoptar una de estas tres posturas:

- Todos los objetos deben ser eulerianos, por lo que los resultados no eulerianos

serán considerados como error. García( s.f., p.12) plantea que aunque puede dar buenos

resultados, impone severas restricciones a los modeladores, sobre todo los que efectúan

operaciones booleanas. Además, dependiendo de cómo se haya implantado internamente el

sistema, incluso pueden llegar a rechazar los resultados intermedios resultantes al aplicar los

operadores de Euler.

13
- Los objetos son todos eulerianos, pero se permiten las coincidencias

geométricas en el espacio 3D, aunque sus estructuras topológicas estén separadas, es

decir, sean independientes. García y Fernández( s.f., p.12) concluyen que se tiene que dar

una interpretación euleriana, de las estructuras no eulerianas.

Volviendo al ejemplo de la Figura 8, la arista (P, Q) se ha de convertir en dos aristas,

aunque sus coordenadas geométricas coincidan. El problema está en que hay dos posibles

interpretaciones topológicas: la “b”, que como vemos se trata de un objeto de grado 0 (familia

de las esferas), y la “c”, que es un objeto euleriano de grado 1 (familia del toro). ¿Cuál de las

dos es la apropiada? Normalmente se opta por la solución más simple, es decir, los resultados

de menor grado, en este caso el modelo “b”.

- Se permite la existencia de objetos no eulerianos.Martínez (s.f., p.13) indica que

esta es la solución más cómoda, ya que simplifica mucho los algoritmos al no tener que

verificar la integridad de los modelos. En contrapartida, deberá ser el usuario quien ponga

cuidado en que sus modelos sean más o menos coherentes. Por definición, este planteamiento

queda descartado del Modelado Sólido estricto, aunque puede ser válido en otros muchos

casos, especialmente si los modelos son para realizar síntesis de imágenes.

Además de los problemas topológicos, el modelado de fronteras también presenta

algunos problemas prácticos. Una de las causas se debe a que los modelos poliédricos sólo se

aproximan a las superficies de los objetos que no son poliedros, requiriendo gran cantidad de

datos para aproximar decentemente los objetos con superficies curvas.

14
3.4. Validez de los modelos de fronteras

La principal debilidad del modelo es la validez, ya que cualquier conjunto de caras,

vértices y aristas no define un sólido válido. Para asegurar la validez de la representación se

imponen una serie de condiciones a ésta, que pueden verse como una restricción del conjunto

imagen del método. Para la representación de fronteras de un sólido válido se debe cumplir:

- Cada artista está limitado por dos vértices.

- Cada arista separa dos caras.

- Las caras que coinciden en una artista tienen orientación conforme.

- Las aristas solo se intersectan en los vértices.

- Las caras solo se intersectan en los vértices y las aristas.

Las dos primeras condiciones se comprueban fácilmente cuando se utiliza una

estructura de aristas aladas. Las tres últimas requieren la realización de comprobaciones

geométricas que son costosas. Una forma rápida de detectar modelos no válidos es comprobar

la fórmula de Euler, que establece una relación invariante entre caras, aristas y vértices de

cualquier poliedro.

3.4.1. Consistencia topológica:

- Sólidos simples: Objetos topológicamente simples, sin huecos o agujeros y con un

sólo bucle por cara.

𝐹ó𝑟𝑚𝑢𝑙𝑎 𝑑𝑒 𝐸𝑢𝑙𝑒𝑟: 𝑉 − 𝐴 + 𝐶 − 2 = 0

Donde:

V= Número de vértices.

A= Número de aristas.

15
C= Número de caras

Ejemplo:

Figura 9. Sólido simple

Nota. Diseño asistido computador, Universidad Politécnica de Valencia ppt.56

Solución:

V=8

A = 12

C=6

=> V-A+C-2 = 8-12+6-2 = 0

- Sólidos con agujeros: Sólidos que permanecen limitados por una superficie

conectada simple, homeomórficos a la esfera con una o más “asas” o agujeros.

𝐹ó𝑟𝑚𝑢𝑙𝑎 𝑑𝑒 𝐸𝑢𝑙𝑒𝑟 − 𝑃𝑜𝑖𝑛𝑐𝑎𝑟é: 𝑉 − 𝐴 + 𝐶 − 2(1 − 𝐺) = 0

Donde:

V= Número de vértices.

A= Número de aristas.

C= Número de caras

G= Género ( número de agujeros)

16
Ejemplo:

Figura 10. Objeto con dos agujeros

Nota. Diseño asistido computador, Universidad Politécnica de Valencia ppt.58

Solución:

V=24

A=44

C=18

G=2

=> V-A+C-2(1-G) = 24-44+18-2(1-2) = -2-2(-1) = 0

- Sólidos con agujeros y huecos internos: Sólidos con huecos internos (burbujas)

limitados por superficies múltiples cerradas (conchas).

𝐹ó𝑟𝑚𝑢𝑙𝑎 𝑑𝑒 𝐸𝑢𝑙𝑒𝑟 − 𝑃𝑜𝑖𝑛𝑐𝑎𝑟é 𝑒𝑥𝑡𝑒𝑛𝑑𝑖𝑑𝑎: 𝑉 − 𝐴 + 𝐶 − (𝐿 − 𝐶) − 2(𝑆 − 𝐺) = 0

Donde:

V= Número de vértices.

A= Número de aristas.

C= Número de caras

G= Género ( número de agujeros)

S= Número de conchas

L= Número de bucles

17
Ejemplo:

Figura 11. Sólido con agujeros y huecos internos

Nota. Diseño asistido computador, Universidad Politécnica de Valencia ppt.61

Solución:

V=24

A=36

C=16

G=1

L=18

S=2

=> V-A+C-(L-C)-2(S-G) = 24-36+16-(18-16)-2(2-1) = 4-2-2 = 0

18
4. Productos

Se elaboró un programa para aplicar el modelamiento de sólidos por representación de

fronteras, específicamente B-rep por alistamiento simple. En la Figura 12 se puede observar

el resultado de la aplicación en donde se muestran tanto los vértices de cada cara como la

figura resultante.

Figura 12. Ejemplo B-rep por enlistamiento simple

Nota. Elaboración propia

Para la construcción del cubo en la Figura 12, se inicializan los puntos de los vértices

(GL_POINTS), luego se elaboraron las aristas en bucle (GL_LINE_LOOP) para obtener el

contorno cuadrado del cubo, finalmente se rellenaron las caras con polígonos

(GL_POLYGON), considerando una función especial que permite tener una mejor

perspectiva del cubo.

19
Aplicación de B-REP:

En la industria tanto como videojuegos o Cinematográfica, el modelamiento 3D es

muy importante, debido al hiperrealismo que le puede dar a esto, creando criaturas o

monstruos, de acuerdo a la imaginación que el usuaria tenga. Para poder generar estos

modelamientos tan realistas, se utilizan programas como Blender, que es un programa que

permite esculpir, animar y realizar efectos visuales. Estos programas tienen como base el

modelamiento de superficies, recordando que la complejidad de un objeto depende de sus

vértices y aristas.

Figura 13. Modelamiento de sólidos en Blender

Nota. Imagen tomada de tutorial de blender.

Ahí vemos que el objeto se toma y se puede configurar o moldear a lo que uno desea,

y el programa de manera interna, lleva el control con la representación de fronteras B-rep.

Cualquier modificación que sufra este objeto, hará que se modifique de manera interna sus

tablas (caras, aristas y vértices).

20
5. Conclusiones

Así que sabiendo una de las ventajas de usar la Representación de fronteras - Brep es

su mayor poder expresivo que otros modelamientos de sólidos, debido a que describe la

superficie orientada de un sólido como una estructura de datos compuesta de vértices, aristas

y caras. Aunque dada su gran facilidad de comprensión e implementación de este último se

debe tomar en cuenta la estructura compleja y la gran cantidad de información que carga el

programa debido a las tablas (caras, aristas y vértices).

Además, Las operaciones básicas incluyen la revisión de los posibles tipos de

superficie, el esquema de representación de la arista alada y los operadores de Euler son para

la Representación de Fronteras. Pero para la validez se tiene que tener en cuenta que

cualquier conjunto de caras no es un sólido, asimismo con el caso Euleriano donde la regla

general (aunque puede no ser válida en algunos casos) dice que la suma de caras y vértices

debe ser igual a la suma de aristas, anillos y al doble de la resta entre cuerpos y perforaciones.

Esto es importante para el diseñador de modelos de fronteras. ya que debe disponer de una

serie de herramientas que faciliten la descripción de los modelos.

Finalmente, la aplicación presentada representa correctamente los objetos definidos en

el formato propuesto, iniciando con la creación de las primitivas (vértices, aristas y caras)

tanto como en los ejemplos de B-rep por enlistamiento simple y de Modelamiento de sólidos

en Blender, pero notando otros elementos son el caparazón (un conjunto de caras conectadas),

el bucle (un circuito de bordes que delimitan una cara) y los enlaces de borde de bucle

(también conocidos como enlaces de borde alados o medios bordes ) que se utilizan para

crear los circuitos de borde. Observando una de las ventajas de la B-Rep; cuando el objeto

sufra una modificación el modelo hará que se modifique de manera interna en las primitivas,

respetando la condición que establece que el objeto debe ser euleriano .

21
6. Bibliografía

Codallos, M. (2012). GRAFICACIÓN MODELADOS GEOMÉTRICOS. Graficacionitca3d.

http://graficacionitca3d.blogspot.com/2012/03/modelados-geometricos.html

Torres, J. TEMA 5. Modelado de sólidos. UGR.

https://lsi2.ugr.es/~cad/teoria/Tema5/RESUMENTEMA5.PDF

Vendrell E. (21 de septiembre del 2011) Representación B-Rep. [Video]. Youtube.

https://www.youtube.com/watch?v=vg_TZsTM9hE&t=524s&ab_channel=Universitat

Polit%C3%A8cnicadeVal%C3%A8ncia-UPV

García, J. , Guillermo, P., Fernández, J., Agustina, B., Martínez, J.,de Alaiz , J.. Tema VIII

Esquemas de Modelado Sólido. Universidad de Oviedo.

https://nanopdf.com/download/esquemas-de-modelado-solido_pdf

22
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

FACULTAD DE INGENIERÍA DE SISTEMAS E INFORMÁTICA


ESCUELA PROFESIONAL DE INGENIERÍA DE SISTEMAS

Modelamiento de Sólidos:
Geometría Constructiva de Sólidos (CGS)

ASIGNATURA:

Computación Visual

DOCENTE:
Avendaño Quiroz, Johny Robert

Grupo 9
INTEGRANTES:
- Apaza Mamani, Danny Wilson
- Carranza Dávila, Williams
- Ramirez Sanchez, Waldir
- Rivas Sandoval, Roberson
- Santos Zegarra, Rodrigo
- Tupayachi Rivas, David Yaku

Lima, 2022
ÍNDICE

Introducción 2

1. Desarrollo estructurado del tema. 2

1.1 Historia 2

1.2 Definición 2

1.3 Ventajas y desventajas 3

1.4 Primitivas CSG 3

1.5 Transformaciones 3

1.5 Operadores booleanos 3

1.6 Árboles CSG 3

2. Productos (aplicativo, video, etc). 3

2.1 Aplicativo 1 3

2.2 Aplicativo 2 3

2.3 Aplicativo 3 3

3 Conclusiones. 3

4. Bibliografía. 3

1
Introducción

La geometría constructiva de sólidos se enfoca en la aplicación de modelos para la

creación de representaciones de objetos sólidos, tomando objetos elementales, conocidas

como las primitivas, para poder combinarlos y formar sólidos más complejos. Se podría decir

que un modelo sólido es un objeto construido por diferentes objetos mediante operaciones

booleanas, que facilitan la visualización del objeto creado finalmente.

Para la implementación del modelado de sólidos se hace uso de diferentes técnicas

correspondientes . Estas técnicas son utilizadas en distintos campos de la ciencia, ingeniería,

publicidad, diseño, entro muchas más. Las técnicas más utilizadas y más conocidas son la

Representación de fronteras (B-rep) y la geometría de Constructiva de sólidos (CSG), entre

muchas más, siendo esta última una de las desarrolladas en el tiempo y de la que se enfocará

el presente trabajo.

El trabajo realizado se llevó a cabo para informar y complementar acerca de la

Geometría constructiva de sólidos, a través de la historia, así como su importancia y las

distintas técnicas y métodos para llevar a cabo su implementación, en diversas de sus

aplicaciones en diferentes campos de interés.

2
1. Desarrollo estructurado del tema.

1.1. Historia

El origen de la geometría constructiva de sólidos, según Ramos (1967), se da a

comienzos de la década de los 60 en los primeros sistemas gráficos; que fueron desarrollados

en la fabricación asistida por ordenador. Debido a ello, se impulsó las industrias de las

máquinas-herramienta numéricamente controladas. El siguiente paso fundamental fue el

desarrollo de un compilador para un lenguaje de descripción gráfica, dado en el Instituto

Tecnológico de Massachusetts (MIT).

Asimismo, las principales multinacionales desarrollaron sus primeros sistemas

gráficos de diseño en los campos automovilísticos, aviación, etc. A mediados de los 70 el

modelado geométrico presentó avances significativos desarrollando nuevas técnicas, las

cuales permitieron realizar lo que conocemos hoy como superficies esculpidas, las superficies

paramétricas, de Bezier, etc. Mientras tanto, se produjeron los primeros modeladores

alámbricos y esquemas poligonales.

Las universidades de Hokkaido y Cambridge fueron las primeras en desarrollar

sistemas de gráficos basados en esquemas de Modelado Sólido. Estos sistemas fueron

llamados TIPS y BUILD presentados en Budapest en 1973. El sistema TIPS utiliza figuras

primitivas y operaciones booleanas para definir sólidos en tres dimensiones, lo que se conoce

como Geometría Constructiva de Sólidos. En cambio, el sistema BUILD representa los

objetos como un conjunto de superficies, más la información topológica que las relaciona y

se le conoce como la representación por fronteras(B-dep).

A partir de entonces surgieron muchos modelos diferentes, pero la mayoría utilizan

los conceptos de los dos anteriores o incluso ambos(Modeladores híbridos). Ya en 1996 se

dieron algunos de los mayores avances en el género de los videojuegos 3D. Un ejemplo de

ello es Quake, un videojuego en primera persona de disparos desarrollado por id Software.

3
Utiliza modelos tridimensionales para los jugadores, monstruos, ambiente y otros elementos

en vez de sprites bidimensionales. La compañía Epic Games en 1998, inspirado en Quake,

creó un motor de juego llamado Unreal Engine, mostrado inicialmente en el shooter en

primera persona Unreal.

En la actualidad, existen distintas herramientas de diseño asistido por ordenador

(CAD) como por ejemplo tinkercard. Es un programa de modelado 3D online gratuito que se

ejecuta en cualquier navegador web. Se ha convertido en una plataforma popular, desde el

2011, para crear modelos tridimensionales para impresión, asimismo como introducción de

nivel de entrada a la geometría sólida constructiva en las escuelas.

1.2. Definición

Según Alanoca (2015), la geometría constructiva de sólidos se define como un tipo de

modelado donde se observan 2 tareas específicas, la toma de sólidos elementales predefinidos

y segundo la combinación de estas. Quiere decir que los objetos sólidos son representados en

una combinación de objetos menos complejos conocidos como primitivas. Son sólidos

representados mediante un conjunto de operaciones lógicas conocidas como operaciones

booleanas. Mediante un modelador booleano, un objeto sólido se puede representar en un

árbol binario en el que sus nodos internos son los operadores booleanos, las hojas son las

primitivas y el nodo raíz es el sólido resultante.

Fig 1. Representación CSG mediante un árbol binario.

4
Nota. El gráfico representa un árbol binario de un objeto sólido mediante la CSG donde las

hojas son las primitivas y los nodos internos las operaciones booleanas. Tomado de Modelado

de sólidos (p .35), por Fernandez , E. y Peris, J.(s.f.).

De igual manera este modelado es considerado como una metodología de diseño que

se caracteriza por la facilidad para su creación, almacenamiento, compresión y validación. Su

validez es obtenida revisando las primitivas y operaciones booleanas, lo cual lo hace más

descriptivo.

1.3. Ventajas y desventajas

La geometría constructiva de sólidos (CSG), posee grandes ventajas y algunas

desventajas, comparado a otras técnicas de modelado de sólidos, también muy conocidas. Se

mencionan las ventajas y desventajas de la geometría constructiva de sólidos:

Ventajas

● La estructura de datos interna es simple.

● Se garantiza la integridad de los modelos si las primitivas son válidas.

● Soporta una amplia variedad de aplicaciones.

● Modificaciones globales más sencillas de manejar.

Desventajas

● Operaciones para creación y modificación limitadas a las booleanas

mayormente.

● Transformaciones locales difíciles de implementar en entornos interactivos.

● Tiene menos poder expresivo en los esquemas de modelado.

● Rendering del objeto no siempre es veloz

5
1.4. Primitivas CSG

En la Geometría Constructiva de Sólidos, se hace uso de las primitivas o también

llamados sólidos primitivos que son aquellos sólidos geométricos básicos elementales que

permitirán graficar objetos más complejos en el espacio tridimensional. Estos sólidos

primitivos pueden definirse mediante un procedimiento que acepta cierto número de

parámetros donde se realiza operaciones de transformaciones geométricas, tales como

escalar, trasladar o rotar para que de esta manera se tengan las dimensiones y la ubicación en

el espacio con la finalidad de obtener una buena representación del sólido que se desea. A

continuación definiremos algunos de estos parámetros tanto los generales como los

específicos:

● Escalado: Permite aplicar un escalado a los vértices con respecto al origen de

coordenadas. El tamaño de la primitiva inicia siendo de tamaño unitario y finalmente

se expresa como un escalamiento compuesto en cada una de las tres dimensiones.

Usualmente es representado como la escala en los ejes cartesianos x, y, z.

● Traslación: Permite aplicar un desplazamiento a los vértices y viene dado por 3

valores reales que corresponden al desplazamiento en cada uno de los ejes. Las

primitivas tienen un punto ancla que es usado para definir su posición. Este punto

ancla suele ser un vértice y en otros casos es el baricentro de la primitiva.

● Rotación: Permite aplicar una rotación a los vértices. Se representa como una

sucesión de 3 rotaciones alrededor de los ejes cartesianos x, y, z. Las primitivas se

crean en las coordenadas canónicas y requieren ser trasladadas y rotadas para lograr

la posición correcta en el modelo.

● Parámetros específicos: En la Construcción de Sólidos Geométricos un parámetro

específico sería la cantidad de lados de un polígono regular que servirá de base para

un cono o un cilindro.

6
1.5. Transformaciones Geométricas

1.6. Operadores booleanos

Los operadores booleanos también son conocidos como operadores lógicos, y son

utilizados para conectar de manera lógica conceptos o grupos de términos con el objetivo de

ampliar o limitar búsquedas rápidas. Entonces teniendo en cuenta está definición, en la

Geometría Constructiva de Sólido se aplica de manera similar, pero en este caso se busca

conectar a dos sólidos primitivos o iguales o distintos. Es importante mencionar, que para

obtener óptimos, inicialmente se debe fijar la ubicación, orientación y escala de los sólidos a

los cuales se pretender aplicar los operadores booleanos. En caso no se realicen definen estos

parámetros de manera adecuada, las operaciones que se apliquen puede producir modelos no

deseados.

Operador “AND”

Es conocido de manera más práctica como “porción común”, esto debido que al

aplicar este operador a dos sólidos obtenemos el volumen que comparten. Así mismo, la

operación que se realiza con este operador es conmutativa ya que la intersección entre los

cuerpos A y B será la misma que la intersección generada por B y A, es decir no importa el

orden en que se aplica la intersección se obtiene el mismo volumen.

7
Ejemplo:

Fig 2. Primitivas y A∩B

En la imagen se puede observar perfectamente la operación AND al interceptar un

cubo y un cilindro. El volumen que se obtiene como resultado se muestra en el lado derecho.

Por otro lado, no siempre se puede obtener resultados exitosos al aplicar este operador.

Cuando se trata de generar un sólido teniendo solo una arista o vértice en común se obtienen

algunos errores.

Ejemplo:

Fig 3. Intersección de cubos

En la imagen de la derecha se observa la intersección de dos cubos teniendo en cuenta

sólo una de sus aristas, mientras que en la figura de la izquierda se muestra la intersección de

los mismos sólidos pero teniendo en cuento uno de sus vértices.

8
Operador “OR”

Al aplicar este operador a dos sólidos obtenemos como resultado un volumen total

menor o igual a la suma de los volúmenes iniciales. Para evitar sumar volumen repetido, se

elimina el volumen de la intersección en cualquiera de los sólidos .

Ejemplo:

Fig 4. Primitivas y A∪B

En esta imagen se han utilizado los mismos sólidos que en el ejemplo del operador

anterior. El resultado de aplicar el operador OR a ambos sólidos se muestra en la parte

derecha. Algunos errores que se pueden obtener con este operador son los siguientes:

● La unión de dos primitivas que no se intersecan no podrá dar como resultado un único

sólido que tenga ambos volúmenes.

● La unión de dos primitivas donde una contiene por completo a la otra, en este caso el

sólido como resultado será la primitiva que contiene dentro de ella a la otra primitiva.

● La unión de dos primitivas que son tangentes por un punto o una arista.

Operador NOT

Podemos decir de forma práctica que este operador consiste en quitar a un sólido la

intersección que tiene con otro sólido. Por otro lado, esta operación no cumple con la

propiedad conmutativa como la Intersección y Unión, ya que el resultado de obtener la

diferencia entre las primitivas A y B, no es igual al resultado obtenido de diferenciar B y A.

9
Ejemplo:

Fig 5. Primitivas y A-B

Fig 6. Primitivas y B-A

En ambas imágenes se observa que se utilizan los mismos sólidos y se aplica el

mismo operador, pero se obtienen distintos resultados. Esto sucede debido a que en la

primera imagen la operación que se realiza es la A - B, mientras que la imagen inferior la

operación realizada es la de B-A. Esta diferencia demuestra que este operador no sigue la

propiedad conmutativa.

Los errores que presenta esta operación son las siguientes:

● Ejemplo de la operación booleana de Diferencia para dos primitivas (cilindro y cubo)

● La diferencia de dos primitivas que no se intersecan dará como resultado el sólido que

ocupa el lugar del “minuendo”.

10
● La diferencia de dos primitivas donde la primitiva que ocupa el minuendo contiene

por completo a la primitiva que ocupa el “sustraendo”, da como resultado el vacío ya

que ambos cuerpos se eliminan.

● La diferencia de dos primitivas que crean dos o más objetos nuevos, ya que la zona

donde se intersecan separa en más de una parte a la primitiva que ocupa el lugar del

minuendo.

Fig 7. Generación de sólidos

En esta última imagen se muestra lo descrito en el párrafo anterior. Se aprecia la

generación de dos sólidos luego de que una de las primitivas corte en 2 partes a la otra.

1.7. Árboles CSG

Árbol binario

Según Quiroa, M. (2022, 6 julio) un árbol binario se define como un conjunto

limitado de elementos, que puede estar vacío o compuesto por tres subconjuntos; el nodo raíz,

el subárbol izquierdo y el subárbol derecho. El árbol binario inicia con una raíz que luego se

extiende en dos ramificaciones para finalmente terminar en una hoja. Es decir, un árbol

binario inicia con una nodo llamado raíz, luego, este nodo raíz origina dos nuevos nodos que

se conocen como nodos hijos. Sin embargo, cada nodo del árbol puede tener a lo más dos

ramificaciones, por lo que el grado máximo de un árbol binario es dos. Además, cada

subárbol es en sí mismo un árbol binario del árbol original.

11
Árbol CSG

Un objeto construido mediante el modelado CSG se representa mediante un árbol

binario, el nodo raíz representa el objeto construido, los nodos internos representan las

operaciones booleanas o transformaciones que se realizan a los nodos terminales que son las

primitivas empleadas..

Fig 8. Ejemplo de representación de árbol CSG

Fig 8. Árbol CSG utilizando las operaciones booleanas unión (∪), intersección (∩) y diferencia

En la figura se muestra la creación de un objeto (R3) mediante el modelado CSG, este

se obtiene mediante la operación booleana diferencia entre los objetivo (R2) y (R1), los

cuales a su vez son creados a partir de la operación booleana intersección de las primitivas

(P4) y (P3) y la operación booleana unión entre (P2) y (R0) respectivamente. Además el

12
objeto (R0) también representa un subárbol binario del árbol original, creado a partir de la

operación booleana unión entre las primitivas (P1) y (P0).

2. Productos (aplicativo, video, etc.)

2.1. Aplicativo 1

Godot

Es un motor de juego multiplataforma, colección de herramientas y tecnologías las

cuales son útiles para el desarrollo de juegos, tanto en 2D como 3D. Cuenta con las siguientes

características:

● Fuente abierta: Debido a que cualquiera que sepa programar podrá contribuir

corrigiendo errores y trabajando con los colaboradores.

● Facilidad de programación: Se tiene opciones de lenguaje como GDScript, C++ y C#

8.0.

● Despliegue multiplataforma: Los juegos podrán ser desplegados en plataformas de

escritorio (Windows, macOS,...), plataformas móviles (iOS y Android), consolas y

web.

● Editor multiplataforma: Se pueden crear juegos en cualquier sistema operativo de

escritorio como lo son Windows, macOS, Linux y *BSD.

Por otro lado, CSG es una herramienta importante para los diseñadores de niveles en

Godot, cuyo propósito es usarlo durante la creación del prototipo de nivel, el cual es una

técnica que en base a la combinación de primitivas crea versiones sencillas de las formas más

comunes. Haciendo uso del CSG podemos desarrollar casi en su totalidad un juego sin la

necesidad de contratar a artistas de entorno 3D ni demorando demasiado tiempo ( Linietsky,

2018). CGS en Godot también se admite los siguientes nodos:

● CSGBox

● CSGCylinder (admite cono)

13
● CSGSphere

● CSGTorus

● CSGPolygon

● CSGMesh

Fig 9. Formas de Godot

En la imagen anterior se muestra cómo es que se ven las distintas formas en Godot.

Así mismo, las operaciones que se permiten son las que se mencionan en este informe.

Fig 10. Unión, intersección y resta

Según el autor Linietsky (2018), cada nodo CSG primero procesará a sus nodos hijos

y operaciones (unión, intersección o sustracción) en orden de árbol y los aplicará uno por

uno. Existe también un nodo CSGCombiner, que es una forma vacía que unirá solo nodos

secundarios.

14
2.2. Aplicativo 2

Blender

Blender es un software libre multiplataforma dedicado especialmente al modelado,

iluminación, renderizado, animación y creación de gráficos 3D. Brinda la posibilidad de

cambiar la posición, el tamaño y la orientación de un elemento, animar a un personaje o a un

objeto sólido. Se ha popularizado porque es una herramienta muy usada para desarrollar

videojuegos desde cero, gracias a la versatilidad y compatibilidad con otros programas de

creación y motores de videojuegos tales como Unreal Engine o Unity además de poseer su

propio motor de juegos llamado Blender Game Engine.

Programa

Fig 11. Cilindro Fig 12. Cilindro rotado

Primero se inserta el cilindro que se muestra en la Fig. 11, siguiente a eso se inserta el

cilindro rotado como en la Fig.12.

15
Fig 13. Cilindro con la operación booleana Fig 14. Nuevo cilindro

Al tener los dos cilindros ubicados se aplica la operación booleana de unión, dando

como resultado el objeto de la Fig. 13. Se inserta un nuevo cilindro en la posición

correspondiente como se muestra en la Fig.14.

Fig 15. Aplicación de la operación booleana de unión Fig 16. Cubo

Seguido de ello se aplica la operación booleana de unión entre la Fig. 14, dando como

resultado el objeto de la Fig. 15. Por último se agrega un cubo en la posición inicial como se

muestra en la Fig. 16.

16
Fig 17. Cubo hueco

Finalmente se aplica la operación booleana de intersección entre la Fig. 15 y la Fig.

16, dando como resultado la imagen de la Fig. 17. Siendo esta un cubo hueco con la forma de

la composición de los cilindros de la Fig. 16..

2.3. Aplicativo 3

OpenSCAD

OpenSCAD es un software CAD gratuito y de código abierto que permite crear

modelos 3D sólidos. Destinado al público programador experimentado ya que es un

modelador 3D basado en scripts que emplea un lenguaje propio y permite solo previsualizar

una vez se haya codificado en el lenguaje del modelador 3D. OpenSCAD proporciona dos

técnicas principales de modelado; la geometría sólida constructiva (CSG) y la extrusión de

contornos 2D (Alicia, M. 2020).

PROGRAMA

El programa mostrado a continuación fue desarrollado por el ponente Juan Gonzales

en el curso Diseño de piezas con OpenScad, Universidad Carlos III de Madrid, España.

FUENTE:

http://www.iearobotics.com/wiki/index.php?title=Dise%C3%B1o_de_piezas_con_OpenScad

17
PRIMITIVAS

Fig 18. Primitiva Cilindro (cylinder)

Fig 19. Primitiva Cubo (cube)

CODIFICACIÓN:
//-- Ejemplo sencillo de como utilizar los modulos

use <rueda_simple.scad>

//-- Chasis del cohe

translate([30,0,0])

cube([100,60,10],center=true);

//-- Rueda delantera izquierda

translate([0,-30,0])

rotate([90,0,0])

rueda_simple();

//-- Rueda trasera izquierda

translate([60,-30,0])

rotate([90,0,0])

18
rueda_simple(grosor=20, diametro=50);

//-- Lado derecho del coche. Es simetrico con respecto

//-- al izquierdo

mirror([0,1,0]) {

//-- Rueda delantera derecha

translate([0,-30,0])

rotate([90,0,0])

rueda_simple();

//-- Rueda trasera derecha

translate([60,-30,0])

rotate([90,0,0])

rueda_simple(grosor=20, diametro=50);

Fig 20. Coche simple empleando primitivas cubo y cilindros

Para la realización del programa se empleó la construcción de las ruedas a través de

un módulo para su reutilización, en ella se emplearon las primitivas de cilindro y la operación

booleana diferencia. A partir de ello se empleó este módulo de rueda simple para la ubicación

de cada una de las ruedas de nuestro vehículo a través de las transformaciones de rotación y

traslación para cada rueda del coche. Finalmente para la creación del chasis del vehículo se

19
empleó la primitiva cubo y la transformación traslación para ubicarlo en el centro de las

ruedas.

3. Conclusiones

4. Bibliografía

Quiroa, M. (2022, 6 julio). Árbol binario. Economipedia.

https://economipedia.com/definiciones/arbol-binario.html

Alicia, M. (2020, 22 junio). OpenSCAD, un modelador 3D gratuito y de código

abierto. 3Dnatives. https://www.3dnatives.com/es/openscad-modelador-3d/

Diseño de piezas con OpenScad - WikiRobotics. (s. f.).

http://www.iearobotics.com/wiki/index.php?title=Dise%C3%B1o_de_piezas_

con_OpenScad

Ramos, R. (s/f). Esquemas de Modelado Sólido. Uniovi.es.

http://di002.edv.uniovi.es/~rr/Tema8.pdf

20
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

“DECANA DE AMÉRICA”

FACULTAD DE INGENIERÍA DE SISTEMAS E INFORMÁTICA

EP INGENIERÍA DE SISTEMA

PROYECTO

Modelos locales de iluminación

Curso : Computación Visual

Docente : Johnny Robert Avendaño Quiroz

Grupo :8

Sección :1

Integrantes :

Chinchay Epiquin Rodrigo Francisco 20200166

Huaman Ramirez, Ana Cristina 20200179

Huaman Flores Yan Franco 20200044

Anicama Espinoza, Nicolas Leonardo 20200060

2022 - I
1. Introducción

La luz es uno de los fenómenos más curiosos de la naturaleza y es probablemente

la primera experiencia que tienen los seres humanos al nacer. La luz ha sido estudiada a lo

largo de la historia de nuestra civilización y muchos han sido los teóricos que han

debatido su origen y naturaleza.

Con el pasar del tiempo y la rápida evolución de la ciencia y tecnología se hizo

posible el invento de la fotografía, el cine, las computadoras y con estas la aparición de

los gráficos por computadoras. Cuando los gráficos por computadora se desarrollaron por

primera vez, sus creadores trataron de imitar| a los fotógrafos y el objetivo de su

invención era principalmente militar.

Los gráficos por computadoras en la actualidad se han extendido a casi todas las

ciencias que estudia el hombre. Se utiliza en la elaboración de herramientas para la

enseñanza, en el diagnóstico y entrenamiento de médicos, en operaciones asistidas por

computadora, en la realidad aumentada, visualización científica y desarrollo de

videojuegos.

Para el presente informe se trabajará la iluminación local o también conocida

como iluminación orientada a objetos la cual es un tema dentro de la computación visual

y como instrumento se va a emplear la API OpenGL que proporciona un gran conjunto

de funciones que posibilitan la manipulación de gráficos e imágenes 3D y 2D.

2
2. Objetivos

2.1. Objetivo general

Aplicar el modelo de iluminación local en la API OpenGL.

2.2. Objetivos específicos

● Analizar el modelo local de iluminación y los conceptos anexos a él.

● Identificar los diferentes tipos de modelos de iluminación local y

establecer sus diferencias.

3. Fuentes de iluminación

Las fuentes de luz permiten diferentes formas de introducir luz en escenas

gráficas. La propiedad de tipo de luz define qué tipo de fuente de luz se está usando.

Poseen características como espectro de emisión (color), una geometría básica (posición y

orientación), intensidad o función de luminancia y atenuación. Pueden ser:

3.1. Puntual

Las fuentes puntuales emiten luz desde un solo punto en todas las

direcciones, y la intensidad de la luz disminuye con la distancia. Un ejemplo de

fuente puntual es una bombilla independiente.

3.2. Direccional

Una fuente direccional (o fuente distante) ilumina uniformemente una

escena desde una dirección. A diferencia de una fuente puntual, la intensidad de la

luz producida por una fuente direccional no cambia con la distancia, ya que la

fuente direccional se trata como si estuviera extremadamente lejos de la escena.

Un ejemplo de fuente direccional es la luz solar.

3
3.3. Spotlight

Un foco produce un cono de luz dirigido . La luz se vuelve más intensa

cuando se acerca a la fuente de luz del foco y al centro del cono de luz. Un

ejemplo de foco es una linterna.

3.4. Ambiental

Las fuentes de luz ambiental iluminan los objetos incluso cuando no hay

ninguna otra fuente de luz. La intensidad de la luz ambiental es independiente de

la dirección, la distancia y otros objetos, lo que significa que el efecto es

completamente uniforme en toda la escena. Esta fuente asegura que los objetos

sean visibles incluso en completa oscuridad.

4. Interacciones de iluminación

En los gráficos por computadora, la luz generalmente consta de múltiples

componentes. El efecto general de una fuente de luz sobre un objeto está determinado por

la combinación de las interacciones del objeto con estos componentes. Los tres

componentes principales de iluminación son difuso, ambiental y especular.

4.1. Difuso

La iluminación difusa o reflexión difusa es la iluminación directa de un

objeto mediante una cantidad uniforme de luz que interactúa con una superficie de

dispersión de luz . Después de que la luz incide sobre un objeto, se refleja en

función de las propiedades de la superficie del objeto, así como del ángulo de la

luz entrante. Esta interacción es el principal contribuyente al brillo del objeto y

forma la base de su color.

4
4.2. Ambiente

Como la luz ambiental no tiene dirección, interactúa uniformemente en

todas las superficies, con su intensidad determinada por la fuerza de las fuentes de

luz ambiental y las propiedades de los materiales de la superficie de los objetos, es

decir, sus coeficientes de reflexión ambiental .

4.3. De espejo

El componente de iluminación especular da brillo y reflejos a los objetos.

Esto es distinto de los efectos de espejo porque otros objetos en el entorno no son

visibles en estos reflejos. En cambio, la iluminación especular crea puntos

brillantes en los objetos según la intensidad del componente de iluminación

especular y el coeficiente de reflexión especular de la superficie.

5. Modelos de iluminación

Los modelos de iluminación se utilizan para replicar efectos de iluminación en

entornos renderizados donde la luz se aproxima en función de la física de la luz. Sin

modelos de iluminación, replicar los efectos de iluminación tal como ocurren en el mundo

natural requeriría más potencia de procesamiento que la práctica para los gráficos por

computadora. El propósito de este modelo de iluminación es calcular el color de cada

píxel o la cantidad de luz reflejada para diferentes superficies de la escena.

Existen dos modelos principales de iluminación, iluminación orientada a objetos e

iluminación global. Se diferencian en que la iluminación orientada a objetos considera

cada objeto individualmente, mientras que la iluminación global mapea cómo la luz

interactúa entre los objetos. Actualmente, los investigadores están desarrollando técnicas

de iluminación global para replicar con mayor precisión cómo la luz interactúa con su

entorno.

5
La iluminación local, también conocida como iluminación orientada a objetos, se

define asignando una sola fuente de luz a un solo objeto. Esta técnica es rápida de

calcular, pero a menudo es una aproximación incompleta de cómo se comportaría la luz

en la escena en la realidad. A menudo se aproxima sumando una combinación de luz

especular, difusa y ambiental de un objeto específico. Los dos modelos de iluminación

local predominantes son los modelos de iluminación Phong y Blinn-Phong.

5.1. Modelo de iluminación Phong

El modelo de Phong asume que la intensidad de cada píxel es la suma de la

intensidad debida a la iluminación difusa, especular y ambiental. Este modelo

tiene en cuenta la ubicación de un espectador para determinar la luz especular

utilizando el ángulo de la luz que se refleja en un objeto. El coseno del ángulo se

toma y se eleva a una potencia decidida por el diseñador. Con esto, el diseñador

puede decidir qué tan amplio desea resaltar en un objeto; debido a esto, el poder se

llama valor de brillo. El valor de brillo está determinado por la rugosidad de la

superficie donde un espejo tendría un valor de infinito y la superficie más rugosa

podría tener un valor de uno. Este modelo crea un resaltado blanco de aspecto

más realista basado en la perspectiva del espectador.

5.2. Modelo de iluminación Blinn-Phong

El modelo de iluminación Blinn-Phong es similar al modelo Phong, ya que

utiliza luz especular para crear un resaltado en un objeto en función de su brillo.

El Blinn-Phong difiere del modelo de iluminación Phong, ya que el

modelo Blinn-Phong utiliza el vector normal a la superficie del objeto y a medio

camino entre la fuente de luz y el espectador.

Este modelo se utiliza para tener una iluminación especular precisa y un

6
tiempo de cálculo reducido. El proceso lleva menos tiempo porque encontrar la

dirección del vector de luz reflejada es un cálculo más complicado que calcular el

vector normal a mitad de camino. Si bien esto es similar al modelo de Phong,

produce diferentes resultados visuales, y el exponente de reflexión especular o el

brillo pueden necesitar modificaciones para producir una reflexión especular

similar.

Figura 1

Modelo de iluminación phong y blinn-phong

Nota. Brad Smith (2006)

6. Modelo de iluminación local en OpenGL

Los modelos de iluminación son técnicas o métodos utilizados para simular la interacción

física que existe entre los objetos con los rayos de luz. Estos métodos mejoran el aspecto de las

imágenes ya que consiguen efectos más realistas. Algunos factores a tomar en cuenta son:

● Cualquier objeto que está en la escena es fuente de luz.

● La luz puede ser emitida o reflejada

● Los emisores serán caracterizados por ser una fuente de luz

OpenGL calcula la iluminación presente en cada vértice, posteriormente obtiene una

combinación de colores rgb que se emplea para otorgar el color a los polígonos o aristas. El valor

que se obtiene en cada vértice resulta de sumar 5 parámetros:

7
● Emisión (E)

● Luz ambiental global (A1)

● Luz ambiental específica del polígono (A2)

● Reflexión difusa (D)

● Reflexión especular (S)

De esta manera se obtiene la siguiente fórmula matemática:

I = E + A1 + A2 + D + S

La función glEnable permite activar o desactivar la iluminación, así como activar o

desactivar cada fuente de luz individualmente.

6.1. Emisión

La emisión es un color que se puede asociar a cada polígono y que sirve

para asignar un color a los mismos independientemente de las fuentes de luz, ya

que esta componente está ideada para modelar la luz emitida (no reflejada) por los

objetos. OpenGL mantiene en su estado interno un color de emisión (E) definido

por la terna RGB.

E = (er, eg, eb)

Dicho color se cambia con la función glMaterial

6.2. Luz ambiental global

Como el modelo de iluminación es local, las partes que no están

iluminadas por una fuente de luz se verían totalmente negras. Para evitar esto, hay

una iluminación uniforme que es el promedio de la luz reflejada por los objetos.

Cada fuente de luz puede aportar luz ambiental a una escena. Además, puede

haber otra luz ambiental que no provenga de ninguna fuente en particular.

OpenGL permite especificar un color ambiental global usando la función

8
glLightModel.

Para especificar la intensidad RGBA de la luz ambiental global, se usa el

parámetro GL_LIGHT_MODEL_AMBIENT de la siguiente forma:

GLfloat ambientColor[]={0.2f,0.2f,0.2f,1.0f};

glLightModelfv(GL_LIGHT_MODEL_AMBIENT,ambientColor);

Los valores asignados a ambientColor son valores predeterminados para

GL_LIGHT_MODEL_AMBIENT. Estos números producen una pequeña cantidad

de luz ambiental, incluso si no agrega una fuente de luz específica a su escena, aún

puede ver los objetos en la escena.

La componente ambiental global es:

𝐴1 = (𝑔𝑅, 𝑔𝐺, 𝑔𝐵, 𝑔𝐴)

9
Figura 2

Ejemplo de iluminación ambiental global

Nota.Yu-Chung J. (2005)

6.3. Luz ambiental específica del polígono

Los cálculos de iluminación se realizan para todos los polígonos, ya sea

que estén orientados hacia adelante o hacia atrás. Generalmente se configuran las

condiciones de iluminación teniendo en cuenta los polígonos de forma frontal, la

parte de atrás generalmente no se iluminan correctamente y es posible que se

desee proporcionar una descripción de material diferente para las caras

posteriores.

OpenGL permite sumar una componente ambiental que depende de las

características de las fuentes de luz y del material asignado al polígono. Cuando

10
enciende la iluminación de dos lados con:

glLightModeli(GL_LIGHT_MODEL_TWO_SIDE,GL_TRUE);

OpenGL invierte la parte de atrás de las superficies normales de los

polígonos, esto significa que las superficies normales de los polígonos frontales y

posteriores visibles miran hacia el observador, en lugar de apuntar hacia afuera.

Como resultado, todos los polígonos se iluminan correctamente. Sin embargo,

estas operaciones adicionales generalmente hacen que la iluminación de dos lados

sea más lenta que la iluminación de un solo lado predeterminada.

Para cada fuente de luz activa, podemos especificar con glLight un color

ambiente, que llamaremos alri, algi, albi; donde i varía desde 0 hasta n-1, siendo n el

número de fuentes de luz activas.

Por otro lado, con la función glMaterial, podemos asignar un color

ambiente que se usará para los polígonos que se dibujen a continuación (hasta que

se cambie). Llamaremos amr, amg, amb a dicho color ambiente.

La componente ambiental local es:

𝐴2 = (𝑎𝑚𝑟 ∑ 𝑎𝑙𝑟𝑖, 𝑎𝑚𝑔 ∑ 𝑎𝑙𝑔𝑖, 𝑎𝑚𝑏 ∑ 𝑎𝑙𝑏𝑖)


𝑖 𝑖 𝑖

11
Figura 3

Ejemplo de iluminación ambiental específica de un polígono

Nota. Yu-Chung J. (2005)

6.4. Reflexión difusa

Las reflexiones difusas según D. Foley et al. (1996) vienen a ser la forma

como los rayos de luz incidentes se distorsionan al momento de ser reflejados en

una superficie rugosa , opaca o mates; es decir, que los rayos reflejados ya no son

paralelos sino se reflejan la luz con igual intensidad en todas las direcciones. .

También es conocida como reflexión lambertiana.

Haciendo una explicación vectorial para una superficie , la brillantez

depende únicamente del ángulo θ entre la dirección 𝐿 a la fuente luminosa y la

normal a la superficie 𝑁. Podemos mostrarlo en la siguiente imagen:

12
Figura 4

Representación de la reflexión difusa

Nota. Intensidad de luz en el punto.D. Foley et al. (1996)

Para explicar este fenómeno entran en juego dos factores. En primer lugar,

se ilustra en la figura 4 que un haz que intercepta una superficie cubre una área

cuyo tamaño es inversamente proporcional al coseno del ángulo θ entre el haz y 𝑁

. Si el haz tiene una área diferencial dA de sección transversal infinitesimalmente

pequeña , entonces el haz intercepta un área dA/cos θ en la superficie. Entonces

para un haz de luminoso incidente, la cantidad de energía luminosa que cae en dA

es proporcional a cos θ. Esto se aplica a cualquier superficie, independientemente

de su material. En segundo lugar debemos considerar la cantidad de luz que ve el

observador. la superficies lambertianas tiene la propiedad, muchas veces conocidas

como ley de Lambert, de que la cantidad de luz que reflejan de una área diferencial

unidad dA hacia el observador es directamente proporcional al coseno del ángulo

entre la dirección al observador y 𝑁. Como la cantidad de área de la superficie que

se observa es inversamente proporcional al coseno del ángulo estos dos factores

mencionados se cancelan.

13
Figura 5

Fenómeno de la reflexión lambertiana

Nota. La luz que incide en dA es directamente proporcional a cos(θ). Cuanto más

grande es θ, la luz se distribuye en más superficie, y por tanto menos llega

por unidad de superficie. D. Foley et al. (1996)

6.5. Reflexión especular

La reflexión especular según muchos autores viene a ser la manera de

cómo los rayos de luz llegan de forma paralela a la superficie plana y muy lisa

provocando que no se distorsionen los ángulos a reflejar, es decir, como llegaron

de forma paralela los rayos reflejados también son paralelos. En la computación

visual provoca brillos intensos en ciertas zonas.

Haciendo una explicación vectorial la intensidad del componente de luz

especular se basa en el coseno del ángulo entre el medio vector y la normal.

Podemos mostrarlo en la siguiente imagen:

Figura 6

Representación de la reflexión especular

14
Nota. Reflexión especular. D. Foley et al. (1996)

Por ejemplo para poder clarificar un poco más el tema de la reflexión

especular se puede observar una manzana con una luz blanca brillante donde el

punto máximo de brillo es ocasionado por la reflexión especular donde la manzana

no aparecede color rojo (solo el punto brillante) sino de color casi blanco.

Figura 7

Ejemplo de la reflexión especular

Nota. Obtenido de Internet .

https://www.aulafacil.com/uploads/cursos/5843/19213_asorc.es.png

7. Posición de las fuentes de luz

Las fuentes de luces en OpenGL se realizan con la función glLight. La construcción de estas

fuentes son con vectores de dirección que apuntan hacia estas, asumiendo que se encuentran a

una distancia infinita. Asimismo, la posición de las fuentes está determinada por dos ángulos que

15
expresan la longitud y latitud del objeto, esta se expresa en coordenadas esféricas. Además hay

que tener en cuenta la transformación dada por la matriz modelview una vez hecha la llamada.

Por eso es necesario especificar la posición cuando la matriz modelview es la matriz identidad.

8. Sombreado en OpenGL

En el aspecto del sombreado en OpenGL, este presenta dos tipos: Flat Shading y

Gouraud Shading. En el Flat Shading o sombreado plano, los polígonos que conforman el

sólido geométrico son coloreados de acuerdo al color que se le asigna a su vértice. Por el

otro lado, el Gouraud Shading hace referencia al sombreado suave, para el coloreado de

los pixeles se evalúa el MI de los vertices del poligono, luego se realiza interpolación

lineal y se obtiene un RGB para cada pixel.

La función en OpenGL que se emplea es glShadeModel( ), en caso no se asegure

ningún parámetro, el efecto por defecto será el Gouraud Shading.

Un ejemplo en OpenGL aplicando los dos métodos:

Figura 8

Dos esferas empleando glShadeModel( )

Nota: La esfera de la derecha está con Flat shading y la de la izquierda con Gouraud

Shading. Tomado de “XoaX.net”, 2009, https://xoax.net/sub_cpp/crs_opengl/Lesson5.

16
Como se observa en la anterior figura, en el Flat Shading se observa más los

polígonos que conforman el sólido. Mientras que, en el Gouraud Shading da mejor

sensación a una esfera.

9. Implementación

A continuación observará la ejecución de un programa el cual utiliza los conceptos

mencionados anteriormente.

Figura 9

Ejemplo de iluminación tetera

Nota. Elaboración propia

9.1. Algoritmo utilizado

9.1.1. Luz

void luz(){

GLfloat mat_specular[] = { 1.0, 1.0, 1.0, 1.0 };

GLfloat mat_diffuse[] = { 0.8f, 0.8f, 0.8f, 1.0f };

GLfloat mat_ambient[] = { 0.7f, 0.7f, 0.7f, 1.0f };

GLfloat mat_shininess[] = { 50.0 };

17
GLfloat light_position[] = { 1.0, 1.0, 1.0, 0.0 };

GLfloat light_ambient[] = { 0.0f, 0.0f, 0.0f, 1.0f };

GLfloat light_diffuse[] = { 1.0f, 1.0f, 1.0f, 1.0f };

GLfloat light_specular[] = { 1.0f, 1.0f, 1.0f, 1.0f };

glClearColor (0.0, 0.0, 0.0, 0.0);

glShadeModel(GL_SMOOTH);

glMaterialfv(GL_FRONT, GL_DIFFUSE, mat_diffuse);

glMaterialfv(GL_FRONT, GL_SPECULAR, mat_specular);

glMaterialfv(GL_FRONT, GL_SHININESS, mat_shininess);

glMaterialfv(GL_FRONT, GL_AMBIENT, mat_ambient);

glLightfv(GL_LIGHT0, GL_AMBIENT, light_ambient);

glLightfv(GL_LIGHT0, GL_DIFFUSE, light_diffuse);

glLightfv(GL_LIGHT0, GL_SPECULAR, light_specular);

glLightfv(GL_LIGHT0, GL_POSITION, light_position);

glEnable(GL_LIGHT0);

glEnable(GL_NORMALIZE);

glEnable(GL_COLOR_MATERIAL);

glEnable(GL_LIGHTING);

glEnable(GL_DEPTH_TEST);

18
}

9.1.2. Display

void display(){

glClear (GL_COLOR_BUFFER_BIT |

GL_DEPTH_BUFFER_BIT);

glColor3f(1,1,0);

glutSolidTeapot(1);

glFlush ();

9.1.3. Reshape

void reshape (int w, int h){

glViewport (0, 0, (GLsizei) w, (GLsizei) h);

glMatrixMode (GL_PROJECTION);

glLoadIdentity();

if (w <= h)

glOrtho (-1.5, 1.5, -1.5*(GLfloat)h/(GLfloat)w,

1.5*(GLfloat)h/(GLfloat)w, -10.0, 10.0);

else

glOrtho (-1.5*(GLfloat)w/(GLfloat)h,

1.5*(GLfloat)w/(GLfloat)h, -1.5, 1.5, -10.0, 10.0);

glMatrixMode(GL_MODELVIEW);

glLoadIdentity();

19
9.1.4. Main

int main(int argc, char** argv){

glutInit(&argc, argv);

glutInitDisplayMode (GLUT_SINGLE | GLUT_RGB |

GLUT_DEPTH);

glutInitWindowSize (600, 500);

glutInitWindowPosition (100, 100);

glutCreateWindow("Iluminación Local - Grupo 8");

luz();

glutDisplayFunc(display);

glutReshapeFunc(reshape);

glutMainLoop();

return 0;

20
10. Conclusiones

Tal y como hemos podido comprobar al utilizar los modelos de iluminación en

OpenGL correctamente se ha generado un efecto tridimensional y de realismo a los

objetos utilizados, como en nuestro caso a la tetera amarilla se le aplicó la iluminación y

color de emisión, ambiental, difusa y especular.

Además, tras el análisis de sus respectivos conceptos, podemos deducir que cada

tipo del modelo de iluminación local se diferencian principalmente en la intensidad de la

reflexión especular ya que ambos utilizan diferente ángulo o vector de la representación

gráfica de la reflexión especular.

21
11. Bibliografía.

D. Foley, J., Van Dam, A., K.Feiner, S., F.Hughes, J. & L.Philips, R. (1996). Introducción

a la Graficación por Computador (1.a ed.) [PDF]. Addisson-Wesley Iberoamericana.

https://es.scribd.com/document/424950120/Introduccion-a-La-Graficacion-Por-Computador-Fole

y-Van-Dam-Feiner-Hughes-Phillips

Práctica 3. El Modelo de Iluminación Local (MIL) de OpenGL. (s.f). Carlos Ureña

Almagro. https://lsi2.ugr.es/curena/doce/vr/pracs.ext/03/

Lesson 5 : Shading Models. (s.f). Xoax. https://xoax.net/sub_cpp/crs_opengl/Lesson5/

Brad Smith (2006). Comparación de los modelos de Blinn y Phong.[Figura]. Wikipedia.

https://de.wikipedia.org/wiki/Blinn-Beleuchtungsmodell#/media/Datei:Blinn_phong_comparison.

png

Alcolea, R. (2011). MÓDULO DE ILUMINACIÓN PARA VISUALIZACIÓN

DIRECTA DE VOLUMEN. Universidad de las Ciencias Informáticas.

https://repositorio.uci.cu/jspui/bitstream/ident/TD_04789_11/1/TD_04789_11.pdf

Yu-Chung J. (2005). Multiple views with GLUT

https://www.evl.uic.edu/julian/cs488/2005-11-10/index.html

LearnEveryone (25 de Marzo de 2015). Tema: 3D PROGRAMMING OPENGL-GLUT

LIGHTING[Video]. Youtube

https://youtu.be/FNf9D555H28

22
Universidad Nacional Mayor de San Marcos
Universidad del Perú. Decana de América
ÁREA DE INGENIERÍA
FACULTAD DE INGENIERÍA DE SISTEMAS E INFORMÁTICA
EP DE INGENIERÍA DE SISTEMAS PERIODO ACAD. 2022-2

Curso : Computación Visual


Docente : Avendaño Quiroz, Johnny Robert
Integrantes : Camacho Flores, Arnold Smith
Murillo Quispe, Pedro Alessandro
Arce Esteban, Diego Antonio
Portugal De la Cruz, Marko Joel
Huaroc Ricse, Paul
Tema : Modelos de iluminación global
Sección : 1
Grupo : 7

Lima – Perú, 2022

1
Índice
Introducción 3

1. Definiciones Previas 4
1.1 Luz: 4
1.2 Fuentes luminosas 7
1.3 Iluminación global 7

2. Técnicas de Iluminación Global 7


2.1 Radiosidad 7
2.2 Ray tracing 13
2.2.1 Introducción 13
2.2.2 Evolución Histórica del Ray Tracing 13
2.2.3 Presentación conceptual de Ray Tracing 17

3. Ventajas y desventajas de los modelos presentados 24

4. Software de Aplicación 25
4.1 OpenGL 25
4.2 Pov-Ray 25
4.3 Unity 25

Conclusiones 26

Referencias 27

2
Introducción

En la vida cotidiana podemos apreciar cómo la incidencia de luz sobre la materia


genera una serie de efectos que pueden ser percibibles por un observador y son
justamente estos efectos los que se buscan simular por medio de la computación visual,
para ello se aplican un conjunto de algoritmos que permitan obtener los mejores
resultados en términos de costos y eficiencia. La iluminación global se puede entender
como un sistema que se encarga de modelar la totalidad de luz que incide sobre un
objeto o un conjunto de ellos, ya sea por iluminación directa o indirecta, es decir, por la
luz proveniente de la propia fuente generadora o de la interacción entre los objetos.

En este trabajo revisaremos algunas definiciones previas para poder entender de


manera general los modelos de iluminación global, así mismo se hablará sobre la
evolución histórica asociada al ray tracing y cómo los métodos de implementación han
ido evolucionado con el tiempo hasta llegar a la actualidad, donde las grandes
compañías implementan estos algoritmos para producir unos resultados muy realistas
que sean del agrado de su público objetivo, ya sea en el mundo de la cinematografía o
los videojuegos por medio de las potentes GPUs. Nos centraremos principalmente en
dos modelos: ray tracing y radiosidad, donde explicaremos su marco teórico,
funcionalidad y las distintas ventajas y desventajas que presentan.

3
1. Definiciones Previas
1.1 Luz:
La luz es un fenómeno que, durante siglos, se ha tratado de comprender y ha
sido el origen de diversas teorías que han tratado de explicar su comportamiento; sin
embargo, en el actual informe podemos definirla como la Real Academia Española
(RAE) lo hace, un agente físico que hace visibles los objetos.

Propiedades de la luz:

➢ Reflexión: La reflexión consiste en el cambio de dirección, reflejo o rebote, del


haz luminoso cuando interactúa con una superficie; además, dependiendo del
tipo de superficie con el que interactúa, el haz de luz se refleja en mayor o
menor medida. Se clasifican dos tipos de reflexión: reflexión especular, se
produce con superficies lisas permitiendo que se forme una imagen del objeto
que esté frente a él, y reflexión difusa, se produce con superficies rugosas.

Figura 1: Tipos de reflexión de la luz.

➢ Absorción: La absorción hace referencia a la capacidad de los cuerpos para


poder absorber la luz y convertirla en calor. La absorción depende de dos
factores, el tipo de luz y el tipo de objeto con el que interactúa; por lo tanto, se
explicará la actual propiedad haciendo referencia al uso de luz blanca, luz
compuesta por la superposición de todo el espectro de la luz visible, y
clasificando a los objetos como transparentes, translúcidos y opacos.

4
Figura 2: El espectro electromagnético.

Los cuerpos transparentes permiten que gran parte de la luz los atraviese, por lo
que no presentan de mucha absorción y dejan ver lo que hay detrás de ellos; los
cuerpos translúcidos permiten que solo una parte de la luz los atraviese, por lo
que presentan un poco más de absorción y generan una imagen difusa de lo que
se encuentra detrás de ellos; por último, los cuerpos opacos, no permiten el paso
de la luz y la absorben en gran medida.

Figura 3: Tipos de objetos según la magnitud de absorción de luz que poseen.

Además, existe una absorción selectiva de la luz visible, un objeto negro absorbe
toda la luz mientras que el blanco la refleja toda; entonces ¿qué pasa con los
objetos de colores diferentes al negro y blanco? Dichos objetos absorben una
parte del espectro visible y reflejan la otra parte para que sea percibida por el ojo
humano (La Gafería, 2019).

5
Figura 4: Absorción selectiva.

➢ Transmisión: La transmisión ocurre cuando la luz viaja a través de un medio.


Se clasifican tres tipos de transmisión: transmisión directa, cuando no se
producen cambios en la dirección o calidad de la luz, transmisión difusa, cuando
la luz es desviada en muchas direcciones, y transmisión selectiva, cuando la luz
atraviesa un objeto de color y solo una parte va a ser transmitida por ese objeto
(generalmente el color del objeto).

Figura 5: Tipos de transmisión de la luz.

➢ Refracción: La refracción es el cambio brusco de dirección que sufre la luz al


cambiar de medio. Un ejemplo claro es el de la cuchara dentro de un vaso de
agua.

Figura 6: Tipos de refracción de la luz.

6
1.2 Fuentes luminosas

Las fuentes de luz o luminosas son aquellas fuentes que iluminan su entorno; es
decir, alumbran, dan luz o bañan de resplandor un objeto o lugar (RAE, s.f.). Las
fuentes de luz se pueden clasificar en primarias o secundarias.

➢ Fuentes primarias o directas: Aquellas fuentes que producen su propia luz. Se


clasifican en fuentes naturales, como el sol, y fuentes artificiales, como una
lámpara.
➢ Fuentes secundarias o indirectas: Aquellas fuentes que solo emiten luz si están
iluminadas por otra fuente de luz. Ejemplo: La luna.

1.3 Iluminación global

Según Sena, B. (2020) la iluminación global se refiere a “un conjunto de


técnicas que simulan parcial o completamente las interacciones de la luz con todos los
objetos que se encuentran en la escena”; es decir que, a diferencia de la iluminación
local, en la iluminación global se toman en cuenta los fenómenos de reflexión y
refracción de la luz. El sistema de Iluminación Global (GI) busca modelar la luz
indirecta dando origen a efectos que hacen que el mundo virtual se vea más real y
conectado (Unity, 2018). Algunas técnicas usadas para la elaboración de este tipo de
iluminación son:

➢ Radiosidad
➢ Ray Tracing

2. Técnicas de Iluminación Global

2.1 Radiosidad

La Radiosidad es una técnica de representación que se centra en la iluminación


global y trabaja para rastrear la forma en que la luz se propaga y difunde alrededor de
una escena. Este método se inició en 1984 poco después de la aparición del método
clásico de ray-tracing, proviene de la aplicación de la resolución de problemas de

7
transferencia de calor mediante métodos de elementos finitos a la generación de
imágenes sintéticas.

Figura 7: Diferencia en resultado de iluminación directa y Radiosidad

Se puede modelar más adecuadamente los efectos de iluminación si tenemos en


cuenta las leyes físicas que gobiernan las transferencias de energía radiante dentro de
una escena iluminada, Este método para el cálculo de los valores de color de los píxeles
se denomina generalmente modelo de radiosidad

En un inicio el método de radiosidad se incluyó para escenas con materiales


difusos donde se asume que la reflexión se puede representar por una constante,
independientemente de la dirección. Luego de un tiempo se introdujeron complementos
con el objetivo de manejar modelos más complejos.

Para implementar algún algoritmo de radiosidad, se calcula la cantidad de luz


que llega a cada punto de la escena lanzando rayos en todas direcciones y acumulando
la cantidad de luz recibida. Se almacena la luz por elemento de la escena y se puede
iterar el proceso para conseguir más rebotes de la luz.

Hemos de advertir que mientras esta técnica produce unas imágenes fantásticas,
los tiempos de render no son tan fantásticos, además de que también se ha de calcular la
solución de radiosidad de la escena. Sin embargo, esta técnica es fácil de configurar y

8
produce una iluminación muy eficaz, lo que es de incalculable valor al trabajar en el
mundo del diseño arquitectónico.

Propiedades del método de radiosidad:

- Brinda una solución de la iluminación global totalmente independiente del punto


de vista del observador
- Simula especialmente bien el comportamiento difuso de la luz permitiendo
obtener resultados realistas en la iluminación lograda. Por tanto, esto lo hace
ideal para la creación de entornos pre–iluminados para sistemas de realidad
virtual.
- Para aplicaciones interactivas,es muy adecuado, ya que al ser independiente del
punto de vista del observador, los resultados obtenidos pueden ser reutilizados
para visitas virtuales (walk–throughs) a través de la escena.

Ecuación de radiosidad

𝑁𝑒
𝐵𝑖 = 𝐸𝑖 + ρ𝑖 ∫ 𝐵𝑗𝐹𝑖𝑗𝑑𝐴𝑗
𝑗=1

Además se puede representar de forma que se note relación con ángulos y


puntos en la superficie, de la siguiente manera:

𝐿(𝑥', 𝑤') = 𝐸(𝑥', 𝑤') + ρ𝑥'∫ 𝐿(𝑥', 𝑤')𝐺(𝑥, 𝑥')𝑉(𝑥, 𝑥')𝑑𝐴

𝐿(𝑥', 𝑤') = 𝑟𝑎𝑑𝑖𝑎𝑐𝑖ó𝑛 𝑑𝑒 𝑢𝑛 𝑝𝑢𝑛𝑡𝑜 𝑒𝑛 𝑢𝑛𝑎 𝑠𝑢𝑝𝑒𝑟𝑓𝑖𝑐𝑖𝑒 𝑒𝑛 𝑢𝑛𝑎 𝑑𝑖𝑟𝑒𝑐𝑐𝑖ó𝑛 ω'

𝐸(𝑥', 𝑤') = 𝑟𝑎𝑑𝑖𝑎𝑐𝑖ó𝑛 𝑒𝑚𝑖𝑡𝑖𝑑𝑎 𝑑𝑒𝑠𝑑𝑒 𝑢𝑛 𝑝𝑢𝑛𝑡𝑜

∫... 𝑑𝐴 = 𝑆𝑢𝑚𝑎𝑟 𝑙𝑎 𝑐𝑜𝑛𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝑑𝑒 𝑙𝑎𝑠 𝑑𝑒𝑚á𝑠 𝑠𝑢𝑝𝑒𝑟𝑓𝑖𝑐𝑖𝑒𝑠 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑒𝑠 𝑒𝑛 𝑙𝑎 𝑒𝑠𝑐𝑒𝑛𝑎

ρ𝑥' = 𝑐𝑎𝑝𝑎𝑐𝑖𝑑𝑎𝑑 𝑑𝑒 𝑟𝑒𝑓𝑙𝑒𝑥𝑖ó𝑛 𝑑𝑒 𝑙𝑢𝑧 𝑑𝑒 𝑙𝑎 𝑠𝑢𝑝𝑒𝑟𝑓𝑖𝑐𝑖𝑒

𝐿(𝑥, 𝑤) = 𝑟𝑎𝑑𝑖𝑎𝑐𝑖ó𝑛 𝑒𝑛 𝑒𝑙 𝑝𝑢𝑛𝑡𝑜 𝑥 𝑒𝑛 𝑙𝑎 𝑑𝑖𝑟𝑒𝑐𝑐𝑖ó𝑛 ω (𝑑𝑒𝑠𝑑𝑒 𝑥 ℎ𝑎𝑐𝑖𝑎 𝑥')

𝐺(𝑥, 𝑤) = 𝑑𝑒𝑠𝑐𝑟𝑖𝑏𝑒 𝑙𝑎 𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑔𝑒𝑜𝑚é𝑡𝑟𝑖𝑐𝑎 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 2 𝑠𝑢𝑝𝑒𝑟𝑓𝑖𝑐𝑖𝑒𝑠 (1 𝑜 0)

9
𝑉(𝑥, 𝑤) = 𝑑𝑒𝑠𝑐𝑟𝑖𝑏𝑒 𝑙𝑎 𝑣𝑖𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑒𝑛𝑡𝑟𝑒 𝑥 𝑦 𝑥' (1 𝑜 0)

Figura 8: Representación de los componentes de la ecuación de la radiosidad .

Las ecuaciones que relacionan a 𝐿(𝑥', 𝑤') con 𝐸(𝑥', 𝑤') y ρ𝑥' para todos los
elementos son resueltas y las radiosidades resultantes se transforman para visualizar los
colores de las superficies. Debido a que sólo se calcula la iluminación difusa, los
colores de las superficies son independientes del punto de vista de la escena.

El 𝐿(𝑥', 𝑤') obtenido después de resolver el sistema de ecuaciones lineales es


sólo una aproximación de la radiosidad promedio, ya que raramente la radiosidad es
constante en cada elemento.No obstante, la diferencia entre 𝐿(𝑥', 𝑤') y el valor
promedio real de la radiosidad en el elemento es difícilmente visible en la práctica.

Factor de forma

El factor de forma se define como la fracción de energía que abandona a una


superficie y que alcanza a una segunda superficie.

Para su cálculo se toma en cuenta:

- La distancia entre las superficies (distancia entre los centros de los


parches) llamado “factor punto a punto” .
- La orientación relativa en el espacio entre las superficies ( ángulo entre
cada superficie con respecto a la normal ) conocido como “factor
Hemicubo”.

10
El método de radiosidad jerárquica

Este método reduce la complejidad inicial del método clásico de radiosidad


utilizando una subdivisión adaptativa de los elementos de la escena basada en la
distribución de la energía en la misma. Así, se tienen más elementos donde los cambios
de luz son más bruscos, consiguiendo muy buenos resultados por ejemplo en las zonas
próximas a las sombras. Sin embargo, este algoritmo tiene un coste computacional y de
almacenamiento elevado cuando las escenas aumentan su complejidad,
fundamentalmente por el cálculo de los factores de forma y el aumento del número de
elementos en la escena.

El método iterativo que se aplica usualmente es Gauss–Seidel, lo que equivale a


recorrer secuencialmente los elementos de la escena, acumulando en cada uno de ellos
la energía recibida por parte de los elementos de la escena con los que interactúa. Los
tres pasos típicos del método de radiosidad jerárquica sobre cada elemento de la escena
son: refinado (refinement), propagación de la energía recibida por el elemento
(gathering) y sincronización de su jerarquía (sweeping). Siendo el refinado el núcleo de
este método.Este método parte de un mallado de la escena más grueso que el de otros
métodos de radiosidad, refinando los elementos a posteriori durante el cálculo iterativo
de la radiosidad. Este refinamiento se hace de forma adaptativa en función de la energía
transportada por las distintas interacciones, creando una jerarquía de subdivisiones de
los elementos iniciales de la escena, con la correspondiente jerarquía de interacciones
asociada.

Figura 9: Estructura del método de radiosidad con subdivisión de superficies.

11
El método de radiosidad progresiva

El objetivo de esta técnica es obtener una imagen útil (con valor) después de
cada iteración. A diferencia del método jerárquico, el algoritmo progresivo en cada paso
se escoge el elemento que contribuye a la escena con más energía y su radiosidad es
distribuida entre los otros elementos (shooting), como se puede ver en la figura 10. Esto
hace que finalizada una iteración se tenga una estimación de la radiosidad de todos los
elementos de la escena.

Figura 10: (a) Acumulación de energía en un elemento (gathering); (b) disparo de

la energía de un elemento (shooting).

Los valores obtenidos corresponden al nivel de rebote, es decir, luego de la


primera iteración, tenemos la imagen con 1 nivel de rebote de la luz, luego de la
segunda iteración, tenemos la imagen con 2 niveles de rebote de la luz, y así
sucesivamente.

Figura 11: imágenes obtenidas con radiosidad progresiva tras 1, 2 y 3 iteraciones


respectivamente.

12
2.2 Ray tracing
2.2.1 Introducción

El Ray tracing o trazado de rayos es una técnica gráfica con la cual se obtienen
imágenes con efectos de luz hiperrealistas. Debido al elevado coste computacional
anteriormente era irrealizable en tiempo real. Con el paso del tiempo, gracias al
desarrollo tecnológico de las empresas productoras de GPUs, se tienen grandes avances
en la implementación de sistemas para el empleo del Ray tracing en tiempo real.

Mediante el uso de un algoritmo se trata de simular el camino de trayectoria de


un rayo de luz y la interacción de objetos virtuales generados en 3D. Este proceso
permite la representación de sombras, refacciones y reflejos más realistas parecidas a la
visión humana.

Está técnica se usaba en la renderización de imágenes digitales a través de una


pantalla representadas en película o en la televisión. En la actualidad se está
implementando está técnica poco a poco y de manera creciente en el uso de los
videojuegos.

2.2.2 Evolución Histórica del Ray Tracing

La puerta de Dürer

Todo inicia en el siglo XVI con el pintor Albrecht Dürer, una de las figuras más
importantes del Renacimiento de Europa del Norte, quien describe la puerta de Dürer, el
cual dibuja los contornos de un objeto al tener un hilo unido al extremo de un lápiz
óptico que un ayudante arrastra, este hilo viaja a través del marco de la puerta hasta
unirse a un gancho de pared.

13
Figura 12: Albrecht Dürer, la perspectiva, 1525

En el trazado de rayos el gancho funciona como centro de proyección que


representa la posición de la cámara, y el hilo crea un rayo, de esta forma realiza una
proyección de una imagen 3D en una superficie 2D

Arthur Appel

En 1968 publica el libro titulado “Some techniques for shading machine


rendering of solids” en el cual define el algoritmo RayCasting el cual es aplicado para
obtener imágenes de sólidos a partir de rayos lanzados desde un observador que pasan
por un plano perpendicular el cual estaba situado al frente del observador, esto con la
intención de determinar la visión, el sombreado y profundidad de estos objetos.

Figura 13: Explicación de RayCasting

Goldstein & Nagel

En 1971 publicaron el paper “3-D Visual Simulation” donde se utiliza la


simulación inversa del proceso fotográfico a través de rayos para crear imágenes
sombreadas de sólidos

14
Figura 14: Vista superior y lateral de la simulación visual de un coche de carreras (3-D Visual
Simulation)

Scott Roth

En 1976 Scott Roth hace la animación de un folioscopio para el curso de


gráficos por computadora de Bob Sproull en Caltech.

Figura 15: Flipbook creado en 1976 en Caltech

Turner Whitted

Fue la primera persona en mostrar cómo la idea de RayCasting podría ser


recursivo, de esta forma mostró la reflexión, las sombras y observó la refracción a través
de objetos transparentes usando un ángulo que dependía del índice de refracción del
objeto, fue el primero usar Ray Tracing para el Anti-Aliasing (suavizado), con ello

15
hacer posibles que los gráficos de computación sean mucho más sofisticados. De esta
forma Whitted clasifica a los rayos en dos grupos:

➢ Rayos primarios: Son los primeros rayos que genera el algoritmo. Tienen como
origen la posición del observador y atraviesan la cuadrícula que representa la
imagen
➢ Rayos secundarios: Es la intersección que se da cuando un rayo primario hace
contacto con un modelo cuyas propiedades favorecen el rebote de la luz, de este
tipo de rayos podemos encontrar: Rayos por reflexión de la luz y rayos por
refracción de la luz. Dentro de este grupo Whitted incluye un tipo de rayo que no
aparece en el comportamiento habitual de la luz el cual es conocido como
Shadow Ray.

Figura 16: Descripción de Ray Tracing: Implementación de un raytracer para la


evaluación de OpenCL Pag 37

Robert Cook, Thomas Porter y Loren Carpenter

En 1984 detallan cómo el Ray Tracing se podría aplicar a diferentes técnicas de


filmación comunes, como el desenfoque de movimiento, la profundidad de campo, las
penumbras. la traslucencia y las reflexiones borrosas, que hasta el momento eran
imposibles de lograr en los gráficos por computación.

Jim Kayija

En 1986 presenta una investigación llamada “La ecuación de renderización”, el


cual conecta lo gráfico de computación con la física mediante el Ray Tracing y

16
presentaba el algoritmo de Path Tracing, que permite presentar con precisión la forma
en que la luz se dispersa en una escena.

(a) (b)

(c) (d)

Figura 17: “Cuatro renderizados de cajas rojas-azules”. (a) Local, (b) Ray Trace, (c)
Radiosidad, (d) Monte Carlo: Radiosity and Realistic Image Synthesis. Pág 17

2.2.3 Presentación conceptual de Ray Tracing

La técnica de Ray tracing tiene como objetivo la generación de imágenes


tridimensionales fotorrealistas mediante la simulación de la luz y su interacción con los
materiales pertenecientes a los objetos que se encuentran en la escena. Para implementar
esta técnica, se quiere conceptualizar la luz a través de la teoría de la óptica geométrica,
donde es considerada como rayos originados a partir de determinadas fuentes, sin tomar
en cuenta su naturaleza ondulatoria. Estos rayos viajan a través del espacio y terminan
su recorrido siendo absorbidos, reflejados, desviados, o refractados por algún material

17
referente a un objeto o impactando en el ojo de un observador haciendo visible la fuente
del rayo para el mismo. A continuación, se presenta un esquema describiendo este
proceso:

Figura 18: Trayectoria de rayos de luz en la óptica geométrica

En la figura 18, se observan dos rayos que terminan impactando en el


observador. Debido a esto, tanto la fuente de luz como la Esfera 1 son visibles para el
observador. Sin embargo, se tiene un rayo que se desvía al impactar contra la Esfera 2, y
como este rayo no termina impactando en un observador, esta esfera no será visible en
la escena.

Mediante la técnica de Ray tracing se quiere simular este comportamiento, pero


como se quiere obtener solo los objetos visibles para el observador en la imagen final,
se simulan los rayos de luz en la dirección inversa, es decir, originándose en el ojo del
observador, y finalizando en una fuente de luz, como se muestra a continuación en el
siguiente esquema:

18
Figura 19: Trayectoria de rayos de luz en un Ray tracer.

Como se observa en la figura 19, tanto la Esfera 1 como la fuente de luz son
visibles para el observador, debido a que todos los rayos originados a partir del mismo
terminan impactando en una fuente de luz. De igual forma, como ningún rayo originado
en el ojo del observador termina impactando contra la Esfera 2 y luego sobre una fuente
de luz, entonces esta no será visible en la escena.

Ahora, teniendo estos conceptos en cuenta, para terminar de cubrir el aspecto


teórico general del funcionamiento de un Ray tracer, queda por explicar conceptos de la
sombra, reflexión, refracción y como lo maneja el Ray tracing.

La sombra

En el algoritmo del Ray tracing se considera a la sombra en forma implícita. De


acuerdo con el siguiente esquema:

Figura 20: Tratamiento de las sombras

19
El rayo originado en el ojo interseca el piso en un punto P, en el algoritmo, se
ubica el ojo en el punto de intersección P y el rayo que sale del ojo, es aquí cuando el
rayo va hacia la fuente de luz. En este punto se determinan las intersecciones con los
objetos de la escena y en el caso de encontrarse se considera si el objeto está a una
distancia menor que la distancia existente entre el punto P y la fuente de luz, si este
fuera el caso, el punto no recibe luz en forma directa y se genera "automáticamente"' la
sombra de los objetos como se muestra en el esquema.

Reflexión y refracción

La óptica es una rama de la física encargada de estudiar la propagación y


comportamiento de la luz. El estudio de ésta se divide en dos: la óptica física y la óptica
geométrica. La óptica geométrica se aparta de la teoría ondulatoria de la luz y presenta
la propagación de la luz a través de rayos que de ondas. La trayectoria de los rayos a
través de un sistema óptico está determinada mediante la aplicación de las leyes de
reflexión y refracción.

La ley de la reflexión establece que el ángulo de incidencia es igual al ángulo de


reflexión y que el rayo incidente, el rayo reflejado y la normal en el punto de incidencia
se encuentran en el mismo plano como se muestra en la figura (21).

Figura 21: Reflexión y refracción

20
Cuando implica que el rayo reflejado va en dirección al ojo y sólo verá luz
blanca o cuando tome valores cercanos a 0. A este punto de luz blanca se le llama
Phong, y depende del ángulo de incidencia y de la posición del ojo.

Cómo maneja el Ray tracing la reflexión y la refracción

De acuerdo con la figura:

Figura 22: Reflexión y refracción en el Ray tracing

El vector 𝑂𝑃 es el vector que sale del ojo e interseca a la superficie S1 en el


punto P. Si la superficie es reflectiva y hay una fuente de luz que ilumina el punto P, se
generará el rayo reflejado 𝑃𝑅 . El ojo está ubicado ahora en el punto P y con dirección
𝑃𝑅. En S2 se procede de igual forma, el cual implica que se deben limitar los niveles de

21
reflexión manejados en el programa. Es en esta parte, donde el algoritmo se vuelve
recursivo.

En el caso de la refracción se considera lo que sucede cuando un rayo pasa a


través de un objeto parcial o totalmente transparente como se muestra en la figura (22).

La ley de Snell establece que el producto del índice de refracción (la razón de la
velocidad de la luz en el vacío y la velocidad en un material dado) del primer medio y el
seno del ángulo de incidencia de un rayo es igual al producto del índice de refracción
del segundo medio y el seno del ángulo de refracción. De igual forma, el rayo de
incidencia, el rayo refractado y la normal a la superficie de separación de los dos medios
en el punto de incidencia están en el mismo plano como se muestra en la figura (23).

Figura 23: Geometría de la reflexión y refracción

De acuerdo con la figura, si se dice que la transparencia es no refractiva y


refractiva cuando .

Por lo general el índice de refracción de una sustancia transparente más densa es


mayor que el de un material menos denso, es decir la velocidad de la luz es menor en
una sustancia de mayor densidad.

22
Cómo maneja el Ray tracing la transparencia

De acuerdo con la figura (24) cuando entre el punto de intersección del rayo
originado en el ojo con el objeto y la fuente de luz existe un objeto transparente, la
intensidad en el punto de intersección debe disminuirse. Para ello, a cada objeto
transparente se le puede asociar a factores que influyen directamente sobre la intensidad
en el punto de interacción.

Figura 24: Tratamiento de transparencias

A parte de estos elementos también se consideran otros que enriquecen una


escena, como el "mapeo de textura" de imágenes, los mapas de calado y el bump
maping, este último permite que las superficies se vean corrugadas.

23
3. Ventajas y desventajas de los modelos presentados

Modelo IO Ventajas Desventajas

Ray Tracing ❖ Simulación de reflexiones ❖ El costo computacional es


de gran calidad con un relativamente alto debido
grado de iteración a la cantidad de cálculos
definible realizados para las
intersecciones.
❖ Durante el proceso normal
se obtienen naturalmente ❖ Por sí solo no consigue
efectos como la reflexión y efectos demasiado
la refracción con muy realistas en las imágenes
buenos resultados en resultantes.
relación a otras técnicas.
❖ Si existen objetos muy
❖ Es posible combinar este pequeños es posible que
algoritmo con otros para no puedan ser alcanzados
mejorar algunas de sus por ningún rayo durante el
falencias. proceso.

❖ Es un algoritmo altamente
paralelizable.

Radiosidad ❖ Alto realismo en la imagen ❖ Muy lento y costoso


resultante computacionalmente

❖ Permite calcular la ❖ No permite simular


interacción difusa entre efectos ópticos
objetos
❖ Es muy sensible a los
❖ Cálculo implícito de cambios de posición o de
sombras. forma en los objetos

❖ Hace innecesario
recalcular la iluminación
de la escena cuando se
produce un cambio en la
posición de la cámara

24
4. Software de Aplicación
4.1 OpenGL
OpenGL es una especificación estándar que define una API multilenguaje y
multiplataforma para escribir aplicaciones que produzcan gráficos 2D y 3D. La interfaz
consiste en más de 250 funciones diferentes que pueden usarse para dibujar escenas
tridimensionales complejas a partir de primitivas geométricas simples, tales como
puntos, líneas y triángulos
4.2 Pov-Ray

The Persistence of Vision Raytracer es un lenguaje de programación creado en 1991 por


David K. Buck y Aaron A. Collins.

POV-Ray crea imágenes tridimensionales con calidad de foto – realismo usando


una técnica de rendering llamada ray tracing. El lenguaje lee la información que
contiene la descripción de la escena, tales como los objetos y las luces, desde un
archivo de texto y genera una imagen que será observada a través de la cámara,
también definida en el archivo. Aunque la compilación del POV-Ray no es un
proceso rápido, lo cierto es que produce imágenes con reflexiones, sombras y
transparencias muy realistas. (Rodríguez, 2001, p. 18)

Algunas de las características más importantes de este lenguaje es que sirve tanto para
modelar objetos sencillos como también algunos de gran complejidad por medio de la
utilización del CSG, a su vez se puede apreciar que el lenguaje cuenta con muchas
librerías que facilitan la implementación de los algoritmos, por lo que realizar algún
modelo con esta herramienta suele ser sencillo a compasión de otros lenguajes.

4.3 Unity

Unity es un motor de desarrollo en tiempo real que te permite crear experiencias


interactivas en el Editor de Unity que se utiliza para la creación de videojuegos. Estos se
pueden publicar en diversas plataformas como PC, videoconsolas, móviles, etc. (Unity,
2022). Unity proporciona motores de Rendering, Física 2D y 3D, Animación, Audio y
otros.

25
Conclusiones
La Radiosidad permite crear imágenes fotorrealistas de gran calidad, además
requiere del preprocesamiento de poligonal del ambiente, también recrea sombras
suaves y interreflección difusas, simula acertadamente la transferencia de energía y a
mayor detalle en la radiosidad, mayor costo de almacenamiento y cómputo.

Ray tracing calcula la trayectoria de rayos de luz originados desde el punto de


vista del observador hasta el plano de escena. Se verifican todos los rayos contra cada
uno de los objetos en la escena para determinar si los intersecta. Si el rayo no intersecta
ningún objeto, el píxel es sombreado del color de fondo. Ray tracing se basa en
sombreado mejorando la calidad de la sombra. Se encarga de diversas reflexiones,
refracciones y mapeo de textura.

Las técnicas vistas anteriormente y el resto de ellas que no han sido incluídas,
proporcionan un realismo mucho mayor que las técnicas de iluminación local; sin
embargo, para hacer uso de las técnicas de iluminación global, a comparación con las de
la local, se necesitan de más recursos computacionales para que funcionen
eficientemente.

26
Referencias

Caulfield, B. (2022).¿Qué es Path Tracing?.

https://la.blogs.nvidia.com/2022/05/10/que-es-el-path-tracing/

Clavero, G. (2014). Iluminación Global en DirectCompute [Trabajo Especial de

Licenciatura en Ciencias de la Computación]. Universidad Nacional de Córdoba.

https://rdu.unc.edu.ar/handle/11086/2771

Candia, D. I. (2019). Predicción del Rendimiento Académico de los Estudiantes de la

UNSAAC a partir de sus datos de ingreso utilizando Algoritmos De Aprendizaje

Automático [Tesis de Maestría, Universidad Nacional De San Antonio Abad Del

Cusco]. Repositorio Institucional - UNSAAC

http://hdl.handle.net/20.500.12918/4120

Cohen, M., Wallace,J. (1995). Radiosity and Realistic Image Synthesis.AP.

http://twanclik.free.fr/electricity/electronic/pdfdone12/Radiosity%20and%20real

istic%20image%20synthesis%20Cohen%20M.F.,%20Wallace%20J.R.%20(AP,

%201995)(412s).pdf

Ferrer T., Katan J. y Lund M. (2021). Ray tracing: Herramienta de edición y

renderización basada en física. [Proyecto final, Instituto Tecnológico de

Buenos Aires - ITBA]. Repositorio institucional ITBA.

http://ri.itba.edu.ar/handle/123456789/3677

Gonzales, C.(2010) Implementación de un raytracer para la evaluación de OpenCL

[Trabajo final de carrera]. Repositorio de la Universidad Politécnica de

Cataluña. https://upcommons.upc.edu/handle/2099.1/11641

27
History Computer Staff (2022). Ray Tracing vs. Path-Tracing: What's the difference?

https://history-computer.com/ray-tracing-vs-path-tracing-whats-the-difference/#

:~:tex=Ray%20tracing%20is%20a%20technique,by%20following%20individua

l%20light%20rays.

La Gafería. (11 de noviembre del 2019). ¿Cómo vemos los colores?

https://lagaferia.com/como-vemos-los-colores/

Macondo (2022). Unity: ¿Qué es y cómo funciona ?.

https://support.unity.com/hc/es/articles/7642130833812-Unity-Qu%C3%A9-es-

y-c%C3%B3mo-funciona-

Monge Fallas, J. (2015). El Ray Tracing. Revista Digital: Matemática, Educación

E Internet, 4(2). https://doi.org/10.18845/rdmei.v4i2.2298

National Geographic en Español. (9 de agosto del 2018). ¿Qué es la luz?.

https://www.ngenespanol.com/traveler/luz-electricidad/

Núñez Villagómez F. (2022). Custom Raytracing Material Library for games.

[Proyecto final, Universidad San Jorge]. Repositorio USJ.

https://repositorio.usj.es/handle/123456789/860

Padrón González E. (2006). Técnicas de Aceleración para el Método de

Radiosidad Jerárquica [Tesis Doctoral, Universidade da

Coruña].Recuperado de

https://ruc.udc.es/dspace/bitstream/handle/2183/810/PadronGonzalez_Emil

ioJose_TD_2006.pdf

28
Real Academia Española. (s.f.) Iluminar. Diccionario de la lengua española.

Recuperado de https://dle.rae.es/iluminar?m=form

Real Academia Española. (s.f.) Luz. Diccionario de la lengua española. Recuperado de

https://dle.rae.es/luz

Rodríguez, O. (2001). Desarrollo de macros y librerías para la creación de imágenes

realistas de modelos tipo LEGO usando un Ray Tracer [Tesis de pregrado,

Universidad de la Américas Puebla]. Archivo digital.

http://catarina.udlap.mx/u_dl_a/tales/documentos/lis/rodriguez_o_o/portada.htm

Sanjurjo, A. (2011). Técnicas de altas prestaciones para métodos de iluminación

global. [Tesis Doctoral presentada en el Departamento de Electrónica y Sistemas

de la Universidade da Coruña] Archivo Digital

https://ruc.udc.es/dspace/handle/2183/9887

Sena, B. (2020). Iluminación global con superficies especulares. [Tesis de grado

presentada en la Facultad de Ingeniería de la Universidad de la República, como

parte de los requisitos necesarios para la obtención del título de grado en

Ingeniería en Computación]. Universidad de la República.

https://www.colibri.udelar.edu.uy/jspui/handle/20.500.12008/24247

Zapata, Fanny. (14 de septiembre de 2020). Fuentes de luz: tipos y aparatos que emiten

luz. Lifeder. Recuperado de . https://www.lifeder.com/fuentes-de-luz/

29
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
Universidad del Perú, Decana de América

Facultad de Ingeniería de Sistemas e Informática

E.P. Ingeniería de Sistemas

Asignatura: Computación Visual

Docente: Avendaño Quiroz, Johnny Robert

Sección: 1

Grupo: 6

Integrantes:

Palacios Villegas, Fabio Josue 20200194

Cuentas Santaria, Guillermo 20200171

Paredes Ramos, Carolayn Dayanna 20200195

Remon Chavarria, Luis Angelo 20200201

Rodriguez Huamani, Lian Miguel 20200206

Lima, 2022
Dedicatoria

Dedicado a todos los alumnos y profesores de la Facultad de Ingenierías de Sistemas e


Informática.

1
Índice
Dedicatoria 1
Índice 2
Índice de Figuras 3
Introducción 4
Historia 5
Texturas 6
Texturas Artificiales Generadas Por Computador 6
Texturas Reales Adquiridas En La Escena 6
Mapeado de Texturas 7
Mapeado Plano 8
Mapeado en Dos Partes 9
Proyecciones Cilíndricas 9
Proyecciones Cúbicas 11
Proyecciones Esférica 11
Técnicas Avanzadas 12
Bump Mapping 12
Normal mapping 13
Displacement Mapping 14
Environment Mapping 15
Mip mapping 17
Projective texture Mapping 18
Parallax Mapping 20
Aplicaciones 21
Conclusiones 27
Bibliografía 28

2
Índice de Figuras
Figura 1. Representación gráfica de la parametrización de una textura................................................. 8
Figura 2. Representación gráfica del Mapeo Plano ............................................................................... 9
Figura 3. Mapeado en dos etapas .......................................................................................................... 9
Figura 4. Representación de una proyección cilíndrica ....................................................................... 10
Figura 5. Proyección cilíndrica para múltiples objetos ....................................................................... 10
Figura 6. Representación de una proyección cúbica a una tetera ........................................................ 11
Figura 7. Representación de una proyección esférica a una tetera ...................................................... 12
Figura 8. Representación gráfica de la aplicación del mapeo de relieve a un objeto tridimensional ... 13
Figura 9. Representación de un Displacement Mapping ..................................................................... 15
Figura 10. Ejemplos de environment mapping.................................................................................... 17
Figura 11. Ejemplo del Mip mapping ................................................................................................. 18
Figura 12. Ejemplo de mapeo de textura proyectiva ........................................................................... 19
Figura 13. Ejemplo de mapeo de textura proyectiva de varias imágenes ............................................ 19
Figura 14. Representación gráfica del Parallax Mapping .................................................................... 20
Figura 15. Texturas de Doom ............................................................................................................. 21
Figura 16. Fotograma de Call of Duty Modern Warfare ..................................................................... 21
Figura 17. Imagen de Toy Story ......................................................................................................... 22
Figura 18. Imágen de Avatar............................................................................................................... 22
Figura 19. Frontis de la facultad ......................................................................................................... 23
Figura 20. Exterior de la FISI modelada en Blender ........................................................................... 24
Figura 21. Interior de la FISI modelada en Blender ............................................................................ 24
Figura 22. Frontis de la FISI texturizada en Blender........................................................................... 25
Figura 23. Parte lateral y trasera de la FISI texturizada en Blender .................................................... 25
Figura 24. Parte lateral y trasera de la FISI texturizada en Blender .................................................... 25
Figura 25. Parte lateral y trasera de la FISI texturizada en Blender .................................................... 26

3
Introducción
Hoy en día, la globalización trajo como consecuencias una mayor virtualización del
mundo que nos rodea, tenemos como ejemplo la creación de videojuegos o animación en 3D,
lo cual se logra mediante polígonos, pero estos solo se logran pintar de manera monocroma, es
decir usando colores RGB (rojo, verde, azul). No obstante, con el avance de la tecnología se
buscó una forma para que los sólido tridimensionales adquieran un estilo diferente, un estilo
más realista, y es allí donde surgió el mapeo de texturas, mediante este método se logrará poner
una imagen personalizada alrededor del sólido tridimensional, logrando así una mejor
percepción de la imágen a recrear.

Es por ello que se han desarrollado diferentes técnicas de mapeo de texturas como el
normal mapping, desarrollado mediante normales reflejadas por la figura logrando
implementar un texturizado uniforme, o el environment mapping, donde se tiene en cuenta el
entorno al momento de texturizar el cuerpo geométrico, logrando mejorar la percepción del
cuerpo digitalizado.

4
Historia

Bustos, B. & Hitschfeld, N.(s.f) mencionaron que todo comienza en 1974, cuando
Edwin Catmull, actualmente cofundador de Pixar Animation Studios y presidente de Pixar y
Walt Disney Animations Studios, presenta por primera vez el concepto de mapeado de texturas
para poder modular los valores de color de una superficie (pp. 10-11). Más tarde, en 1976 los
científicos informáticos, James Blinn y Martin Newell, implementaron el primer algoritmo que
propone una solución rápida para calcular reflexiones. Este algoritmo está basado en la
utilización de mapas de entorno, uno para cada objeto reflectivo. Luego, en 1978, James Blinn
presentó un método el cual llamó Bump Mapping, con este método se implementó lo que se
denomina mapeo de relieve, el cual simula los relieves de una superficie sin necesidad de
realizar modificaciones geométricas en el modelo (Lingard, 1995).

Luego de la implementación de este primer método, fueron surgiendo muchos más, que
ayudaron a que el objeto en el cual se le implementara sea más realista. Entre los métodos que
se fueron implementando están el Mip Mapping, presentado en 1983 por Lance Williams, el
Environment Mapping en 1986, por Ned Green, entre otros. Finalmente, se puede mencionar
que Mark Segal y Kurt Akeley fueron los autores de la especificación original de OpenGL, el
cual es un documento que describe un conjunto de funciones y el comportamiento exacto que
deben tener.

5
Texturas
La textura es lo que rodea al cuerpo geométrico para darle un tono diferente de la escala
de grises, donde el téxel es la unidad mínima de una textura dentro de una superficie usada en
los gráficos por computadora. Existen 2 ramas según el origen de estas texturas: Texturas
artificiales generadas por computador y Texturas reales adquiridas en la escena.

Texturas Artificiales Generadas Por Computador

Este proceso de generación de texturas está controlado con un alto nivel de exactitud,
es decir puede evitar algunos problemas que pueden ocurrir durante el proceso de generación
de la textura, tales como el aliasing.
Este proceso puede desarrollarse mediante una escena compuesta solo por polígonos.
Además, según Hernández (2006) “determinan la selección de texturas en el caso de tener
varias imágenes fuentes para el rastreo, según las direcciones de las caras visibles para la
cámara y sus respectivas normales.”

Texturas Reales Adquiridas En La Escena


Este proceso genera un tipo de texturas de muy alta calidad, ya que las texturas usadas
son las texturas reales de los objetos. No obstante, el mapeo de texturas en las imágenes no es
fácil de realizar, especialmente cuando el cuerpo geométrico y la imágen importada no se unen
firmemente.
Según Hernández (2006) “Previamente se han desarrollado varias técnicas que tratan la
reconstrucción del modelo 3D utilizando la textura. Sato, Wheeler y Ikeuchi reconstruyen las
propiedades de reflectancia de los objetos del mundo real desde fotografías utilizando el
modelo de Torrance-Sparrow.” En este caso ellos usan una misma cámara con un mismo
ángulo de inclinación

6
Mapeado de Texturas

El mapeo de texturas es una técnica utilizada para aumentar el realismo y el detalle de


los objetos tridimensionales. Esta técnica suele ser la última etapa de reconstrucción del modelo
computacional después de la etapa de integración. Hernández (2006) señala que “Es una fase
crucial en el mejoramiento de la calidad visual de modelos 3D de objetos. Incluso puede
compensar en parte las imposiciones geométricas en las reconstrucciones de los modelos 3D
como concavidades ocultas que no pueden digitalizarse.”

Este mapeo consiste en asignar una textura a desear sobre un cuerpo geométrico
tridimensional 3D, este se realiza a partir de las coordenadas (𝑥, 𝑦, 𝑧), con esto se busca la
correspondencia a la textura, a esto se le denomina parametrización o registro de imágenes.

Espacio de Textura
Para poder implementar el mapeo de texturas en algún objeto tridimensional, y generar
realismo en este, se necesita encontrar correspondencia entre la textura, la cual se quiere
emplear, y la geometría del objeto. A esto se le conoce como parametrización, en donde se
requiere hallar la relación entre el objeto tridimensional y una representación planar (Ver
Figura 1). De esto básicamente proviene el espacio de textura que viene siendo aquel espacio
preliminar que se tendrá para poder realizar el mapeo en algún objeto geométrico.

Podemos mencionar, además, que el espacio de textura tendrá un rango de [0,1] en los
ejes X e Y puesto que la textura ya no tiene en sí un espacio de coordenadas basado en el
tamaño de una imagen, esto se da para que la textura no dependa de las dimensiones originales
de esta, ya que sería más complicado la texturización si fuera así.

7
Figura 1. Representación gráfica de la parametrización de una textura

Nota: En la imagen se muestra la correspondencia entre la textura que se desea parametrizar


y el objeto tridimensional.
(https://www.youtube.com/watch?v=ImIS1cqKDlU&ab_channel=IvanSipiran)

Tipos de Mapeado

Mapeado Plano

El mapeado plano consiste, básicamente, en aplicar la textura como un plano,


directamente sobre el objeto que se desea texturizar (Ver Figura 2). Según Vivas (2017) este
proyecta las coordenadas paramétricas hacia la maya a través de un plano, es así como en la
función para obtener las coordenadas de textura sobre un plano es expresada en la siguiente
fórmula:
𝑓(𝑝) = (𝑠, 𝑡) = (𝑝𝑥 / 𝑤, 𝑝𝑦 / ℎ)
Teniendo como variables:
w: ancho del plano donde se quiera aplicar la textura
h: largo del plano donde se quiera aplicar la textura
px: variable X en el plano
py: variable y en el plano
s,t: x e y correspondientes al espacio de textura con un rango de [0,1]

Cabe resaltar que este tipo de mapeado es ideal para aplicarlo en superficies planas
puesto que la distorsión que se da al momento de su aplicación es mínima solo si las superficies
son paralelas a los planos de proyección. Es por ello que su aplicación sería ideal en paredes,
suelos, etc.

8
Figura 2. Representación gráfica del Mapeo Plano

Nota: En la imagen se puede observar la aplicación del mapeado plano en un objeto


tridimensional. Tomado de: Mapeado de Texturas (p.13), por L.A. Vivas, 2017.

Mapeado en Dos Partes

Es un método de mapeado de dos etapas que consiste en primero mapear una textura de
dos dimensiones a una superficie intermedia, sea esta un cilindro, cubo o esfera, dependiendo
de la forma del objeto que se tenga (llamado también Mapeo S), para posteriormente mapear
esta superficie intermedia a la superficie destino del objeto (llamado también Mapeo O).

Figura 3. Mapeado en dos etapas

Nota: En la imagen se puede observar las etapas de Mapeo S y Mapeo O para un


objeto de tres dimensiones. (http://cs.uns.edu.ar/cg/clasespdf/5.1-Texturas.pdf)

Proyecciones Cilíndricas
Según Wolfe (1999), este tipo de mapeado es el más empleado para objetos de forma
cilíndrica, tales como troncos o tubos. Para este tipo de mapeo, las coordenadas (x,y,z) se
convierten en coordenadas cilíndricas de (r, θ, h). Para el mapeo de texturas, solo estamos
interesados en θ y h (altura). Para encontrar el color en un mapa de textura bidimensional, θ se

9
convierte en una coordenada x y h se convierte en una coordenada y. Esto para envolver el
mapa de textura bidimensional alrededor del objeto.
Figura 4. Representación de una proyección cilíndrica

Nota: En la imagen se puede observar un ejemplo de proyección cilíndrica a una tetera.


Tomado de: Teaching Texture Mapping Visually, por Wolfe, Rosalee, 1999.

Los objetos con mapa de textura que se observan en la Figura 5 tienen una forma de
mapa cilíndrica, y el eje del cilindro es paralelo al eje y. Se puede observar que los cuadrados
del patrón de textura se convierten en "rebanadas de pastel" en la parte superior e inferior de
cada objeto, es decir, en la posición z más pequeña y grande.

Figura 5. Proyección cilíndrica para múltiples objetos

Nota: En la imagen se puede observar la aplicación de la proyección cilíndrica para diversos


objetos. Tomado de: Teaching Texture Mapping Visually, por Wolfe, R., 1999.

10
Proyecciones Cúbicas
Según Wolfe (1999), para este tipo de proyección, el uso de un cubo como la forma del
mapa es similar al mapeado plano. En lugar de usar solo un mapa de textura, el mapeado de
cajas usa seis, uno para cada uno de los lados (izquierdo, derecho, frontal, posterior, superior e
inferior) del objeto. Para mapear texturas en los lados frontal y posterior, eliminamos el
componente z del punto de un objeto y usamos los componentes x e y restantes para ubicar el
color en los mapas de textura correspondientes.

Figura 6. Representación de una proyección cúbica a una tetera

Nota: En la imagen se puede observar un ejemplo de proyección cúbica a una tetera. Tomado
de: Teaching Texture Mapping Visually, por Wolfe, R., 1999.

Proyecciones Esférica
Según Wolfe (1999), cuando se utiliza una esfera como forma de mapa, el valor (x,y,z)
de un punto se convierte en coordenadas esféricas. Para fines de mapeo de texturas,
mantenemos solo la información de latitud y longitud. Para encontrar el color en el mapa de
textura, la latitud se convierte en una coordenada x y la longitud se convierte en una coordenada
y.
Los objetos tienen una forma de mapa de una esfera, y los polos de la esfera son
paralelos al eje y. En los polos norte y sur del objeto, los cuadrados del mapa de textura toman
la forma de piezas de torta.

11
Figura 7. Representación de una proyección esférica a una tetera

Nota: En la imagen se puede observar un ejemplo de proyección esférica a una tetera.


Tomado de: Teaching Texture Mapping Visually, por Wolfe, R., 1999.

Técnicas Avanzadas

Bump Mapping
Un mapa de relieve (Bump Mapping) es en realidad uno de los tipos de mapas más
antiguos que se han desarrollado en el mundo de la computación gráfica, teniendo sus inicios
en 1978, cuando James Blinn propuso su método llamado mapeo de relieve. Lingard (1995)
menciona que:
El mapeo de relieve simula protuberancias o arrugas en una superficie sin modificaciones
geométricas en el modelo. Las normales de una superficie dada se perturban según el mapa
del terreno. Al sombrear una superficie usando la técnica lambertiana, se usan las normales
perturbadas en lugar de las normales originales. Este método crea una apariencia irregular
en la superficie provocando un efecto de relieve.
Blinn entendió que en lugar de perturbar los vértices para calcular las normales
utilizadas en el sombreado, ¿Por qué no perturbar las normales de la superficie original? Las
normales perturbadas se utilizan en la ecuación de sombra lambertiana. El problema con este
enfoque es que las arrugas simuladas no se extienden hasta el contorno del objeto. Para
implementar el mapeo de relieve, debe encontrar una manera de perturbar la superficie
independientemente de su orientación y posición. Este requisito surge de la observación de que
al animar objetos con protuberancias, no desea que las arrugas de la superficie cambien de
forma o apariencia.

Los mapas de relieve son excelentes para crear pequeños detalles en un modelo, como
poros o arrugas en la piel. También son relativamente fáciles de crear y editar en aplicaciones

12
2D como Photoshop, dado que solo trabaja con valores de escala de grises. El problema con
los mapas de relieve es que pueden dañarse fácilmente si la cámara los mira desde el ángulo
equivocado, como el detalle que se crea es falso y no se agrega ninguna resolución real, el mapa
no afectará los contornos geométricos a los que se aplica el mapa de relieve.

Figura 8. Representación gráfica de la aplicación del mapeo de relieve a un objeto


tridimensional

Nota: Figura 3D, Textura y Figura 3D con el efecto de arruga generado por el Mapeo de
Relieve, de izquierda a derecha, en ese orden.
(https://en.wikipedia.org/wiki/Bump_mapping#/media/File:Bump-map-demo-full.png)

Normal mapping

El Normal Mapping suelen denominarlo como una variación nueva y mejorada del
Bump Mapping, es una aplicación de tecnología 3D que permite dar iluminación y relieve más
detallado a la superficie de los objetos. Esta es una evolución del mapeo de relieve, que se
aplica en los videojuegos para hacerlo más realista y en las películas animadas para acelerar
los cálculos y reducir la cantidad de polígonos que tenía originalmente un objeto.

Una de las ventajas es que, gracias a los efectos de iluminación creados al variar el
vector normal, puede lograr un efecto de relieve detallado incluso si el objeto original es plano,
por otro lado, su desventaja es que puede crear efectos de luz, pero no cambia la forma real de
la superficie. También se debe de tomar en cuenta que los detalles dependen de los vértices
generados, por lo que, si desea un buen acabado, debe aumentar el uso de la memoria.

Según J. Vaquero (2014) nos dice:

Para mejorar los gráficos 2D se pueden emplear técnicas de iluminación 3D que embellecen
enormemente el resultado final. La primera técnica que podemos aplicar es el Normal

13
Mapping. Esta técnica define la dirección hacia la que está orientado cada pixel en la textura
por lo que podemos calcular cómo incide la luz en él.

Con ellos podemos ver que que esta técnica mejora los gráficos sobre todo en aquellos
juego que son 2D que orientan una iluminación dinámica basada en su técnica de color
Blending.

Podemos concluir que el normal mapping es una técnica excelente para renderizar
pequeños detalles y relieves, como arrugas en la piel o en la ropa (o alteraciones similares),
pero no afecta la imagen lo suficiente como para considerarla en este proyecto. La sensación
de relieve que da es mínima en comparación con lo que quieres, y la única variación posible es
hacer que el sombreado sea más pesado, lo que no ayuda en absoluto a la estética de la imagen
y no mejoraría el sombreado. En partes posteriores, intentaremos mejorar el realismo de la
escena con algunas técnicas simples y bien conocidas, pero no se espera que mejore el resultado
general logrado con esta técnica.

Displacement Mapping

El mapeo de desplazamiento o displacement mapping es un método para mostrar los


detalles de la superficie mediante la definición de un desfase desde una superficie base. Se
diferencia del mapeo de relieve en que no solo perturba las normales, sino que también
modifica la geometría de la superficie. Esto proporciona una representación más realista en la
que la geometría desplazada también se puede ver en silueta. Esto se puede ver en la Figura 9.
Esta imagen muestra el resultado renderizado de una esfera que usa solo el mapeo de relieve
(izquierda) y una esfera que usa tanto el mapeo de relieve como el mapeo de desplazamiento
(derecha). Esta ilustración muestra que la silueta aparece irregular solo cuando se utiliza el
mapeo de desplazamiento.

14
Figura 9. Representación de un Displacement Mapping

Nota. Podemos observar un plano de la esfera con el bump mapping y el otro con el
displacement mapping
(https://www.researchgate.net/publication/228860117_Displacement_Mapping)

Una de las ventajas es que los modelos poligonales muy detallados, como los creados
mediante técnicas de escaneo 3D, se pueden modelar de manera efectiva utilizando solo un
mapa de superficie y desplazamiento del área. Los requisitos de memoria son menores porque
un mapa de desplazamiento con valores escalares requiere mucho menos almacenamiento que
una malla poligonal con valores vectoriales. Las subsecciones de transición son una forma
conveniente de mostrar la animación. Los cálculos de animación son más eficientes con una
malla de control simple que con una malla poligonal muy compleja. El detalle de la superficie
se puede modificar fácilmente cambiando el valor del desplazamiento escalar.

Las superficies detalladas son esenciales para lograr gráficos 3D atractivos. Es por ello
que, el mapeo de desplazamiento es una técnica compacta para hacer esto. Hasta ahora, el
mapeo de desplazamiento solo se ha utilizado para fines que no son en tiempo real, como el
modelado de películas animadas. Sin duda, se seguirá utilizando en aplicaciones en tiempo real,
ya que es una manera muy fácil de agregar detalles de superficie para hacer que su modelo sea
más realista. Sin embargo, esto requiere soporte de hardware, que aún no se ha implementado.
Sin duda, pasarán varios años antes de que estas propuestas reflejen en el hardware real.

Environment Mapping
El mapeo ambiental o environment mapping es un esquema que refina las técnicas de
mapeo del cromo y el mapeo de difracción. Esto es útil ya que el trazado de rayos puede ser
muy costoso en entornos reflectantes. El mapeo envolvente proporciona estos reflejos de
manera más económica con poca pérdida de precisión.

15
El cálculo es independiente del nivel de detalle del entorno. Con este mapeado los
objetos están rodeados por una superficie 3D cerrada sobre la que se proyecta el entorno. Un
rayo reflejado es seguido por un objeto, golpea una superficie y se indexa en un mapa. Un mapa
es esencialmente lo mismo que un cromo, excepto que consiste en una imagen del área vista
desde el centro de la habitación para mapear el área.

Para todas las técnicas de mapeo del entorno, la precisión depende de que los objetos
estén centrados en la superficie y los objetos del entorno más alejados del objeto que recibe el
mapa del entorno. La distorsión geométrica aumenta a medida que el objeto crece en relación
con su entorno o a medida que aumenta su distancia desde el centro del mapa. Esto se debe a
que el mapa del entorno se crea como una proyección desde un punto en el centro de la
superficie.

Puede reducir la distorsión geométrica mediante el trazado de rayos de objetos en el


entorno que están demasiado cerca de objetos reflectantes. Si sus objetos reflectantes son
complejos, es posible que necesite un mapeo de entorno de trazado de rayos que no pueda
manejar.

La primera aplicación de mapeo ambiental fue desarrollada por Jim Blinn y Newell. En
este caso, se supone que el objeto está en el centro de una gran esfera interior sobre la que se
proyecta el entorno. El mapeo utilizó un mapa de latitud y longitud indexado por rayos
reflejados, similar al mapeo de Chrome. La función de indexación solo usa la dirección de R,
provocando errores en el plano de los objetos grandes que tienden a indexar el mismo punto en
el mapa. Además, esta figura es esencialmente una proyección esférica y contiene una
singularidad en (0,0, Rz). El mapeo de Chrome tiene un pico, pero en este caso el mapa está
distorsionado alrededor de la singularidad. Esta es una degradación ya que se suma al efecto
final. La diferencia entre el mapeo de latitud-longitud y el cromo es que en el primero el mapa
es el entorno mientras que en el segundo el mapa es una imagen arbitraria. Ambos son idénticos
en términos de implementación

Otra técnica de entorno es proyectar el entorno en las seis caras del cubo. R3 -> La
función de mapeo R2 ya no es esférica y no tiene distorsión. El mapa del entorno se crea
adquiriendo seis imágenes en direcciones mutuamente ortogonales desde un punto fijo
utilizando una cámara con un campo de visión de PI/2 o utilizando un renderizador que crea
un mapa a partir de una escena modelada. El problema de usar una cámara real es que es difícil
crear un mapa de 6 componentes sin encontrar interrupciones geométricas y de iluminación en

16
las costuras y los límites. Esta técnica es popular porque permite una buena combinación de
objetos CGI y escenarios de acción en vivo.
Figura 10. Ejemplos de environment mapping

Nota: En la izquierda hay un jarrón sobre un fondo y en la derecha un jarrón altamente


transparente ( https://web.cs.wpi.edu/~matt/courses/cs563/talks/texture/texture/env.html )

Mip mapping

El mip mapping fue creado por Lance Williams en el año 1983, la palabra mip nos
quiere decir "mucho en poco" y mapping significa "mapeo" que junto quiere decir mucho
mapas en poco espacio, esta es una técnica de procesamiento de imágenes que toma una textura
o mapa original de alta resolución, filtra la imagen y la escala en varios mapas de textura de
menor resolución en el mismo archivo de textura. Esto simplemente significa que se crean
mapas de textura más pequeños a partir del original, con cada textura más pequeña que la
"capa" anterior, generalmente la mitad de la resolución.
Entonces, si la textura original (capa 0) es 128x128, la capa 1 sería 64x64, la capa 2
sería 32x32, etc. Cada textura reducida se denomina "plano mip" y representa cómo se vería la
textura original si estuviera a cierta distancia de la cámara o el visor. Con la ayuda de filtros,
estas texturas de diferentes tamaños reproducen colores y texturas de forma más natural cuando
se ven desde la distancia. Mezclarlos evita los patrones muaré y reduce la carga de la CPU.
Usada en los juegos 3D para que se pueda reducir el tiempo de renderización y tiene como
objetivo reducir muchas texturas en pocas texturas mediante la suavización.

17
A continuación en la Figura 11 podemos ver una tabla de ajedrez extendida,se puede
visualizar como esta genera unos patrones de rayas, curvas y puntos que distorsionan la imagen
, esto es llamado como el efecto moiré, este efecto solo ocurre en 2 casos, el primer caso es
cuando hay texturas repetidas y el segundo caso se da cuando se tiene una perspectiva lejana
las texturas. Por ello se tiene que aplicar esta técnica para no sufrir de estos efectos que quitan
la fluidez a nuestras texturas.

Figura 11. Ejemplo del Mip mapping

Nota: En la izquierda hay una textura sin Mipmapping, y en la derecha hay una textura con
el Mipmapping. (http://www.elephantvfx.com/blog/2017/4/5/mip-mapping)

Projective texture Mapping

El mapeo de textura proyectiva o Projective texture Mapping es un tipo de texturizado,


que consiste en proyectar una textura sobre un objeto sobre la escena tal cual como si se tratara
de un proyector de cine. Según Kwan-Hee (s.f.) mencionó “Projective texture Mapping is a
technique to project a texture image onto the surfaces of objects within the projection volume
with a view from a certain spot called 3D scene projection point” Esto se realiza mediante un
punto de vista, donde se emitirá la proyección de la textura en una sola dirección hacia el objeto
detallado, obteniendo así su texturizado (Ver imagen 12)

18
Figura 12. Ejemplo de mapeo de textura proyectiva

Nota: Se observa a mayor detalle el mapeo proyectivo de textura.


(https://www.web3d.org/sites/default/files/presentations/Updates%20on%20Projective%20Te
xture%20Mapping/%285%29ProjectiveTexturemappingDoc%28kwanhee%29.pdf)

Además, el mapeo de textura proyectiva se pueden proyectar varias imágenes


texturizadas sobre un mismo escenario teniendo un resultado similar a la fotogrametría (usado
en la cartografía para obtener la fotografía aérea y la obtención de modelos de elevaciones de
la geografía general) Ver imagen 13

Figura 13. Ejemplo de mapeo de textura proyectiva de varias imágenes

Nota: Proyección de varias imágenes de texturas sobre una misma escena para la
construcción de un terreno.
(https://www.web3d.org/sites/default/files/presentations/Updates%20on%20Projective%20Te
xture%20Mapping/%285%29ProjectiveTexturemappingDoc%28kwanhee%29.pdf)

19
Parallax Mapping

El Parallax Mapping es una técnica muy reciente propuesta en 2001. Esta técnica
vendría siendo una mejora en sí del Normal Mapping y Bump Mapping ya que ambos dan
profundidad a la superficie texturizada. Vivas (2017) nos expresa que parallax mapping son
texturas con auto-oclusión en función al punto de vista que tiene el espectador, lo cual hace
que aumente la sensación de profundidad y realismo. Esta técnica nos permite representar de
una forma adecuada superficies con ciertas irregularidades, como por ejemplo las superficies
de las rocas o de una pared de ladrillos, ya que con esta técnica se podrá obtener un objeto con
más profundidad y con un realismo mayor al que solía tener (Ver Figura 14).
Figura 14. Representación gráfica del Parallax Mapping

Nota: Se observa la comparación entre las técnicas Normal Mapping y Parallax Mapping.

Según Kaneko, “Utiliza el direccionamiento de coordenadas de textura por píxel para


mejorar su calidad de representación y permitir la ejecución de cálculos por píxel con hardware
de gráficos. Con este método, la paralaje de movimiento se realiza mediante el mapeo de una
textura que se distorsiona dinámicamente para corresponder a la forma de destino
representada”. Esto nos indica que, para su implementación, es necesario el desplazamiento de
las coordenadas de la textura en función al ángulo de visión y el mapa de alturas en cada punto.
Por ende, desde un punto de vista inclinado, las coordenadas de la textura se desplazan más y
con esto se logra la ilusión de profundidad mientras la vista se mueve. (Vivas, 2017).

20
Aplicaciones

En plena era de la globalización, la tecnología ha avanzado a pasos agigantados, cada


vez más se busca representar de manera más detallada el mundo real en el mundo
informático. Tenemos como ejemplo la evolución de la animación tanto para los videojuegos
como para el cine.
En el entretenimiento podemos observar las mejoras con respecto a los inicios, por
ejemplo, tenemos a los videojuegos, los juegos de antaño usaban texturas muy básicas como
se puede observar en la figura 15.
Figura 15. Texturas de Doom

Nota: Texturas sacadas del videojuego DOOM


Pero a medida que avanzaba la industria, las exigencias de los usuarios eran cada vez
mayores y como resultado de estas exigencias se obtuvieron trabajos cada vez más detallados,
como por ejemplo la conocida saga Call of Duty.

Figura 16. Fotograma de Call of Duty Modern Warfare

Nota: Captura sacada del videojuego Call of Duty Modern Warfare

21
En el cine también se visualizó una mejora sustancial, en la primera película animada
ya veíamos una producción bien hecha y agradable visualmente como se puede observar en la
siguiente figura.
Figura 17. Imagen de Toy Story

Nota: Captura sacada de la película Toy Story


Pero a medida que se avanzaba, la tecnología era cada vez mejor y se lograban grandes
obras del cine como Avatar, que es la película más taquillera de todos los tiempos con
2.922.917.914 US$ según IMDB.
Figura 18. Imágen de Avatar

Nota: Captura sacada de la película Avatar

22
Para realizar estos trabajos, se hace uso de potentes softwares que son conocidos en el
mercado como Adobe Premier, Adobe After Effects, etc. Pero a nivel amateur se usan otros
que, a pesar de ser gratuitos, no dejan la calidad de lado como Blender, el cual es un programa
dedicado especialmente al modelado, iluminación, renderizado y la animación, sobre el cual
realizamos el modelado y texturizado de nuestra querida facultad, la FISI (Facultad de
Ingeniería de Sistemas e Informática). Para este proceso hemos dispuesto de 3 pasos:
1er Paso:
Toma de capturas de la facultad para obtener las texturas a utilizar y poder tener una
idea del terreno a modelar. Se tomaron capturas de los exteriores de la facultad, siendo más
específicos, el lateral, el frontis y la parte trasera. Además, se hicieron capturas de la parte
interior de la facultad.

Figura 19. Frontis de la facultad

Nota: Captura sacada a la facultad de Ingeniería de Sistemas e Informática


2do Paso:
Una vez obtenidas las capturas, procedemos al modelamiento del terreno a texturizar,
para ello nos apoyamos de las capturas mencionadas anteriormente. Para la creación de la
facultad usamos cubos a los cuales se le aplicaron transformaciones geométricas para
amoldarlo y que se parezca lo mejor posible a la facultad. Teniendo modelada la parte
exterior se procedió a modelar algunas áreas del interior como las escaleras, el pasto y el
campo de fútbol.

23
Figura 20. Exterior de la FISI modelada en Blender

Nota: Elaboración propia

Figura 21. Interior de la FISI modelada en Blender

Nota: Elaboración propia


3er Paso:
Teniendo ya modelada la facultad, procedemos a aplicarle las texturas a nuestros
modelos, como se mencionó anteriormente nos apoyamos de las capturas sacadas a la
facultad. Como resultado tenemos lo siguiente:

24
Figura 22. Frontis de la FISI texturizada en Blender

Nota: Elaboración propia

Figura 23. Parte lateral y trasera de la FISI texturizada en Blender

Nota: Elaboración propia

Figura 24. Parte lateral y trasera de la FISI texturizada en Blender

Nota: Elaboración propia

25
Figura 25. Parte lateral y trasera de la FISI texturizada en Blender

Nota: Elaboración propia

26
Conclusiones
De acuerdo con toda la información expuesta en nuestro informe, podemos concluir
que el mapeo de texturas es una técnica actualmente indispensable para insertar más realismo
a las representaciones desarrolladas digitalmente con el objetivo de mejorar la percepción de
cada una de estas. Con el paso del tiempo, el mapeo de texturas ha ido evolucionando
progresivamente puesto que pasamos de cambiar algunos colores de una superficie a emplear
técnicas más desarrolladas que destacan por su mejor manejo en los detalles, siendo estas, por
ejemplo, Bump Mapping, Normal Mapping, Displacement Mapping, etc, técnicas utilizadas
con respecto al tipo de detalle que deseamos obtener.

Ahora, con respecto a estas mismas técnicas, estás pueden ser utilizadas de forma
simultánea, de manera que cada una de estas se desarrolle de forma independiente y finalmente
se pueda insertar al objeto geométrico en gestión. Por último, podemos expresar que el mapeo
de texturas es una técnica aplicada en muchos ámbitos, principalmente en el entretenimiento,
ya sea en películas, videojuegos, entre otros, que busca, principalmente, generar impresión y
realismo en las personas que lo visualizan, haciendo una representación casi exacta de la
realidad.

27
Bibliografía
Bustos, B. & Hitschfeld, N. (s.f) Premio Turing 20019: La revolución de la animación 3D por
computadora.
https://revistasdex.uchile.cl/index.php/bits/article/download/2765/2699/10145
Cem Yuksel(2022) Interactive Graphics 13 - Environment Mapping
https://www.youtube.com/watch?v=PeAvKApuAuA&t=545s
Hernández Londoño, J. (2006). Mapeo de texturas a objetos 3D basado en la geometría de la
escena https://repositorio.unal.edu.co/handle/unal/7077
IMDB (2009) Avatar https://www.imdb.com/title/tt0499549/
Jon E. Marcus W. Marin W. Paul L.(1998)MIP-map Level Selection for Texture Mapping
https://www.researchgate.net/publication/3410856_MIP-
map_Level_Selection_for_Texture_Mapping
J.L Vaquero (2014) Embellece tu juego 2D - Normal Mapping
https://altplusf13.blogspot.com/2014/06/embellece-tu-juego-2d.html
Kimo K (2002)Displacement Mapping
https://www.researchgate.net/publication/228860117_Displacement_Mapping
Kwan-Hee, Y (s.f.) Projective Texture Mapping Component. Extensible 3D (X3D)
https://www.web3d.org/sites/default/files/presentations/Updates%20on%20Projective
%20Texture%20Mapping/%285%29ProjectiveTexturemappingDoc%28kwanhee%29
.pdf
Lingard, B. (1995). Bump Mapping.
https://web.cs.wpi.edu/~matt/courses/cs563/talks/bump/bumpmap.html
Sipiran, I (2022) Clase 11 - Cámara FPS
https://youtu.be/ImIS1cqKDlU?list=PLW5FjBgPdl7IaSq-oSp6GUVbWXIM9rSee
Tomomichi, K (2001) Detailed Shape Representation with Parallax Mapping
https://www.researchgate.net/publication/228583097_Detailed_shape_representation_
with_parallax_mapping
Winter (2018) - Environment Mapping https://cseweb.ucsd.edu
Wolfe, R. (1999). Teaching Texture Mapping Visually. Computer Graphics 31 (4), 66-70.
https://education.siggraph.org/static/HyperGraph/mapping/r_wolfe_mapping.pdf
Vivas, L (2017) Mapeado de Texturas https://docplayer.es/54180574-Mapeado-de-texturas-
computacion-geometrica-luis-alberto-vivas-tejuelo.html

28
Universidad Nacional Mayor de San Marcos
Universidad del Perú. Decana de América
VICERRECTORADO ACADÉMICO DE PREGRADO
COMISIÓN ORGANIZADORA DE LA ESCUELA DE ESTUDIOS GENERALES
Resolución Rectoral N°05389-R-16
AREA DE INGENIERIA

INVESTIGACIÓN OPERATIVA

DOCENTE : Mg. Avendaño Quiñonez, Johnny Robert

ALUMNOS : Salas Ramírez, Marcelo Mitchell

Romero Ruiz, Jose Daniel

Aranibar Apolinario, Jose

Villanueva Rivera, Darien

Quispe Masias, Caleb

Valdivia Quispe, Christian Guillermo Arturo

SECCIÓN : N°1

GRUPO : N°6

Lima-Perú

2022
Índice

1. Introducción al ocultamiento de superficies

2. Desarrollo

a. Definición de coherencia

b. Clasificación de algoritmos según su enfoque

c. Algoritmos de precisión al objeto

i. Algoritmo del pintor

ii. Algoritmo del árbol BSP

d. Algoritmos de precisión a la imagen

i. Back-Face Culling

ii. Warnock

iii. Z-Buffer

3. Aplicaciones

a. Algoritmo del pintor

b. Algoritmo del árbol BSP

c. Back-Face Culling

d. Warnock

e. Z-Buffer

4. Conclusiones

5. Referencias
OCULTAMIENTO DE SUPERFICIES

1. Introducción al ocultamiento de superficies

Cuando trabajamos en entornos virtuales usualmente usamos objetos

tridimensionales los cuales proyectaremos en planos bidimensionales, que

vienen a ser las pantallas de los dispositivos electrónicos, donde solo debería

ser visible la cara frontal de la escena con respecto a un determinado

espectador. Ya que no hacerlo así resultaría incorrecto y no debe hacerse

debido a que la presentación de superficies que no deberían ser visibles al

espectador en un entorno realista generaría costos y tiempos extra de

renderizado innecesarios.

Tenemos que la principal función de los motores de renderizado es

permitir espacios de mundos grandes, los cuales no deben disminuir su

velocidad de renderizado cuando el tamaño de los mundos se acerque a

infinito, sino que deben mantener una velocidad constante. Por eso aquí es

donde toman importancia los métodos de ocultamiento de superficies.

Los métodos de ocultamiento de superficies o también llamados

métodos de determinación caras visibles nos sirven para identificar qué partes

de una escena son visibles y cuáles no desde una dirección de vista en

particular. Lo que puede parecer un problema sencillo en la naturaleza pero que

en términos de programación resulta un problema complejo que se llevará a

cabo con un número elevado de cálculos.

Por esto se han desarrollado técnicas para determinar superficies

visibles, cuyo principal objetivo es evitar el despliegue de geometrías

innecesarias que no serán vistas por el observador siendo de esta forma

eficiente.
2. Desarrollo

a. Definición de coherencia

Los mundos virtuales están formados generalmente por polígonos

que tienen relaciones entre varias partes de la escena o entre sus

elementos cercanos. Estas interdependencias son conocidas como

coherencia y pueden ser especificadas de varias maneras, ya sea en

términos a nivel de imágenes como de objetos.

En términos más precisos coherencia hace referencia al grado en

que partes de una escena o su proyección presentan similitudes locales.

Así algoritmos para determinar superficies visibles pueden tomar ventaja

de la coherencia en escenas, en el sentido de que es posible reutilizar

cálculos realizados con una parte del mundo o imagen en zonas cercanas,

incluso sin cambios o con cambios incrementales que son más eficientes

hacer que recalcular todo de la nada.

Las principales propiedades de coherencia son las siguientes:

Coherencias de Objetos: En los objetos la comparación de coherencia se

realiza utilizando un objeto en lugar de un bordes o vértices. Si un objeto

A está por completo separado de un objeto B, entonces no habrá

necesidad de comparar bordes y caras que los componen.

Coherencia de Caras: Las superficies generalmente varían muy

poco a través de la cara de un cuerpo, lo que permite que cálculos

realizados sobre partes de una cara sean modificados incrementalmente

para aplicarlos a regiones adyacentes. Además, debido al tamaño

pequeño de los polígonos de un cuerpo comparados con el tamaño de la


imagen final, a menudo es cierto que, si una parte de la cara es visible, lo

es la cara completa.

Coherencia de aristas: La visibilidad de una arista cambia cuando

atraviesa otra arista visible o incide en una cara visible.

Coherencia de arista implicada: Si una superficie plana penetra a otra,

entonces la línea de intersección puede ser determinada utilizando dos

puntos de intersección.

Coherencia de línea de barrido: Si se genera una imagen

secuencialmente usando una línea de barrido a la vez. El hecho de que

haya relativamente pocos cambios de una línea de barrido a la otra y que

sean propensas a ser visibles en líneas de exploración consecutivas se

denomina coherencia de línea de barrido. Por lo tanto, una línea de

exploración se procesa actualizando únicamente la información de la

línea de barrido anterior.

Coherencia de áreas: La coherencia del área se deriva de la

coherencia de la imagen y se da si los píxeles adyacentes de una imagen

de trama tienen valores de intensidad o color iguales o similares. Esta

situación surge si, por ejemplo, un grupo de píxeles está cubierto por el

mismo objeto o la misma superficie visible. En porciones coherentes de

área de una imagen, el cálculo del valor de un píxel permite el cálculo de

valores de píxeles cercanos con un cálculo significativamente menor.

Coherencia de profundidad: La coherencia de profundidad

expresa el hecho de que la profundidad o la distancia al

espectador en algún punto de la superficie cambia gradualmente.

Las partes adyacentes de una superficie suelen tener una


profundidad cercana. Por lo tanto, la profundidad en algún punto

de la superficie se puede calcular de manera eficiente

actualizando gradualmente la información de profundidad de un

punto de la superficie cercano ya procesado. Además, es probable

que el orden de profundidad de las superficies en un píxel sea

similar al orden de los píxeles adyacentes.

Coherencia de cuadros: Denota el hecho de que es probable que

los cuadros sucesivos de una secuencia de animación o de vídeo sean

muy similares si la diferencia de tiempo es pequeña, es decir, la

proyección de un entorno tiende a cambiar continuamente con el tiempo.

La coherencia de cuadro es una consecuencia inmediata de la coherencia

temporal y la coherencia de objeto y puede considerarse una coherencia

temporal del espacio de la imagen. La coherencia de cuadro permite un

cálculo y almacenamiento eficiente de secuencias de video ya que

cálculos realizados en un proceso pueden ser utilizados en el siguiente.

b. Clasificación de algoritmos según su enfoque

Estos se pueden dividir en 2 grandes grupos según el enfoque, la

técnica y el ocultamiento que se logre.

El algoritmo de precisión al objeto (objeto-precisión):

Este algoritmo se centra principalmente en la eliminación de

partes no visibles en los diversos objetos que se encuentran en su

entorno. De este modo al momento de implementar este

algoritmo reducimos sustancialmente el esfuerzo computacional.


Figura N-1. Precisión al objeto

En este algoritmo se cumple que es independiente del

dispositivo de impresión. Si bien toda la imagen termina en una

pantalla el despliegue de la imagen se hace en una etapa

posterior, cuando ya se conoce que es lo que se va a dibujar.

El algoritmo de precisión a la imagen

(imagen-precisión): En donde determina que objeto en la imagen

es visible en cada pixel, sin dudas esto requiere un alto esfuerzo

computacional para representar los objetos en cada pixel.


Figura N-2. Precisión a la imagen

Cabe aclarar que este algoritmo depende del dispositivo

utilizado y el tamaño de la ventana que este ocupa, ya que al

cambiar la cantidad de píxeles se tienen que rehacer los cálculos.

c. Algoritmos de precisión al objeto

i. Algoritmo del pintor

Este algoritmo del pintor se originó para dar solución al

problema de visibilidad en gráficos 3D generados por

computadora. Esto es debido a que cuando deseamos proyectar

una escena de tres dimensiones en un plano de dos, se debe

determinar que será visible o no; en otras palabras, que se

superpone sobre otra imagen.

Este algoritmo funciona como si fuese un pintor, este

primero va dibujando el fondo, luego este va añadiendo capas

sobre capas, uno por uno, para poder representar los objetos que

desee en su pintura, pero a la vez que hace esto va ir cubriendo

las capas anteriores, los cuales ya no pueden ser visibles ni

recuperables, a menos que se rehagan.


En palabras más técnicas el algoritmo funciona de manera

que se van pintando polígonos en el plano de la vista

considerando la distancia del espectador, es decir que aquellos

polígonos que se encuentren más lejanos serán pintados primeros;

seguidamente, los polígonos más cercanos se irán pintando sobre

los polígonos más distantes.

Figura N-3. Se pintan primero las montañas lejanas, seguidas por el

prado; finalmente se dibujarán los objetos más cercanos, los árboles.

Para explicar cómo funciona más este método a

profundidad. Situaremos el siguiente ejemplo. En primer lugar,

se realiza la clasificación de profundidad en la que los polígonos

se enumeran según su orden de visibilidad o prioridad de

profundidad.

A su vez sabemos que el búfer de fotogramas está

pintado con el color de fondo. Después de eso, el polígono que

se encuentre más lejano ingresará al búfer de tramas. Para ello,

la información de los píxeles cambiará, es decir, que la

información de cierta parte del fondo, será reemplazada con la

del polígono que ingresara. Esto sucede repetidamente hasta

terminar con el polígono que tenemos más cercano.


Por lo general, se deben realizar comparaciones entre los

polígonos, para comprobar si estos se superponen sobre otro, es

para ello que existen métodos, siendo uno de los más utilizados

el mini-max; este propone dibujar rectángulos alrededor del

polígono, luego éste comprobará si los rectangulo se superponen

o no, si se llegan a observar los rectángulos, es porque los

polígonos no se superponen; caso contrario, los rectángulos no

se lleguen a ver del todo, se entiende que los polígonos están

superponiendose. Pero ahora ocurre una circunstancia, cual va

encima de cual, pues para esto, cada polígono, va sujeto a un

atributo que puede ser entendido como “altura”, este atributo

será comparado y aquel que cuente con mayor altura será puesto

por encima del polígono con menor altura.

Figura N-4. Ejemplo de superposición utilizando el método mini-max


ii. Algoritmo del árbol BSP

La Partición Binaria del Espacio o BSP por sus siglas en

inglés es un método para subdividir recursivamente un espacio

en elementos convexos teniendo como límite el espacio. Esta

subdivisión da paso a un representación de la escena mediante

una estructura de datos del árbol conocida como árbol BSP.

Los árboles BSP son principalmente utilizados en

videojuegos, en especial los de acción en primera persona.

Tomando el ejemplo de Doom, el mítico juego que tuvo una

gran trascendencia en el mundo de los videojuegos, fue uno de

los primeros de utilizar este modelo en su motor gráfico; otras

aplicaciones son en el ámbito de los gráficos 3D por

computador, esto debido a que el algoritmo del árbol incrementa

la eficiencia de renderizado; otros uso que tiene son el

procesamiento geométrico con forma, Constructive Solid

Geometry en herramientas CAD, detección de colisiones en

robótica y videojuegos 3D, y otras aplicaciones informáticas que

incluyen el manejo de estructuras espaciales complejas. La

eliminación de caras ocultas ya que gracias a los planos

divisorios del árbol conoceríamos qué polígonos están detrás o

delante, teniendo solamente que considerar determinadas ramas

del árbol a través de la posición desde la que nos estamos

posicionando en él.

La partición binaria del espacio es un proceso que divide

una escena recursivamente en dos hasta los requerimientos que


se deseen. Existen dos tipos de requerimientos, la detección de

colisiones, esta se va dividir hasta que cada parte sea

individualmente suficiente para ser comprobada la colisión; y el

renderizado, en este caso, se debe dividir hasta que cada parte

sea convexa, para posteriormente utilizar el algoritmo del pintor.

Figura N-5. Explicación del algoritmo del árbol BSP

Como se aprecia en la imagen el polígono irregular va

ser dividido recursivamente hasta obtener polígonos más

pequeños convexos como lo son el caso de F y G, que ya son

convexos y no necesitan mayor partición. Debido a que se debe

estar comprobando constantemente la convexidad de estos, lo

principal que se debe de tener un buen algoritmo, además debido

a que se utiliza la teoría de árboles de estructura de datos, el

algoritmo a su vez debe ser capaz de poder retornar en el árbol

en caso la división realizada no sea conveniente.


d. Algoritmos de precisión a la imagen

i. Back-Face Culling

Este algoritmo se basa en desechar las caras no visibles

de un sólido en un espacio 3D para ahorrarnos cálculos de

renderizado y aumentar considerablemente la optimización del

sistema; es por ello que es uno de los algoritmos más utilizados

debido a su simplicidad y al rápido cómputo que se requiere

para ejecutarlo.

Figura N-6. Comparación entre backfaces y no backfaces

Para poder determinar si una cara deberá renderizarse o

no utilizaremos el vector normal de cada cara conectado a un

punto de perspectiva externo al objeto.

Figura N-7. Perspectiva de un objeto


Si el ángulo formado entre el rayo de la cámara y la

normal es menor a 90° nos indica que dicha cara es visible para

nuestro punto de perspectiva y procedemos a renderizarla, caso

contrario la ocultaremos.

Figura N-8. Vértices del algoritmo

Procedimiento:

1. Buscar los vectores (A-B) y (A-C).

2. Hacer su producto vectorial y buscar la perpendicular

normal N.

3. Buscar el rayo de la cámara sustrayendo la posición del

punto A.

4. Hacer el producto escalar entre la normal N y el rayo de

la cámara.

5. Si el producto escalar es menor que cero no renderizar la

cara.
ii. Warnock

El algoritmo de Warnock es un algoritmo desarrollado

por John Warnock en 1969. Este algoritmo recursivo también es

conocido por proponer algoritmos de subdivisión de regiones,

centrándose en regiones de la imagen, capaces de calcular la

superficie visible de la escena más cercana al plano de

visualización.

El algoritmo de Warnock es parte del algoritmo “Hidden

Surface Removal (HSR)”, que nos permite saber qué vistas y

superficies son visibles desde una imagen llena de polígonos,

independientemente de cómo se superponen o se cruzan.

Figura N-9. Subdivisión de áreas.

El algoritmo de subdivisión de áreas, basado en el

método de divide y vencerás, es utilizado cuando no es tan fácil

de determinar cuáles polígonos son visibles en el área de dibujo.

“En dicho caso el área se divide en partes más pequeñas

haciendo uso de la recursividad. Eventualmente, el área será


representada por un solo polígono que no se interseca.”

(Johnson, A, 2005)

Clasificación de polígonos:

En cada llamada, cada polígono de la lista se clasifica en

una de estas cuatro situaciones respecto del bloque rectangular

de píxeles actual:

Figura N-10. De izquierda a derecha se encuentran las posibles

relaciones: (1) “dentro”, (2) “parcialmente dentro”, (3) “fuera” y (4)

“rodea”.

En la figura (1), el polígono se encuentra completamente

dentro del bloque . Llamado también polígono contenido.

En la figura (2), el polígono se encuentra parcialmente

dentro del bloque . Llamado también polígono intersecante.

En la figura (3), el polígono se encuentra fuera del

rectángulo de píxeles. Llamado también polígono exterior o

disjunto.

En la figura (4), el rectángulo de píxeles se encuentra

comprendido dentro del polígono. Llamado también polígono

circundante.
Función Recursiva:

La función recursiva tiene las siguientes condiciones de

inicio:

● El rectángulo inicial comprenderá todos los

píxeles, todo el viewport (ventana gráfica).

● La lista inicial contendrá todos los polígonos.

Conociendo todas las posibles relaciones entre el

polígono y el rectángulo, para decidir si se debe renderizar la

imagen o subdividir en cuatro partes iguales, se tienen los

siguientes casos:

1. Primer caso:

Figura N-11. Relación 1 entre polígono y bloque, (1) y (2).

En la figura (1), todos los polígonos están disjuntos al

bloque (rectángulo), por lo que se le rellena el rectángulo con el

color de fondo.

En la figura (2), hay un solo polígono que contiene

completamente el bloque (rectángulo), entonces se rellena al

rectángulo con el color de polígono.


2. Segundo caso:

Figura N-12. Relación 2 entre polígono y bloque, (3) y (4).

En la figura (3), se observa que el bloque contiene

completamente a un solo polígono, entonces procedemos a

rellenar del color de fondo el rectángulo y después dibujar el

polígono.

En la figura (4), observamos que solo existe un polígono

que intersecciona al rectángulo de píxeles, se rellena con el color

de fondo y luego dibujamos la parte del polígono contenido en

el bloque.

3. Tercer caso:

Figura N-13. Relación 3 entre polígono y bloque, (5).

En la figura (5), se nota varias figuras que se intersecan

al bloque, pero solo un polígono lo rodea completamente y

oculta a los demás polígonos, entonces se rellena de ese color.


4. Cuarto caso:

Figura N-14. Relación 4 entre polígono y bloque, (6).

En la figura (6), el bloque se subdividió tanto que llega a

ser el tamaño de un píxel, en esta situación, se dibuja este con el

color del polígono que se proyecta en su centro.

En el siguiente ejemplo se nota como se subdivide el

bloque en cuatro partes cada vez que no estamos en ninguno de

los casos anteriormente mencionados.

Figura N-15. Subdivisión del bloque.


Este algoritmo es de complejidad O(np), donde “n” es el

número de polígonos que encontramos en la lista y “p” el

número de píxeles contenidos en la ventana gráfica.

El Pseudocódigo del algoritmo Warnock es el siguiente:

Warnock (ListaPoligonos PL, ViewPort VP)

Si (LP simple en VP) entonces

Dibuja LP en VP

Sino

Dividir VP en VP1, VP2, VP3, VP4

Warnock (LP en VP1, VP1)

Warnock (LP en VP2, VP2)

Warnock (LP en VP3, VP3)

Warnock (LP en VP4, VP4)

FinSi

FinAlgoritmo

Este Pseudocódigo primero simple verifica si solo existe

un polígono en el ViewPort, caso contrario que existan muchos

polígonos, solo uno debe contener completamente al bloque.

iii. Z-Buffer

Este procedimiento también se conoce como el método

z-buffer porque la profundidad de un objeto generalmente se

mide desde el plano de visión a lo largo del eje z del sistema

visual. Cada superficie de la escena se renderiza por separado,

en un único punto a lo largo de la superficie. Este método

generalmente es adecuado para escenas con solo contienen


superficies poligonales, ya que los valores de profundidad se

pueden calcular muy rápidamente y el método es fácil de

implementar. Sin embargo, este método se puede utilizar en

superficies que no son planas.

Figura N-16. Figuras en posición del plano de visión (x,y)

Aunque esta es una técnica bastante simple y lenta, se usa

en la mayoría de los motores gráficos 3D comerciales porque

puede mejorar significativamente el rendimiento al determinar

qué objetos mostrar en el tiempo. Se han propuesto algoritmos

que explotan un z-buffer jerárquico para acelerar las operaciones

de eliminación de oclusión. Otra técnica ampliamente utilizada,

al menos eficiente, es el algoritmo del pintor

Figura N-17. Representación 3D del Z-Buffer


Funcionalidad

Cuando una tarjeta gráfica 3D representa un objeto, la

profundidad de representación de píxeles se almacena en el

z-buffer. Al comienzo de una nueva escena, el z-buffer se

restablece y, por lo general, otorga a cada celda un valor de 1,0.

Dado que la profundidad se almacena como un valor flotante

entre 0 y 1, 1,0 representa la profundidad del objeto absoluto

más lejano. Asimismo, si se va a mostrar otro objeto en el

mismo punto, la tarjeta gráfica compara la profundidad de los

dos objetos superpuestos; si el nuevo objeto está más cerca del

espectador, el valor de píxel correspondiente reemplaza la celda

anterior y el z-buffer también se actualiza con la nueva

profundidad.

Figura N-18. Ejemplo de la funcionalidad del algoritmo Z-Buffer

La siguiente figura compara los valores z de p1 y p2 y

almacena el valor z más grande en el z-buffer. Si p1 precede a

p2, el punto (x, y) mostrará el punto de color p1 en la pantalla.

Lo que se hace es comparar las profundidades de ambos gráficos

para representar el objeto más cercano al observador. La


profundidad elegida se guardará en el z-buffer reemplazando a

la anterior.

Procedimiento

Se inicializa el buffer con profundidad y el buffer de

enfriamiento de modo que para todas las posiciones de buffer (x,

y), tal que profundidad (x, y) = 0, enfriamiento (z, y) = I

- Se calcula la profundidad de z para cada posición

de (x, y) en el polígono.

- Si z> profundidad (x, y)' entonces se establece

profundidad (x, y) = z enfriamiento (x, y) = Isurf

(x, y)

donde Ibackgnd es el valor para la intensidad del fondo y Isurf (x,

y) es el valor de intensidad proyectada para la superficie en la

posición de píxel (x, y). Una vez que se procesan todas las

superficies, el buffer con profundidad contiene valores de

profundidad para las superficies visibles y el buffer de

enfriamiento los valores de intensidad correspondientes para esas

superficies.

Codificación

Funciones para habilitar o deshabilitar el buffer de

profundidad

- glEnable(GL_DEPTH_TEST);

- glDisable(GL_DEPTH_TEST);
Para habilitar el uso de la función

glEnable(GL_DEPTH_TEST) tendremos que haber inicializado

el sistema con el Buffer de Profundidad:

- glutInitDisplayMode(GLUT_DOUBLE | GLUT_RGB |

GLUT_DEPTH);

El buffer de profundidad se puede limpiar utilizando la

siguiente función:

- glClear( GL_DEPTH_BUFFER_BIT );
3. Aplicaciones

a. Algoritmo del pintor

Figura N-19. Ejemplo del algoritmo del pintor utilizando un video de la

plataforma YouTube (https://www.youtube.com/shorts/TRBobJj_gCw)

Como se observa en el video, el autor Alexis Bacor, crea un

programa el cual va generando pequeños rectángulos de colores

varios, como ocurre en el algoritmo del pintor, en este caso no se

dibuja primero el fondo y se van añadiendo objetivos, sino que se

observa que cada rectángulo tiene un atributo de “altura”, por lo cual

al poner uno encima de otro, se superpone aquel que tenga mayor

altura, eliminando lo que se encuentra debajo.


b. Algoritmo del árbol BSP

Figura N-20. Ejemplo del algoritmo del árbol BSP en el videojuego

DOOM utilizando un video de la plataforma YouTube

(https://www.youtube.com/watch?v=e0W65ScZmQw)

Como se mencionó anteriormente, el algoritmo del

árbol BSP era mayormente utilizado para videojuegos, en este

caso, el primer videojuego que utiliza este algoritmo fue

DOOM, este fue aplicado en el motor gráfico para la

renderización de los escenario, es decir, que este iba

calculando mediante el algoritmo del árbol BSP que

superficies eran pintadas y cuál no, como se observa los

polígonos se van segmentando para generar polígonos más

pequeños convexos, que posteriormente son pintados con una

capa blanca y posiblemente estos después serán aplicados una

textura o algo relacionado.


c. Back-Face Culling

Figura N-21. Ejemplo del uso de Back-Face Culling en Cinema 4D

(https://www.youtube.com/watch?v=QHUo2j-_G5Q)

En el video se observa una habitación, hecho en el software

Cinema 4D, a la cual se le aplican los efectos del back-face culling y

se pueden apreciar como las caras que se encuentran al frente se

visualizan, mientras que las caras posteriores se ocultan dependiendo a

la perspectiva del observador.


d. Warnock

Figura N-22. Ejemplo de Algoritmo de Warnock utilizando un video de

plataforma Youtube (https://www.youtube.com/watch?v=jST76av8FXM)

Como se observa el video del autor Leo Ono, se representa una

animación 3D donde a través del java netbeans se codifica el algoritmo,

al no ser un polígono simple en la ventana gráfica (viewport), se va

dividiendo horizontal y verticalmente (cuadrantes) de igual tamaño y

luego se llama recursivamente al algoritmo para cada cuadrante, modo

que solo contenga polígonos que sean visibles a ese cuadrante.


e. Z-Buffer

Figura N-23. Ejemplo del algoritmo Z-Buffer utilizando un video de la

plataforma YouTube (https://youtu.be/dU6h2i67Afs)

Como se observa en el video del autor Efrain Gonzale, se

representa una animación 3D donde para cada posición en cada

superficie de la figura, se comparan los valores de profundidad con los

valores almacenados previamente en el buffer con profundidad para

determinar la visibilidad.
4. Conclusiones

- Los algoritmos mostrados en esté trabajo sirven para ocultar el objeto,

solo mostrando la perspectiva del observador en la ventana de

visualización.

- Logramos representar un modelo tridimensional gracias a las técnicas

mostradas.

- Logramos concluir que el Z-Buffer es la técnica más apropiada cuando

tratamos de representar la mayor cantidad de imágenes en una ventana de

visualización determinada.
5. Referencias

Algoritmo de pintor en gráficos por computadora – Acervo Lima. (2021).

Acervolima.com.

https://es.acervolima.com/algoritmo-de-pintor-en-graficos-por-computadora/

Árbol BSP - EcuRed. (2022). Ecured.cu. https://www.ecured.cu/%C3%81rbol_BSP

Bacot, A. (2015). Genetic Painter Algorithm of Mona Lisa [YouTube Video]. In

YouTube. https://www.youtube.com/shorts/TRBobJj_gCw

de, C. (2006, March 24). Algoritmo del pintor. Wikipedia.org; Wikimedia Foundation,

Inc. https://es.wikipedia.org/wiki/Algoritmo_del_pintor

de, C. (2007, June 19). Partición binaria del espacio. Wikipedia.org; Wikimedia

Foundation, Inc.

https://es.wikipedia.org/wiki/Partici%C3%B3n_binaria_del_espacio

Efraín González Linares. (2010). Z-Buffer funcionando. [YouTube Video]. In YouTube.

https://www.youtube.com/watch?v=dU6h2i67Afs

Emerald-england. (2014, November 8). Superficies visibles. SlideServe.

https://www.slideserve.com/emerald-england/superficies-visibles

Fetter, D. (2014). DOOM under the hood [YouTube Video]. In YouTube.

https://www.youtube.com/watch?v=e0W65ScZmQw

Groller, E., & Purgathofer, W. (1993). Coherence in computer graphics.

https://www.witpress.com/Secure/elibrary/papers/VID93/VID93005FU.pdf

Johnson, A (20 de marzo de 2005). Introduction to Computer Graphics Course Notes

Main Page [Introducción a los gráficos por computadora - Notas del curso

Página principal]. Repositorio institucional de la Universidad de Chicago

Illinois.

https://www.cs.uic.edu/~jbell/CourseNotes/ComputerGraphics/index.html
Kustaa. (2012). Backface Culling en Cinema 4D [YouTube Video]. In YouTube.

https://www.youtube.com/watch?v=QHUo2j-_G5Q

Ono, L. (2016). Java 3D from scratch - Warnock’s algorithm test (quadtree) [YouTube

Video]. In YouTube. https://www.youtube.com/watch?v=jST76av8FXM

Proyecto + Taller ( Indagacion e implementacion del algoritmo warnock). (2012).

Jaavargasar.github.io. https://jaavargasar.github.io/workshop.html‌

Warnock’s Algorithm. (2022). Unipi.it.

http://medialab.di.unipi.it/web/IUM/Waterloo/node68.html
Realidad Virtual 1

Realidad Virtual

Christian E. Machado Palma

José A. Tolentino Tantaruna

Leonel L. Quijaite Andia

Rommina S. Terreros Cotera

Yesenia A. Torres Donayre

Universidad Nacional Mayor de San Marcos


Realidad Virtual 2

Tabla de contenido

Introducción 4
Definición de la Realidad Virtual 5
Conceptos que estructuran la Realidad Virtual 5
Inmersión 5
Manipulación 5
Navegación 6
Características de la realidad virtual 6
Pasivo 6
Exploratorio 6
Interactivo 6
Otros conceptos 7
Realidad Aumentada 7
Realidad Mixta 7
Historia de la Realidad Virtual 7
Tipos de Realidad Virtual 9
Realidad virtual inmersiva 9
Realidad virtual no inmersiva 10
Realidad virtual semi-inmersiva 10
Inducción electrónica de los sentidos 11
Representatividad 11
Dispositivos de entrada o motrices 12
Dispositivos de salida o sensoriales 12
Herramientas Utilizadas 13
Software 13
Software para el modelaje Tridimensional 13
Software para Gráficos Bidimensionales 13
Software para Simulación 13
Hardware 14
Dispositivos para Estimulación de los Sentidos 14
Dispositivos Visuales 14
Dispositivos Auditivos 14
Tarjetas Aceleradoras Gráficas 14
Técnicas de Interacción en la Realidad Virtual 14
Técnicas Basadas en la Acción de Selección 15
Reconocimiento de Miradas 15
Gestos 15
Entrada del Controlador 16
Realidad Virtual 3

Técnicas Basadas en la Acción de Manipulación 16


Manipulación basada en las posibilidades 16
Escalar/Rotar/Trasladar (S/R/T) 16
Técnicas Basadas en la Acción de Locomoción 17
Teletransporte 17
Locomoción y vección 17
Movimiento sobre rieles 17
Dirección dirigida por la mirada 17
Situación Actual de la Realidad Virtual 18
Importancia de la Realidad Virtual en la Actualidad 19
Aplicaciones de la Realidad Virtual 20
Aplicación de la realidad virtual en medicina 20
Aplicación de la realidad virtual en educación 21
Aplicación de la realidad virtual en ocio y entretenimiento 21
Productos 23
Realidad Virtual 360 de la FISI 23
Realidad Virtual Google Cardboard en Unity 23
Instalacion de modulos 23
Importación de cardboard SDK 25
Configuración del proyecto 28
Conclusión 35
Referencias bibliográficas 36
Realidad Virtual 4

Introducción

El presente trabajo de investigación trata la realidad virtual desde la definición de la

misma, su historia, su clasificación, las herramientas que utiliza hasta las aplicaciones en

diversos sectores. La realidad virtual es entendida como el desarrollo de un entorno o espacio

virtual ficticio o simulación de la realidad, esto es apoyado con herramientas tecnológicas en

donde algunas serán más necesarias que otras de acuerdo a la clasificación de la realidad

virtual. El principal objetivo de este trabajo es explicar los conceptos que se encuentran

relacionados al tema. Asimismo, presentar productos que reflejan estos conceptos

desarrollados en el presente documento; entendiéndose por productos a programas

desarrollados con la librería OpenGL a través de softwares definidos en actual documento o

videos que ejemplifiquen la realidad virtual y logre ser entendida de una manera más

dinámica.

El desarrollo de este trabajo, resulta significativo pues la realidad virtual nos permite

diseñar entornos artificiales en donde se promueve el aprendizaje de manera experimental o

en todo caso el aprendizaje de escenarios realizados para propósitos específicos. Del mismo

modo se describen las herramientas utilizadas para la ejecución de la realidad virtual, es

decir, el hardware y software; además, de las técnicas basadas en la acción de selección, de

manipulación y de locomoción. Al mismo tiempo resulta importante mencionar que existen

sectores empresariales que se benefician de la realidad virtual ya sea para capacitaciones

laborales o de uso para clientes como recurso complementario de algún tratamiento. La

verdad es que la realidad virtual se encuentra cada vez más presente en nuestras vidas desde

su uso frecuente en videojuegos, en la educación, en el campo de la salud, entre otros

sectores.
Realidad Virtual 5

Definición de la Realidad Virtual

Según Navarro et al. (2018) la realidad virtual está definida como un espacio virtual

que aparenta ser real o no real en donde encontramos a un usuario con la sensación de

sentirse inmerso en dicho espacio, que además, se desarrolla mediante un sistema

informático. Por otro lado, para lograr visualizar los entornos virtuales creados se requiere de

ciertos dispositivos que variarán dependiendo del sistema y del nivel de inmersión.

Cabe recalcar que de considerarse el movimiento como elemento de la realidad

virtual, entonces este se reconoce como ilimitado y se requiere de dispositivos adicionales

como las plataformas de detección de pasos aunque este tipo de dispositivo puede alterar el

equilibrio de algunos usuarios, ante ello, se suele cambiar por mandos que indiquen el cambio

de posición requerido (Navarro et al., 2018).

Conceptos que estructuran la Realidad Virtual

A continuación se describirán algunos conceptos que se encuentran inmersos en la

estructura de la realidad virtual como el concepto de inmersión, manipulación y navegación.

Inmersión

De acuerdo a Zapatero (2011) este concepto en la realidad virtual significa la

sensación que se genera al incorporarse en un ambiente virtual real o no, creado por un

ordenador. Esta característica de la realidad virtual, la divide en dos tipos: realidad virtual

inmersiva y realidad virtual no inmersiva.

Manipulación

Este concepto consiste en interactuar con el ambiente virtual como si lo hiciéramos

en la vida real; sin embargo, hay que tener en cuenta que esto tiene sus limitaciones y solo es

cuestión de tiempo para encontrarse al mismo nivel de interactividad (Zapatero, 2011). El

concepto de la manipulación lo podemos observar en equipos periféricos como el guante de


Realidad Virtual 6

datos, en el caso de la realidad virtual inmersiva; por otro lado, el ratón sirve para interactuar

en una realidad virtual no inmersiva.

Navegación

El presente término se entiende como “la libertad de movimiento en un espacio

tridimensional” (Zapatero, 2011), esto quiere decir que se tiene un control completo del

entorno virtual en 3D pudiéndose desplazar en cualquier dirección deseada del usuario a

través de su ordenador.

Características de la realidad virtual

Como se mencionó previamente, la realidad virtual es un medio en el cual diferentes

usuarios pueden participar en un mismo ambiente siendo esto generado por un ordenador; sin

embargo, de acuerdo con Levis (2006) la realidad virtual debe tener presente tres

características básicas que se explicaran a continuación:

Pasivo

Entendemos la característica pasiva en la realidad virtual como aquello inmersivo

pero no interactivo. Esto significa que el espacio virtual en el que se encuentra el usuario

podrá ver, oír y según su nivel de inmersión podrá “sentir” lo que sucede. Asimismo, respecto

al movimiento, solo se presenta la sensación de este mismo, pero no es posible ejercer un

control sobre este.

Exploratorio

Esta característica hace referencia al desplazamiento que se puede realizar en el

espacio virtual a explorar.

Interactivo

En este sentido, lo interactivo se encuentra relacionado con la experimentación,

exploración y modificación del entorno virtual. Asimismo, es importante resaltar que existen

niveles de interactividad; así en un entorno inmaterial ideal se tiene una libertad aparente, es
Realidad Virtual 7

decir, una libertad bajo el marco de un programa informático. Por añadidura, cuanto menos

intrusivo y más intuitivo sea, el entorno virtual tendrá mayor nivel de interactividad.

Otros conceptos

Existen otros conceptos que suelen confundirse, por lo que debemos entender y saber

diferenciarlo de la realidad virtual.

Realidad Aumentada

Según Moreno et al. (2017) define la realidad aumentada de la siguiente manera: “La

realidad aumentada es aquella tecnología que nos permite crear entornos de aprendizaje

mixtos donde se combinan elementos virtuales y reales” (p.2).

En relación a lo mencionado por el autor Moreno, los elementos virtuales son objetos

virtuales tridimensionales que se unen a la realidad con el propósito de complementar y

beneficiarse lo máximo posible de esta aplicación. Por otro lado, la realidad virtual crea un

entorno completamente en lugar de crear uno o varios elementos complementarios a la

realidad.

Realidad Mixta

Según Milgram y Kishino (1994) la realidad mixta es una tecnología que se encuentra

entre los extremos del continuo de virtualidad, esto es, el mundo real y el mundo virtual. En

otras palabras, podemos definir la realidad mixta como una combinación entre el universo

físico y digital que permite interacción tridimensionales naturales e intuitivas entre las

personas, los dispositivos y el entorno.

Historia de la Realidad Virtual

Si bien la realidad virtual es mayormente conocida por las personas gracias a los

avances tecnológicos de la última década, lo cierto es que el concepto de esta proviene de

1965, cuando Ivan Sutherland, considerado como “el padre de la computación gráfica”, la

presenta como “crear un mundo que se vea en una pantalla y que parezca real, con sonido
Realidad Virtual 8

real, que se sienta real, y que responda de manera realista a las acciones del espectador”

(Historias Para Un Cafe, 2022, 2m26s). A continuación se hablará brevemente de la historia

de la realidad virtual, mostrando los diversos aportes que se han hecho a través de los años,

los cuales la llevaron a convertirse hoy en día en una herramienta importante para

investigación y la industria, sobre todo de los videojuegos.

● A inicios de la década de 1960, Morton Heilig creó el Sensorama, un aparato que

podía estimular los sentidos de un individuo con el objetivo de simular una

experiencia real.

● En 1965, Ivan Sutherland publicó el artículo “The ultimate display”, en el cual

describe los conceptos básicos de la realidad virtual y el sistema HMD (head-mounted

display).

● Ivan Sutherland inventó La espada de Damocles, en 1968, el cual es el primer sistema

HMD, siendo el primer sistema de realidad virtual construido, no solo como concepto.

● En 1975, Myron Kreuger desarrolló su obra Videoplace, un sistema que permitía la

interacción de usuarios sin utilizar cascos, sino proyecciones en las paredes. Él acuñó

el término de “realidad artificial” a su obra.

● A fines de los años 70, el MIT logra mapear la ciudad de Aspen, Colorado. En la

simulación, el usuario podía manejar por las calles, bajarse y explorar edificios.

● En 1982 se desarrolló el “Super Cockpit”, un proyecto militar estadounidense que

tenía el objetivo de simular el pilotaje de aviones de combate.

● La NASA desarrolló el Vived en 1986, el cual eran unas gafas de realidad virtual que

permitían la visión de 120° en cada ojo, además de otras funcionalidades. Fue una de

las primeras gafas VR mostradas al público.


Realidad Virtual 9

● A principios de la década de 1990, Sega desarrolló el Sega VR, un casco de realidad

virtual dirigido al público convencional. Sin embargo, el producto nunca llegó al

mercado.

● La película “El hombre del jardín” se estrenó en 1992. Fue una de las primeras

películas con temática de realidad virtual.

● En 1995, Nintendo lanzó al mercado el Virtual Boy, una de las primeras consolas de

videojuegos de realidad virtual que proyectaba imágenes 3D monocromáticas.

● En 2012, Palmer Luckey fundó la compañía Oculus VR y diseñó el Oculus Rift, un

casco de realidad virtual para videojuegos de nueva generación.

● En los años posteriores, varias empresas empezaron a desarrollar sus propios

proyectos de realidad virtual, tales como el Cardboard de Google, Playstation VR,

Vive de HTC, entre otros.

Tipos de Realidad Virtual

La inmersión en un entorno virtual es un estado en el que “el usuario se olvida de que

está en un mundo artificial; es decir, lo vive con los cinco sentidos y, a diferencia de la

inmersión cinematográfica, interactúa con el entorno virtual” (Bockholt, 2017). El nivel de

inmersión que tenga el usuario es lo que define las tres categorías en las que se divide la

realidad virtual.

Realidad virtual inmersiva

Utiliza diversos equipos tecnológicos, tales como cascos o gafas de realidad virtual,

auriculares, guantes, trajes especiales etc., con el objetivo de estimular la mayor cantidad de

sentidos posibles del usuario para que este tenga la sensación de formar parte completamente

de un entorno virtual, sin tener contacto con la realidad (Otegui, 2017). En este tipo de

entornos, el usuario es el protagonista, puesto que se le permite una gran cantidad de

interacciones, como moverse, sujetar cosas, tomar decisiones, etc.


Realidad Virtual 10

La realidad virtual inmersiva puede ser usada en diversos ámbitos, tales como la

medicina, la educación, la publicidad, la ingeniería, entre otros; aunque es mayormente

conocida por su aplicación en los videojuegos, siendo esta la industria que generó los

mayores aportes y avances tecnológicos en el campo de la realidad virtual de la última

década.

Realidad virtual no inmersiva

El tipo de realidad virtual más común de todas. En esta, el usuario no se sumerge en el

entorno virtual, ya que mantiene gran interacción con el entorno real. Además de una pantalla

y elementos como el teclado, mouse, etc., no se requieren aparatos tecnológicos que

estimulen los sentidos. Esto es mayormente visto en los videojuegos, puesto que muchos de

estos “demuestran cómo puede conseguirse una sensación de inmersión psicológica aún

cuando no exista inmersión sensorial completa” (Levis, 2006). En otros ámbitos en los que

es muy usado es en el diseño industrial, visualizaciones científicas y en la arquitectura.

Realidad virtual semi-inmersiva

Es la combinación de la realidad virtual inmersiva y no inmersiva, puesto que en esta

se utilizan medios virtuales y físicos. El objetivo es introducir al usuario en un mundo virtual,

pero permitiéndole mantener contacto con elementos de la realidad. En este tipo de realidad

virtual también se hace uso de aparatos tecnológicos, tales como gafas, controles, dispositivos

que siguen el movimiento de la cabeza, etc., aunque lo más usual son las pantallas que rodean

al usuario y proyectas imágenes simultáneamente.

Si bien, la realidad virtual semi-inmersiva se puede aplicar en distintas actividades, es

mayormente usada en diversos tipos de simuladores, como simuladores de vuelo o

simuladores de conducción de vehículos, puesto que, por lo general, estos cuentan con

cabinas que imitan el entorno real, pero con pantallas que proyectan la simulación.
Realidad Virtual 11

Inducción electrónica de los sentidos

La realidad virtual puede entenderse como un intento por crear dispositivos de

comunicación (interfaz) con el ordenador más simples y eficaces. Un sistema informático de

realidad virtual responde a un esquema básico enfocado en 4 ejes que son:

● El Usuario

● El Ordenador

● Dispositivos de Entrada y Salida

● El entorno virtual

Gracias a diferentes dispositivos (o interfaces) de entrada y de salida de datos el

equipo de control sirve de puente en “tiempo real” (de manera instantánea) entre el usuario y

el entorno virtual. También existe un entorno virtual que fue creado por un diseñador (el

creador del programa) y un ordenador que actualiza la escena simulada de acuerdo a las

instrucciones generadas por las acciones del usuario que son introducidas a través de los

dispositivos de entrada mientras las interfaces de salida sirven para enviar continua e

instantáneamente diferentes tipos de estímulos (o informaciones) hacia el aparato sensorial

del operador.

Después de todo existe una estrecha relación entre el ser humano y la máquina. Para

la construcción de modelos virtuales se tiene que tener en cuenta 3 puntos:

Representatividad

Todos los objetos de la escena deben representar propiedades físicas, geométricas,

cinemáticas y dinámicas que son imprescindibles para la utilización.

Las presentaciones de las máquinas y dispositivos existentes están muy lejos de lo que

la percepción y el sistema cognoscitivo humano exigen para considerar que algo forma parte

de la realidad física. Así, como señalan Pimentel y Texeira (1995) “la construcción de
Realidad Virtual 12

mundos virtuales requiere la comprensión de las reglas y el comportamiento de la mente” (p.

205).

Dispositivos de entrada o motrices

Estos dispositivos deben ser capaces de interpretar los gestos y acciones del usuario

de manera que el entorno virtual cambie instantáneamente de acuerdo a como lo haría si se

tratase de la vida real. A pesar de que existen algunas aplicaciones que se aproximan a este

objetivo, Lajirani (1994) “señala que en el mejor de los casos llevará muchos años desarrollar

sistemas de aplicación general que permitan una interactividad espontánea.”(p.10)

Dispositivos de salida o sensoriales

Estos dispositivos son instrumentos capaces de transmitir a los sentidos del usuario,

de manera rápida, la situación general en la que se encuentra la escena generada por el

sistema informático. Información que para ser eficaz debe llegar a los órganos sensoriales a

los que está dirigida. Es lo que Coiffet (1995) denomina distribución primaria de los tipos de

información.

Así, por ejemplo, en un entorno sintético tridimensional la impresión de

desplazamiento físico se obtiene a través de dos tipos diferentes de estímulos sensoriales: el

visual y la sensación de correlación muscular entre los movimientos del cuerpo y la

modificación aparente en el espacio artificial.

Dado que ciertos sentidos permiten controlar la calidad de la información destinada

hacia otro sentido, se puede aprovechar esto para generar interfaces de salida de un sistema

de realidad virtual. Función que habitualmente recae en los sistemas de visualización, en

muchos casos la única interfaz de salida disponible.


Realidad Virtual 13

Herramientas Utilizadas

Existen variedad de recursos usados en la Realidad Virtual, estos sistemas cuentan

con diferentes dispositivos adicionales de entrada y de salida, así como controladores

necesarios para la interacción con el usuario. Teniendo en cuenta el modelo realizado por

(Escartin, 1999), se dividirá en el software empleado en el desarrollo de sistemas de realidad

virtual y el hardware.

Software

Software para el modelaje Tridimensional

Dado que un ambiente virtual es un medio 3D, todos los objetos en un mundo virtual

tienen que ser descritos de manera que puedan ser vistos desde cualquier ángulo. Una simple

imagen del objeto no es suficiente. La verdadera geometría de los objetos tiene que

especificarse usando un software de modelaje 3D, y luego exportarse hacia el ambiente

virtual.

Software para Gráficos Bidimensionales

Este proceso recibe el nombre de “mapeo de textura” y requiere de software de

gráficos bidimensionales, llamados a menudo “programas para pintar”. Las imágenes creadas

con este tipo de software (o fotografiadas, digitalizadas, y luego editadas con este software)

pueden ser luego usadas para “forrar” la armazón geométrica producida en el software de

modelaje 3D para crear objetos detallados, con interesantes efectos realísticos.

Software para Simulación

El software tiene que ser capaz de procesar las señales provenientes de los

localizadores y otros dispositivos de entrada para actualizar las visualizaciones por lo menos

20 veces cada segundo. Esto sin tener en cuenta que pueden haber más de un participante en

el ambiente virtual, más de un conjunto de dispositivos de entrada y de visualización y más

de una computadora conectada en red que estén ejecutando la simulación.


Realidad Virtual 14

Unity. Es un motor de juegos que proporciona un entorno de desarrollo para

videojuegos en 3D y 2D, así como una herramienta de creación integrada para crear

contenido receptivo como animación 3D, visualización arquitectónica y realidad virtual.

Hardware

Dispositivos para Estimulación de los Sentidos

Uno de los principales objetivos de un sistema de Realidad Virtual es estimular los

sentidos con información de la “realidad” generada por la computadora, de modo similar a

como se percibe el mundo real.

Dispositivos Visuales

Dado que la mayoría de las personas poseen dos ojos, un modo natural de ver el

mundo requiere no un display, sino dos. Un modo común de producir una vista 3D de un

mundo virtual es colocar un pequeño monitor de computadora frente a cada ojo.

Dispositivos Auditivos

La mayoría de las personas también tiene dos orejas. Esta es la principal razón para la

preferencia por el sonido estereofónico. Exactamente igual que dos perspectivas visuales

producen una imagen 3D, dos perspectivas de audio pueden producir un paisaje sonoro 3D.

Tarjetas Aceleradoras Gráficas

Desde la producción de tarjetas aceleradoras gráficas 3D que con el pasar del tiempo

sus costos fueron disminuyendo, por ejemplo Silicon Graphics ha desarrollado nuevas

versiones que podrían acelerar el desarrollo de ambientes de RV con un equipamiento más

barato. También existen tarjetas de sonido 3D que permiten producir sensaciones de

ubicación a una pequeña cantidad de fuentes de sonido independiente.

Técnicas de Interacción en la Realidad Virtual

Uno de los objetivos de la realidad virtual es que el usuario pueda experimentar la

sensación de ser parte del escenario o estar inmerso en él. Al pasar los años, las
Realidad Virtual 15

investigaciones relativas a este objetivo han logrado obtener resultados favorables, con los

cuales la interacción del usuario con el objeto o escenario va adoptando mayor naturalidad.

Estas técnicas se centran en acciones específicas entre las cuales podemos encontrar a

la selección, la cual se basa en señalar con qué elemento de la interfaz de usuario se desea

interactuar en el sistema de realidad virtual, tras la selección, el elemento seleccionado se

convertirá en el punto principal de las demás interacciones que emita el usuario. El

reconocimiento de miradas, los gestos y las entradas desde el controlador son unos ejemplos

de cómo puede realizarse la selección. Por otro lado, tenemos a la acción de manipulación, la

cual entra al escenario luego de realizarse la selección, consiste en emitir órdenes a los

elementos seleccionados previamente. El movimiento del usuario en el entorno de realidad

virtual es fundamental para que pueda existir una correcta interacción con los elementos, es

por ello que la acción de locomoción es relevante en este contexto.

Técnicas Basadas en la Acción de Selección

Reconocimiento de Miradas

Realizar la selección a través de esta técnica puede basarse en la postura de la cabeza

o la mirada real del usuario, esta última opción se caracteriza por ser más compleja y costosa

pues implicaría un hardware especializado en el seguimiento ocular. En contraste, tenemos a

los giroscopios que poseen los cascos de realidad virtual, estos detectan con mayor facilidad

la posición de la cabeza del usuario.

Para que ocurra la acción de selección, el usuario debe tener una postura adecuada en

función del elemento que desea seleccionar. Luego, el usuario mira directamente al elemento

elegido y la retícula de la interfaz de selección detectará esta señal.

Gestos

Capturar los gestos del usuario se ha convertido en una técnica más común dado su

facilidad de uso y eficiencia. Gracias a las cámaras, se pueden reconocer una diversa serie de
Realidad Virtual 16

gestos, a su vez se emplean accesorios pasivos de mano y controladores activos. La

confirmación de la selección se puede lograr con punteros láser de mano o gestos claves que

sean reconocidos por la interfaz de usuario.

Entrada del Controlador

Se caracteriza por su bajo coste, consiste en un controlador que desprende un rayo

láser de sí, este se dirige al elemento objetivo para realizar la selección, a su vez el usuario

puede reorientar la dirección a la que está apuntando y con ello facilitar la interacción.

Si bien se trata de una buena técnica de selección, requiere que el diseñador del

entorno de realidad virtual esté al pendiente de que no ocurran problemas como la oclusión,

en la que un elemento se encuentra oculto detrás de otro; o las selecciones accidentales,

producidas por la intersección del láser con un elemento no deseado durante la reorientación

del láser hacia el elemento objetivo.

Técnicas Basadas en la Acción de Manipulación

Manipulación basada en las posibilidades

Luego de que el usuario haya seleccionado un elemento objetivo procederá a

manipularlo de acuerdo a sus necesidades, pero estas acciones se deben realizar teniendo en

cuenta las limitaciones del elemento. Por ejemplo, el usuario no puede transformar las

dimensiones del elemento si este no ha sido programado para responder a dicha función. Es

por este motivo, que el desarrollador del entorno virtual, debe asegurarse de que no existan

incongruencias entre los elementos del entorno y las capacidades de entrada del hardware

utilizado por el usuario.

Escalar/Rotar/Trasladar (S/R/T)

La manipulación de un elemento también se puede dar mediante el cambio de su

tamaño (escalamiento), la reorientación (rotación) o el desplazamiento hacia otro lugar

(traslación). El usuario puede interactuar con el sistema de realidad virtual mediante


Realidad Virtual 17

controladores sencillos o complejos, con los que manipulan los elementos, siempre y cuando

se cumpla la técnica previamente mencionada (manipulación basada en las posibilidades).

Técnicas Basadas en la Acción de Locomoción

Teletransporte

Dentro del entorno de realidad virtual el usuario puede tomar la decisión de moverse a

algún lugar del escenario. Esta acción se puede combinar con acciones como la rotación,

mencionado en las técnicas de manipulación. Generalmente, esta acción se cumple con la

ayuda de un raycast, elemento perteneciente a la cámara del dispositivo que apunta hacia un

objetivo específico, aunque también se pueden utilizar otros métodos.

Locomoción y vección

Uno de los problemas más comunes es el conflicto visual-vestibular, el cual surge

mientras el usuario interactúa con el entorno de realidad virtual. Usualmente, el sistema

visual del usuario identifica movimiento, sin embargo, el sistema de equilibrio de su cuerpo

no detecta ningún movimiento. Esto provoca náuseas y mareos durante su uso. Ante ello,

surgen las técnicas de locomoción que gestionan la vección para evitar este tipo de conflictos.

Movimiento sobre rieles

En ciertos entornos de realidad virtual, una de las características del movimiento del

usuario es que está controlado por un sistema que simula a los rieles del tren, es decir que

sigue un patrón específico. Este punto, debe ser tratado con cuidado pues genera vección si

no es manejado correctamente.

Dirección dirigida por la mirada

Esta técnica puede complementar a la mencionada previamente (movimiento sobre

rieles), consiste en que la dirección mirada o apuntada por el usuario, será la dirección de

destino en la cual se moverá el usuario en cuestión. Aporta mayor interacción del usuario.
Realidad Virtual 18

Situación Actual de la Realidad Virtual

A lo largo de los años, la realidad virtual ha venido desarrollándose y evolucionando

en diversos sectores. Domínguez et al (2020) menciona que “actualmente nos encontramos en

una etapa de declive respecto a tecnologías de realidad virtual. Sin embargo, hay ciertas áreas

donde la tendencia es estable o ligeramente al alza”. Ante ello, reconocemos que existen

algunos sectores en los que la realidad virtual no tiene un papel sobresaliente, pues las

aplicaciones e investigaciones no son tan amplias; sin embargo, en otros sectores la realidad

virtual sí tienen diversas aplicaciones y toma un papel relevante.

En la actualidad, son la Unión Europea y Estados Unidos las regiones que presentan

más aportes respecto a la realidad virtual. Por otro lado, una investigación desarrollada por

Domínguez et al (2020) nos presenta una distribución de los sectores que poseen más

desarrollo de la realidad virtual (Figura 1).

Figura 1

Distribución de los sectores según el desarrollo de realidad virtual.

Nota: El gráfico muestra los porcentajes que cada sector posee respecto al desarrollo de

investigaciones o aplicaciones de realidad virtual. Adaptado de “Augmented and Virtual

Reality Evolution and Future Tendency” (p. 322), por Munoz, L. et al 2020, Applied

Sciences-Basel, 10 (1).
Realidad Virtual 19

Respecto a la figura 1, notamos que el sector de investigación y desarrollo posee un

34.4%, esto se ve reflejado en los diversos trabajos especializados en tópicos de la realidad

virtual, como su integración en dispositivos móviles o las simulaciones utilizando realidad

virtual como principal herramienta.

Por otro lado, el sector de salud con un 25.8% revela el gran desarrollo que tiene la

realidad virtual, actualmente se emplea en campos como la cirugía, para ayudar al

entrenamientos de los cirujanos de manera que se reduzcan los riesgos durante la cirugía; y la

psicología, generalmente para tratar problemas de fobias o trastornos alimenticios.

El sector de la educación no se queda atrás, este posee un 17.2% y sus aplicaciones se

dividen para tres categorías (edad temprana, media y alta). Se centra en brindar ayuda a los

estudiantes con diversas asignaturas como matemáticas o ciencia, el nivel de complejidad

depende de la categoría.

Con un 9.8% la industria también contribuye con el desarrollo de la realidad virtual.

El mantenimiento de fábricas, la productividad de los procesos y la capacitación de los

trabajadores son los tres aspectos sobre los que recaen sus aplicaciones.

Importancia de la Realidad Virtual en la Actualidad

En el contexto actual, las tecnologías de realidad virtual inmersiva (RVI) y no

inmersiva (RVNI) toman un papel clave para el desarrollo en distintos sectores. La

importancia de la realidad virtual recae en tres ámbitos, la economía, la sociedad y el medio

ambiente, esto se debe a que está ligada al desarrollo sostenible. “Las tecnologías RVI y

RVNI promueven la actividad económica de la misma manera y, además, ambas tecnologías

ofrecen la posibilidad de adaptar y reutilizar los recursos de software y hardware aplicados”

(Antón et al, 2022).

El desarrollo de tecnologías de realidad virtual brindan la posibilidad de reducir

costos energéticos, aunque la RVI produce más costes en comparación de la RVNI. A su vez
Realidad Virtual 20

favorece en el ámbito de la economía y tiene un bajo impacto ambiental. Por otro lado,

existen diversos beneficios para el ámbito social, principalmente en la enseñanza superior, ya

que crea entornos de aprendizaje interactivos para los estudiantes.

Aplicaciones de la Realidad Virtual

En los últimos años se ha dado un incremento en la utilización de la realidad virtual,

esto debido a que ha favorecido en gran medida en muchos sectores, ya sea optimizando o

mitigando situaciones que logren facilitar la vida cotidiana del ser humano. Para lo cual,

presentamos los siguientes ámbitos de implementación.

Aplicación de la realidad virtual en medicina

Actualmente este campo es uno de los principales beneficiados, debido a que se

implementa en la simulación de formación académica, operaciones de cirugía y para el

tratamiento de fobias y traumas psicológicos, e incluso el control del dolor gracias al uso de

técnicas de distracción.

Un claro ejemplo de su implementación es en las prácticas que realizan los

estudiantes de medicina. Espinoza G., H. (2019) enfatizó que “la falta de práctica en

operaciones no es precisamente por el poco conocimiento del alumno en la teoría, sino

porque no hay un ambiente donde aplicarlo”. En ese sentido, el uso de la realidad virtual

proporciona un lugar de desarrollo para los estudiantes y así lograr ser más eficaces en sus

prácticas y en el campo laboral.

No obstante, se debe resaltar un punto negativo de ello, siendo este la factibilidad al

cien por ciento, no basta con su uso para comenzar a realizar operaciones quirúrgicas, ya que

existen factores naturales que no están determinado por completo en una simulación, por

ende, puede ser requerido su implementación para tener conocimientos previos a las prácticas

que realizan los estudiantes de medicina.


Realidad Virtual 21

Aplicación de la realidad virtual en educación

Hoy en día se está buscando incrementar la implementación de la tecnología, para lo

cual, la realidad virtual está teniendo un rol importante en el aprendizaje de los estudiantes,

logrando elaborar diversas metodologías de enseñanza que sirven como complemento, y así

mismo, poniendo en práctica sus conocimientos.

La realidad virtual resulta ser muy útil en las carreras de ingeniería, debido a que el

estudiante requiere interactuar con los componentes y así evitar riesgos o reducir costos de

implementación, tal como lo dicen Cruz J. et al en el año 2014, enfatizando que “la realidad

virtual no solo permite saber cómo operan los equipos previamente, sino también identificar

fallas sin ningún riesgo”. Acotando a esta idea, su implementación se podría simular las veces

requeridas, logrando mejorar los resultados del estudiante en la práctica.

Por otro lado, el uso de esta tecnología requiere de supervisión y una correcta

implementación, ya que esto tiene como objetivo contribuir con el aprendizaje de los alumnos

y revolucionar los métodos de enseñanza.

Aplicación de la realidad virtual en ocio y entretenimiento

En inicios, la realidad virtual tuvo otros objetivos y destinado para esas personas que

se encuentran dentro de los objetivos destinados, no obstante, comenzó a presentar un gran

incremento en el entretenimiento, causando así una mayor demanda por parte del público que

buscaba aventura y excitación sin tener que preocuparse por presentar riesgos en la vida real.

Para Rodríguez G. et al en el año 2021 recalcaron que “La realidad virtual se

convirtió en un aliado para combatir el aburrimiento, la formación de vínculos y la

estimulación de conocimientos con el uso de una consola o celular. Por lo cual, la mayoría de

personas lo usa con fines de entretenimiento y así aprovechar la tecnología en actividades que

te generan emociones de adrenalina, felicidad, entre otros.


Realidad Virtual 22

Por otro lado, su uso puede generar adicción, ya que todo juego es adictivo y la

experiencia que esta tecnología ofrece es mucho más intensa. Es por ello, que su utilización

debe ser controlada y supervisada, esto debido a que puede causar en las personas

confusiones con la realidad, originando una perturbación en los pensamientos y no reconocer

lo que es real o no.

Productos

Realidad Virtual 360 de la FISI

Se realizó la creación de un tour por la Facultad de Ingeniería de Sistemas e

Informática, esto permitirá visualizar la infraestructura de la facultad desde un dispositivo.

Para su elaboración se necesitaba imágenes de la misma facultad en vista panorámica y el

apoyo de una página web llamada “Roundme”, el cual permite incorporar imágenes 360°

panorámicas para crear recorridos virtuales de manera interactiva, cabe destacar que es de

fácil acceso y uso.

Al crear el recorrido se seleccionaron las imágenes y se le dio un nombre a cada una

de ellas para referenciar la zona visualizada, a parte se incorporan localizaciones de panorama

en cada una de las imágenes para volverlo interactiva y así avanzar a los diversos ambientes

en la facultad.

Por último para su ejecución se requiere la publicación del tour creado y un link que

nos permitirá ubicar esta publicación, para lo cual el link sería

https://roundme.com/tour/937197/view/2939938. Accediendo a ello podremos visualizar el

tour elaborado y así tener una linda experiencia en cuanto a la visualización de la Facultad de

Ingeniería de Sistemas e Informática.


Realidad Virtual 23

Figura 2

Apartado “Puerta principal” dentro del tour creado en la página web RoundMe.

Nota. En la figura se observa la entrada a la Facultad de Ingeniería de Sistemas e Informática.

Elaboración propia.

Realidad Virtual Google Cardboard en Unity

Instalacion de modulos

Figura 3

Apartado “Installs” dentro del entorno Unity Hub.

Nota. En la figura se observa la versión de Unity que se usará para el producto desarrollado.

Elaboración propia.
Realidad Virtual 24

Para realizar este producto haremos uso de Unity 2021.3.1 versión LTS. Se

recomienda hacer uso de las versiones creadas a partir del 2020.

Figura 4

Apartado “Add modules” dentro del entorno Unity Hub.

Nota. En la figura se distinguen los módulos necesarios para el desarrollo del producto.

Elaboración propia.

Verificamos que se encuentren añadidos los módulos necesarios según la plataforma

que desarrollaremos. En este caso se desarrollará para Android, por lo tanto tenemos

añadidos los módulos Android Build Support, OpenJDK y Android SDK & NDK Tools.
Realidad Virtual 25

Figura 5

Apartado “All templates” dentro del entorno Unity Hub.

Nota. En la figura se observan las configuraciones iniciales para el proyecto desarrollado.

Le asignamos un nombre a nuestro proyecto, en nuestro caso lo nombramos como

“ProyectoGRUPO04”, a su vez seleccionamos la plantilla 3D (URP). Finalmente

continuamos haciendo click en “Create project”.

Importación de cardboard SDK

Figura 6

Escena del proyecto generado dentro del entorno Unity Hub.

Nota. En esta figura se muestra el resultado de la generación del proyecto.


Realidad Virtual 26

Figura 7

Repositorio “cardboard-xr-plugin” desarrollado por Google

Nota. Al este repositorio en GitHub se accedió mediante el siguiente enlace:

https://github.com/googlevr/cardboard-xr-plugin.git

En este repositorio se encuentra el SDK para Unity, con el que se puede crear

experiencias VR para cardboard. Proceder a descargar la última versión del SDK. Una vez

descargado, se debe descomprimir.

Figura 8

Apartado “Package Manager” dentro del entorno Unity Hub.


Realidad Virtual 27

Nota. En la imagen se muestra el procedimiento de adición del paquete descargado al

proyecto.

Nos dirigimos al botón con el signo más, luego a la opción “Add package from disk”

y seleccionamos el archivo “package”, el cual se encuentra dentro de la carpeta del SDK

descargado.

Figura 9

Escena para construir y probar en realidad virtual.

Nota: Se puede acceder a la siguiente imagen mediante la siguiente ruta: Assets>Samples>Google

Cardboard XR Plugin for Unity > 1.16.0 > Hello Cardboard

Una vez agregado el SDK al proyecto, siguiendo una ruta específica, se puede

observar el gráfico que se desea generar en un entorno de realidad virtual.

Configuración del proyecto

Para la configuración de este proyecto, requerimos ubicarnos en el documento unity

de nombre Hello CardBoard, este se encuentra en la siguiente dirección: Assets> Samples>

Google Cardboard XR Plugin for Unity> 1.18.0> Hello Cardboard>Scenes.

Por otro lado, para ejecutar el programa debemos de configurar adecuadamente el

entorno según el dispositivo en el cual lo usaremos, para este caso usaremos la plataforma

Android como observamos en la siguiente figura.


Realidad Virtual 28

Figura 10

Configuración de la plataforma en que se ejecutará el proyecto de VR

Nota. En la figura observamos el cambio de plataforma de Windows, Mac, Linux a Android

con la opción build settings que se encuentra en File.

Continuando con la configuración, procedemos a configurar la vista del jugador o

player. Lo primero es desactivar la optimización del ritmo de fotogramas y escoger una

orientación de la escena.
Realidad Virtual 29

Figura 11

Configuración de resolución y presentación

Nota. La figura muestra la configuración para la resolución y presentación del proyecto al

momento de ejecutarla. En esta la configuración principal se encuentra en la orientación por

defecto que se desea (Default Orientation) y además desactivar la optimización del ritmo de

fotogramas o Optimized frame pacing.

Existen otra configuraciones que resultan necesarias, la primera es mantener el API

multiplataforma de gráficos a OpenGL tal y como se muestra en la figura 12. Por otro lado, la

configuración de identificación se debe encontrar en relación a la plataforma escogida

inicialmente, es decir, en las versiones de Android, esto lo observamos en la figura 13.


Realidad Virtual 30

Figura 12

Configuraciones sobre lo gráficos

Nota. En la figura se observa que el API gráfico usado es el OpenGL versión 3.

Figura 13

Opciones de Configuración Identificación

Nota. En la imagen observamos el nivel mínimo de API que vendría a ser Android desde la

versión 7.0.

Posteriormente, crearemos tres clases en donde finalizamos la configuración con

algunas líneas de código proporcionado por la página de desarrolladores de google. Las tres

clases creadas son AndroidManifest.xml, mainTemplate.gradle y gradleTemplate.properties


Realidad Virtual 31

Figura 14

Creación de clases.

Nota. Las clases creadas tendrán ciertas modificaciones indicadas en la página de

desarrolladores de google.

Como se mencionó anteriormente la clases deben de modificarse y esto es aparte de la

configuración de publicación. Para empezar debemos ingresar a la siguiente ruta

Configuración del proyecto > Reproductor > Configuración de la publicación. Nos dirigimos

a la sección Compilación, en donde se selecciona Custom Main Gradle Template y Custom

Gradle Properties Template.

Primero, agregamos en dependencias de Assets/Plugins/Android/mainTemplate.gradle

lo siguiente:

implementation 'androidx.appcompat:appcompat:1.4.2'
Realidad Virtual 32

implementation 'com.google.android.gms:play-services-vision:20.1.3'
implementation 'com.google.android.material:material:1.6.1'
implementation 'com.google.protobuf:protobuf-javalite:3.19.4'

Luego, agregamos las siguientes líneas de código a

Assets/Plugins/Android/gradleTemplate.properties.

android.enableJetifier=true
android.useAndroidX=true

Finalmente, con toda esta configuración, podremos observar la ejecución final del

proyecto de realidad virtual como observamos en las siguientes imágenes tanto la escena

como la simulación en un dispositivo Samsung Galaxy S5 Mini.

Figura 15

Ejecución de la escena del proyecto de cardboard

Nota. En la figura observamos la ejecución final del proyecto siendo lo que se reproducirá lo

captaba por el objeto cámara.


Realidad Virtual 33

Figura 16

Ejecución del proyecto cardboard en un simulador de dispositivo móvil

Nota. La ejecución de la simulación en el dispositivo Samsung Galaxy S5 Mini y capta el

movimiento de la cámara.

Asimismo, cabe resaltar que se puede agregar el cardboard y plasmar el entorno

virtual en su celular tal como podemos observar en el siguiente enlace

https://youtu.be/CwgOl1JAyeY?t=593 perteneciente al canal Unity Aventure (9 agosto 2022),

resultando esta experiencia más interactiva y además del tipo inmersiva.


Realidad Virtual 34

Conclusión

A partir de lo desarrollado en el presente informe, concluimos que la realidad virtual

presenta tres características básicas que resultan ser su rasgo diferenciador de otros tipos de

realidad, estas características son pasivo, exploratorio e interactivo. Asimismo, encontramos

que a través de los años la realidad virtual se ha ido desarrollando progresivamente y a su vez

se ha vuelto más importante. En diversos sectores, la realidad virtual se destaca gracias a sus

aplicaciones que facilitan el desarrollo de actividades. Podemos resaltar al sector de la

medicina, la educación y el entretenimiento pues son los que presentan más avances respecto

a la realidad virtual. Por otro lado, gracias a la amplia variedad de herramientas y técnicas

existentes para el desarrollo de la realidad virtual, es posible crear un escenario realista en el

que los usuarios puedan vivir una experiencia completa. Es evidente que en los próximos

años, la realidad virtual evolucionará favorablemente adoptando nuevas tecnologías y

estrategias. z
Realidad Virtual 35

Referencias bibliográficas

Bockholt, N. (mayo del 2017). Realidad virtual, realidad aumentada, realidad mixta. y ¿qué

significa "inmersión" realmente?. Think with Google.

https://www.thinkwithgoogle.com/intl/es-es/futuro-del-marketing/tecnologia-emergen

te/realidad-virtual-aumentada-mixta-que-significa-inmersion-realmente/#:~:text=Inme

rsi%C3%B3n%3A%20c%C3%B3mo%20sumergirse%20en%20mundos%20virtuales

&text=En%20el%20contexto%20de%20la,interact%C3%BAa%20con%20el%20ento

rno%20virtual.

Cruz, J. A. F., Gallardo, P. C., & Villarreal, E. A. (2014). La realidad virtual, una tecnología

innovadora aplicable al proceso de enseñanza de los estudiantes de ingeniería.

Apertura, 6(2), 1-10. http://www.redalyc.org/articulo.oa?id=68835725008

Espinoza Gutierrez, H. (2019). Sistema de simulación de realidad virtual para iniciar

tempranamente en los procedimientos quirúrgicos en la carrera de Medicina Humana

en la Clínica Avansalud en el 2019. Universidad Científica del Sur.

https://hdl.handle.net/20.500.12805/1748

Historias Para Un Cafe. (7 de agosto de 2022). REALIDAD VIRTUAL - Historia de una

tecnología que sigue avanzando [Archivo de video]. Youtube.

https://www.youtube.com/watch?v=u3cUCJaHzBM

Lancaster University. (s.f.). Interaction Techniques in VR.

https://www.futurelearn.com/info/courses/construct-a-virtual-reality-experience/0/step

s/96390

Levis, D. (2006). ¿Qué es la realidad virtual? [Archivo PDF]. Academia.

https://www.academia.edu/download/30471870/que_es_rv.pdf
Realidad Virtual 36

Milgram, P. y Kishino, F. (1994). A taxonomy of mixed Reality Visual Displays. IEICE

Transactions on Information Systems. VolE77-D.

https://search.ieice.org/bin/summary.php?id=e77-d_12_1321

Moreno, N., Leiva, J., Galván, M., López, E. y García, F. (2017). Realidad aumentada y

realidad virtual para la enseñanza aprendizaje del inglés desde un enfoque

comunicativo e intercultural. Innovación docente y uso de las TIC en educación.

Málaga: UMA Editorial.

http://www.enriquesanchezrivas.es/congresotic/archivos/Form_Compet_metodos/Mor

enoMartinez_Otros.pdf

Munoz, L., Miro, L. y Dominguez, M. (2020). Augmented and Virtual Reality Evolution and

Future Tendency. Applied Sciences-Basel, 10(1), 322.

https://doi.org/10.3390/app10010322

Navarro, F., Martinez, A. y Martinez, J. (2018). Realidad virtual y realidad aumentada.

Desarrollo de aplicaciones. Ra - Ma Editorial.

https://books.google.com.pe/books?id=zI6fDwAAQBAJ&lpg=PA4&hl=es&pg=PA4#

v=onepage&q&f=false

Otegui, J. (2017). La realidad virtual y la realidad aumentada en el proceso de marketing.

Revista de Dirección y Administración de Empresas, (24), 155-229.

https://addi.ehu.es/bitstream/handle/10810/24910/9.J.Otegui.pdf?sequence=1&isAllo

wed=y

Rodríguez, G., Alcázar, J., Francisco, J., & Massa, S. M. (2021). Videojuegos, gamificación y

realidad virtual: formas de socialización del siglo XXI. Mar del Plata, Universidad

Nacional de Mar del Plata.

http://teg20.org/es/Videojuegos,%20gamificacio%CC%81n%20y%20realidad%20virt

ual%20-%20impresio%CC%81n.pdf
Realidad Virtual 37

Unity Adventure (9 de agosto 2022). Realidad Virtual Google Cardboard Tutorial Unity -

Configuración. [Archivo de Vídeo]. Youtube. https://youtu.be/CwgOl1JAyeY?t=593

Vergara, D., Fernández, P., De Santos, C. y Anton, A. (2022). Virtual Reality: Sustainable

Technologies. DYNA, 97(5). 556-560. https://doi.org/10.6036/10482

Zapatero, D. (2011). La realidad virtual como recurso y herramienta útil para la docencia y la

investigación. TE & ET; no. 6. http://sedici.unlp.edu.ar/handle/10915/14205


UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
(Universidad del Perú, DECANA DE AMÉRICA)
FACULTAD DE INGENIERÍA DE SISTEMAS E INFORMATICA

REALIDAD AUMENTADA

Curso: Computación Visual

Docente: Johnny Robert Avendaño Quiroz

Grupo: 3

Integrantes:

Cisneros Condori, Gloria Stephany

Barrenechea Benites Balya Agnes

Guillen Piña Ritcy Christina

Gonzales Mallma Erick Anderson

Urbano Quispe Adrian Rodrigo

Lima, Perú

2022

1
Tabla de Contenido

Introducción 3
1. Diferencia entre realidad aumentada y realidad virtual 4
2. Dispositivos de realidad aumentada: 4
3.1. Heads up displays (HUD’s): 4
3.2. Holographic displays: 5
3.3. Smart glasses 5
3. Funcionamiento de la realidad aumentada: 6
4. Niveles de la realidad aumentada 9
5. Tipos de realidad aumentada 12
6. Aplicaciones de la realidad aumentada 16
7.1. Marketing: 16
7.1.1 Impacto: 17
7.1.1.1. Clientes: 17
7.1.1.2. Empresas: 17
7.1.2. Alcances: 18
7.2. Arquitectura y construcción 18
7.2.1. Morpholio AR Sketchwalk. 19
7.3. Medicina: 19
7.4. Videojuegos 20
7.4.1. Pokémon GO 20
7.4.2. Jurassic World Alive 20
7.4.3. Minecraft Earth 21
7.5. Arte 21
7.6. Turismo 21
Conclusiones 23
Bibliografía 24

2
Introducción

La tecnología y los programas informáticos han cambiado la forma en que vemos e

interactuamos con el mundo. Desde cómo te relacionas hasta cómo te comunicas con los

demás y con quienes te rodean. En ese sentido, notamos que el mundo se está convirtiendo en

un mundo de información que se actualiza constantemente. Es aquí donde la tecnología

aparece y nos ayuda a obtener está información de una manera muy simple y sencilla, incluso

de manera ordenada para que podamos usarla en el mundo real.

La realidad aumentada es una tecnología que combina el mundo físico con el mundo

virtual en tiempo real. Si bien es un término que a primeras impresiones suena a algo nuevo,

este concepto nació hace mucho tiempo y ha ido creciendo a pasos agigantados desde

entonces. Además la realidad aumentada nos permite acceder a experiencias más interesantes,

proporcionándonos la capacidad de interactuar con el mundo físico de una manera única,

recolectando información que luego será potenciada para mejorar la información que se

percibe de los objetos que se encuentran en ese momento.

En la presente monografía se abordará el tema de la realidad aumentada, abarcando las

diferencias que tiene con la realidad virtual, los dispositivos, el funcionamiento, los niveles,

los tipos y las aplicaciones de la realidad aumentada y, por último, la importancia que tiene en

el ámbito de la educación.

3
1. Diferencia entre realidad aumentada y realidad virtual

Existe una gran brecha entre los términos realidad virtual (RV) y realidad aumentada

(RA) cuando. La diferencia más resaltante es que ofrecen experiencias totalmente distintas.

En resumen, cabe resaltar que la realidad virtual pretende presentar un mundo completamente

aislado generado por computador, mientras que la realidad aumentada proporciona

información visual adicional superpuesta en el mundo real.

Entre las diferencias entre ambas tenemos que el propósito de la realidad aumentada

tiene que ver en que se adiciona al mundo real teniendo parcialmente el control de la

situación, en cambio a la realidad virtual esta crea un entorno visual el cual el usuario se

encuentra inmerso. En el ámbito del dispositivo en la realidad aumentada no se necesita

mucho, mínimamente la cámara de un smartphone, en cambio en la realidad virtual se

necesita necesariamente un equipo especializado.

Gráficamente, la realidad aumentada funciona como la realidad virtual, con la

principal diferencia de la "flexibilidad" de la pantalla, que permite a los usuarios ver

imágenes y caras de objetos reales en la pantalla de una computadora. Una vez más, la

programación gráfica es similar a las herramientas de programación. Sin embargo, el método

más preciso requiere lentes y medidas adicionales, lo que lo hace aún más difícil.

En la realidad aumentada, la computadora usa sensores de posición, movimiento y

orientación, así como algoritmos para determinar la posición y orientación de la cámara. Así,

la tecnología de realidad aumentada son los gráficos 3D en una cámara que superponen

imágenes generadas por computadora desde la perspectiva del mundo real (Peddy, 2017, p.

24) .

4
2. Dispositivos de realidad aumentada:

Actualmente, existe una variedad de dispositivos que se usa para las

aplicaciones de realidad aumentada, entre ellas tenemos:

3.1. Heads up displays (HUD’s):

Son sistemas que proyectan información, como la velocidad o las instrucciones del

navegador, relativa a la conducción, en la actualidad existen dos tipo de HUD, el primero

Head Medium Display, en el cual proyecta la información sobre una làmina transparente,

normalmente se limita a la velocidad, el ajuste del control de crucero e indicaciones

simplificadas del navegador, por otro lado tenemos Head Up Display, el cual es más

moderno, este se proyecta sobre el parabrisa.

Figura x

HUD de Realidad Aumentada para automóviles presentado por Huawei

3.2. Holographic displays:

Una pantalla holográfica es un tipo de pantalla 3D que utiliza la difracción de

la luz para mostrar una imagen tridimensional al espectador. Las pantallas holográficas se

distinguen de otras formas de pantallas 3D en que no requieren que el espectador use anteojos

5
especiales o equipo externo para poder ver la imagen, y no causan el conflicto de

vergencia-acomodación .

3.3. Smart glasses

Las gafas inteligentes pueden ser de dos tipos:

● Por vista óptica:

El usuario ve la realidad directamente a través de elementos ópticos

como guías de ondas holográficas y otros sistemas que permiten la

superposición gráfica en el mundo real. Ejemplo de esta tecnología son las

Google Glass de Microsoft.

Por vista de video:

El usuario ve la realidad que primero es capturada por una o dos

cámaras montadas en la pantalla. Estas vistas de la cámara luego se combinan

con imágenes generadas por computadora para que el usuario las vea. Ejemplo

de esta tecnología es el auricular HTC Vive VR.

Figura x

Tipos de gafas inteligentes

6
Fuente: Kore(2018)

3. Funcionamiento de la realidad aumentada:

Para que que se ejecute correctamente la realidad aumentada, es indispensable

cumpli con 3 componentes, el hardware, el software y la aplicación:

❖ Hardware: Como bien sabemos el hardware son los componentes físicos de

una computadora, en este caso hace referencia al equipo en el cual serán

proyectadas las imágenes virtuales, entre los elementos principales tenemos al:

➢ Procesador: Este elemento se encarga de combinar las imágenes para

después trabajar con la información para así, poder formar la Realidad

Aumentada a través de las imágenes reales y con la información del

mundo virtual.

➢ GPU: La GPU se encarga de la representación visual en la pantalla del

dispositivo. La realidad aumentada requiere de GPU’s de alto

rendimiento.

➢ Sensores: Estos dispositivos detectan y responden a algún tipo de

información del entorno físico. Existe una amplia gama de sensores

utilizados en la vida diaria, ejemplo de ellos son:

■ Sensor profundidad

■ Giroscopio

■ Sensor proximidad

■ Acelerómetro

❖ Software: Este componente interpreta el mundo que nos rodea con ayuda de

un cámara, Para ARCore Google esta requiere 3 capacidades clave:

7
➢ Comprensión del entorno: El seguimiento de movimiento permite que

el teléfono entienda y rastree su posición en relación con el mundo.

➢ Seguimiento del movimiento: La comprensión ambiental permite

detectar el tamaño y la ubicación de todo tipo de superficies:

superficies horizontales, verticales y angulares como el suelo, una

mesa de café o paredes.

➢ Estimación de la luz: La estimación de luz le permite al teléfono

estimar las condiciones de iluminación actuales del entorno.

❖ Aplicación:

El último componente, y no menos importante la aplicación, está permite

hacer cosas específicas con las funcionalidades de la realidad aumentada, un ejemplo

de ello es Plant Life Balance que nos permite ver en tiempo real, algún tipo de planta

decorativa para el hogar, esto es útil ya que nos da una noción del producto en casa.

Es importante mencionar que cada aplicación de realidad aumentada contiene

sus propios objetos o filtros en 3D, como por ejemplo Pokémon GO, Instagram o

Snapchat, en sus propias bases de datos de imágenes virtuales, además de su propia

lógica de activación.

Una vez explicado qué es lo que se necesita para correr una aplicación en

realidad aumentada, nos tenemos que preguntar ¿Cómo funciona la realidad

aumentada?

Para ello nos ayudamos del diagrama presentado a continuación, en el primer

paso sería que el usuario enfoque con los sensores del dispositivo hacia un objeto o

lugar real. A continuación, el software va a reconocer y analizar gracias a su forma o

de un marcador ligado a él. Posteriormente, el dispositivo descarga la información que

8
va a desplegar en la pantalla, ya sea un objeto o una criatura de un videojuego, y es

presentado en un formato 3D representando los datos virtuales y reales al mismo

tiempo. Finalmente, lo que el usuario ve es la representación de la realidad

aumentada, es decir, una parte digital y otra parte real.

Figura X

Proceso de la realidad aumentada

9
Fuente: Rigueros, C. (2017)

4. Niveles de la realidad aumentada

Según Melo (2018), la realidad aumentada cuenta con niveles de acuerdo a la

profundidad con que se utiliza; así, se tienen diferentes utilidades, desde un código

QR que abre un link de publicidad hasta unas gafas, las cuales permiten ver rutas de

carretera o mejores sitios para comer.

Cuenta con un total de 4 niveles y se clasifican de la siguiente manera:

5.1. Nivel 0 Enlazado con el mundo físico

10
Considerado el nivel más básico, su utilidad se basa en el reconocimiento de

códigos de barra, códigos QR, o imágenes aleatorias.

Figura x

Ejemplo del nivel 0 de la realidad aumentada - código QR

Nota. Adaptado de Realidad aumentada y aplicaciones, 2018,

https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf

5.2. Nivel 1 Realidad aumentada con marcadores

Se considera la forma más diversificada, pues es aquí donde en la aplicación

se hace uso de los marcadores, que son figuras generalmente cuadradas impresas en

blanco y negro. Este nivel cuenta con un nivel más desarrollado que es el

reconocimiento de los patrones 3D.

Figura x

Ejemplo del nivel 1 de la realidad aumentada

11
Nota. Adaptado de Niveles de la realidad aumentada, 2016,

https://sites.google.com/site/realidadaumentadainac2016/indice/1-7-niveles-de-la-reali

dad-aumentada

5.3 Nivel 2 Sin marcadores

En este nivel el uso de los marcadores es sustituido por el uso del GPS y la

brújula en nuestros dispositivos, permitiendo la localización, orientación y los puntos

de interés sobre el mundo real.

Figura x

Ejemplo del nivel 2 de la realidad aumentada

Nota. Adaptado de Realidad aumentada y aplicaciones, 2018,

https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf

5.4. Nivel 3 Visión aumentada

En este nivel se incorporan las gafas de realidad virtual, proyectores, lentillas;

todo esto gracias a los dispositivos tecnológicos, donde se permite que la realidad

aumentada se convierta en una visión aumentada.

Figura x

Ejemplo del nivel 3 de la realidad aumentada

12
Nota. Adaptado de Realidad aumentada y aplicaciones, 2018,

https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf

5. Tipos de realidad aumentada

6.1 Realidad aumentada con marcadores

Melo (2018), menciona que el software de Realidad Aumentada realiza un

seguimiento (tracking) del patrón o marcador, permitiendo que se ajuste la posición

del modelo 3D que aparece en la pantalla cuando le movemos o giramos. Pues

este marcador lo podemos mencionar como si fuera un ancla que conecta el mundo

virtual con el mundo real.

Para este sistema de reconocimiento de imágenes es sencillo la

implementación de ciertos filtros a través de una aplicación capaz de reconocer

patrones y de disponer de distintos módulos, como la cámara, capturadora de

imágenes, etc.

Figura x

Ejemplo de realidad aumentada con marcadores

13
Nota. Diferentes tipos de Realidad Aumentada, 2018,

https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf

6.2 Realidad aumentada sin marcadores

La realidad aumentada sin marcadores hace uso de la localización y el mapeo

simultáneo (SLAM) en donde se podrá escanear el entorno de la imagen real y crear

mapas apropiados en donde colocar los objetos virtuales en 3D.

Estos elementos digitales se colocarán de acuerdo a la geometría de la imagen

escaneada, es decir por más que estos elementos no se encuentren en el campo de

visión del usuario, estos no se moverán cuando el usuario se mueva.

Está basado en el hardware de cualquier teléfono inteligente, haciendo uso de

la cámara, Gps o el acelerómetro.

Figura x

Ejemplo de realidad aumentada sin marcadores

14
Nota. Diferentes tipos de Realidad Aumentada, 2018,

https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf

6.3 Realidad aumentada geolocalizada

Este tipo de realidad aumentada vincula la imagen virtual a una zona o lugar

en específico, teniendo en cuenta los datos del tiempo real con ayuda de la cámara,

GPS, brújula y un acelerómetro, utiliza la ubicación y los sensores ya mencionados de

un dispositivos inteligente para poder situar el objetivo virtual en el punto de interés

del usuario.

Asimismo, predice dónde se enfoca el usuario como disparador para emparejar

la ubicación dinámica con puntos de interés para proporcionar datos o información

relevante. La información y los objetos virtuales se mapean en ubicaciones específicas

y luego se muestran cuando los datos del dispositivo de un usuario coinciden con la

ubicación.

La colocación de objetos virtuales anclados al mundo real es útil para una

amplia variedad de aplicaciones, desde indicaciones para caminar hasta etiquetas de

lugares, búsquedas del tesoro o incluso guías turísticas virtuales e información local.

Figura x

Ejemplo de realidad aumentada geolocalizada

15
Nota. Diferentes tipos de Realidad Aumentada, 2018,

https://revistas.udistrital.edu.co/index.php/tia/article/view/11281/pdf

6. Aplicaciones de la realidad aumentada

7.1. Marketing:

Según los casos mencionados por Melo, I. M. (2018). La realidad aumentada puede

facilitar un comportamiento más interactivo entre la publicidad por parte de las empresas y

los consumidores mediante aplicativos que implementen esta tecnología.

16
Nota: Extraído de Ruiz S. & Polo D. (2012). “La Realidad Aumentada Como Nuevo

Concepto De La Publicidad Online A Través De Los Smartphones” Razón y Palabra, (80)

Nota:Adaptado de How to Use AR In Campaigns: The Ultimate Guide to Augmented

Reality Marketing, 2020,

https://pixelfield.co.uk/blog/how-to-use-ar-in-campaigns-the-ultimate-guide-to-augme

nted-reality-marketing/

7.1.1 Impacto:

7.1.1.1. Clientes:

Según Makarov (2022), los anuncios de RA tienen la capacidad de atraer la mirada y

atención de los clientes potenciales e involucrar a los mismos, generando confianza e

incrementando la reputación de su marca, esto relacionado al alto nivel de interacción entre

los anuncios y los clientes; dando como resultado un incremento del interés de los mismos, ya

sea en un programa de televisión o algún refresco. Además del hecho de que el uso de RA

17
puede ayudar a los clientes a saber cómo será el producto final sin la necesidad de compartir

un espacio físico.

7.1.1.2. Empresas:

Según el informe de Deloitte Digital se reveló que el uso de AR como instrumento

publicitario está teniendo un gran impacto en las marcas y en los volúmenes de compras, esto

debido a que los consumidores buscan una experiencia más personalizada y comprometida.

Lo que conllevo a que las empresas que emplean dicha tecnología obtuvieron un 41 % más de

probabilidades de ser consideradas por los consumidores, sumado al hecho de que el 56 % de

los consumidores está de acuerdo en que la realidad aumentada les brinda más confianza en

la calidad del producto.

7.1.2. Alcances:

Se estima que gran parte de los consumidores de los anuncios AR es la audiencia

joven o generación Z, por lo cual Velichko(2021) propone si las marcas quieren llegar al

público joven, deben integrar AR en su estrategia de marketing.

7.2. Arquitectura y construcción

Similar a la implementación en el área de marketing, en la cual las empresas podian

presentar su producto a pesar de no tenerlo listo, el uso del AR en el sector construcción

permite presentar los resultados incluso antes de que se termine con la obra, lo cual afirma

Ellis(2022) al mencionar que “AR también se puede usar para mostrar modelos 3D e incluso

ofrecer recorridos, dando a los clientes una idea sólida de cómo se vería un edificio antes de

construirlo”.

18
Nota: Extraído de The Power of Augmented Reality (AR) in Construction. Ellis G.(2022)

Así mismo podemos mencionar que se puede ligar su aplicación a la seguridad del

entorno de trabajo. Por ejemplo, mediante el escaneo de un código QR o etiqueta en una

oficina, poder mostrar texto o incluso modelos tridimensionales para comunicar información

de seguridad o peligro.

7.2.1. Morpholio AR Sketchwalk.

Herramienta de software que facilita posicionar el boceto o diseño de un plano en un

espacio real a través de un dispositivo móvil como una tableta, permitiendo alterar los

diseños para tener una mejor idea de la distribución de espacios, haciendo que la presentación

de los proyectos sea más interactiva hacia futuros clientes.

19
Nota: Aplicación de Morpholio AR Sketchwalk

7.3. Medicina:

Aprovechando el concepto de que la tecnología AR permite interactuar con objetos

con los que no haya necesidad de compartir un espacio físico, en el ámbito de la medicina,

según Melo (2018), esto posibilita la representación y visualización del análisis de

imágenes biomédicas, simulación de sistemas fisiológicos o entrenamiento en

anatomía, recolectando datos tridimensionales de los pacientes en tiempo real, facilitando el

óptimo desarrollo de estas operaciones. Por ejemplo transplantes o manipulación de órganos.

Según Ortiz C. (2011) una de las áreas en medicina más beneficiadas de la aplicación

de esta tecnología sería la cardiología, la cual a través de mapas electro anatómicos que

actualmente se representan en objetos tridimensionales pueden ser visualizados y

manipulados virtualmente para su adecuada interpretación desde la realidad aumentada.

7.4. Videojuegos

La realidad aumentada está presente en los videojuegos, donde se integra el contenido

audiovisual del juego con el entorno del usuario en tiempo real. Por lo general, la realidad

aumentada usa el entorno existente y crea un campo de juego dentro de él.

La realidad aumentada no es solo el futuro, sino el presente. Dentro de unos años, los

teléfonos inteligentes como los conocemos hoy en día quedarán obsoletos. Hasta entonces,

deberíamos contentarnos con usar esta nueva tecnología en las pantallas de nuestros

dispositivos móviles a través de aplicaciones como Google Maps. Pero también puede

resultar un pasatiempo muy divertido para todo tipo de público según la temática a gusto. A

continuación, se mostrarán los videojuegos más reconocidos a nivel mundial.

20
7.4.1. Pokémon GO

Es considerado el responsable de popularizar el uso de la realidad aumentada,

teniendo a miles de millones de personas alrededor del mundo saliendo de sus casas para

capturar “Pokémones”.

7.4.2. Jurassic World Alive

Surge después del éxito de Pokémon GO. Presenta la misma temática que este, pero

emplea dinosaurios como animales de captura.

7.4.3. Minecraft Earth

Es un juego todavía en su fase beta, pero fiel a su videojuego original, presenta

cientos de posibilidades de interacción con el mundo exterior. Desde construcción hasta

socializar con otros compañeros, Minecraft siempre ha dado múltiples opciones a la hora de

jugar.

7.5. Arte

Otra interpretación del concepto de realidad aumentada que ha proporcionado un

recurso a los artistas contemporáneos es el enfoque de colocar objetos virtuales

tridimensionales (3D) en el espacio físico real que se encuentra en las definiciones más

clásicas de la tecnología. Hablamos de combinar una imagen del espacio real con un objeto

virtual mediante marcadores o reconociendo características naturales, obteniendo así una

imagen de realidad aumentada.

7.6. Turismo

Dentro del sector turística encontramos el desarrollo de aplicaciones orientadas a

guiar y mejorar la experiencia de los usuarios, RA ofrece un sinfín de posibilidades y

21
actividades; desde información sobre el lugar, sus monumentos y edificios, hasta itinerarios

gastronómicos y culturales, museos, horarios o información de transporte, entre otras

opciones

Como ejemplo podemos citar el caso de la aplicación móvil Guideo, el cual ,entre las

diversas incorporaciones tecnológicas que presenta, encontramos un sistema de

geoposicionamiento, lo cual permite mediante una visualización bidimensional o

tridimensional que el usuario pueda llegar a los diferentes destinos turísticos de interés

referenciados en las rutas mostrando la historia relacionada a dicho punto de forma acústica

Nota: Adaptado de Fernández Alles, M.T. y Cuadrado Marqués, R. (2014). Ejemplo de mapa

en 3D de la app Guideo

https://idus.us.es/bitstream/handle/11441/77065/El%20impacto%20de%20las%20nuevas%20

tecnolog%c3%adas%20en%20el%20sector%20tur%c3%adstico.pdf?sequence=1&isAllowed

=y

22
Conclusiones

El futuro de la realidad aumentada en el aspecto educativo es difícil de predecir, sin

embargo, su breve introducción es una nueva tendencia en varios campos con un sinfín de

programas que están mejorando y expandiéndose con el mismo objetivo, el cual se centra en

brindar una mejor experiencia para muchos usuarios, proporcionando situaciones inmersivas

que estrechan aún más los límites entre realidad y virtualidad.

En este sentido, dado que se han venido mostrando avances significativos en la

implementación de la realidad aumentada, podemos decir que el desarrollo de esta tecnología

y el avance de sus partes tienen grandes beneficios, tales como que el mundo real se puede

complementar con el mundo virtual, en donde este ciberespacio nos ayudaría a mejorar

nuestras habilidades de comunicación al interactuar con el entorno. Todo esto gracias a la

disponibilidad de dispositivos como los smartphones u otros accesorios inteligentes, los

cuales nos permitirán experimentar la realidad aumentada.

Pese a que la realidad aumentada, la cual se encuentra en crecimiento, todavía es

limitada. Su raudo desarrollo ha demostrado su potencial en áreas como la medicina, la

tecnología, la educación y la tecnología. Es por esto que decimos que es muy probable que en

un futuro no muy lejano, podamos experimentar de una manera más frecuente la realidad

aumentada, permitiéndonos así cambiar y mejorar diversos aspectos de nuestra vida diaria.

23
Bibliografía

Augmented Reality in Marketing and Sales: Practical Yet Innovative. (2022). Movidev.

https://mobidev.biz/blog/augmented-reality-marketing-sales

Deloitte Digital (2021). Deloitte Digital and Snap Inc. Report Reveals the Rich, Untapped

Future of Augmented Reality for Customer Experience.

https://www.prnewswire.com/news-releases/deloitte-digital-and-snap-inc-report-revea

ls-the-rich-untapped-future-of-augmented-reality-for-customer-experience-301290445

.html

DPL News. (2021, 13 septiembre). Huawei presenta un HUD de Realidad Aumentada para

automóviles.

https://dplnews.com/huawei-presenta-un-hud-de-realidad-aumentada-para-automovile

s/

Ellis G.(2022). The Power of Augmented Reality (AR) in Construction. Autodesk. Extraido

de: https://constructionblog.autodesk.com/augmented-reality-ar-construction/

Fernández Alles, M.T. y Cuadrado Marqués, R. (2014). El impacto de las nuevas tecnologías

en el sector turístico: aplicación de la realidad aumentada al turismo cultural.

International journal of world of tourism, 1 (2), 10-18.

https://idus.us.es/handle/11441/77065

Juez, I. (2021). Diez juegos de realidad aumentada para móviles con los que los niños

alucinarán. El Correo.

https://www.elcorreo.com/familias-bbk-family/seis-juegos-realidad-aumentada-ninos-

20210421142855-nt.html

Kore, A. (2018). Understanding the different types of AR devices. Medium.

https://uxdesign.cc/augmented-reality-device-types-a7668b15bf7a

24
Melo, I. (2018). Realidad aumentada y aplicaciones. Tecnología, Investigación y Academia,

6(1), 28-35. https://revistas.udistrital.edu.co/index.php/tia/article/view/11281

Niveles de la Realidad Aumentada - Realidad Aumentada. (2016). Realidad Aumentada.

https://sites.google.com/site/realidadaumentadainac2016/indice/1-7-niveles-de-lareali

dad-aumentada

Realidad Aumentada. ¿Qué es la Realidad Aumentada? (2022). NeoSentec

https://www.neosentec.com/realidad-aumentada/

Rigueros, C. (2017). La realidad aumentada: lo que debemos conocer. TIA, 5(2), pp.

257-261. https://revistas.udistrital.edu.co/index.php/tia/article/view/11278

Rodríguez L., Guerrero J. & Olmos I, (2020) La Realidad Aumentada: creando experiencias

motivadoras en el aula. Extraido de:

https://elementos.buap.mx/directus/storage/uploads/00000005453.pdf

Ruiz, D. (2011). El papel de la realidad aumentada en el ámbito artístico-cultural.

Universidad de Granada. https://dialnet.unirioja.es/servlet/tesis?codigo=58673

Ruiz Davis, S., & Polo Serrano, D. (2012). La realidad aumentada como nuevo concepto de

la publicidad online a través de los Smartphones | Augmented reality as new concept

online advertising through Smartphones. Razón Y Palabra, 16(80), 293–307.

Recuperado a partir de

https://www.revistarazonypalabra.org/index.php/ryp/article/view/492

Velichko Y.(2021). AR Advertising: A Ploy or the Future of Digital Marketing?. Extraído de:

https://postindustria.com/ar-advertising-a-ploy-or-the-future-of-digital-marketing-3d-

models/

25
UNMSM
Facultad de Ingeniería de
Sistemas e Informática

Geometría
Fractal
Y SUS APLICACIONES

Profesor: Johnny Robert Avedaño Quiroz


Curso: Computación Visual

Grupo Nº2:
● Ortiz Abanto Kevin Miguel 20200230
● Pachas Lopez Nabia Jasmin 20200231
● Robles Matienzo Ruben David 20200204
● Retuerto Santillan Mauro Alejandro 20200202
● Chanhualla Fernandez Corina 10200025

2022
ÍNDICE GENERAL
aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX

INTRODUCCIÓN 1

GEOMETRÍA FRACTAL 2
1.1. Definiciones 2
1.2. Historia de la Geometría Fractal 2
1.3. Construcción matemática de fractales 3
1.3.1. Conceptos Matemáticos Clave 9
1.3.2. Métrica y dimensión de Hausdorff-Besicovitch 9
1.3.3. Dimensión de Conteo de Cajas 12
1.3.4. Definición Matemática de Fractales 12
1.4. Características de los fractales 13
1.5. Funciones fractales 13
1.5.1. Funciones como límites de series 14
1.5.2. El Operador de Read-Bajraktarevic 15
1.5.3. Funciones en base a IFS interpolantes 18
1.6. Fractales Famosos 19
1.6.1. El conjunto de Cantor 19
1.6.2. El atractor de Lorenz 21
1.6.3. El triángulo de Sierpinski 22
1.6.4. Curvas de Peano 23
1.6.5. El juego del caos 25
1.6.6. La curva de Koch 25
1.6.7. Desplazamiento del punto medio 27
1.6.8. Conjunto de Julia y Mandelbrot 30
1.7. Tipo de Fractales 31
1.7.1. Fractales escalantes 31
1.7.2. Fractales no escalantes 32
1.7.3. Fractales aleatorios estratificados 32
1.7.4. Fractales y movimiento brownianos 32

TEORÍA DEL CAOS 33


2.1. Definicion y Caracteristicas 33
2.1.1. Flexibilidad 34
2.1.2. Creatividad 35
2.1.3. Complejidad y Simplicidad 35
2.1.4. Intermitencia 35
2.2. Curva logística y Diagrama de bifurcación 35
2.2.1. Significado de la curva logística 36
2.3. El caos en la naturaleza y el cuerpo humano 38
APLICACIONES DE LOS FRACTALES 41
3.1. Mercados financieros 41
3.2. Neurociencia 43
3.3. Sensores de gas 44
3.4. Telecomunicaciones 45
3.5. Modelamiento de plantas 46
3.6. Arquitectura de interiores 47
3.7. Modelamiento 3D 48
3.8. Instrumentos musicales y fractales 49
3.9. Textiles 50
3.10. Investigaciones en células 51
3.11. Encriptación de imágenes 52

PROGRAMAS SOBRE FRACTALES 53


4.1. Fractales y Superficies con Vulkan 53
4.2. Fractales y música con C++ 55

CONCLUSIONES 59

BIBLIOGRAFÍA 60
ÍNDICE DE FIGURAS
aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa.XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX

Figura 1: Efecto de un operador contractivo 4


Figura 2: Efecto del operador T1 5
Figura 3: Efecto del operador T2 6
Figura 4: Efecto del operador T1 y T2 6
Figura 5: Conjunto de Cantor en la 4º iteración 6
Figura 6: Operador de Hutchinson iterado 9
Figura 7: Conteo de cajas de una línea 11
Figura 8: Conteo de cajas en un Cuadrado 11
Figura 9: Curva Básica de Koch 12
Figura 10: Función de Weierstrass en el intervalo [−2, 2] 14
Figura 11: Funciones empleando el Operador de
Read-Bajraktarevic 17
Figura 12: Punto fijo del Operador 18
Figura 13: Construcción de la Curva de Koch 19
Figura 14: Conjunto de Cantor 20
Figura 15: Atractor de Lorenz 22
Figura 16: Construcción del Triángulo de Sierpinski 23
Figura 17: Formación del triángulo de Sierpinski 25
Figura 18: Curva de Koch 26
Figura 19: Copo de Nieve de Koch 26
Figura 20: Algoritmo de desplazamiento del punto medio 27
Figura 21: Movimiento browniano fraccionario con
diferentes exponentes de Hurst 28
Figura 22: Movimiento browniano fraccionario 3D con
diferentes exponentes de Hurst 28
Figura 23: Superficies brownianas 29
Figura 24: 6 Texturas brownianas 29
Figura 25: Movimiento browniano fraccionario 29
Figura 26: Conjunto de Julia para c = 0.28 + 0.008i 30
Figura 27: Conjunto de Mandelbrot con vista ampliada 31
Figura 28: Estimación Inicial de la Población 33
Figura 29: Estimación de la Población con Variaciones 34
Figura 30: Contraste de las Variaciones en la Estimación 34
Figura 31: Generación del diagrama de Bifurcación 36
Figura 32: Variación de la población con respecto a una tasa de
crecimiento r>3,57 37
Figura 33: Diagrama de Bifurcación 37
Figura 34: El diagrama de bifurcación en el conjunto de
Mandelbrot 38
Figura 35: Caos en la naturaleza 39
Figura 36: Caos en el cuerpo humano 40
Figura 37: Imagen de RM cerebral simple adaptada al proceso
de Box-Counting 44
Figura 38: Área de Superficial de los Fractales en relación al
Volumen 45
Figura 39: Antena con el diseño fractal propuesto 46
Figura 40: Modelamiento de un helecho 46
Figura 41: Sistema de funciones iteradas en un helecho 47
Figura 42: Ejemplo de fractal proyectado 48
Figura 43: Dimensiones Fractales en instrumentos musicales 49
Figura 44: Funcionalidad del algoritmo 50
Figura 45: Células de cuello uterino 51
Figura 46: Dimensión Fractal de las células 52
Figura 47: Funcionalidad del algoritmo 52
Figura 48: Fractales básicos 53
Figura 49: Fractal de terreno (Ocean Terrain) 54
Figura 50: Resultado de combinar el terreno fractal
y un objeto 54
Figura 51: Visualización del objeto(Pacman) en el
terreno fractal 55
Figura 52: Órbita 1 en el conjunto de mandelbrot 55
Figura 53: Órbita 2 en el conjunto de mandelbrot 56
Figura 54: Órbita generada en el fractal SFX 56
Figura 55: Órbita ampliada en el conjunto de Mandelbrot 57
Figura 56: Repintado del Conjunto de Mandelbrot 58
Figura 57: Repintado de Burning Ship 58
Figura 58: Repintado del Fractal SFX 58
ÍNDICE DE TABLAS
aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa.XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX

Tabla 1: IFS de fractales famosos 7

Tabla 2: Función de Riemann y Tienda de Campaña 15

Tabla 3: Curva Original de Peano 24

Tabla 4: Barrido del Copo de Nieve de Koch 24

Tabla 5: Evolución de índices y divisas

del mercado Financiero 41

Tabla 6: Resultados de la investigación de

mercados financieros 43
INTRODUCCIÓN
La geometría fractal es una de las disciplinas que ha protagonizado diferentes
investigaciones a lo largo de los años. El impacto que ha adquirido se debe
principalmente al esfuerzo que ha puesto la humanidad en modelar las diferentes
formas y estructuras presentes en la naturaleza. Antes de la aparición de los fractales, la
geometría euclidiana era la herramienta central para el modelamiento de elementos.
Utilizaba puntos, líneas, curvas, entre otros objetos para representar estructuras
regulares. Sin embargo, la imposibilidad de aplicar esta geometría en estructuras
irregulares contribuyó al surgimiento de la geometría fractal.

Esta nueva geometría soluciona los problemas que presenta la euclidiana. Gracias
a su introducción ahora se pueden realizar modelamientos de formas de la naturaleza
que presentan una estructura irregular. Entre algunas estructuras conocidas que se le
atribuye a los fractales son: la forma de una nube, de una montaña, de una costa, de los
troncos y hojas de árboles. Estos elementos mencionados tienen la peculiaridad de que
ninguno puede ser representado netamente por formas atribuibles a la geometría
euclidiana; es decir, no son formas esféricas, cónicas, cilíndricas ni rectilíneas: son
formas fragmentadas.

La aparición de la geometría fractal se remonta en la década de los 70 's con el


matemático francés Benoit Mandelbrot, el cual se le atribuye como el creador de la
geometría fractal o también llamada geometría de la naturaleza. Este se encargó de
ordenar, recopilar y sistematizar la información y conocimiento que se había
desarrollado acerca de la geometría fractal, logrando con ello consolidarla como una
nueva geometría. En base a sus descubrimientos el término fractal se ha ido
expandiendo, llamando el interés de diversos investigadores para poder descubrir más
acerca de las implementaciones que se le podrían atribuir. Por ello, el presente trabajo
de investigación, distribuido en cuatro capítulos, busca a través de una revisión literaria
explicar el comportamiento de los fractales y mostrar algunas áreas en las que se ha ido
implementando.

En el capítulo I, se desarrollan los conceptos básicos y datos históricos más


importantes que han surgido desde su concepción. Asimismo, se muestran ejemplos de
diferentes tipos de fractales. En el capítulo II, se analiza la relación existente entre la
Teoría del Caos y los fractales, haciendo especial énfasis en explicar cómo el caos se
puede localizar en la naturaleza. En el capítulo III, se muestran diferentes aplicaciones e
investigaciones realizadas por científicos de todo el mundo a partir de la geometría
fractal. Finalmente, el último capítulo abarca la utilización de la geometría fractal en la
informática. Se presentan 2 programas para el modelamiento de figuras o estructuras
3D/2D mediante el uso del programa Vulkan y también aplicado en el lenguaje de
programación C + +.

1
CAPÍTULO I
GEOMETRÍA FRACTAL

1.1. Definiciones
Fractal es un término acuñado por Benoît Mandelbrot en 1975, y explicado a
mayor profundidad en su libro “La Geometría Fractal de la Naturaleza” en 1977. Este
parte del adjetivo latino fractus, el cual se relaciona con los conceptos de fragmentado,
fraccionario e irregular (Mandelbrot, 1977). Es a partir de aquella palabra que diferentes
autores han realizado sus propias abstracciones en busca de brindar una mayor
comprensión sobre el verdadero significado de los fractales:

- Según Uahabi & Atounti (2015) “los fractales son estructuras que parecen
irregulares y se perciben como aleatorias, sin embargo, estas tienen una
autosemejanza desde diferentes aumentos”, una interpretación muy acorde a lo
visto en los modelos de fractales.
- Según Dun et al (2021) “en la naturaleza, los fractales poseen patrones repetidos
en direcciones de diferentes ejes, lo cual se denomina como naturaleza autofin.
Además, su autosimilitud es estadística, por lo que no son desviaciones del objeto
en escalas variadas”.
- Asimismo Al-Majdalawi (2005) define a los fractales como “objetos geométricos
que están compuestos de elementos, también geométricos, que tienen un
tamaño y orientación variable, sin embargo, cuentan con un aspecto similar.
Además, cuenta con una estructura geométrica recursiva que se asemeja a las
ramas de un árbol, ya que existen elementos de orden mayor compuestos por
elementos de orden menor”.

1.2. Historia de la Geometría Fractal


Los Fractales, aunque al principio no tenían ese nombre, nacen con la finalidad
de contradecir algunas afirmaciones que se consideraban aceptables por los
matemáticos de la época, como por ejemplo:

“La gráfica de toda función continua posee una tangente bien definida en todos sus
puntos, salvo quizás en un número finito de ellos” (Correa & Velezmoro, 2017).

La afirmación anterior era aceptada como cierta por la comunidad científica de


antaño; sin embargo, fue Bernard Bolzano en 1834, quien construyó una función
continua en un intervalo que no tiene derivada en ninguno de sus puntos; seguido por el
matemático alemán Theodor Weierstrass, quien realizaría la construcción de una
función sencilla y no derivable que hoy en día lleva su nombre. (Correa & Velezmoro,
2017)

2
Por otra parte, un año después, Jules Poincaré introduce la noción de dimensión
topológica de forma inductiva de la siguiente manera:

La dimensión del vacío es -1. Si la frontera de las vecindades de todos los puntos de
un objeto tiene dimensión “n-1” entonces el objeto tendrá dimensión “n”.

Con lo que se deduce que la dimensión de un punto es 0; la de un segmento, 1; la


de un cuadrado, 2; la de un cubo, 3 y así sucesivamente.

Dicho concepto de dimensión propuesto por Poincaré se puso a prueba 30 años


después. En 1875, Henry Smith, profesor de la Universidad de Oxford, publicó un
artículo denominado “Sobre la integración de funciones discontinuas”. Es en este dónde
Smith desarrolló un método para construir conjuntos densos en ninguna parte. Por otro
lado, Georg Cantor también presentó su famoso Conjunto de Cantor; la cual había sido
adelantada por H. J. S. Smith, tanto así que al Conjunto de Smith también se le conoce
como Conjunto de Cantor Generalizado. Es con estos conjuntos que surge la siguiente
pregunta: ¿Qué dimensión le podría asociar al conjunto si empiezo con un segmento de
recta que tiene dimensión topológica “uno” y al continuar indefinidamente solo se tiene
una nube de puntos disconexos a los cuales se les asocia dimensión topológica “cero”?
Como respuesta a la pregunta anterior, se asocia una dimensión comprendida entre
cero y uno, la dimensión fraccionaria.

Debido a esto último, Camille Jordan propuso un nuevo concepto topológico de


curva con la que aliviaba sus diferentes contradicciones, además de un teorema: Toda
curva cerrada, simple y continua divide al plano en dos regiones, una exterior y otra
interior, de manera que la región interior no puede reducirse a cero, dado que contiene
un círculo de radio finito. Sin embargo, a partir de este teorema surgieron diversas
contradicciones; entre las más conocidas, Giuseppe Peano en 1890 quien construyó una
curva a: [0,1] → R2 que llena todo el plano. (Correa & Velezmoro, 2017)

A partir de estas ideas surgieron muchos conjuntos que presentaron la idea de


autosimilaridad e irregularidad, los cuales en principio fueron denominados “Monstruos
Matemáticos”, hasta que, en 1975 el matemático francés de origen Polaco Benoit
Mandelbrot, les denominó Fractales. Estas estructuras son hoy en día materia de interés
de muchos científicos, tanto así que se ha generado esta nueva rama de las matemáticas
denominada Geometría Fractal.

1.3. Construcción matemática de fractales


Sin lugar a dudas, no se puede abordar ningún tema relacionado con las ciencias,
sin tener alguna base matemática que lo respalde. Es por ello que es necesario definir

3
exactamente qué es un fractal desde una perspectiva matemática, tomando en cuenta
algunos conceptos básicos que permitan una mayor abstracción.

1.3.1. Conceptos Matemáticos Clave


Entre los conceptos más utilizados dentro de la geometría fractal, se tienen los
siguientes:

a. Operador Contractivo
Se le llama operador contractivo o aplicación contractiva a una función que es
capaz de contraer las distancias de un espacio métrico dada cierta razón de contracción
k, la cual es estrictamente menor a la unidad. (Correa & Velezmoro, 2017)

Definición matemática: Sea (𝑋, 𝑑) un espacio métrico y T: X → X un operador. Se


dice que T es un operador contractivo si existe una constante 𝑘 ∈ (0, 1) para la
cual se verifica que:
𝑑(𝑇(𝑥), 𝑇(𝑦)) ≤ 𝑘 𝑑(𝑥, 𝑦) , ∀ 𝑥, 𝑦 ∈ 𝑋

En términos no técnicos y un poco más prácticos, una contracción permite


expresar objetos geométricos en versiones más pequeñas (contraídas) de sí mismas.
Como por ejemplo, encoger un triángulo a la mitad:

Figura 1: Efecto de un operador contractivo

Nota. Elaboración propia

Las aplicaciones contractivas merecen una atención especial dentro de la


Geometría Fractal, pues a partir de ellas Sthefan Banach (1892 - 1945) formuló un

4
teorema muy importante denominado el teorema del punto fijo, el cual se explicará más
adelante.

b. Sistemas de funciones iteradas


Una forma muy sencilla de generar Conjuntos Fractales, consiste en utilizar una
herramienta matemática denominada Sistemas de Funciones Iteradas (IFS), dichos
sistemas constan de un conjunto de operadores contractivos, los cuales se evalúan
iterativamente en un conjunto inicial denominado conjunto semilla. (Correa &
Velezmoro, 2017)

Definición matemática: Sea (𝑋, 𝑑) un espacio métrico. Un sistema de funciones


iteradas es una familia de contracciones lineales sobre el espacio métrico que se
denota mediante:
𝑇 = {𝑇1 , 𝑇2 , 𝑇3 , 𝑇4 , ... 𝑇𝑛}

Tomando ello como base, se puede empezar a generar fractales utilizando tan
solo sistemas de funciones iteradas aplicadas de manera recursiva.

Para poder comprender cómo se lleva a cabo este proceso, a continuación se


muestra un ejemplo:

Ejemplo:
Suponga que posee una línea recta horizontal sobre la cual se desea aplicar el
1
operador contractivo 𝑇 = 3 𝑥 . Si se aplica el operador se obtiene una línea contraída,
1
que en este caso, corresponde a un tercio de la línea original.

Figura 2: Efecto del operador T1

Nota. Elaboración propia

Ahora suponga que ya no se quiere aplicar el operador 𝑇1, sino el operador


1 2
𝑇2 = 3
𝑥+ 3
que posee el siguiente efecto:

5
Figura 3: Efecto del operador T2

Nota. Elaboración propia

Si se aplicara ambos operadores al mismo tiempo 𝑇1 y 𝑇2 se generaría el


siguiente resultado sobre el conjunto inicial:

Figura 4: Efecto del operador T1 y T2

Nota. Elaboración propia

Aplicando 𝑇 = {𝑇 , 𝑇 } de manera recursiva se obtiene un conjunto muy famoso


1 2
que hoy en día es conocido como el conjunto de Cantor,𝐼 uno de los fractales más
1
estudiados dentro del ámbito de la Geometría fractal: 𝑇
2

Figura 5: Conjunto de Cantor en la 4º iteración

Nota. Elaboración propia

6
En la siguiente tabla, se muestran los sistemas de funciones iteradas de 4
fractales importantes:

Tabla 1: IFS de fractales famosos

IFS

Conjunto de Cantor
𝑇:
1
𝑇(𝑥)1 = 3
𝑥
1 2
𝑇(𝑥)2 = 3
𝑥 + 3

Triángulo de Sierpinski

𝑇:
𝑇(𝑥, 𝑦)1 = ( 1
2
𝑥,
1
2
𝑦)
=( 𝑦) + ( )
1 1 1
𝑇(𝑥, 𝑦)2 2
𝑥, 2 2
,0

=( 𝑦) + ( )
1 1 1 3
𝑇(𝑥, 𝑦)3 2
𝑥, 2 4
, 4

Copo de nieve de Koch

𝑇:
𝑇(𝑥, 𝑦)1 = ( 1
3
𝑥,
1
3
𝑦)
𝑇(𝑥, 𝑦)2 = ( 1
6
𝑥 − 6
3
𝑦, 6
3
𝑥 +
1
6 ) ( , 0)
𝑦 +
1
3

=( 𝑦) + ( , )
1 3 3 1 1 3
𝑇(𝑥, 𝑦)3 6
𝑥 + 6
𝑦, − 6
𝑥 + 6 2 6

𝑇(𝑥, 𝑦)4 = ( 1
3
𝑥,
1
3 ) (
𝑦 +
2
3
,0 )

7
Curva de Peano

𝑇:
𝑇(𝑥, 𝑦)1 = ( 𝑥 , 𝑦)
1
3
1
3

= (− 𝑦 , 𝑥) + ( , 0)
1 1 1
𝑇(𝑥, 𝑦)2 3 3 3

= ( 𝑥 , 𝑦) + ( , )
1 1 1 1
𝑇(𝑥, 𝑦)3 3 3 3 3

= ( 𝑦 , − 𝑥) + ( , )
1 1 2 1
𝑇(𝑥, 𝑦)4 3 3 3 3

= (− 𝑥 , − 𝑦) + ( , 0)
1 1 2
𝑇(𝑥, 𝑦)5 3 3 3

= ( 𝑦 , − 𝑥) + ( , 0)
1 1 1
𝑇(𝑥, 𝑦)6 3 3 3

= ( 𝑥 , 𝑦) + ( , − )
1 1 1 1
𝑇(𝑥, 𝑦)7 3 3 3 3

= (− 𝑦 , 𝑥) + ( , − )
1 1 2 1
𝑇(𝑥, 𝑦)8 3 3 3 3

= ( 𝑥 , 𝑦) + ( , 0)
1 1 2
𝑇(𝑥, 𝑦)9 3 3 3

Nota. Sistema de Funciones iteradas para 4 fractales.


Recuperado de: Correa & Velezmoro, 2017

c. Teorema del Punto Fijo


Este teorema fue formulado y demostrado por Stefan Banach en el año 1922 y
garantiza la existencia de un punto fijo a partir de un operador contractivo.

Definición matemática: Sea (𝑋, 𝑑) un espacio métrico y T: X → X un operador


contractivo. Si (X,d) es completo, entonces T posee un único punto fijo 𝑥
𝑃
donde se cumple lo siguiente:
𝑇(𝑥𝑃) = 𝑥𝑃

8
Esto es de vital importancia porque implica que 𝑥 es un atractor global de
𝑃
la aplicación contractiva por lo que todo punto de la sucesión 𝑋 = {𝑥, 𝑇(𝑥), 𝑇(𝑇(𝑥)), ...}
converge en dicho punto. (Correa & Velezmoro, 2017) I

d. Operador de Hutchinson
Este operador fue creado por el matemático inglés Jhon. E. Hutchinson en el año
1981 con la finalidad de formalizar la construcción de conjuntos fractales en base al
teorema del punto fijo.(Correa & Velezmoro, 2017)

Definición matemática: Sea (𝑋, 𝑑) un espacio métrico y 𝑇 = {𝑇 , 𝑇 , 𝑇 , 𝑇 , ... 𝑇 }


1 2 3 4 𝑛
un sistema de funciones iteradas (IFS). El operador asociado al IFS recibe el nombre
de Operador de Hutchinson. I
𝑛
𝐻(𝑆) = ⋃ 𝑇𝑖(𝑆)
𝑖=1

De manera sencilla, el Operador de Hutchinson resume la acción colectiva de un


conjunto de contracciones T sobre un espacio compacto S. Si el operador H se aplica de
manera iterativa, sobre S la iteración converge hacia una estructura fractal conocida
como atractor A.

Figura 6: Operador de Hutchinson iterado

Nota. Elaboración propia

Donde A se define como:

𝐴 = lim 𝑆𝑛
𝑛→∞

1.3.2. Métrica y dimensión de Hausdorff-Besicovitch


La dimensión de Hausdorff-Besicovitch se puede interpretar como la capacidad
que tiene un conjunto para ocupar el espacio en el que está sumergido. La dimensión es
una primera estimación del tamaño de un conjunto e indica la forma adecuada de
medirlo: cantidad de puntos para dimensión cero, longitud para dimensión uno, área
para dimensión dos, volumen para dimensión tres, etc.

9
La definición de dimensión de Hausdorff va asociada a un proceso de medida
(Correa & Velezmoro, 2017). Esta última matemáticamente se expresa como:

Métrica de Hausdorff: Sea Ω un espacio métrico. Para un conjunto fractal F ⊂ Ω, se


tiene:
𝑠 ⎰∞ 𝑠


𝑀𝑒𝑑 (𝐹) = 𝑖𝑛𝑓 ∑ 𝐴𝑛
⎱𝑛=1 | | | |
: 𝐹 ⊂ ⋃ 𝐴𝑛 , 𝐴𝑛 ≤ δ
𝑛=1

| 𝑛| denota el diámetro de 𝐴𝑛 (cubrimiento de F)


Donde δ tiende a cero y 𝐴

Bajo esta notación s hace referencia a la dimensión de Hausdorff del conjunto F:


𝑠 = 𝑑𝑖𝑚𝑠(𝐹)
Si la dimensión toma valores enteros entonces se tiene que la métrica de
Hausdorff representa lo siguiente:
1
𝑠=1 ⇒ 𝑀𝑒𝑑 (𝐹) 𝑚𝑖𝑑𝑒 𝑙𝑎 𝑙𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒 𝐹
2
𝑠=2 ⇒ 𝑀𝑒𝑑 (𝐹) 𝑚𝑖𝑑𝑒 𝑒𝑙 á𝑟𝑒𝑎 𝑑𝑒 𝐹
3
𝑠=3 ⇒ 𝑀𝑒𝑑 (𝐹) 𝑚𝑖𝑑𝑒 𝑒𝑙 𝑣𝑜𝑙𝑢𝑚𝑒𝑛 𝑑𝑒 𝐹

Sin embargo, una dimensión entera no siempre describe los conjuntos tal como
son, especialmente si estos son estructuras fractales. En el caso del conjunto de Cantor,
la dimensión cero es demasiado pequeña para describirlo (tiene infinitos puntos),
mientras que la dimensión uno es demasiado grande porque no nos permite verlo, ya
que mide cero. Es en base a este dilema que surge el concepto de dimensión
fraccionaria, la cual también es calculable a través de la métrica de Hausdorff. (Sastre,
2002)

1.3.3. Dimensión de Conteo de Cajas

Aunque la dimensión de Hausdorff es considerada mucho más formal, su cálculo


a veces resulta un poco complicado. Es más, para algunos conjuntos que son fractales
pero que no se generan a través de un IFS, se debe realizar un análisis muy profundo
con la finalidad de encontrar un escalamiento y a partir de allí determinar su dimensión.
Es por este motivo que se creó el concepto de Dimensión de Conteo de Cajas, el cual es
una definición alternativa de fácil manejo y calculable inclusive desde un punto vista
computacional. (Correa & Velezmoro, 2017)

10
Para entender un poco de qué trata el conteo de cajas, considere un segmento de
recta de longitud 1 y considere. ¿ Cuántos segmentos de igual longitud como mínimo se
necesitan para cubrirlo?

Figura 7: Conteo de cajas de una línea

Nota. Elaboración Propia

No es difícil observar que el mínimo número de conjuntos de igual longitud que


se necesitan para cubrir dicho segmento es 2, los cuales son de longitud 1/2. Para el
caso de un cuadrado de una unidad (figura bidimensional) se necesitarán cuatro
cuadrados de lado 1/2:
Figura 8: Conteo de cajas en un Cuadrado

Nota. Elaboración Propia

1 −1
Ahora bien; en el segmento, el mínimo número de conjuntos es 2 = ( )
2
, para el
1 −2
cuadrado se tiene 4 = ( )
2
. Y en general para un cubo n-dimensional se necesitan
1 −𝑛
como mínimo ( )
2
.

Métrica del conteo de Cajas


−𝑛
𝑁δ(𝐹) = δ
Número mínimo de cajas de lado δ que se
necesitan para cubrir el conjunto fractal F.

11
Si se despeja 𝑛 para obtener la dimensión de conteo de cajas (box-counting
dimension) y se utiliza una definición más matemática se obtiene:

𝑛
Conteo de cajas: Sea 𝐹 ⊂ 𝑅 un subconjunto acotado diferente del vacío y sea 𝑁δ(𝐹) el
menor número de conjuntos con diámetro menor o igual que δ que cubren a F , a la
dimensión se le define como:

𝑑𝑖𝑚𝐵(𝐹) = 𝑛 = lim
δ→0
( 𝑙𝑛 𝑁δ(𝐹)
𝑙𝑛 δ )
Aunque para dimensiones enteras y conjuntos fractales clásicos se verifica que:
𝑙𝑛 𝑁δ(𝐹)
𝑑𝑖𝑚𝐵(𝐹) =
𝑙𝑛 δ
Ejemplo:
En el caso de la curva de Koch, se necesitan como mínimo 4 cajas (intervalos) de
longitud 1/3 para cubrirla:

Figura 9: Curva Básica de Koch

Nota. Elaboración Propia

𝑙𝑛 𝑁 1 (𝐹)
3 𝑙𝑛4
𝑑𝑖𝑚𝐵(𝐹) = 1 = 𝑙𝑛3
= 1. 261859507
−𝑙𝑛 3

1.3.4. Definición Matemática de Fractales


Con todas las herramientas matemáticas consideradas anteriormente, estamos
en condiciones de definir rigurosamente a los Conjuntos Fractales clásicos. A
continuación se enuncia todo aquello que necesita un fractal para estar bien definido:

12
● Un espacio métrico completo, conformado por todos los subconjuntos
𝑛 𝑛
compactos de 𝑅 , denotado por ℎ(𝑅 ).
● Un operador constructivo, específicamente el operador de Hutchinson, definido

mediante 𝐻 = ⋃ 𝑇𝑖
𝐼=1
● Una métrica, la cual actuará sobre dicho espacio, comúnmente la métrica de
Hausdorff.

Teniendo en cuenta que el operador de Hutchinson es un operador contractivo,


por el teorema de punto fijo se puede afirmar que que posee un único punto fijo al que
se denominará Conjunto Fractal. Dicho punto fijo es el único conjunto invariante (o
autosemejante) por el operador T, es decir es el único conjunto compacto que satisface
H(A) = A. (Correa & Velezmoro, 2017)

1.4. Características de los fractales


Entre las características de los fractales se encuentran:

● Autosimilitud. Un fractal visto a escala gradualmente más pequeña se repetirá


de forma indefinida, es decir: pueden dividirse en partes o estructuras idénticas
dentro de la anterior y así sucesivamente.

● Dimensión fractal difiere de su dimensión topológica. La dimensión


topológica siempre toma valores enteros, mientras que la dimensión de
Hausdorff no lo es necesariamente; así la mayoría de los fractales no se ajustan a
los conceptos tradicionales de la dimensión topológica. Mandelbrot define a un
fractal como: “Un conjunto cuya dimensión de Hausdorff-Besicovitch es
estrictamente mayor que su dimensión topológica”.

● Recursividad. Se refiere a que los fractales son generados por un proceso


recursivo o iterativo, donde las estructuras producidas son similares a las
iniciales en cualquier escala de observación.

1.5. Funciones fractales


La geometría fractal ha generado múltiples funciones que son necesarias para
definir su estructuración, a continuación se presentarán las funciones como límites de
series con el aporte del matemático Weierstrass, el reconocido Operador de
Read-Bajraktarevic para la generación de funciones y la extrapolación de algunas
fracciones fractales mediante el empleo de 2 transformaciones contractivas.

13
1.5.1. Funciones como límites de series
El término diferenciabilidad está relacionado con los límites de series y la idea
clásica que se concebía era que la gráfica de toda función continua posee una tangente
bien definida en todos sus puntos, salvo en un número finito de ellos. Sin embargo, Carl
Weierstrass, matemático alemán, contradijo esta idea elaborando una función, a la cual
se le atribuye su nombre. (Correa & Velezmoro, 2017)

∞ 𝑖
(𝑠−2) 𝑖
𝑤(𝑡) = ∑ λ 𝑠𝑖𝑛(λ 𝑡)
𝑖=1

Weierstrass rompe el paradigma realizando una función que es continua en todo


los números, pero no es derivable en ninguno; en otras palabras, genera una función
que no es diferenciable. Tal como se puede apreciar en la imagen esta función muestra
evidentes irregularidades lo cual generó un impacto en aquella época.

Figura 10: Función de Weierstrass en el intervalo [−2, 2]

Nota. Recuperado de: Ponce, 2015

De la misma manera, Bernard Riemann, matemático alemán, y Teji Tagaki,


matemático japonés, propusieron sus propias funciones siguiendo la misma idea de
Weierstrass, siendo la función de Riemann la que más se asemejaba a su propuesta.
Como se puede apreciar en la tabla 2, el comportamiento de cada gráfica sigue un
comportamiento con una notoria irregularidad, la cual es propia de los fractales. (Correa
& Velezmoro, 2017)

14
Tabla 2: Función de Riemann y Tienda de Campaña

Función de Riemann Función Tienda de Campaña

∞ 2 ∞ 𝑛
𝑠𝑖𝑛(𝑛 π𝑡) 𝑓(2 𝑥)
𝐵(𝑡) = ∑ 2 𝑇(𝑥) = ∑ 𝑛
𝑛=1 𝑛 𝑛=0 2

Donde
1
𝑓(𝑥) = 2𝑥 , 𝑥 ϵ [0, 2
]
Gráfica 1
𝑓(𝑥) = 2 − 2𝑥 , 𝑥 ϵ < 2
, 1]

Gráfica

10 sumandos 15 sumandos

Nota. Recuperado de: Correa & Velezmoro, 2017

1.5.2. El Operador de Read-Bajraktarevic


El Operador de Read-Bajraktarevic surge a partir del Operador de Hutchinson, al
cual se le atribuye la formalización de los conjuntos fractales, esto dado que sigue un
sistema iterativo, donde en cada interacción se busca la convergencia hacia un único
atractor. De manera similar se utiliza el Operador de Read-Bajraktarevic, pero en este
caso se busca la construcción de funciones fractales en lugar de conjuntos. Para cumplir
ello, se pretende generar un operador contractivo que tenga presencia en un espacio
métrico completo. (Correa & Velezmoro, 2017)

𝑁
−1 −1
Φ[𝑓(𝑥)] = ∑ [𝑣𝑖(𝑢𝑖 (𝑥), 𝑓(𝑢𝑖 (𝑥)))]𝜒𝑥𝑖(𝑥)
𝑖=1
Donde, 𝑥𝑖=𝑢𝑖(𝑥)

De la misma forma que los conjuntos fractales la construcción de sus funciones


siguen un modelo iterativo, donde se va a empezar la iteración con 𝑓0. La cantidad de
iteraciones puede ser variada y según el número que se elija las gráficas variarán. Correa

15
& Velezmoro (2017) a manera de ejemplificar la aplicación de dicho operador, realizaron
un modelo empleado tres, cuatro y diez iteraciones.

Sean las biyecciones

𝑥 𝑥
𝑢1(𝑥) = 2
, 𝑢2(𝑥) = 1 − 2

Las funciones de mapeo

3 2 3
𝑣1(𝑥, 𝑦) = 𝑥 + 4
𝑦, 𝑣2(𝑥, 𝑦) = 𝑥 + 4
𝑦

Se obtiene el siguiente operador asociado

3 1
2𝑥 + 4
𝑓(2𝑥) , 𝑥 ϵ [0, 2
]
Φ[𝑓(𝑥)]
2 3 1
(2 − 2𝑥) + 4
𝑓(2 − 2𝑥) , 𝑥 ϵ [ 2 , 1]

De manera iterativa se empieza a construir los fractales a partir 𝑓0

𝑓0 = {(0, 0), (1, 0)}


1
𝑓1 = Φ[𝑓0] = {(0, 0), ( 2 , 1), (1, 0) }
1 5 1 3
𝑓2 = Φ[𝑓1] = {(0, 0), ( 4 , 4
), ( 2 , 1), ( 4 , 1), (1, 0)}
1 19 1 5 3 3 1 5 21 3 7
𝑓3 = Φ[𝑓2] = {(0, 0), ( 8 , 16
), ( 4 , 4
), ( 8 , 2
), ( 2 , 1), ( 8 , 16
), ( 4 , 1), ( 8 , 1), (1, 0)}

16
Figura 11: Funciones empleando el Operador de Read-Bajraktarevic

Nota. Recuperado de: Correa & Velezmoro, 2017

Correa & Velezmoro (2017), realizaron algunas modificaciones a los parámetros y


condicionales en el operador de Read-Bajraktarevic, esto con el propósito de mostrar
cómo a través de las iteraciones el punto fijo del operador se iba formando. Siguiendo la
misma lógica que la anterior gráfica pudieron descubrir que el punto fijo del operador
es una función suave que sigue el comportamiento de la función 2x(1-x), tal y como se
puede apreciar en la imagen.

Sean las biyecciones

𝑥 𝑥+1
𝑢1(𝑥) = 2
, 𝑢2(𝑥) = 2

Las funciones de mapeo

𝑥 1 1−𝑥 1
𝑣1(𝑥, 𝑦) = 2
+ 4
𝑦, 𝑣2(𝑥, 𝑦) = 2
+ 4
𝑦

Se obtiene el siguiente operador asociado

1 1
𝑥+ 4
𝑓(2𝑥) , 𝑥 ϵ [0, 2
]

Φ[𝑓(𝑥)]

1 1
1−𝑥+ 4
𝑓(2 − 2𝑥) , 𝑥ϵ[ 2
, 1]

17
De manera iterativa se empieza a construir los fractales a partir 𝑓0

𝑓0 = {(0, 0), (1, 0)}


1 1
𝑓1 = Φ[𝑓0] = {(0, 0), ( 2 , 2
), (1, 0) }
1 3 1 1 3 3
𝑓2 = Φ[𝑓1] = {(0, 0), ( 4 , 8
), ( 2 , 2
), ( 4 , 8
), (1, 0)}
1 7 1 3 3 15 1 1 5 15 3 3 7 7
𝑓3 = Φ[𝑓2] = {(0, 0), ( 8 , 32
), ( 4 , 8
), ( 8 , 32
), ( 2 , 2
), ( 8 , 32
), ( 4 , 8
), ( 8 , 32
), (1, 0)}

Figura 12: Punto fijo del Operador

Nota. Recuperado de: Correa & Velezmoro, 2017

1.5.3. Funciones en base a IFS interpolantes


En los anteriores apartados se ha presentado la creación de fractales mediante
sucesiones con límites y mediante el uso del operador Read-Bajraktarevic. Ahora se
mostrará un método general para la elaboración de las funciones fractales, donde los
puntos fijos ahora se determinarán del Operador de Hutchinson. Para ello, se hará uso
de transformaciones contractivas. (Correa & Velezmoro, 2017)

𝑤1(𝑥, 𝑦) = (𝑎𝑥 + 𝑏𝑦 + 𝑐, 𝑑𝑥 + 𝑒𝑦 + 𝑓)

𝑤2(𝑥, 𝑦) = (𝑔𝑥 + ℎ𝑦 + 𝑖, 𝑗𝑥 + 𝑘𝑦 + 𝑙)

Los coeficientes independientes encontrados en cada transformación se ubican


mediante la proyección de cinco puntos, donde de manera iterativa se evaluarán las
rectas formadas desde el último punto hasta el primero. Algo atribuible a este tipo de
función es la capacidad de generar la Curva de Von Koch utilizando dos
transformaciones contractivas, esto dado que lo normal es utilizar cuatro

18
transformaciones. A continuación se mostrará la forma en la que se puede representar.
(Correa & Velezmoro, 2017)

1 1 1 1
𝑤1(𝑥, 𝑦) = ( 2 𝑥 + 𝑦, 𝑥 − 2
𝑦)
2 3 2 3

1 1 3 1 1 3
𝑤2(𝑥, 𝑦) = ( 2 𝑥 − 𝑦+ 2
,− 𝑥 − 2
𝑦+ 2
)
2 3 2 3

Figura 13: Construcción de la Curva de Koch

Nota. Recuperado de: Correa & Velezmoro, 2017

1.6. Fractales Famosos


1.6.1. El conjunto de Cantor
También llamado Polvo de Cantor, el conjunto de Cantor es uno de los primeros
fractales conocidos y además históricamente es uno de los descubrimientos
matemáticos más importantes, cuyo nombre se atribuye al matemático Georg Cantor,
quien lo presentó en 1883 para la comunidad matemática como modelo de cierto tipo de
conjuntos excepcionales.

Hay 2 formas de definir este Fractal llamado Conjunto de Cantor, la primera es


numérica y la segunda es geométrica según Villareal, E., Loor, A., Et al. (2020).

Definición Numérica

El conjunto de Cantor es un conjunto de todos los puntos de la recta real [0, 1]


que admiten una expresión en base 3 que no utilice el dígito 1.

19
Definición Geométrica

Se define como un subconjunto de puntos pertenecientes al intervalo [0,1], el


cual es construido a partir del siguiente proceso infinito:

● Tomar el intervalo unidad 𝐼0 = [0, 1]

𝐶: 𝑅𝑒𝑐𝑡𝑎 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙

● Retirar el tercio interior de este intervalo; es decir, el intervalo abierto


1 2
< 3
, 3
>. Quedando en lugar del intervalo inicial, dos nuevo intervalos
1 1 2 2
𝐼1 = [0, 3
] y 𝐼1 = [ 3 , 1].

1 2
𝐶1 = 𝐼1 ∪ 𝐼1

● Retirar a cada uno de los nuevos intervalos sus respectivos tercios interiores,
1 2 7 8
identificados con los intervalos abiertos < 9
, 9
>y< 9
, 9
>. Es así que se
1 2 3 4 1
tienen cuatro intervalos 𝐼2, 𝐼2, 𝐼2, 𝐼2 de longitud 9
.

1 2 3 4
𝐶2 = 𝐼2 ∪ 𝐼2 ∪ 𝐼2 ∪ 𝐼2

● Continuar retirando los tercios interiores de cada intervalo restante. Es así


𝑛
𝑛 1 2 2
como en el paso n-ésimo se tendría 2 intervalos 𝐼 , 𝐼 , ..., 𝐼 de longitud
𝑛 𝑛 𝑛
1
𝑛 .
3

Figura 14: Conjunto de Cantor

Nota. Representación hasta la iteración n. Elaboración propia

El conjunto de Cantor se define geométricamente


como la intersección de todos los conjuntos 𝐶𝑛

20
𝑛
∞ ∞ 2
𝑖
𝐶 = ⋂ 𝐶𝑛 = ⋂ ⋃ 𝐼𝑛
𝑛=0 𝑛=0 𝑖=1

Este Fractal puede ser encontrado en los anillos de Saturno, aunque en un


principio se creía que el anillo era único, se ha descubierto con el avance de la
tecnología que este presentaba distintos cortes, generando así más anillos. Años más
tarde, el Voyager, sonda espacial enviada a Júpiter y Saturno, divisó que el número de
cortes finos era ilimitado; este fenómeno es conocido como diáfano. (Valdes, 2016)

1.6.2. El atractor de Lorenz


El atractor de Lorenz es un concepto introducido por Edward Lorenz, quien en
1963 estaba trabajando en el MIT en un modelo extremadamente simplificado de la
convección atmosférica cuando lo describió casualmente. Se trata de un sistema
dinámico determinista tridimensional no lineal derivado de las ecuaciones simplificadas
de rollos de convección que se producen en las ecuaciones dinámicas de la atmósfera
terrestre. (Veritasium, 2019)

𝑑𝑥
𝑑𝑡
= σ(𝑦 − 𝑥)
𝑑𝑦
𝑑𝑡
= 𝑥(ρ − 𝑧) − 𝑦
𝑑𝑧
𝑑𝑡
= 𝑥𝑦 − β𝑧

Para ciertos valores de los parámetros (σ = 10, ρ = 28 , β = 8/3), el sistema


exhibe un comportamiento caótico y muestra lo que actualmente se llama un atractor
extraño. Se encontró que los valores generados nunca se repiten, dado que cualquier
perturbación minúscula de las condiciones iniciales hacían variar completamente los
valores generados (Veritasium, 2019).

El atractor toma una forma única y parece conservar cierto orden; sus infinitas
trayectorias nunca se cortan, y presenta la autosimilitud característica de los fractales.
Específicamente se puede afirmar que este extraño atractor es un fractal de dimensión
de Hausdorff entre 2 y 3.

21
Figura 15: Atractor de Lorenz

Nota. Recuperado de: Jos Leys, 2013

En los medios populares, el famoso 'efecto mariposa' surge a partir de las


implicaciones del atractor de Lorenz en el mundo real. Dicha estructura fractal es una
muestra que en cualquier sistema físico, en ausencia de un conocimiento perfecto de las
condiciones iniciales (incluso la minúscula perturbación del aire debido a una mariposa
batiendo sus alas), afecta la capacidad para predecir el comportamiento futuro. Esto
subraya que los sistemas físicos pueden ser completamente deterministas y, sin
embargo, ser intrínsecamente impredecibles incluso en ausencia de efectos cuánticos.
La forma del propio atractor de Lorenz, cuando se traza gráficamente, también se puede
ver como una mariposa (Veritasium, 2019).

1.6.3. El triángulo de Sierpinski


Este fractal fue concebido por el matemático polaco Waclaw Sierpinski en el año
1919. Este conjunto se construye de manera recurrente a partir de un triángulo
cualquiera y su algoritmo de elaboración es el siguiente:

1. Tomar un triángulo cualquiera y ubicar los puntos medios de cada lado


2. Unir los puntos medios y se obtendrá 4 triángulos semejantes al primero.
3. Extraer el triángulo central que resulta de unir los puntos medios
4. Aplicar los pasos anteriores en los 3 triángulos restantes de forma recursiva.

A continuación se muestra el más conocido que se genera a partir de un


triángulo equilátero.

22
Figura 16: Construcción del Triángulo de Sierpinski

Nota. Visualización de las iteraciones del triángulo de Sierpinski. Recuperado de:


Correa & Velezmoro, 2017

1.6.4. Curvas de Peano


Otro de los autores que emprendió un análisis en la compresión de las
estructuras irregulares fue Peano, matemático italiano reconocido por realizar una
curva cuyo nombre se le atribuye. Las curvas de Peano o también llamadas curvas que
cubren el plano se encuentran parametrizadas por el tiempo y a su vez asignadas a una
dimensión 2. Los descubrimientos de Peano, de manera inicial, fueron realmente
criticados por algunos matemáticos de la época debido a que no le encontraba un
sentido o significado hasta el punto de considerarlas como monstruosos. (Mandelbrot,
1997)

Sin embargo, Mandelbrot (1997) al analizar sus descubrimientos encuentra una


enorme relación de los terágonos de Peano con aspectos de la naturaleza. Entre los
cuales menciona un conjunto de árboles, ríos, cuencas, entre otros. También resalta que
se puede emplear estas curvas para rellenar la figura del copo de nieve de Koch, por lo
que se podría decir que son complementarias entre ambas. Analizando los ríos de la
curva de Peano llegó a la conclusión de que son curvas fractales y por ende pueden ser
utilizables para realizar algún tipo de modelamiento.

Respecto a los movimientos de Peano, estos en la mayoría de casos se generan


perembaldosados en el plano; es decir, se rellenan figuras en el plano como si fueran
baldosas unidas las unas a las otras. La curva de Peano original está expresada en la base
de numeración N=9, el cual representa la cantidad de intervalos necesarios. Asimismo, la
longitud que sigue cada intervalo corresponde a 1/3. Para esto el iniciador corresponde
un cuadrado unidad y el generador está definido por los parámetros anteriormente
señalados, tal como se puede apreciar en la imagen. (Mandelbrot, 1997)

23
Tabla 3: Curva Original de Peano

Curva Original de Peano

Generador Gráfica Resultante


N=9
r=1/3
D=2

Nota. Muestra del generador y la gráfica de la Curva Original de Peano. Recuperado de:
Mandelbrot, 1997

A partir de esta expresión surgen otro tipo de figuras. Las cuales deberán
lógicamente modificar tanto el iniciador como el generador para obtener un resultado
diferente. A manera de ejemplo se tomará el barrido de copo de nieve, para el cual se
utiliza un iniciador [0,1] y se emplea un generador S y su inverso llamado F, expresando
una imagen de S según la vertical x=1/2. Para el barrido del copo de nieve se podrá
utilizar cualquier generador de los especificados, sea S o F, lo cual generará un barrido
distinto. (Mandelbrot, 1997)

Tabla 4: Barrido del Copo de Nieve de Koch

Barrido del Copo de Nieve de Koch

Generador Gráfica Resultante

D=2 N=7

Nota. Muestra del generador y la gráfica que da origen al barrido del Copo de Nieve de
Koch. Recuperado de: Mandelbrot, 1997

24
1.6.5. El juego del caos
Existe un método que permite generar fractales iterativos gracias al uso de los
polígonos, este se denomina algoritmo de iteración aleatoria o comúnmente conocido como
el juego del caos (Berg, 2022), el cual se puede explicar eligiendo 3 puntos en los vértices de
cualquier tipo de triángulo, después se colorean cada uno de los vértices de 3 colores
cualesquiera, en este caso, rojo, azul y verde, respectivamente. Luego, se toma un dado y se
pintan 2 caras por cada color elegido, lo que nos permite observar 2 caras rojas, 2 azules y 2
verdes. Ahora, se elige un punto aleatorio en el triángulo, el cual será nuestra semilla, luego
tiramos el dado y en base al color que aparezca se moverá nuestra semilla al medio de la
distancia entre el vértice del color obtenido y el punto donde nos encontramos actualmente,
lo cual hará de este último nuestra nueva semilla.

Figura 17: Formación del triángulo de Sierpinski

Nota. Uso de un método básico a partir de 3 puntos y 1 semilla para formar un


patrón como parte del juego del caos. Recuperado de: Devaney, 1995

Siguiendo esta secuencia, se anota la trayectoria de estos puntos después de cada


lanzamiento. Es así que luego de varias iteraciones, se formará lo que los matemáticos
denominan triángulo de Sierpinski, lo cual varía de la percepción popular, quienes aseveran
que el resultado de esta secuencia de pasos es solo una mancha aleatoria de puntos.

1.6.6. La curva de Koch

Introducida por el matemático sueco Helge von Koch en 1904, fue construida
como un ejemplo de curva continua y cerrada que no posee derivada en ninguno de sus
puntos; es decir, no es diferenciable en ningún punto. Añadido a esto, esta curva
presenta una longitud infinita, aunque esté englobada en un área finita.

La construcción de la curva de Koch está basada en el proceso infinito del cual, a


1
partir de un segmento unidad, se reemplaza el intervalo central de longitud 3
por dos
segmentos de la misma longitud formando un ángulo de 60 grados. Se aplica el paso

25
anterior recursivamente en cada uno de los 4 intervalos que se han formado. En el límite
se obtendrá una curva de longitud infinita sin derivada en ninguno de sus puntos, la
curva de Koch.

Figura 18: Curva de Koch

Nota: Construcción de la Curva de Koch hasta la 4° iteración. Recuperado de: Tobal,


2014

De la misma manera, Helge von Koch construyó una curva cerrada siguiendo un
proceso parecido al anterior, dando como resultado, el hoy en día denominado Copo de
Nieve de Koch. Esta curva también posee la propiedad de ser continua, autosemejante y
no diferenciable. Ambas formas cuentan con una dimensión 𝐷 = 𝑙𝑜𝑔4/𝑙𝑜𝑔3 = 1, 2618,
con una razón de homotecia (r) igual a 1/3.

Figura 19: Copo de Nieve de Koch

Nota. Construcción de El Copo de Nieve de Koch hasta la 4° iteración. Recuperado


de: Correa & Velezmoro, 2017

La Curva de Koch se relaciona con el contorno de las costas porque sus figuras
son muy semejantes entre sí. En “La geometría de la naturaleza”, Mandelbrot plantea la
siguiente pregunta: ¿Cuánto mide la costa de Bretaña? Reflejando como solución que
mientras el tamaño del instrumento de medida vaya disminuyendo, el perímetro de la
costa resultante será más preciso; por lo tanto, mientras más pequeño el instrumento
mayor la medida, que tenderá al infinito. (Valdes, 2016)

26
1.6.7. Desplazamiento del punto medio
El desplazamiento del punto medio es un algoritmo que se utiliza para crear el
movimiento browniano aleatorio. Consiste en alterar la posición en un punto intermedio
calculando el valor medio de los puntos extremos más un cierto valor aleatorio
gaussiano que puede ser positivo o negativo (Mandelbrot, 1997). Este procedimiento se
realiza de manera iterativa, tal como se muestra en la figura:

Figura 20: Algoritmo de desplazamiento del punto medio

Nota. Proceso de generación de una curva browniana fraccionaria.


Recuperado de: Mandelbrot, 1997

Para obtener los llamados movimientos brownianos fraccionarios se modifica


ligeramente el algoritmo, introduciendo un un exponente H entre 0 y 1, conocido como
exponente de Hurst. Si el exponente de Hurst está cerca de cero, los perfiles se hacen
muy escarpados, mientras que según se acerca a uno, se suavizan notablemente, como
se muestra en la siguiente figura. Cuando H = 1/2 , se tiene el movimiento browniano
clásico. (Sastre, 2002)

27
Figura 21: Movimiento browniano fraccionario con diferentes
exponentes de Hurst

Nota. Recuperado de: Sastre, 2002

La generalización del movimiento browniano a dimensiones mayores se puede


hacer con facilidad a partir del algoritmo de desplazamiento del punto medio. Esto
permite generar paisajes, cuyo relieve depende del exponente de Hurst, que en el
algoritmo se traduce en el factor de escala del número aleatorio que se va generando.

Figura 22: Movimiento browniano fraccionario 3D con


diferentes exponentes de Hurst

Nota. Recuperado de: IndigoRedenrer, s.f.

Las variaciones sobre el color que se asigna a cada franja de altura permiten
generar diferentes imágenes. Por ejemplo, una gama de verde para alturas pequeñas,
haciéndose más oscuro según aumenta la altura; una gama de marrón para alturas
mayores y blanco a partir de una cierta elevación, se consiguen imágenes muy realistas.
Otra variación es utilizar una gama de verde o marrón para alturas positivas y una gama
de azul para alturas negativas, generando así la imagen de un posible paisaje. (Sastre,
2002)

28
Figura 23: Superficies brownianas

Nota. Recuperado de: González & Lowe, 2015

Una opción diferente es utilizar gamas de color para generar texturas: nubes,
fuego, madera, humos, etc. Por ejemplo, con una gama de azul y blanco se generan
nubes. Con una gama de rojos y amarillos se puede generar la textura del fuego. (Sastre,
2002)

Figura 24: 6 Texturas brownianas

Nota. Recuperado de: Sastre, 2002

29
Figura 25: Movimiento browniano fraccionario

Nota. Recuperado de: González & Lowe, 2015

1.6.8. Conjunto de Julia y Mandelbrot


Conjunto de Julia
Los matemáticos Pierre Fatou y Gaston Julia realizaron estudios de forma
independiente sobre funciones polinómicas complejas y develaron sus propiedades
básicas de iteración a principios del siglo XX.

Una familia importante de conjuntos de Julia se centra en funciones cuadráticas


complejas de tipo:

Al utilizar los resultados obtenidos de la función de forma recursiva, se obtendrá


el conjunto de Julia denotado por Jc. Se elige un número complejo z cualquiera y se
construye la sucesión de números de la siguiente manera:

Si la sucesión queda acotada entonces z pertenece al conjunto de Julia con


parámetro c, de lo contrario, dicha sucesión tiende al infinito y z queda excluida del
conjunto.

A Continuación se muestra una representación del conjunto, en la cual se utilizó


un valor de c = 0.28 + 0.008i y con un límite de 500 iteraciones, ver figura N°26.

30
Figura 26: Conjunto de Julia para c = 0.28 + 0.008i

Nota. Los puntos que pertenecen al conjunto están en negro y los que escapan en un gris cuya
intensidad dependerá del número de iteraciones realizadas, cuantas más iteraciones se realicen
más brillante será el gris (o más tiende al blanco). Recuperado de: PixinPix, 2017

Conjunto de Mandelbrot
El conjunto de Mandelbrot fue descubierto por Benoît Mandelbrot en la década
de 1970, gracias a la ayuda de los recursos informáticos brindados por IBM.

Para este caso, Mandelbrot modifica el proceso de iteración utilizado en el


conjunto de Julia, hace variable el valor de c e inicia con el valor de z0=0.

31
Figura 27: Conjunto de Mandelbrot con vista ampliada

Nota. Conjunto de Mandelbrot que se amplía a) Figura original b) Figura con zoom
aplicada a la anterior. Recuperado de: Valdés Vasquez, 2016

1.7. Tipo de Fractales


1.7.1. Fractales escalantes
Los Fractales escalantes son aquellos que cumplen con 2 propiedades, la primera
es que son inmutables por traslación, o expresado de otra manera, al ser desplazados en
cualquier dirección permanecen con sus mismas características. Por otro lado, se tiene
la invariabilidad por cambios de escala, lo cual se ve reflejado a su falta de deformidad al
aplicar una homotecia, esto es la transformación de un polígono a otro semejante, pero
con dimensiones variantes (Sierra y Trujillo, 2006). Estas características resaltan en el
espacio Euclídeo, sin embargo, no se debe entrar en error al mencionar que los objetos
euclidianos son escalantes y a su vez, fractales, ya que no se cumple esa relación.

1.7.2. Fractales no escalantes


En el caso de los Fractales no escalantes, se resalta que estos varían por
traslación o por cambio de escala, lo cual es totalmente contrario a su contraparte
opuesta, los fractales escalantes. Uno de los ejemplos más conocidos de este tipo de
fractal, es el conjunto de Mandelbrot, el cual se genera al iterar una función simple en
los puntos del plano complejo. Además, se caracteriza por ser compacto y conexo.

1.7.3. Fractales aleatorios estratificados


Los Fractales aleatorios estratificados son una peculiaridad dentro de estos
objetos geométricos, ya que no se asemejan en gran parte a los escalantes o no
escalantes, puesto que no se encuentra una fórmula que los describa de manera precisa.
Existen estructuras como el plasma o imágenes de difusión que dependen de procesos

32
no determinísticos y es necesario hacer uso de la probabilidad, esto es, el uso de
procesos aleatorios para su construcción, lo cual permite abstraer las características de
únicos e irrepetibles de esta categoría de fractales.

1.7.4. Fractales y movimiento brownianos


Los fractales brownianos son una variación aleatorizada de las curvas de Peano.
Se considera que una curva de Peano se convierte en una trayectoria browniana B(t),
cuando los desplazamientos de sus puntos medios siguen una distribución gaussiana
(distribución normal). Tienen una dimensión de D aproximada a 2, son continuas, no
diferenciables y, aunque parezca contradictorio, también poseen una área nula
(Mandelbrot, 1987).

Estas trayectorias, descubiertas por el botánico británico Robert Brown en 1927,


describen el movimiento de ciertas partículas como una sucesión de pasos de longitud y
dirección aleatorias. Si bien en sus inicios, fueron utilizadas para describir el
movimiento de partículas de polen en suspensión, con el paso de los años se han
utilizado para definir el comportamiento de varios fenómenos naturales en los que
interviene el azar, destacando enormemente su aplicación en la modelización de formas
de la naturaleza como relieves, superficies, paisajes, islas, perles de montañas, etc.

Cabe destacar que las características de regularidad del movimiento browniano


son muy diferentes a las de la curva de Koch. Estas regularidades son de carácter
estadístico en lugar de geométrico.

33
CAPÍTULO II
TEORÍA DEL CAOS

2.1. Definicion y Caracteristicas


Para poder comprender el significado del caos primero debemos remontarnos a
su origen. Martín (2003), nos menciona que surge como un nuevo paradigma en los
finales de los 70 ’s e inicios de los 80 ’s, donde se descubrió que los sistemas
deterministas pueden ocasionar comportamientos erráticos o aparentemente aleatorios.
Previo a este acontecimiento, se tenía la concepción de dos paradigmas totalmente
diferentes, uno llamado determinista y otro comportamiento aleatorio. Del primero se le
atribuía el poder realizar una predicción de la evolución de un sistema; mientras que,
del segundo se necesitaba de un análisis estadístico para poder analizar el
comportamiento de un sistema. Por lo que sin lugar a dudas el nuevo paradigma llegó a
impactar en aquella época. Cabe destacar que los fractales, los cuales surgen de forma
paralela, jugaron un papel importante en lo que respecta la descripción, cuantificación
de la dinámica caótica.

El surgimiento de los sistemas deterministas con comportamiento errático


dieron lugar a diversas investigaciones desde su concepción. Martín (2003), nos explica
de manera sencilla el comportamiento que sigue este tipo de sistema, para ello toma
como ejemplo la evolución de una población siguiendo la ley de la ecuación logística. A
partir de esta ley establece una estimación de una población con una cantidad de
individuos inicial 𝑋0, y la contrasta con una nueva estimación, pero con una cantidad
inicial de 𝑋0 + 0. 0001 y una sobreestimación de 100 individuos. El resultado se puede
apreciar en la siguiente tabla.

Figura 28: Estimación Inicial de la Población

Nota. Se verifica la estimación considerando la cantidad inicial 𝑋0. Recuperado de:


Martín, 2003

34
Figura 29: Estimación de la Población con Variaciones

Nota. Se verifica la estimación considerando la cantidad inicial


𝑋0 + 0. 0001 con una sobreestimación de 100 individuos. Recuperado de: Martín, 2003

Figura 30: Contraste de las Variaciones en la Estimación

Nota. Se verifica la diferencia entre la población sin alteración con la alterada.


Recuperado de: Martín, 2003

A partir de este ejemplo se puede concebir la definición de una dinámica caótica.


Debido a que tal como se puede apreciar en la Figura 30, al inicio se muestra una
estimación próxima entre ambas predicciones. Sin embargo, a partir de un tiempo
determinado estas van diferenciándose de manera notoria. Asimismo, en caso se realice
un pequeño error en la estimación del presente toda las interacciones futuras se llenan
de consecuencias caóticas, este fenómeno es conocido como Efecto Mariposa. Por lo
que, la teoría del caos estudia sistemas sensibles a las condiciones iniciales. Donde si
esas condiciones presentan una variación pequeña o algún tipo de error, las
predicciones futuras van a verse afectadas, siendo imposible predecir algún tipo de
comportamiento futuro.

2.1.1. Flexibilidad
Los sistemas caóticos presentan flexibilidad ante las situaciones naturales en las
que se encuentre. Bonev (2002), muestra por ejemplo un río y una piedra. Donde si se
tira la piedra al río las partículas del agua no cambia su cauce, sino el caos que produce
esta acción se logra adaptar. Lo más importante desde su punto de vista es el poder
comprender el término de caos y no intentar enfocarlo a una interacción específica, en

35
otras palabras, no estar obsesionados en controlarlo. Para él lo más importante es
aprender a vivir con el caos y vivir en la creatividad que proporciona.

2.1.2. Creatividad
Bonev (2002), menciona que para poder abrir la creatividad de una persona es
necesario el poder dejar de lado los prejuicios. En tal caso llegará un momento en el que
se alce un punto de bifurcación en el sistema caótico de la mente. Esto abrirá el flujo de
la creatividad, donde el papel de la autoconciencia quedará relegado. Asimismo, Bonev
(2002) nos menciona que la creatividad caótica debe tener presente la diversidad, dado
que la agrupación de individuos generará un potencial creativo, en donde si los sistemas
caóticos se juntan los grados de libertad aumentarán. Por el contrario, si esto ocurre
con sistemas que siguen un orden artificial, los grados de libertad disminuirán.

2.1.3. Complejidad y Simplicidad


Los sistemas caóticos están relacionados con fenómenos complejos y aleatorios.
Para Bonev (2002) la complejidad no representa un problema, dado que la solución para
eliminarla estaría en enfocar una visión en la no linealidad; es decir, en un sistema
donde sus propiedades surgen como resultados de la interacción de sus partes y que no
necesariamente pueden ser explicados por las mismas. Asimismo, menciona que la
dinámica de muchos sistemas naturales, en las que se incluye los caóticos, pueden
abordar enfoques de fácil comprensión.

2.1.4. Intermitencia
La intermitencia se refiere a la alternancia constante entre lo complejo y lo
simple, donde la presencia de uno conlleva a la aparición del otro. Bonev (2002) pone
como ejemplo a los fractales, estos están desarrollados por fórmulas matemáticas
simples pero que siguen una complejidad elevada en la generación de sus figuras.
Asimismo, Bonev (2002) menciona que la intermitencia no solo se refiere a que el caos
surja del orden sino que también puede presentarse de manera inversa.

2.2. Curva logística y Diagrama de bifurcación


Un modelo matemático que entrelaza los conceptos de teoría del caos, fractales
y naturaleza es la aplicación logística. Este tipo de función aparece en diversos modelos
de crecimiento de poblaciones, propagación de enfermedades epidémicas y difusión en
redes sociales, razón por la cual tiene una gran aplicación práctica en diversos ámbitos
de la ciencia.
A continuación, se explica cómo una curva logística puede generar una
estructura fractal partiendo después de algunas iteraciones.

36
2.2.1. Significado de la curva logística

𝑥𝑛+1 = 𝑟𝑥𝑛(1 − 𝑥𝑛)

La curva logística mostrada modela el comportamiento poblacional de una


especie, donde 𝑟 representa una tasa de crecimiento poblacional, 𝑥𝑛 representa la
población actual (en términos porcentuales del máximo teórico) , 𝑥𝑛+1 representa la
población del siguiente periodo y (1 − 𝑥𝑛) representa las restricciones del entorno que
limitan el crecimiento de la población. (Veritasium, 2020)

Dado que existe esta restricción, la población inicial se termina estabilizando en


una población de equilibrio. Cuando 𝑟 toma valores menores a 1, la población de
equilibrio tiende a cero lo que conlleva a la extinción de la especie. Cuando 𝑟 toma
valores entre 1 y 3, la población de equilibrio se estabiliza en un único valor. Sin embargo
cuando 𝑟 toma un valor igual a 3 se genera una bifurcación: la población inicial no se
estabiliza en un único valor sino que oscila entre 2 valores. (Veritasium,2020)

Figura 31: Generación del diagrama de Bifurcación

Nota. Recuperado de: Hyman, 2020

Dichas bifurcaciones suceden de manera sucesiva, obteniéndose que la


población de equilibrio oscila en ciclos de 4, 8, 16,32 y 64. Cuando 𝑟 toma valores
mayores a 3.57, el sistema se vuelve completamente caótico. (Veritasium,2020)

37
Figura 32: Variación de la población con respecto a una
tasa de crecimiento r>3,57

Nota. Recuperado de: Hyman, 2020

El diagrama generado se conoce como diagrama de bifurcación. Este posee una


estructura fractal fácilmente reconocible pues las características que lo definen parecen
ser las mismas sin importar que las escalas sean más pequeñas (propiedad de
autosimilitud).
Figura 33: Diagrama de Bifurcación

Nota. Recuperado de: Hyman, 2020

Según Veritasium (2020), el diagrama de bifurcación es una porción del conjunto


de mandelbrot. Si se traza el eje Z y se grafican los ciclos de cada número perteneciente
al conjunto se obtiene este diagrama. Todos los valores del cardioide principal terminan
estabilizandose en un único valor, mientras que todos los valores de bulbo principal
terminan oscilando entre dos valores o más valores.

38
Figura 34: El diagrama de bifurcación en el conjunto
de Mandelbrot

Nota. Visualización del diagrama de bifurcación al rotar el eje X.


Recuperado de: Hyman, 2020

2.3. El caos en la naturaleza y el cuerpo humano


Según Bonev (2002) todos los fractales que han sido definidos son conocidos
como fractales artificiales. Es ahí donde surge la duda de sí existen fractales en la
naturaleza. Formalmente se podría brindar una respuesta negativa, justificándose en
que los conjuntos fractales se obtienen mediante procesos iterativos infinitos y por
consiguiente, al observar la estructura de una planta, se puede observar que se forma
con un número finito de iteraciones; sin embargo, los fractales son muy semejantes a la
naturaleza y son los objetos más adecuados para modelar.

El mundo entero es un fractal que se autoasemeja a diferentes escalas. Sin


embargo los fractales matemáticos son mucho más simplificados. A menudo la
naturaleza ofrece un desafío a la descripción: las autosemejanzas de sus formas están
combinadas con una inagotable novedad, que no puede ser descrita ni siquiera por
algoritmos no lineales.

39
Figura 35: Caos en la naturaleza

Nota. Gráfico de puntos esparcidos caóticamente por la reiteración de una


fórmula no lineal simulando un helecho. Recuperado de: Bonev, 2002

Como ejemplo de esto se puede nombrar la autoorganización que presentan las


hormigas, ya que si se desea contar el número de individuos activos, se comprueba que
el número fluctúa con una periodicidad de unos 25 minutos. Ese ciclo de actividad
podría ser sólo un reflejo de sincronización, sin embargo la actividad individual es
totalmente periódica, caótica, sin ningún tipo de regularidad intrínseca.

Otro ejemplo de sistema caótico es el cuerpo humano. Aunque esté claro que es
imposible predecir el recorrido de una partícula cualquiera dentro de nuestro cuerpo o
la evolución del cuerpo de determinado individuo; el cuerpo humano, a pesar de las muy
diferentes condiciones externas a que puede estar expuesto (clima, alimento, esfuerzo
físico, etc.), siempre mantiene una forma general. Esto se puede formular a que es tan
resistente a cambios debido a que los sistemas caóticos son muy flexibles. Una
enfermedad es de carácter impredecible, pero si el cuerpo no tuviera la libertad de
ponerse enfermo, con cualquier cambio producido, el sistema se desmoronaría.

La explicación de que un sistema tan impredecible como el cuerpo humano


presente un carácter estable está en que es un atractor extraño y se encuentra
constituido de atractores extraños. Es decir que el sistema siempre es atraído hacia un
determinado modelo de conducta, si algo es cambiado en el sistema éste vuelve cuanto
antes hacia el atractor extraño. Esto no quiere decir que la conducta sea mecánica, sino
todo lo contrario, sería impredecible; solo que se sabría hacia dónde va a tender.
(Bonev, 2002)

40
Figura 36: Caos en el cuerpo humano

Nota: La primera imagen muestra un comportamiento de un corazón sano, el


segundo es de un corazón enfermo, que con el más pequeño cambio se detendría.
Recuperado de: Bonev, 2002

Como muestra de la flexibilidad a los cambios que presenta el cuerpo humano se


podría nombrar al corazón, ya que aunque el ritmo que este debería tener se es
conocido aproximadamente, se sabe que cuenta con pequeñas irregularidades. El caos
permite al corazón un abanico de comportamientos que le permiten volver a su ritmo
normal después de un cambio.

41
CAPÍTULO III
APLICACIONES DE LOS FRACTALES

3.1. Mercados financieros


En la investigación de Batlle & Grebol (2009), se demostró, a través de un proceso
de recopilación de datos históricos, que los diferentes índices bursátiles y tipos de
cambio de monedas de los mercados financieros no se ajustan a un movimiento
browniano aleatorio, tal y como presuponen los modelos tradicionales, sino que posee
un movimiento browniano fraccionario, lo cual implica un comportamiento fractal.

Para realizar dicha conclusión, se utilizaron 5 series muy conocidas en el ámbito


financiero, 3 de ellas corresponden a índices bursátiles del mercado de valores y 2, al
tipo de cambio de monedas (Tabla 5). Cada una de ellas, fue analizada en un periodo
temporal mayor o igual a 19 años y se calcularon la dimensión fractal y el coeficiente de
Hurst para cada una de ellas tomando en cuenta 3 subintervalos de tiempo: Diario,
semanal y mensual. (Tabla 6)

Tabla 5: Evolución de índices y divisas del mercado Financiero

Índice S&P
El índice Standard &
Poor's 500, es uno de los
índices bursátiles más
importantes de Estados
Unidos, se lo considera el
índice más representativo
de la situación real del
mercado.​

Índice Dow Jones


Mide el desempeño de las
30 mayores sociedades
anónimas que cotizan en
el mercado bursátil de
Estados Unidos.

42
Vix Index
Un valor alto de VIX se
correlaciona con caídas
del S & P 500, indicando
que en el mercado hay
miedo y pesimismo.

Tipo de Cambio
USD/GBP
De Dólar estadounidense
a Libra esterlina

Tipo de Cambio
USD/JPY
De Dólar estadounidense
a Yen

Nota. Evolución histórica de los mercados financieros.


Recuperado de: Batlle & Grebol, 2009

Los resultados de la tabla 6 demuestran que los rendimientos de índices, divisas


y volatilidad, no siguen un comportamiento aleatorio puro, sino que están sesgados, es
decir siguen lo que se llama un comportamiento browniano fraccionario. El coeficiente
de Hurst obtenido pertenece a un rango de [0,57 -0,58] para los índices, de [0,62-0,63]
para las divisas y [0,42 -0,48] para el índice de volatilidad. Ello indica que existen
propiedades fractales en el mercado de divisas y de acciones tales como autosimilitud y
persistencia. Asimismo, mediante el coeficiente de Hurst se deduce una dimensión
fractal comprendida entre 1 y 2.

43
Tabla 6: Resultados de la investigación de mercados financieros

Períodos de Tipo de
Datos Indice S&P Dow Jones VIX index Tipo de cambio USD
cambio USD JPY
GBP

Diarios 0,5740 0,5736 0,4122 0,6337 0,6442

Semanales 0,5805 0,5938 0,4827 0,7123 0,6299

Mensuales 0,5807 0,5856 0,4120 0,6381 0,6280

Nota. Coeficientes de Hurst para 5 series en 3 periodos temporales diferentes.


Recuperado de: Google Finance, 2022

A partir de los resultados, los autores recomiendan utilizar herramientas


derivadas de la geometría fractal para realizar un análisis del mercado financiero más
realista y con mayor consistencia en las observaciones empíricas. Asimismo, se plantea
que mediante la geometría fractal será posible desarrollar alguna estrategia de inversión
o modelo que permita predecir con mayor precisión el comportamiento de los
mercados financieros.

3.2. Neurociencia
Según Benoit Mandelbrot, quien desarrolló la geometría fractal, un fractal es un
objeto con una estructura simple, dividida o irregular que se repite a diferentes escalas,
por el cual esta geometría permitirá caracterizar a estos objetos irregulares. Existen
fractales matemáticos y fractales naturales, los cuales son aproximados y su
autosimilitud sólo es aplicable a un rango de escalas limitadas.

Velasco & Rodriguez (2015) nos dice que hasta el día de hoy no hay reportes del
uso de geometría fractal aplicada a patologías neuroquirúrgicas. Por ello han realizado
una investigación del estudio aplicando geometría fractal a los ventrículos cerebrales. El
objetivo principal es desarrollar una nueva medida histomorfometrica objetiva y
reproducible para la caracterización de los ventrículos cerebrales normales a partir de
geometría fractal, que sea de utilidad como medida de referencia para mediciones
futuras de estructuras ventriculares con diferentes patologías. Respecto a las futuras
aplicaciones de la geometría fractal en neurocirugía en pacientes con patologías como
hidrocefalia, trauma, tumores cerebrales y aneurismas podrían evidenciar avances en
predicción de deterioro neurológico, tiempo para intervenir quirúrgicamente a un
paciente o calcular el riesgo de deterioro.

44
Figura 37: Imagen de RM cerebral simple adaptada al proceso de Box-Counting

Nota. Ejemplo de las medidas fractales realizadas, se pueden observar ambos ventrículos
laterales. Recuperado de: Velasco & Rodriguez, 2015

3.3. Sensores de gas


Los sensores de gas en la actualidad tienen diversas aplicaciones, estos pueden
usarse para la detección de combustibles, tóxicos, entre otros. Por ello, se ha buscado
una forma en la que se pueda mejorar su rendimiento. Tian et al. (2021) llevaron a cabo
una investigación en donde analizaron el efecto que produce la utilización de
estructuras fractales para elaboración de sensores.

Descubrieron que las estructuras fractales poseen una mayor área superficial
con respecto a su volumen, lo cual significa que el material usado para la detección del
gas tendrá mayor área de contacto con las moléculas del mismo, influyendo
positivamente en lo que respecta la sensibilidad del sensor, lo que significa que el
rendimiento de la detección de gases mejora. (Tian et al., 2021)

45
Figura 38: Área de Superficial de los Fractales en relación al Volumen

Nota. Se identifica el área superficial que cubren los fractales teniendo en


consideración el volumen. Recuperado de: Tian et al., 2021

Asimismo, para poder seleccionar una estructura fractal adecuada en el aumento


de la sensibilidad del gas se debe tener en consideración la dimensión fractal en la que
se encuentra. Por ejemplo, en caso se tenga una mayor dimensión (2.163 - 2.233), las
estructuras más apropiadas son las porosas; mientras que, si la dimensión es menor
(1.818 - 1.894) se usarán las estructuras dendritas (Tian et al., 2021). Por ello, es
importante realizar una correcta relación entre las estructuras fractales y las
propiedades de la detección de gases, esto con fin de mejorar su rendimiento mediante
una detección rápida y baja concentración.

3.4. Telecomunicaciones
El campo de estudio de las telecomunicaciones es muy variado, sin embargo,
existe uno en particular que abarca temas relacionados a las comunicaciones
inalámbricas, dentro del cual se encuentra el diseño de antenas. Entonces, si este
espectro en mención se complementa con las misiones espaciales de CubeSats, se da
origen al estudio realizado por Orlando Gonzáles, estudiante de ingeniería electrónica,
quien planteó el diseño y desarrollo de una antena fractal micro-strip según el estándar
FR-4. La idea de este proyecto parte de las ventajas de un diseño fractal, tales como
permitir reducir el tamaño y mantener un amplio ancho de banda según el número de
iteraciones.
Entonces, para la construcción de esta antena se realizaron simulaciones en base
a la geometría fractal con el objetivo de hallar dimensiones que tengan afinidad a la
máxima ganancia de frecuencia acorde al número adecuado de iteraciones del IFS. El
resultado de esta actividad es una antena que va desde 2.25 GHz a 2.45 GHz y se
sintoniza a 2.3 GHz, además de tener un patrón de radiación omnidireccional (Correa y
Velezmoro, 2017). Es así que, para futuros trabajos de mejora, se plantea realizar un
análisis de la dimensión fractal utilizada y su influencia sobre los campos
electromagnéticos de la antena, con el fin de mejorar el patrón de radiación.

46
Figura 39: Antena con el diseño fractal propuesto

Nota. Simulación de antena microstrip fractal S-Band utilizada para comunicaciones


en el CubeSat. Recuperado de: Abboushia et al., 2019

3.5. Modelamiento de plantas


La modelación estructural de plantas ha sido desarrollada a través de distintas
corrientes, entre ellas, una de las más llamativas es la teoría de fractales. Esto debido a
que la geometría fractal, descrita a través de algoritmos, permite dimensiones
fraccionarias y es adecuada para describir formas naturales. Dicha geometría provee
una descripción y una forma de modelado matemático para las complicadas estructuras
de la naturaleza (Ortíz e Hinojosa, 1998).

Figura 40: Modelamiento de un helecho

Nota. Imágenes de la hoja de un helecho mediante un IFS. Recuperado de: Correa


& Velezmoro, 2017
Observando las características de plantas tales como las algas rojas, las hojas de
col, el brócoli, el ciprés, entre otros, se plantea que un sistema de funciones iteradas

47
(IFS) adecuado podría modelar algunas de ellas. Este procedimiento a utilizar estaría
basado en el siguiente proceso:

1. Ubicar la imagen en un rectángulo.

2. Observar meticulosamente las ramificaciones de la planta con la finalidad de


identificar un patrón.

3. En base al paso anterior, decidir el número de transformaciones que participarán


en el modelamiento de la imagen, mediante una descomposición de la misma.

4. Definir las transformaciones utilizando las herramientas necesarias para


determinar el escalamiento y el ángulo que genera dicha parte de la imagen.

Figura 41: Sistema de funciones iteradas en un helecho

Nota. Descomposición de una hoja de helecho. Recuperado de: Correa &


Velezmoro, 2017

En la figura anterior se puede observar que son necesarias cuatro


transformaciones para modelar una hoja de helecho. Cabe indicar también que el IFS
que modele la imagen, se define en base a rotaciones y traslaciones.

3.6. Arquitectura de interiores


La percepción del espectador es un factor clave al momento de valorar cualquier
tipo de producto visual, esto incluye desde creaciones artísticas con alto grado de
esfuerzo hasta patrones generados a partir de reglas elementales, es por esta razón que
se busca conocer aquellos parámetros que favorecen una respuesta positiva en el
receptor. Entonces, el estudio denominado interés visuales, preferencias y respuesta del
estado de ánimo ante proyecciones fractales de luz en espacios interiores plantea que la
relación escalar entre patrones de diferentes ampliaciones y sus clases, además de un
ambiente natural, la percepción de luz y las medidas de proyección son altamente
estimulantes en el comportamiento e impresiones de las personas siempre y cuando se
basen en un estándar previamente establecido.

48
En el estudio en mención, se considera la dimensión fractal (D) en una escala de
1.3-1.5 y patrones fractales, en suma de lugares como bosques, temperatura de colores y
pantallas de alto tamaño como aquellas variables que determinan resultados favorables
en las emociones de las personas. Con este aspecto en consideración, Abboushia et al
(2019) mencionan que estos estudios “podrían tener implicaciones adicionales para el
diseño de sistemas de fachada, particularmente sistemas de sombreado como cortinas
enrollables y pantallas perforadas”, lo cual se va a relacionar a la arquitectura de
espacios de interiores y como generar una mayor satisfacción en los habitantes.

Figura 42: Ejemplo de fractal proyectado

Nota. Espacio renderizado que muestra un fractal con un patrón D = 1.7, el cual se
proyecta en las paredes de un cuarto. Recuperado de: Abboushia et al., 2019

3.7. Modelamiento 3D
La geometría fractal ofrece una nueva perspectiva del modelado geométrico.
Puede modelar de forma realista objetos que se encuentran en el mundo natural y de los
organismos vivos. Dos conceptos son claves en la geometría fractal, uno de ellos es la
forma autosimilar y la dimensión fractal. El concepto de forma autosimilar se ha
utilizado en la biología para modelar estructuras, identificar patrones, investigar
problemas teóricos y medir la complejidad. Al igual que el concepto de forma
autosimilar, el concepto de dimensión fractal se ha utilizado ampliamente para
cuantificar la complejidad de la ingeniería de fabricación para procesar señales, detectar
el desgaste de las herramientas y cuantificar la rugosidad. Es así que la impresión 3D y la
geometría fractal tienen una relación íntima. Por ejemplo, algunas estructuras utilizadas
en biomédicas y aplicaciones de ingeniería no pueden fabricarse sin utilizar fabricación
aditiva o impresión 3D.

49
3.8. Instrumentos musicales y fractales
La música se ha vuelto muy importante en la vida cotidiana de las personas. Por
lo que, para poder simplificar el proceso de aprendizaje de los fractales muchos autores
han buscado relacionarlos con instrumentos musicales. Pothiyodath & Murkoth (2022), a
través de una revisión literaria, identificaron que la dimensión fractal crea mayor interés
en los estudiantes si se utilizan muestras sonoras o instrumentos musicales. Por ello,
elaboraron un método donde la medición de la dimensión fractal se realiza mediante el
uso de instrumentos musicales.

Figura 43: Dimensiones Fractales en instrumentos musicales

Nota. Se identifican las dimensiones fractales de instrumentos musicales haciendo uso


del software Fractalyse. Recuperado de: Pothiyodath & Murkoth, 2022

Para este método se emplean sonidos que duran un segundo, esto dado que las
muestras pequeñas y finas otorgan valores o parámetros más precisos. Las frecuencias
obtenidas fueron halladas utilizando la herramienta MIR y para identificar la dimensión
fractal de dichas muestras sonoras se usó el software Fractalyse. Tal como se puede
apreciar en la figura “x”, la línea roja hace referencia a los valores esperados, mientras
que, la línea azul muestra los datos que se han trazado. (Pothiyodath & Murkoth, 2022)

Pothiyodath & Murkoth (2022) realizaron diversas muestras de sonido, donde


identificaron que la dimensión fractal que poseen los instrumentos musicales se
encuentra comprendida entre 1.658 y 1.708. Consiguiendo una dimensión fractal
promedio de 1.6882. Asimismo, mediante la identificación de su dimensión fractal
identificaron que el sistema que presenta la música sigue más una aleatoriedad que un
orden. Sin lugar a dudas esta investigación muestra un claro ejemplo de cómo los
fractales pueden ser comprendidos de manera sencilla si se realiza una asociación
intuitiva como la interacción con la música.

3.9. Textiles
El aumento de la competitividad en los distintos sectores obliga a las empresas a
replantear sus sistemas de trabajo y tomar decisiones innovadoras en busca de seguir

50
atendiendo las necesidades del mercado, este panorama no es ajeno a la industria textil,
la cual busca realizar diseños más complejos, pero con un periodo de entrega reducido.
Así, a modo de ejemplificar lo mencionado, se presenta el trabajo de Hernández,
Palominos, Orellana y Ochoa, quienes plantean el desarrollo de un programa
informático que genere los fractales y permita su posterior manipulación para cumplir
con los requisitos del diseño de estampados.

Este enfoque presentado se denomina Diseño Asistido por Computador (CAD), el


cual emplea sistemas dinámicos como SFI o Conjuntos de Julia para la generación
automática de diseños rudimentarios, pero con potencialidad para ser culminados con
el criterio del diseñador. Es necesario mencionar que este proceso consta de varias
iteraciones, códigos y elección de un tipo de simetría, lo cual será introducido en los
algoritmos de estos sistemas. Es así que se obtienen resultados que según Hernández et
al (1996) “ son fácilmente reproducibles a escala industrial, dado el bajo número de
colores y la buena definición del motivo”, pero se deben considerar los parámetros
introducidos por el usuario a fin de conseguir una base gráfica más adecuada que
facilite la labor del diseñador.

Figura 44: Funcionalidad del algoritmo

Nota. Diseño elaborado mediante la rutina del Sistema de funciones iteradas,


posee un total de 7500 iteraciones y se distribuyó a través de traslación continua.
Recuperado de: Hernández et al., 1996
3.10. Investigaciones en células
Estudios recientes proponen nuevas metodologías que permiten hacer el
reconocimiento de las diferentes alteraciones en la forma de los glóbulos rojos,
estableciendo patrones de comparación matemáticos y geométricos en el contexto de la

51
geometría fractal y euclidiana. Esto está basado en la necesidad de cuantificar el grado
de irregularidad que presenta un objeto, en este caso una célula, y una medida ideal
para este es la dimensión fractal. (Rodríguez et al, 2017)

La aplicación de la dimensión fractal dentro del campo de la medicina ha sido de


gran importancia en las áreas clínica y experimental, en las que se han caracterizado
objetos como la estructura neuronal y pulmonar, los intestinos y los vasos sanguíneos
de diferentes estructuras, entre otros. También se ha aplicado la geometría fractal en
estudios morfométricos realizados en cáncer, sin embargo, en este se toma una medida
más objetiva de aplicación clínica. Específicamente en el área de la oncología se ha
logrado caracterizar estructuras cancerígenas, imágenes mamográficas, e identificar la
aparición de cáncer primario en casos de metástasis en huesos.

Figura 45: Células de cuello uterino

Nota. Ejemplos de las células medidas, en su orden: a) Célula normal, b) Célula


Ascus, c) Célula LEI Bajo Grado, d) Célula LEI Alto Grado. Recuperado de: Rodríguez et
al., 2017

Como ejemplo de algunos estudios, Rodríguez et al (2016) realizaron una


investigación descriptiva sobre las características fractales que podrían presentar las
células escamosas de cuello uterino, estas habían sido clasificadas previamente por el
sistema Bethesda como normales, ASCUS y LSIL; encontrándose una caracterización del
grado de irregularidad de dichas células y hallando una organización fractal de su
estructura. Posteriormente, se desarrolló un método de evaluación diagnóstica fractal
que permitió hallar diferencias matemáticas entre las células clasificadas como
normales y como LSIL, y encontrando que las células clasificadas como ASCUS o tenían
valores matemáticos asociados a normalidad o a L-SIL. Esta metodología representa la
primera evaluación cuantitativa de valor preventivo para la salud pública en el área de
prevención de lesiones preneoplásicas y neoplásicas de cuello uterino.

52
Figura 46: Dimensión Fractal de las células

Nota. Medidas de las células: a) Superficie del objeto, b) Magnificación de la


imagen de la superposición de la rejilla 2x2 pixeles. Recuperado de: Rodríguez et al., 2017

3.11. Encriptación de imágenes


Garantizar la seguridad es fundamental en esta nueva realidad, pues existe una
tendencia a la alta de la cantidad de información generada diariamente.
Particularmente, en temas de encriptación de imágenes, ya que los métodos actuales se
caracterizan por su debilidad ante los ataques. Es así que, el estudio de Rodríguez et al
propone un algoritmo para el cifrado de imágenes utilizando atractores caóticos, los
cuales se van a caracterizar por su imprevisibilidad y sensibilidad a condiciones
iniciales, factores clave a la hora de considerar un método criptográfico fuerte.

De este modo, según el estudio analizado, lograr la encriptación de imágenes


consta de 3 etapas, la sincronización caótica, la difusión y la permutación. Esta
investigación plantea un algoritmo que utiliza atractores caóticos en busca de
garantizar la seguridad de las imágenes. Es así que tras realizar las pruebas en un
conjunto de imágenes en escala de grises se obtuvo una correlación de píxeles casi nula
y entropía promedio, lo cual traducido a beneficios se detalla en el testimonio de
Rodríguez et al. (2017) que mencionan que “los métodos caóticos son una buena
alternativa para mejorar los niveles de seguridad en la criptografía de imágenes debido a
sus propiedades de imprevisibilidad y sensibilidad a las condiciones iniciales”, es así que
este método novedoso permite hacer frente al creciente volumen de información
generado en tiempo real.

Figura 47: Funcionalidad del algoritmo

Nota. Uso del algoritmo de Lorenz en la encriptación. Se evidencian resultados


positivos, donde la imagen decodificada es igual a la original después del proceso
Recuperado de: Rodríguez et al., 2017

53
CAPÍTULO IV
PROGRAMAS SOBRE FRACTALES

4.1. Fractales y Superficies con Vulkan


La primera aplicación que analizaremos en este trabajo es “Generación de
terrenos fractales para escenas 3D”, un software elaborado en C y C + + cuyo autor es
DiegoBV. La aplicación permite el uso de API de programación gráfica como OpenGL y
Vulkan, con GLSL como shading language.

Esta aplicación interactiva permite renderizar terrenos fractales usando el


algoritmo RayMarching, y objetos basados en de mallas de triángulos, basado en la
clásica técnica de tubería de renderizado. Mediante el cálculo de puntos de colisión
entre ellos, se incorpora un movimiento físico simple de dichos objetos sobre las 10
superficies generadas mediante fractales; que permite la interacción entre ellos.

A continuación, se muestran los fractales básicos implementados con el


algoritmo RayMarching que servirán como primitivas para la generación de terrenos
fractales.

Figura 48 : Fractales básicos

Nota. Fractales básicos implementados con el algoritmo RayMarching: a)Fractal


Mandelbox b)Fractal Mandelbox Túnel c) Primitiva de escena. Recuperado de: DiegoBV,
2021

54
Teniendo como base los fractales básicos, se implementan los fractales de
terreno, para que después se pueda simular estructuras físicas en ellos.

Figura 49: Fractal de terreno (Ocean Terrain)

Nota. Este fractal simula el océano - OpenGL . Recuperado de: DiegoBV, 2021

El objetivo del programa es mostrar la interacción física con otros objetos no


basados en RayMarching mediante colisiones. Este objeto es representado por el
personaje Pacman con una sola textura, que gira sobre sí mismo desplazándose hacia
adelante, atrás o hacia los lados; lo cual crea una sensación de que el jugador puede
rodar por el suelo.

Figura 50: Resultado de combinar el terreno fractal y un objeto

Nota. Se muestra el resultado de la combinación del shader de terreno con el shader del
objeto en OpenGL. Recuperado de: DiegoBV, 2021

55
Figura 51: Visualización del objeto(Pacman) en el terreno fractal

Nota. El terreno fractal generado es Autumn Planet.


Recuperado de: DiegoBV, 2021

4.2. Fractales y música con C++


La segunda aplicación expuesta en este trabajo es “Fractal Sound Explorer”, un
software construido en C + + y GLSL bajo la autoría de HacketPoet. Esta aplicación,
permite visualizar 8 tipos de fractales muy famosos y reproducir notas musicales a
partir de las órbitas asociadas a cada uno de los puntos.

Figura 52: Órbita 1 en el conjunto de mandelbrot

Nota. Generación de sonido musical a partir de una órbita con periodo 3.


Recuperado de: HackerPoet, 2020

56
El programa está diseñado para que el usuario pueda hacer click en cualquier
parte del fractal, de manera que, a partir de un punto seleccionado C, se muestre la
sucesión de puntos generados (órbita roja). Esta órbita puede tener un periodo y una
forma diferente dependiendo del punto que se elija.

Figura 53: Órbita 2 en el conjunto de mandelbrot

Nota. Generación de sonido musical a partir de una órbita con periodo 5.


Recuperado de: HackerPoet, 2020

Figura 54: Órbita generada en el fractal SFX

Nota. Generación de sonido musical a partir de una órbita en SFX Fractal.


Recuperado de: Hackers Poet, 2020

57
Para lograr producir sonido a partir del fractal, se transforma cada órbita en
ondas de sonido. Se convierten las coordenadas X,Y del punto seleccionado en la
amplitud de las ondas sonoras que se reproducirán en el auricular izquierdo y derecho
respectivamente.

Figura 55: Órbita ampliada en el conjunto de Mandelbrot

Nota. Ampliación de la imagen del Conjunto de Mandelbrot. Recuperado de:


HackerPoet, 2020

En total la aplicación cuenta con los siguientes fractales:


● Mandelbrot Set
● Burning Ship
● Feather Fractal
● SFX Fractal
● Henon Map
● Duffing Map
● Ikeda Map
● Chirikov Map

Cada uno de estos fractales puede ser visualizado con sus colores habituales:
negro para representar los puntos que pertenecen al conjunto y diferentes tonalidades
de otros colores para representar aquellos puntos que no pertenecen. Asimismo, a cada
fractal se le puede cambiar el pintado de la imagen para que en vez de mostrar si el
punto pertenece o no al conjunto, se observe el color asociado a las frecuencias que se
generan al hacer click en cada punto.

58
Figura 56: Repintado del Conjunto de Mandelbrot

Nota. Recuperado de: HackerPoet, 2020

Figura 57: Repintado de Burning Ship

Nota. Recuperado de: HackerPoet, 2020

Figura 58: Repintado del Fractal SFX

Nota. Recuperado de: HackerPoet, 2020

59
CONCLUSIONES

Los Fractales son formas geométricas que se caracterizan por repetir un


determinado patrón, con ligeras y constantes variaciones. Dado que un fractal está
constituido por elementos cada vez más pequeños, repetidos una y otra vez, el
concepto de longitud no está claramente definido. Para ello se ha ideado un concepto:
la dimensión fractal.

Los fractales pueden ser encontrados en diversos ámbitos del mundo real, si es
que uno se pone a analizar detenidamente un cuerpo se puede notar ciertos patrones
característicos de los fractales, siendo así que se plantea que el mundo entero es un
fractal que se autoasemeja a diferentes escalas, es en este desarrollo donde se enfatiza
la teoría del caos, que resulta de suma importancia para comprender estructuras
complejas.

La geometría fractal cuenta con una gran capacidad de aplicaciones, siendo útil
en diversas ramas como lo serían las finanzas, permitiendo establecer predicciones ante
futuros eventos como prevención de crisis o realización de alguna inversión, las
telecomunicaciones para un mejor patrón de radiación de las antenas, la medicina para
el diagnóstico de enfermedades, área de computación con la encriptación de imágenes,
entre otros.

60
BIBLIOGRAFÍA

Abboushi, B., Elzeyadi, I., Taylor, R. y Sereno, M. (2019). Fractals in architecture: The
visual interest, preference, and mood response to projected fractal light patterns
in interior spaces. Journal of Environmental Psychology, 61, 57–70.
https://www.sciencedirect.com/science/article/abs/pii/S0272494418302974

Al-Majdalawi, A. (2005). Fractales y Teoría del Caos. Matemáticas en la Vida Cotidiana.


https://www.lpi.tel.uva.es/~nacho/docencia/ing_ond_1/trabajos_05_06/io2/
public_html/images/curiosidades/Trabajo%20Fractales%20(Amir%202006).pdf

Asociacionceat. (6 de marzo del 2015). Mandelbrot.


http://www.asociacionceat.org/aw/2/mandelbrot.htm

Battle, A. & Grebol, S. (2009). Fractales en los Mercados Financieros [Tesis de maestría,
UPF Barcelona School of Management].
https://www.bsm.upf.edu/documents/Tesina-Fractales-en-los-mercados-finan
cieros.pdf

Berg, I. (2022). The Chaos Game - Introducción al mundo de los fractales. Beltoforion.
https://beltoforion.de/en/recreational_mathematics/chaos_game.php

Bonev. (2002). Teoría del caos. Universidad Nacional de Colombia.


http://www.disi.unal.edu.co/~lctorress/PSist/PenSis53.pdf

Correa, S. & Velezmoro, R. (2017). Una introducción a la Geometría Fractal. Fundamentos


matemáticos y aplicaciones. Universidad Nacional de Piura.
https://repositorio.unp.edu.pe/handle/UNP/1138

DiegoBV. (14 de febrero del 2021). Generación De Terrenos Fractales Para Escenas 3d, En
Opengl Y Vulkan. GitHub.
https://github.com/DiegoBV/Generacion-de-terrenos-fractales-para-escenas-
3D-en-OpenGL-y-Vulkan

Duan, Q., An, J., Mao, H., Liang, D., Li, H., Wang, S. & Huang, C. (2021). Review about the
Application of Fractal Theory in the Research of Packaging Materials. Materials,
14(4), 860.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7916937/pdf/materials-14-00
860.pdf

Garrido, R. (2007). Introducción a los fractales. Revista del Instituto de Matemática y


Física, 10(14), 60-68. http://www.matesup.cl/portal/revista/2007/6.pdf

61
GobiernodeCanarias. (16 de junio del 2020). Conjuntos De Julia Y Mandelbrot -
Aprendemos Matemáticas.
https://www3.gobiernodecanarias.org/medusa/ecoblog/mrodperv/fractales/c
onjuntos-de-julia-y-mandelbrot/

Gonzales, P & Lowe, J. (2015). Movimiento Fractal Browniano. El Libro de los Shaders.
https://thebookofshaders.com/13/

Google Finance. (2022). S&P 500.


https://www.google.com/finance/quote/.INX:INDEXSP?sa=X&ved=2ahUKEwjqy
Pfh0877AhVeLrkGHQYPC_sQ_AUoAXoECAEQAw&window=MAX

Google Finance. (2022). Promedio Industrial Dow Jones.


https://www.google.com/finance/quote/.DJI:INDEXDJX?sa=X&ved=2ahUKEwim
3Obw0877AhVVALkGHesLA0YQ_AUoAXoECAIQAw&window=MAX

Google Finance. (2022). VIX.


https://www.google.com/finance/quote/VIX:INDEXCBOE?sa=X&ved=2ahUKEwj
Hg6-V1M77AhULGbkGHWS9ApEQ_AUoAXoECAIQAw&window=MAX

Google Finance. (2022). Dólar estadounidense a Libra esterlina.


https://www.google.com/finance/quote/USD-GBP?sa=X&ved=2ahUKEwi6nevF1
M77AhUoGbkGHdzdAOEQ_AUoAXoECAEQAw&window=MAX

Google Finance. (2022). De Dólar estadounidense a Yen.


https://www.google.com/finance/quote/USD-JPY?sa=X&ved=2ahUKEwjepObu1
M77AhVxGbkGHRuJCJQQ_AUoAXoECAIQAw&window=MAX

HackerPoet. (28 de febrero del 2021). Fractal Sound Explorer. GitHub.


https://github.com/HackerPoet/FractalSoundExplorer

Hernández, F., Palominos, P., Orellana, M. & Ochoa, M. (1996). Los Fractales y su
Contribución al Diseño de Estampados Textiles. Boletín Intexter del Instituto de
Investigación Textil y de Cooperación Industrial, (109), 47-110.
https://upcommons.upc.edu/bitstream/handle/2099/6412/Article06.pdf?sequ
ence=1&isAllowed=y

Hyman, J. (18 de febrero del 2020). Visualizaciones de las conexiones entre la teoría del
caos y los fractales a través del mapa logístico. GitHub.
https://github.com/jonnyhyman/Chaos

62
Indigo Renderer. (s.f.). Ruido de movimiento browniano fraccional avanzado.
https://www.indigorenderer.com/indigo-technical-reference/indigo-shader-la
nguage-reference/built-functions-%E2%80%93-procedural-noise-fun-0

Leys, J. (21 de noviembre del 2013). El atractor de Lorenz. Imaginary.


https://www.imaginary.org/es/gallery/el-atractor-de-lorenz

Mandelbrot, B. (1997). La Geometría Fractal de la Naturaleza. (1ª ed.). Tusquets Editores.


https://ia802704.us.archive.org/4/items/pdfy-lAHD8SOkMGrTE8g6/138416567
-Mandelbrot-Benoit-La-Geometria-Fractal-de-La-Naturaleza.pdf

Martin, M. (2003). Caos y fractales. Ars Medica. Revista de Humanidades, 2(1), 68-79.
https://www.fundacionpfizer.org/sites/default/files/ars_medica_2003_vol01_
num03_068_079_martin.pdf

Ortiz, U. & Hinojosa, M. (1998). Geometría de fractales y autoafinidad en ciencias de


materiales. Ingenierías, 1(1), 15-21. http://eprints.uanl.mx/id/eprint/9949

Pérez (2014). Fractales: Conjuntos de Julia. PixinPix.


https://pixinpix.wordpress.com/2017/07/10/fractales-conjuntos-de-julia/

Pothiyodath, N., & Murkoth, U. K. (2022). Fractals and music. Momentum: Physics
Education Journal, 6(2), 119-128.
https://ejournal.unikama.ac.id/index.php/momentum/article/view/6796

Rodríguez Rodríguez, I. F., Amaya Barrera, E. I., Suarez Parra, C. A., & Moreno Posada, J.
D. (2017). Algoritmo de Encriptación de Imágenes Utilizando el Atractor Caótico
de Lorenz. Ingeniería, 22(3), 396.
https://www.researchgate.net/publication/321176830_Algoritmo_de_Encripta
cion_de_Imagenes_Utilizando_el_Atractor_Caotico_de_Lorenz

Rodríguez, J., Sánchez, M., Barrios, F., & Soracipa, Y. (2017). Geometría fractal y
euclidiana aplicada al diagnóstico de grados de lesión de células de cuello
uterino. Revista U.D.C.A Actualidad & Divulgación Científica, 20(1), 13–21.
https://doi.org/10.31910/rudca.v20.n1.2017.405

Sastre, A. (2002). Geometría Fractal. Universidad Politécnica de Madrid.


https://underpost.net/ir/pdf/artificial/Geometria%20Fractal.pdf

Sierra, L. & Trujillo, A. (2006). Acercamiento Al Concepto De Dimensión Desde Euclides A


Mandelbrot [Tesis de Grado, Universidad Pedagógica Nacional].
http://repository.pedagogica.edu.co/bitstream/handle/20.500.12209/10428/TE
-06704.pdf?sequence=1&isAllowed=y

63
Tian, F., Jiang, A., Yang, T., Qian, J., Liu, R., & Jianga, M. (2021). Application of Fractal
Geometry in Gas Sensor: A Review. IEEE Sensors Journal, 21(13), 14587 - 14600.
https://doi.org/10.1109/JSEN.2021.3072621

Tobal. (2014). Curva Y Copo De Nieve De Von Koch Con Python 3. Linux Music 3.0.
https://crislosi.wordpress.com/2014/01/08/curva-y-copo-de-nieve-de-von-ko
ch-con-python-3/

Uahabi, K. & Atounti, M. Applications of fractals in medicine. Annals of the University of


Craiova - Mathematics and Computer Science Series, 42(1), 167-174.
http://inf.ucv.ro/~ami/index.php/ami/article/viewFile/747/497

Ullah, A. S., D’Addona, D. D., Seto, Y., Yonehara, S. & Kubo, A. (2021). Utilizing Fractals for
Modeling and 3D Printing of Porous Structures. Fractal and Fractional, 5(2), 40.
https://doi.org/10.3390/fractalfract5020040

Valdés Vasquez, P. A. (2016). Introducción a la Geometría Fractal [Tesis de licenciatura,


Universidad de Bío-Bío].
http://repobib.ubiobio.cl/jspui/bitstream/123456789/1998/3/Valdes_Vasquez
_Patricio.pdf

Velasco, A & Rodriguez, J. (2015). Introducción de la geometría fractal en neurocirugía y


sus posibles aplicaciones. Neurociencias en Colombia, 22(2), 171-175.
https://repositorio.fucsalud.edu.co/handle/001/2682

Veritasium. (29 de diciembre del 2019). La ciencia del efecto Mariposa [Archivo de Vídeo].
Youtube. https://www.youtube.com/watch?v=gIwvFMiJNVU

Veritasium. (31 de enero del 2020). Esta ecuación cambiará tu modo de ver el mundo
[Archivo de Vídeo]. Youtube.
https://www.youtube.com/watch?v=EOvLhZPevm0&t=6s

64
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
Universidad del Perú, Decana de América
Facultad de Ingeniería de Sistemas e Informática

E.P. Ingeniería de Sistemas

Procesamiento de Imágenes

Computación Visual

Docente: Johnny Robert Avendaño Quiroz

Sección: 1
Grupo: 1
Integrantes:

• Alvarez Mamani Javier Arturo 20200236

• Unchupaico Zamalloa Samuel Elías 18200231

• Zapata Sanchez Renzo Marcelo 18190172

Lima, 2022
Contenido

1. Introducción ........................................................................................................................ 3
2. Procesamiento de Imágenes................................................................................................ 4
2.1. ¿Qué es una imagen digital?........................................................................................ 4
2.2. ¿Qué es el procesamiento de imágenes? ..................................................................... 5
2.3. Aplicaciones ................................................................................................................ 5
2.4. Historia ........................................................................................................................ 8
2.5. Etapas del Procesamiento de Imágenes ..................................................................... 10
2.5.1. Adquisición de Imagen. ..................................................................................... 11
2.5.2. Preprocesamiento. .............................................................................................. 11
2.5.3. Segmentación. .................................................................................................... 11
2.5.4. Representación y Descripción............................................................................ 12
2.5.5. Reconocimiento e interpretación. ...................................................................... 12
2.6. Métodos de Procesamiento........................................................................................ 12
2.6.1. Definiciones previas........................................................................................... 13
2.6.2. Métodos en el Dominio Espacial. ...................................................................... 14
2.6.3. Métodos en el Dominio de la Frecuencia. ......................................................... 23
2.6.4. Métodos de Extracción de Características. ........................................................ 37
3. Productos .......................................................................................................................... 45
3.1. Segmentación de Imagen a Color.............................................................................. 45
3.2. Filtros en el Dominio de la Frecuencia Utilizando Python ....................................... 51
4. Conclusiones ..................................................................................................................... 55
5. Bibliografía ....................................................................................................................... 56

2
Procesamiento de Imágenes

1. Introducción

Las imágenes y las imágenes digitales están presentes en todos los distintos campos del

conocimiento, es complicado no imaginar cómo las imágenes digitales encuentran su lugar

dentro del día a día, ya sea desde la simple captura fotográfica que hacemos cotidianamente

hasta la transmisión de imágenes capturadas por satélites en el espacio. De esta forma, la

captura de imágenes digitales es una herramienta importante que sirve para distintos

propósitos de distintos niveles y, con ello, se han desarrollado técnicas que permiten tratar

estas imágenes para mejorar su calidad, resaltar algún detalle en específico o modificarlas con

un objetivo meramente estético, este conjunto de técnicas es lo que constituye el llamado

procesamiento de imágenes.

En este trabajo se expone la teoría correspondiente al procesamiento de imágenes

digitales, así como el conjunto de técnicas utilizadas, empezando por la definición de

términos introductorios como qué es una imagen digital, profundizando hasta los dominios

espacial y de frecuencia, en donde se aplican las técnicas de procesamiento, ejemplificando

sus correspondientes usos. Finalmente, se implementaron dos códigos en Python que

permiten una aproximación didáctica a técnicas de procesamiento en el dominio espacial y de

la frecuencia, en particular, se trata de las técnicas de segmentación a color y de filtrado

mediante la transformada de Fourier.

3
2. Procesamiento de Imágenes

2.1. ¿Qué es una imagen digital?

Para empezar, Miranda (2009) proporciona una definición cualitativa acerca de las

imágenes digitales, según este autor “las imágenes digitales son fotos electrónicas tomadas de

una escena o escaneadas de documentos, fotografías, manuscritos, textos impresos e

ilustraciones” (p. 134).

Según Mejía (2005), una imagen digital se define de forma matemática como una función

bidimensional f(x,y), en la que x e y son coordenadas en un plano y f es el nivel de gris de la

imagen en esa coordenada. Además, los valores de x, y y f son cantidades finitas, con un

lugar y valor específicos. A estos elementos se les conoce como píxeles, y representan la

unidad mínima de una imagen digital. En la Figura 1 se puede observar una imagen en forma

de cuadrícula, en donde sus píxeles tienen valores de 0 para el negro y 1 para el blanco.

Figura 1

Representación matricial de imagen digital con píxeles binarios

Nota. Adaptado de Imagen Digital, Miranda, 2005.

4
2.2. ¿Qué es el procesamiento de imágenes?

Según Vela (2013) "el procesamiento digital de imágenes es el conjunto de técnicas que

se aplican a las imágenes digitales con el objetivo de mejorar la calidad o facilitar la

búsqueda de información" (p. 1).

Otra definición acerca del procesamiento de imágenes digitales es brindada por Graffigna

(2003), quien indica que "el procesamiento de imágenes consiste en alterar la información

visual para obtener mejores resultados o para aislar algunas características particulares de las

imágenes" (p. 1).

Por lo tanto, podemos sintetizar que el procesamiento de imágenes digitales consiste en la

aplicación de técnicas a una imagen digital con el fin de mejorar su calidad o de resaltar

detalles específicos para poder analizarlos según se requiera.

2.3. Aplicaciones

Las imágenes digitales están presentes en todos los campos de conocimiento, en algún

momento se necesita tomar fotografías, escanearlas, enviarlas y modificarlas, es por ello por

lo que el procesamiento de imágenes también posee un alto impacto y presencia dentro de

estos campos, cumpliendo determinados propósitos para el tratamiento de las imágenes

obtenidas.

Según Mejía (2005), dentro del área de la medicina nuclear las tomografías son formadas

a partir de la detección de rayos gamma que se introducen al paciente a través de la inyección

de un isótopo radioactivo. Las imágenes de este tipo, como se aprecia en la Figura 2 son

usadas para detectar enfermedades óseas.

5
Figura 2

Tomografía a partir de la detección de rayos gamma

Nota. Tomado de Tomografía por emisión de positrones (PET), por Mejía, 2005.

Mejía (2005) también menciona otros campos en donde se utiliza el procesamiento de

imágenes, como la microscopía, astronomía, detección remota, industria y forense, solo por

mencionar algunos, estos campos utilizan el procesamiento de imágenes más a menudo para

diversos propósitos, generalmente estos campos trabajan con el espectro de la luz visible.

Además, respecto a la detección remota, Gonzales (2008) señala que los satélites

obtienen y transmiten imágenes con el objetivo de monitorear las condiciones del entorno del

planeta, este campo trabaja dentro del espectro de luz visible e infrarrojo. En la Figura 3

podemos observar las diferentes bandas y el rol que cumple el procesamiento de imágenes

dentro de estas.

Figura 3

Bandas de luz en las que trabajan los satélites

Nota. Adaptado de Thematic bands in NASA’s LANDSAT satellite, por Gonzales, 2008.

6
Otra aplicación adicional que destaca Gonzales (2008) para imágenes obtenidas dentro

del espectro de luz visible es el reconocimiento de huellas dactilares, estas son procesadas en

una computadora para mejorar su resolución y/o encontrar características que ayuden en la

búsqueda automática de coincidencias.

Además, en el campo policial, se usa el procesamiento de imágenes para reconocer las

placas de vehículos que no son del todo legibles, incluso de forma automática, como se

observa en la Figura 4.

Figura 4

Reconocimiento automático de placas de vehículos

Nota. Tomado de Universal Technologies.


https://www.universalte.com/soluciones/reconocimiento-placas

Una aplicación interesante es en el área de botánica, mencionada por Jähne (2002),

quien presenta el reconocimiento dinámico del crecimiento de una hoja a través de imágenes

tomadas minuto a minuto, con el objetivo de medir la tasa de crecimiento en el ciclo diurno,

esta aplicación se puede observar en la Figura 5.

7
Figura 5

Medición de la tasa de crecimiento de una hoja

Nota. Tomado de Growth studies in botany, por Jähne, 2002. La imagen de la izquierda
muestra una hoja de planta de ricino y la imagen de la derecha muestra el mapa de la tasa de
crecimiento.

2.4. Historia

Según Mejía (2005), el uso de las imágenes digitales se remonta a la primera parte de la

década de los veinte en la industria del periódico, cuando se realizó el envío de fotografías

por medio de cable submarino entre Londres y Nueva York. Se utilizaba el sistema de

transmisión de imágenes Bartlane, que tomaba aproximadamente tres horas y consistía en

aplicar equipo de impresión especializado que codificaba las fotografías desde el origen, para

reconstruirlas a su llegada. Una fotografía enviada por este medio se observa en la Figura 6.

Figura 6

Fotografía obtenida con una impresora telegráfica

Nota. Tomado de Fotografía digital de 1921 obtenida con una impresora telegráfica
con tipos especiales, de Mejía, 2005.
8
Mejía (2005) también indica que en la misma década se abandonó esa técnica de envío y

se sustituyó por una técnica basada en cintas que se perforaban en la terminal telegráfica

receptora. Una fotografía obtenida por este método se muestra en la Figura 7.

Figura 7

Fotografía obtenida mediante cintas perforadas

Nota. Tomado de Fotografía digital de 1922 obtenida a partir de una cinta perforada
después de que las señales cruzaron el atlántico dos veces, de Mejía, 2005.

Sin embargo, Mejía (2005) menciona que estas técnicas no entran en la definición de

imagen digital como tal, por el hecho de que no se utilizaban computadoras en aquel

momento. Las primeras computadoras aparecieron en la década de los sesenta y

proporcionaron al área del procesamiento de imágenes características potentes como la

capacidad de almacenamiento, despliegue y transmisión. El procesamiento de imágenes por

computador se inició junto al programa espacial estadounidense, cuando el laboratorio Jet

Propulsión de Pasadena California procesó varias fotos de la luna para corregir varios tipos

de distorsión. La primera fotografía de la luna de una nave espacial estadounidense se puede

observar corregida en la Figura 8.

Figura 8

Primera fotografía de la luna por una nave espacial estadounidense

9
Nota. Tomado de La primera fotografía de la luna de una nave espacial
estadounidense, Mejía, 2005.

Posteriormente, Mejía (2005) señala que, en los años 60 y 70, se desarrollaron

técnicas para el área médica, para observaciones remotas de la tierra y la astronomía. Una de

las aplicaciones destacables de aquellos años fue la invención de la tomografía axial

computarizada, la cual realiza barridos alrededor del paciente y con ello se obtiene una

imagen 3D del interior del paciente. Luego de los años sesenta hasta la actualidad, el

procesamiento de imágenes ha incurrido en diversas áreas del conocimiento, por ejemplo,

geólogos que estudian la contaminación con imágenes satelitales, arqueólogos que restauran

viejas fotografías, etc.

2.5. Etapas del Procesamiento de Imágenes

Según Graffigna (2003), podemos resumir estas secuencias de etapas, primero

hacemos la adquisición de una imagen, para luego preprocesarla realzando sus detalles, y que

10
posteriormente mediante la segmentación la dividimos en los objetos que nos interesa

analizar. Ya terminado esto, lo que continua es el proceso de reconocimiento en el que se

identifica a los objetos para finalmente interpretarlos en base a las características de interés

(p. 7).

2.5.1. Adquisición de Imagen. Graffigna (2003) menciona que para esta etapa no

solo es importante captar una imagen sino convertirla en una imagen digital, a través

de un digitalizador de imágenes, el cual dividirá la imagen en pixeles, medirá su nivel

de gris y luego llevará estos datos a un dispositivo de almacenamiento (p. 8).

Para Graffigna (2003), un digitalizador debe tener cinco elementos principales. El

primero es el muestreador, con el que se puede acceder a cada uno de los pixeles; el segundo

es el barrido con el cual se recorre toda la imagen; el tercero es el sensor de brillantez para los

pixeles, el cual convertirá la señal de luz en una señal eléctrica. El cuarto elemento es el

cuantizador, que convierte la señal eléctrica en valores enteros proporcionales a la intensidad

de luz; finalmente, el quinto elemento es el digitalizador que será el medio de salida (p. 8).

2.5.2. Preprocesamiento. Según Graffigna (2003), en esta etapa se inicia el

procesamiento de la imagen con el objetivo de hacerla una fuente de información

confiable y precisa, en la cual debe ser posible dividir la imagen en base a una

característica de homogeneidad predefinida. Existen técnicas como la

binarizacion, el cual consiste representar una imagen a color en una binaria que

generalmente blanco y la técnica de detección de bordes (p. 9).

2.5.3. Segmentación. Para Moreira (2009), esta etapa consiste en clasificar los

pixeles indicando las clases a la que pertenecen, si son arte del objeto o el fondo.

Estos resultados serán utilizados en las siguientes etapas para su descripción e

interpretación. Las técnicas usadas en segmentación son la discontinuidad y la

11
similitud. Con respecto a la discontinuidad se obtiene los pixeles del contorno y

por ende las regiones. En tanto que la similitud permite hallar regiones y con

estos contornos (p.9).

2.5.4. Representación y Descripción. Una vez terminada la etapa de segmentación

se obtienen los datos de pixeles, que son constituyentes de contorno o los puntos

de la región interna. Visto esto se debe decidir si los datos se deben representar

como un contorno o una región. Esto dependerá del interés, cuando se quiere

tener las características de la parte exterior como son la esquina, entonces

conviene la representación como un contorno. Mientras que si se quiere una

representación regional es conveniente si el interés está en las propiedades

internas como la textura del objeto. Cabe mencionar que ambas representaciones

pueden coexistir (Graffigna, 2003).

2.5.5. Reconocimiento e interpretación. En esta etapa se busca asignar un

significado a un conjunto de objetos reconocidos después de la extracción de

características se aplica una técnica de decisión o clasificación. La técnica de

decisión consiste en la comparación de las características de la imagen de

entrada con las de un conjunto de imágenes almacenadas para las cuales se

conoce el carácter correcto (conjunto de entrenamiento). Puede establecerse

medidas de similaridad o disimilaridad entre los elementos tomados de dos en

dos (Graffigna, 2003).

2.6. Métodos de Procesamiento

El principal objetivo de los métodos es procesar una imagen para que el resultado sea

más conveniente que la imagen original para una aplicación específica. Un método

conveniente para mejorar radiografías no necesariamente será el mejor para mejorar

fotografías de marte transmitidas desde el espacio. La mejora de la imagen se divide

12
en 3 categorías: métodos del dominio espacial, métodos del dominio de la frecuencia

y método de extracción de características (Mejía, 2005, p. 38).

2.6.1. Definiciones previas

Vecindad. Generalmente se define la vecindad respecto a un punto (x, y) utilizando un

cuadrado o una subimagen o área rectangular centrada en (x, y), como se muestra en la Figura

9 El centro de la subimagen se mueve de píxel a píxel comenzando, por ejemplo, en la esquina

superior izquierda. El operador T se aplica a cada lugar (x, y) para producir g en ese lugar. El

proceso utiliza solamente los pixeles en el área de la imagen que ocupa la vecindad (Mejía,

2005, p. 38).

Figura 9

Una vecindad de 3x3 respecto a un punto(x,y) de la imagen

Nota. Tomado de Apuntes de Procesamiento digital de Imagenes, Mejía, 2005.

Máscaras. Acerca de las máscaras, se expone la siguiente información:

Las vecindades más grandes se prestan a mayor flexibilidad. Uno de los principales

enfoques se basa en el uso de máscaras (también llamadas filtros, kernels o ventanas).

Básicamente, una máscara es un arreglo pequeño (digamos, de 3 x 3) de dos

dimensiones, en el que los valores de los coeficientes de la máscara determinan la

13
naturaleza del proceso, como el realzado de la imagen. Este enfoque se denomina

procesamiento por máscara, o simplemente filtrado. (Mejia, 2005, p. 40)

Ruido. El Ruido es “información no deseada que contamina la imagen. El origen del

ruido puede estar: en el proceso de adquisición, en el proceso de transmisión o en el

procesamiento de la imagen” (Sevilla, 2017, p. 5).

2.6.2. Métodos en el Dominio Espacial. Los métodos del dominio espacial trabajan

sobre el plano de la imagen, y en éste se manipulan directamente los pixeles de

una imagen. Los procesos en el dominio espacial se denotarán por la expresión

g(x, y) = T[f(x, y)], donde f(x,y) es la imagen de entrada, g(x, y) es la imagen

procesada, y T es un operador de f, definido en alguna vecindad de (x, y). T

también puede operar en un conjunto de imágenes de entrada (p. Ej. La suma

pixel por pixel de k imágenes para reducir el ruido) (Mejía, 2005, p. 38).

Histograma. Contiene el número de píxeles que tienen el mismo nivel de gris.

(Probabilidad de que un determinado nivel de gris aparezca en la imagen).

En general se representa como un gráfico de barras en el que las abscisas son los

distintos colores de la imagen y las ordenadas la frecuencia relativa con la que cada color

aparece en la imagen. El histograma proporciona información sobre el brillo y el contraste de

la imagen, y puede ser utilizado para ajustar estos parámetros, eliminar ciertas tonalidades

molestas. (Lemared,2021)

Figura 10

Relación entre una imagen y un histograma

14
Nota. Tomado de Mejoramiento de Imágenes en el dominio Espacial, Lemared, 2021.

Operaciones lógicas y aritméticas. Las operaciones aritméticas y lógicas se emplean

con mucha frecuencia en el procesamiento digital de imágenes. Las operaciones aritméticas

entre dos pixeles p y q son las siguientes: Adición: p + q, Sustracción: p − q. , Multiplicación:

p ∗ q. , División: p/q. Las operaciones lógicas principales se pueden resumir como sigue: p

AND q: Producto lógico , p OR q: Suma lógica , NOT p: Complemento. (UNSJ, 2017, p.

36)

Figura 11

Ejemplo de Operaciones lógicas

Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

15
Además del procesamiento de imágenes completas píxel a píxel, las operaciones

aritméticas y lógicas pueden emplearse en operaciones orientadas a vecinos, o mascaras.

La idea subyacente en las operaciones con máscaras consiste en permitir que el valor

asignado a un determinado píxel sea una función de su propio nivel de gris y de los niveles de

gris de sus vecinos. Por ejemplo, considere una porción de imagen y suponga que se desea

reemplazar el valor de z5 por el promedio de los pixeles de la región 3 × 3 centrada en este

píxel. Para hacerlo se debe resolver. (UNSJ, 2017, p. 36)

Figura 12

Promedio de pixeles de una región 3x3 centrado en un píxel

Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2017.

Adición. Según la UNSJ (2017) “se trata de la suma de un valor constante a todos los

pixeles de la imagen para aumentar su brillo. Por ejemplo, 50, en la siguiente figura” (p. 38)

Figura 13

Imagen original y suma del valor constante 50

16
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

Sustracción. Según la UNSJ (2017) define la sustracción como “un uso común de esta

técnica es restar variaciones de iluminación de fondos. Supongamos que no se puede ajustar

la iluminación, pero si colocar una hoja de papal blanco en la escena. Típico en microscopía,

según se muestra en la figura” (p. 41)

Figura 14

Imagen original y de un papel en blanco bajo iguales condiciones de iluminación

Nota. Tomado de Procesamiento Digital de Imágenes, UNSJ, 2005.

Según la UNSJ (2017) “se procede a restar la imagen del fondo con la original. Previo

a esto se le suma a la imagen original el valor 100 para evitar los niveles de gris negativos. El

resultado es la imagen de la figura” (p. 42)

Figura 15

Imagen luego de la resta y posteriormente acondicionamiento

17
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

Multiplicación o escalado. Según la UNSJ (2017) “en general un factor de escala

mayor a 1 hará la imagen más brillante, y si es menor a 1 la hará más oscura. Esta técnica

produce mejores resultados que la suma. Por ejemplo, multiplicando por 3 cada píxel se

obtiene la figura” (p. 43)

Figura 16

Efecto de la multiplicación de los pixeles por un valor constante

Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

Otra vez, se puede producir wrapped around, se soluciona saturando la salida, como

se observa en la Figura 17.

Figura 17

Resultado de la multiplicación de los pixeles wrapped around

18
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

División. Según la UNSJ (2017) “uno de los usos más importantes de la división es en

la detección de movimiento (cambios). En lugar de obtener el cambio absoluto se obtiene la

razón entre los pixeles correspondientes” (p. 43)

Figura 18

Efecto de la división de los pixeles entre un valor constante

Nota. Tomado de Procesamiento Digital de Imágenes, UNSJ, 2005.

Figura 19

Efecto de la división de los pixeles entre un valor constante

19
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

Producto Lógico (AND). Según la UNSJ (2017) “el uso más común de esta operación

es calcular la intersección entre dos imágenes. Por ejemplo, se desea detectar aquellos objetos

en una escena que no han tenido movimiento entre dos imágenes” (p. 45)

Figura 20

Detección de objetos de una escena que no han tenido movimiento entre 2 imágenes

Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

Figura 21

Detección de objetos de una escena que no han tenido movimiento entre 2 imágenes

Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

Suma Lógica (OR). Según la UNSJ (2017) “se puede ejemplificar el uso del operador

OR para obtener la unión entre dos imágenes. Las imágenes muestran una escena con dos

objetos, uno de los cuales ha sido movido” (p. 49)

20
Figura 22

Escena con 2 objetos, una de las cuales ha sido movido

Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

Figura 23

Escena con 2 objetos, una de las cuales ha sido movido

Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

Complemento. Según la UNSJ (2017) “cuando se procesan imágenes binarias con

operadores lógicos o morfológicos, se utiliza el operador NOT para cambiar la polaridad

como parte de un proceso más largo.” (p. 52)

Figura 24

Cambio de polaridad como parte de un proceso largo

21
Nota. Tomado de Procesamiento Digital de Imagenes, UNSJ, 2005.

Transformaciones de suavizado. Según Aguirre (2013) define:” Esta técnica sirve

para suavizar los bordes de una imagen, reducir los picos de ruido o simplemente hacer

menos bruscos los cambios de intensidad en la imagen. Se consideran filtros paso-bajo, ya

que eliminan la información de alta frecuencia en la imagen.” (p. 52)

Filtro Media. Respecto al filtro media se afirma lo siguiente:

El filtro de suavizado más simple es el correspondiente a la media, en la cual se

obtiene un píxel de salida haciendo la media aritmética de los píxeles de la ventana

elegida (Figura adjunta). Cuanto mayor sea la ventana, mayor será el efecto de

difuminado. A pesar de su sencillez en la implementación, tiene como desventaja su

alta sensibilidad a los cambios locales, y la generación de niveles de intensidad que

no existían en la imagen original. (Aguirre, 2013, p. 52)

Figura 25

Diferentes tamaños de la mascara de filtro media y sus resultados sobre una imagen

22
Nota. Tomado de Implementación de un sistema de detección de señales de tráfico mediante
visión artificial, Aguirre, 2013.

Filtro Gaussiano. Respecto al filtro Gaussiano se afirma lo siguiente:

Similar al filtro media, pero aplicando una máscara diferente, donde los píxeles más

cercanos al píxel actual tienen más peso que los exteriores. Los pesos de los píxeles se

calculan con una campana de Gauss dependiente de la distancia al píxel actual, y su

varianza indica el nivel de suavizado. Los filtros gaussianos tienen como ventaja el

hecho de ser separables, es decir, se pueden realizar con la convolución de dos

vectores unidimensionales en lugar de una máscara bidimensional. También mejoran

la capacidad de suavizado, introduciendo un parámetro (la varianza) que es

independiente del tamaño de la máscara. (Aguirre, 2013, p. 52)

Figura 26

Mascara de un filtro gaussiano 5x5 con varianza 1

Nota. Tomado de Implementación de un sistema de detección de señales de tráfico mediante


visión artificial, Aguirre, 2013.

2.6.3. Métodos en el Dominio de la Frecuencia. Para introducirnos en el dominio

de la frecuencia es pertinente definir qué es la frecuencia. Según la RAE “la

frecuencia es el número de veces que se repite un proceso periódico por unidad

de tiempo”. Junto a esta información y haciendo una delimitación al campo

matemático, cabe destacar que, según Vela (2013) “a principios del siglo XIX,

23
Joseph Fourier indica que toda función periódica puede ser expresada como una

suma infinita de senos y cosenos en distintas frecuencias” (p. 1).

Las señales también son representadas como funciones periódicas, entendemos a una

señal como una manifestación de energía que transmite información que puede ser de

distintos tipos. Un ejemplo de señal puede observarse en la Figura 27.

Los elementos de una señal y que se encuentran relacionados con la frecuencia son el

hercio, el cual es la unidad de medida de la frecuencia; el ciclo, que representa una onda

completa de una señal; la alternancia, la cual representa la mitad de un ciclo; y el periodo, el

cual es el tiempo necesario para producir un ciclo completo (Fluke, s.f.). Así mismo,

podemos encontrar métodos matemáticos que descompongan estas señales para determinado

propósito, Ruiz (2016) menciona lo siguiente:

Una señal unidimensional se puede descomponer en un conjunto infinito de señales de

tipo seno con diferentes frecuencias, amplitudes y fases. El primer componente

representa la amplitud media de la señal y tiene frecuencia cero. El siguiente

componente, o fundamental, presenta la misma frecuencia que la señal original. Los

demás componentes van adquiriendo frecuencias sucesivamente superiores y se

denominan armónicos. A medida que se van añadiendo los sucesivos componentes, la

suma se va aproximando cada vez más a la señal original, aunque se necesita un

número infinito de aquéllos para obtener ésta de forma exacta. A la suma total de

componentes se le denomina serie de Fourier de la función original. (p. 1)

Figura 27
Señal que representa una corriente alterna con frecuencia de 3hz

24
Nota. Adaptado de Corriente Alterna [Imagen], por Fluke, s.f., Fluke
(https://www.fluke.com/es-pe/informacion/blog/electrica/que-es-la-frecuencia).

Transformada de Fourier. Una explicación más práctica y didáctica de la

transformada de Fourier queda expresada en el trabajo de Vela (2013); el autor menciona lo

siguiente:

La transformada de Fourier es básicamente el espectro de frecuencias de una función.

Un buen ejemplo de eso es lo que hace el oído humano, ya que recibe una onda

auditiva y la transforma en una descomposición en distintas frecuencias (que es lo que

finalmente se escucha). El oído humano va percibiendo distintas frecuencias a medida

que pasa el tiempo, sin embargo, la transformada de Fourier contiene todas las

frecuencias contenidas en todos los tiempos en que existió la señal; es decir, en la

transformada de Fourier se obtiene un sólo espectro de frecuencias para toda la

función. (p. 1)

Transformada Continua de Fourier. Según Ruiz (2016), la transformada continua de

Fourier existe siempre que una función f(x) sea continua e integrable, y a su vez que la

25
transformada F(u) sea integrable. En primer lugar, se explica la transformada de una función

unidimensional, la cual queda definida por la expresión mostrada en la Figura 28.

Figura 28

Transformada de Fourier de una función continua unidimensional



𝐹(𝑢) = ∫ 𝑓(𝑥)𝑒 −𝑗2𝜋𝑢𝑥 𝑑𝑥
−∞

Nota. Extraído de L. A. Ruiz, 2016.

Ruiz (2016) también señala que, a su vez, se puede integrar la función mostrada

anteriormente, de forma que se obtiene la transformada inversa de Fourier, esta toma la forma

que se observa en la Figura 29.

Figura 29

Transformada inversa de Fourier de una función continua unidimensional



𝑓(𝑥) = ∫ 𝐹(𝑢)𝑒 𝑗2𝜋𝑢𝑥 𝑑𝑢
−∞

Nota. Extraído de L. A. Ruiz, 2016.

Debemos reconocer las dos partes de la transformada de Fourier, según Ruiz (2016),

esta posee una parte real R(u) y una parte imaginaria I(u), como se muestra en la Figura 30.

Figura 30

Transformada de Fourier expresada como la suma de dos funciones

𝐹(𝑢) = 𝑅(𝑢) + 𝑗𝐼(𝑢)

Nota. Extraído de L. A. Ruiz, 2016.

Ruiz (2016) también señala que la función inicial f(x) está formada por infinitas

funciones seno y coseno, de forma que la transformada de Fourier se entiende como la suma

de todas estas funciones, en donde el valor de u representa la frecuencia de los pares seno y

coseno. Es importante mencionar que la transformada de Fourier puede aplicarse a una

26
función bidimensional f(x,y), junto a su transformada inversa, obteniendo ahora dos variables

de frecuencia u y v como se puede observar en la Figura 31, y además, su inversa en la

Figura 32.

Figura 31

Transformada de Fourier de una función continua bidimensional


∞ ∞

𝐹(𝑢, 𝑣) = ∫ ∫ 𝑓(𝑥, 𝑦)𝑒 −𝑗2𝜋(𝑢𝑥+𝑣𝑦) 𝑑𝑥𝑑𝑦


−∞ −∞

Nota. Extraído de L. A. Ruiz, 2016.

Figura 32

Transformada inversa de Fourier de una función continua bidimensional


∞ ∞

𝑓(𝑥, 𝑦) = ∫ ∫ 𝐹(𝑢, 𝑣)𝑒 𝑗2𝜋(𝑢𝑥+𝑣𝑦) 𝑑𝑢𝑑𝑣


−∞ −∞

Nota. Extraído de L. A. Ruiz, 2016.

Transformada Discreta de Fourier. La transformada discreta de Fourier no es otra

cosa que el uso de sumatorias en lugar de las integrales que aparecen en la transformada

continua. Esta transformada considera como entrada una función con duración finita que

pueden tener su origen en fenómenos de la realidad. Según Kriger (2015) “la DFT es ideal

para procesar información almacenada en soportes digitales. En particular, se utiliza

comúnmente en procesado digital de señales y otros campos relacionados dedicados a

analizar las frecuencias que contiene una señal muestreada” (p. 4).

Una imagen digital puede ser entendida como una señal digital, de esta forma,

introduciendo la transformada de Fourier al procesamiento de imágenes, podemos hallar la

transformada de Fourier de una imagen digital.

27
Citando a Ruiz (2016), la transformada discreta de Fourier y su inversa para una

función bidimensional como lo es una imagen digital toma la forma que se muestra en la

Figura 33, y su inversa en la Figura 34.

Figura 33

Transformada discreta de Fourier de una función bidimensional

𝑀−1 𝑁−1
1 𝑢𝑥 𝑣𝑦
𝐹(𝑢, 𝑣) = ∑ ∑ 𝑓(𝑥, 𝑦)𝑒 −𝑗2𝜋( 𝑀 + 𝑁 )
𝑀𝑁
𝑥=0 𝑦=0

Nota. Extraído de L. A. Ruiz, 2016.

Figura 34

Transformada inversa discreta de Fourier de una función bidimensional

𝑀−1 𝑁−1
𝑢𝑥 𝑣𝑦
𝑓(𝑥, 𝑦) = ∑ ∑ 𝐹(𝑢, 𝑣)𝑒 𝑗2𝜋( 𝑀 + 𝑁 )
𝑢=0 𝑣=0

Nota. Extraído de L. A. Ruiz, 2016.

Ruiz (2016) además menciona que en el caso de que la función bidimensional se trate

de una imagen digital, esta imagen puede ser entendida como una matriz de píxeles, en donde

podemos observar que M representa el número de columnas, es decir, los píxeles en la

dirección X; y N representa el número de filas, o sea los píxeles en la dirección Y.

Otra definición acerca de las imágenes digitales tratadas en el dominio de la

frecuencia fue dada por Pinilla, et al. (1997), quien postula lo siguiente:

El sistema matricial de coordenadas de una imagen es lo que se denomina dominio

espacial. Sin embargo, la misma imagen puede ser considerada como una función no

periódica y definirse en otro espacio bidimensional, cuyos ejes vengan determinados

por la amplitud y la frecuencia para cada dirección de la imagen. Este nuevo espacio

28
de referencia para la descripción de la imagen se conoce como dominio de la

frecuencia. (p. 1)

Teorema de Convolución. El teorema de la convolución es otra herramienta

matemática que encuentra su uso dentro del procesamiento de imágenes y de la aplicación de

filtros. Según Otarola (2015) “el teorema de convolución establece que, bajo determinadas

circunstancias, la transformada de Fourier de una convolución es el producto punto a punto

de las transformadas” (p. 1).

Por lo tanto, la convolución de dos funciones puede ser hallada de manera más

práctica como el producto de estas, con la característica de que presenta una dualidad al

aplicar la transformada de Fourier, según Ruiz (2016) “la convolución en el dominio de la

frecuencia se reduce a la multiplicación en el dominio espacial. Puede obtenerse también

calculando la transformada inversa de Fourier del producto de F(u,v) por H(u,v)”. Como se

muestra en la Figura 35.

Figura 35

Convolución de dos funciones bidimensionales

𝑓(𝑥, 𝑦) ∗ ℎ(𝑥, 𝑦) ⟺ 𝐹(𝑢, 𝑣) ∙ 𝐻(𝑢, 𝑣)

Nota. Extraído de L. A. Ruiz, 2016.

“Realizar producto en lugar de convoluciones permite reducir el número de

operaciones a realizar, aun a cuesta de tener que realizar las transformaciones: una hacia el

dominio de frecuencia y otra para retornar al dominio espacial de la imagen” (Veroni, 2014,

p. 3).

Frecuencia en Imágenes Digitales. Cuando se habla de frecuencia se hace referencia

a un concepto temporal, como hemos definido anteriormente, esta representa cada cuánto

tiempo se repite algún evento. Sin embargo, si nos trasladamos al campo de las imágenes

29
digitales, ya no utilizamos el concepto del tiempo, sino del espacio, ya que una imagen no

presenta características que se muestreen a través del tiempo, sino del espacio. Ahora

hablamos de frecuencia espacial, esta redefinición permite a su vez reinterpretar la

transformada de Fourier sobre el espacio, según Pinilla et al. (1997) “esta no describe otra

cosa que el grado de repetitividad de los niveles digitales de una imagen”. En la Figura 36

podemos ver dos gráficos, el de la izquierda representa los niveles digitales de las columnas

de una sola fila de una imagen, y el de la derecha muestra los niveles digitales habiendo

aplicado la transformada de Fourier.

Según Reuter (2015) el nivel digital es un valor numérico que representa una

intensidad visual o un nivel de gris sobre un determinado píxel de una imagen digital, es

decir, cada píxel de una imagen está definido por un número entero, el cual puede convertirse

en una intensidad luminosa o nivel de gris.

Figura 36

Dominio de la frecuencia en la imagen digital: línea original y transformada de Fourier

Nota. Adaptado de “Filtrado de imágenes en el dominio de la frecuencia” (p. 2), por C.


Pinilla et al., 1997, Revista de Teledetección (8).

30
Por lo tanto, resumiendo, dentro del procesamiento de imágenes digitales nos

referimos a frecuencia espacial como el grado de repitencia de los niveles de grises en una

imagen. Ejemplos de imágenes con diferentes frecuencias se puede observar en la Figura 37.

Figura 37

Imágenes representadas con diferentes frecuencias

Nota. Extraído de F. Vela, 2013.

Una vez entendida la frecuencia dentro del campo de las imágenes digitales, podemos

señalar que existen dos tipos: frecuencia alta y frecuencia baja. Según Aguirre (2013) “las

frecuencias bajas son responsables de la mayoría de los niveles de gris de una imagen sobre

áreas suaves. Mientras que las frecuencias altas tienen que ver con los detalles de la imagen,

como son los bordes y el ruido” (p. 60).

Habiendo realizado la introducción de conceptos básicos para el entendimiento del

procesamiento de imágenes en el dominio de la frecuencia, ahora veremos a detalle cómo

estos se relacionan con las imágenes digitales.

Veroni (2014) expone la importancia de la representación de imágenes en el dominio de la

frecuencia:

Las representaciones en el dominio de la frecuencia detallan con cuánta frecuencia se

repiten ciertos patrones en una imagen, consiguiendo representar la información de tal

imagen. La representación puede ser útil, ya que teniendo la frecuencia de repetición

31
de tales patrones se pueden detectar y alterar directamente elementos presentes en las

imágenes, como el ruido, contornos o texturas. (p. 2)

Hallar la transformada de Fourier de una imagen parece suponer un reto matemático,

considerando el conocimiento que hay por detrás. Sin embargo, existen algoritmos que

permiten calcular la transformada de Fourier de una imagen de manera más práctica, tal como

lo explica Ruiz (2016):

Para el cálculo práctico de la DFT de una imagen de dimensión NxN es preciso

realizar un número proporcional a N2 operaciones de multiplicación. Por ello, en la

práctica se emplea un algoritmo basado en la transformada rápida de Fourier ó FFT

(Fast Fourier Transform), el cual se basa en la descomposición de la ecuación

genérica de la DFT, de manera que el número de operaciones necesarias para

implementar la transformada queda reducido a N x log2(N). Este método supone un

gran ahorro de necesidades de cálculo y tiempo de procesado. El inconveniente del

método de la FFT es que su aplicación queda restringida a imágenes cuyas

dimensiones (número de píxeles) en X e Y sean potencias de 2. (p. 4)

El procesamiento de imágenes se realiza con ayuda de aplicaciones computacionales,

por lo que, en la práctica, el fondo matemático se vuelve prescindible, quedándonos con

funciones que podemos aplicar directamente a una imagen determinada.

Filtros en el Dominio de la Frecuencia. Los filtros en el dominio del espacio se

realizan utilizando máscaras, es decir, matrices que contienen valores numéricos que

representan la intensidad luminosa o el nivel de gris de cada píxel; sin embargo, a estos filtros

también se les puede aplicar la transformación de Fourier para obtener un filtro en forma de

impulso que permita aplicarlo a una imagen en el dominio de la frecuencia. Una explicación

32
clara acerca de los filtros en el dominio de la frecuencia la podemos obtener por Vela (2013),

el cual menciona:

El proceso de filtrado es el conjunto de técnicas englobadas dentro del pre-

procesamiento de imágenes cuyo objetivo fundamental es obtener, a partir de una

imagen origen, otra final cuyo resultado sea más adecuado para una aplicación

específica mejorando ciertas características de la misma que posibilite efectuar

operaciones del procesado sobre ella. (p. 1)

Así mismo, detalla los objetivos que se persiguen con el proceso de filtrado:

• Suavizar la imagen: reducir la cantidad de variaciones de intensidad entre píxeles

vecinos.

• Eliminar ruido: eliminar aquellos píxeles cuyo nivel de intensidad es muy diferente al

de sus vecinos y cuyo origen puede estar tanto en el proceso de adquisición de la

imagen como en el de transmisión.

• Realzar bordes: destacar los bordes que se localizan en una imagen.

• Detectar bordes: detectar los píxeles donde se produce un cambio brusco en la función

intensidad.

Es importante destacar que existen filtros sobre el dominio del espacio y sobre el domino

de la frecuencia; sin embargo, en esta sección solo se expondrá lo referente a los filtros en el

dominio de la frecuencia.

Los filtros dentro del dominio de la frecuencia se aplican siguiendo el teorema de la

convolución, como se muestra en la Figura 38. Según Vela (2013), los pasos a realizar son

los siguientes:

33
Se aplica la Transformada de Fourier, luego se multiplica por la función del filtro que ha

sido escogido para concluir re-transformándola al dominio espacial empleando la

Transformada Inversa de Fourier.

Figura 38

Teorema de la convolución en el proceso de filtrado de una imagen

𝐺(𝑢, 𝑣) = 𝐹(𝑢, 𝑣) ∗ 𝐻(𝑢, 𝑣)

Nota. Extraído de Vela (2013).

Un detalle importante es que el proceso de filtrado en el dominio de la frecuencia

necesita que tanto la imagen como el filtro a aplicar se encuentren en el dominio de la

frecuencia, esto es, que a ambas funciones periódicas se les aplique la transformada de

Fourier. El proceso completo de filtrado en el dominio de la frecuencia se muestra en la

Figura 39.

Figura 39

Proceso de creación y aplicación de un filtro en el dominio de la frecuencia

Nota. Tomado de Diseño y aplicación de filtros en el dominio de la frecuencia, mediante la


utilización de la transformada de Fourier (TF) y de su inversa (TF)-1, de L. A. Ruiz, 2016.

Según menciona Vela (2013), existen tres tipos de filtros de frecuencia:

34
• Filtro paso bajo: atenúa las frecuencias altas y mantiene sin variaciones las bajas. El

resultado en el dominio espacial es equivalente al de un filtro de suavizado, donde las

altas frecuencias que son filtradas se corresponden con los cambios fuertes de

intensidad. Consigue reducir el ruido suavizando las transiciones existentes. Se puede

observar un ejemplo en la Figura 40.

• Filtro paso alto: atenúa las frecuencias bajas manteniendo invariables las frecuencias

altas. Puesto que las altas frecuencias corresponden en las imágenes a cambios

bruscos de densidad, este tipo de filtros es usado, porque entre otras ventajas, ofrece

mejoras en la detección de bordes en el dominio espacial, ya que estos contienen gran

cantidad de dichas frecuencias. Refuerza los contrastes que se encuentran en la

imagen. Un ejemplo de este filtro se muestra en la Figura 41.

• Filtro paso banda: atenúa frecuencias muy altas o muy bajas manteniendo una banda

de rango medio. Se muestra un ejemplo en la Figura 42.

Figura 40

Transformada de Fourier de filtro ideal paso bajo

Nota. Tomado de Imagen de TF de un filtro pasa bajos, de F. Vela, 2013.

35
Figura 41

Transformada de Fourier de filtro ideal paso alto

Nota. Tomado de Imagen de TF de un filtro pasa altos, de F. Vela, 2013.

Figura 42

Transformada de Fourier de un filtro pasa banda

Nota. Tomado de Filtros pasa banda, de F. Vela, 2013.

En la Figura 43 se muestra un ejemplo de los filtros mencionados aplicados a una

imagen digital, en donde se aprecia la diferencia entre estos.

Figura 43

Filtro paso alto, paso bajo y paso banda aplicados a una imagen

36
Nota. Tomado de L. Otarola, 2015.

Existen distintos filtros que se utilizan tanto en el dominio espacial como en el

dominio de la frecuencia, estos filtros tienen sus respectivas variaciones en paso alto y paso

bajo, sirviendo para diferentes propósitos y resultados. Según Aguirre (2013) “los filtros en el

dominio de la frecuencia más importantes son el Butterworth y el Gaussiano, ambos en sus

versiones paso-bajo y paso-alto”.

2.6.4. Métodos de Extracción de Características. Consiste en tomar una imagen y

extraer atributos como son las coordenadas de objetos que cumplan ciertas

características, detección de curvas y formas, entre otros.

La extracción de características de manera automática es muy utilizada. Y para ello se

crearon sistemas de visión artificial los cuales tendrán el propósito de obtener la información

que se necesita para luego interpretarlas.

Según destaca Aguirre (2003) estos sistemas deben cumplir, entre otras, las siguientes

condiciones:

37
• La extracción de información útil a partir de la imagen no debería suponer un coste

excesivo al sistema en el cual está integrado, y el tiempo total dedicado a esta tarea

debe ser mínimo

• La localización de las características de la imagen debe ser muy precisa. Y el error

cometido en la estimación de las mismas debe ser mínimo.

• El método utilizado para la extracción de características debe ser robusto y estable.

Existen dos métodos más comunes en la extracción de características: la segmentación

y el etiquetado de componentes conectados.

Segmentación. Antes de abarcar este método es importante tener en cuenta el

significado de este término. Según la RAE “Cortar o partir algo en segmentos”.

Según La Serna (2009) “La segmentación subdivide una imagen en sus partes

constituyentes, con el fin de separar las partes de interés del resto de la imagen, por lo tanto,

el nivel al que se lleva a cabo esta subdivisión depende del problema a resolver” (p.11)

Visto esto, la segmentación consiste en dividir una imagen en sus regiones u objetos

constituyentes, de manera que los píxeles constituyentes posean propiedades o atributos

similares, como niveles de gris, contraste o texturas.

La mayoría de los algoritmos de segmentación están basados en dos propiedades

básicas de intensidad de la imagen: la discontinuidad y la similitud.

Con respecto a la discontinuidad, el proceso se realiza dividiendo la imagen por

cambios abruptos en intensidad, como la detección de bordes en una imagen. Y en cuanto a la

similitud, ésta se logra mediante la partición de una imagen en regiones que son similares de

acuerdo a un conjunto de criterios predefinidos.

38
Ya en el proceso de segmentación se evalúa cada pixel y se verifica si contiene o no

las características de interés. Como resultado, este método genera una imagen binaria, donde

los píxeles que pertenecen al objeto se representan con un '1' (objeto en primer plano),

mientras que los que no pertenecen al mismo se representan con un '0' (fondo). En la figura

44 podemos observar el resultado de una segmentación.

Figura 44

Segmentación de la imagen de una pera

Nota. Extraído de Técnicas de Segmentación en Procesamiento Digital de Imágenes, por La


Serna, (2009).

Según Aguirre (2013), para poder aplicar correctamente estas técnicas se debe tener

en claro el objetivo que se persigue, el tipo de imagen a analizar y sus características. Y para

ello previamente se necesita tener claro qué objetos interesan y qué características poseen.

(p.63)

Existen diferentes tipos de segmentación, a continuación, se destacará los principales

tipos de segmentación.

Segmentación basada en características de píxel. Este tipo se usa cuando se requiere

dividir objetos con semejantes características de color o intensidad de un fondo heterogéneo.

El caso ideal es aquel en el cual los objetos poseen un rango de colores o intensidad

de gris muy estrecho, siendo el fondo uniforme. En este caso se puede definir un umbral de

39
segmentación para separar el objeto del fondo. A esta técnica de asignación de un umbral se

la conoce como thresholding (literalmente "umbralización"), el cual trata de definir un valor

umbral y tomar los píxeles en este rango según pertenezcan o no al fondo: se toman los que

no pertenecen al fondo y se rechazan todos los demás.

Segmentación basada en modelos y Transformada de Hough. La transformada de

Hough permite detectar curvas en una imagen y es una de las técnicas de segmentación

basada en modelos más utilizadas, debido a su robustez frente al ruido y a su comportamiento

ante la existencia de huecos en la frontera del objeto.

El objetivo de la transformada de Hough es encontrar puntos en la imagen que estén

alineados. Esto se reduce a hallar los píxeles de una imagen que satisfagan la siguiente

ecuación de la recta en coordenadas polares ρ=xcosθ+ysenθ , para distintos valores de ρ, θ.

La transformada de Hough requiere una transformación del espacio de coordenadas

(x,y) en el espacio polar de parámetros (ρ, θ). En la siguiente transformación, una recta en el

espacio (x, y) que esté a distancia ρj del origen y posea pendiente θi, se representa como un

sólo punto (ρj, θi) en el espacio transformado. En la Figura 45 se puede observar esta

transformación.

Figura 45

Transformada de Hough de una recta

Nota. Extraído de Procesamiento de Imágenes, por Aguirre, (2009).

40
La transformada de un punto en el plano (x,y) corresponde a una curva sinusoidal en

el plano (ρ, θ). Los puntos de cruce de todas las curvas en el espacio de Hough, definen la

recta a la que pertenecen dichos puntos en el espacio imagen. En la Figura 46 se puede ver la

transformada de 3 puntos.

Figura 46

Transformada de Hough de tres puntos A, B, C

Nota. Extraído de Procesamiento de Imágenes, por Aguirre, (2009).

Como ventajas de este método se pueden señalar:

• Cada píxel de la imagen se procesa de modo independiente, lo que facilita su

implementación en paralelo.

• La transformada general de Hough es útil para la detección de formas complejas.

• Es capaz de reconocer patrones ligeramente deformados, ocultos o discontinuos.

• Permite buscar simultáneamente todas las ocurrencias de un patrón.

En cuanto a las desventajas, los más importantes son:

• El tiempo de computación y memoria usados es elevado, pues consume muchos

recursos.

• No ofrece respuesta absoluta, sino un índice de probabilidad de que cada una de las

• formas posibles sea la buscada.

41
Etiquetado de Componentes Conectados. Para entender mejor este concepto recordemos

su definición según la RAE “Clasificar a alguien o algo.”

Según Moreira (2010) “Una representación común de una imagen digital en dos

dimensiones, es el de un arreglo de pixeles asociados con colores en un mapa de color”.

Entonces podemos decir que el método de etiquetado de componentes conectados;

consiste en clasificar pixeles correspondientes al mismo objeto y asignarles una etiqueta,

distinguiéndolos unos objetos de otros.

Como resultado, se obtiene una imagen en la cual se separa cada objeto con una

etiqueta diferente, pudiendo entonces extraer características de los mismos, como su

centroide, sus coordenadas o su tamaño, o conocer el número de objetos en una imagen.

En la siguiente Figura 47 se observa con los pixeles con similares características se

les asigna un numero en la región que los contiene distinguiéndoles de otros.

Figura 47

Figura original y su etiquetado

Nota. Tomado de Procesamiento de Imágenes, por Aguirre, (2009).

Debido a la naturaleza del escaneo de una imagen (de arriba a abajo y de izquierda a

derecha), los algoritmos para etiquetar dan excelentes resultados con objetos convexos, pero

no ocurre lo mismo con objetos que tienen concavidades (formas en U).

42
En la Figura 48 podemos ver como el escaneo de arriba abajo, etiqueta con el color

rojo a los primeros pixeles y cuando pasa por un pixel distante lo etiqueta de azul

considerando que pertenece a otro conjunto; sin embargo, al llegar más abajo ocurre una

colisión debido a que estos pixeles pertenecen a un mismo objeto y deberían etiquetarse del

mismo color.

Figura 48

Colisión de etiquetas en objetos cóncavos

Nota. Tomado de Procesamiento de Imágenes, por Aguirre, (2009).

Para solucionar esto se una el método de fusión de etiquetas, el cual consiste en que,

al detectar una colisión, se decide cual es la etiqueta menor (por ejemplo, las de color rojo), y

todos los píxeles etiquetados en azul cambian su valor de etiqueta a rojo.

Este método se usa solo en imágenes almacenadas en una memoria, no se puede

aplicar en sistemas en tiempo real o sistemas de video, ya que las imágenes fluyen sin

almacenarse siendo imposible acceder a los pixeles en cualquier momento para cambiar su

etiqueta

Existen distintos tipos de algoritmos para el etiquetado, que se describen a

continuación.

Algoritmo clásico o de dos pasadas. Tiene la característica de realizar solo dos

pasadas en la imagen para su etiquetado. Cuando se encuentren colisiones, se actualizarán los

43
datos en la tabla de equivalencia indicando qué etiquetas pertenecen al mismo objeto. Al

finalizar el primer escaneo, la tabla de equivalencias es ordenada de menor a menor, y en una

segunda pasada se sobrescriben todas las etiquetas mayores que han colisionado con una

menor.

El inconveniente de este algoritmo es el consumo de memoria de la imagen etiquetada

de salida, ya que la imagen etiquetada que se obtiene tras la primera pasada debe almacenarse

en memoria antes de comenzar el segundo escaneo, y el número de etiquetas utilizadas en el

primer escaneo es depende de la complejidad de la imagen

Algoritmo de múltiples escaneos. Cuenta con la ventaja de no necesitar de una

memoria para almacenar las equivalencias ocurridas durante los pases. Esta técnica implica

múltiples pasadas sobre la imagen binaria, tanto hacia atrás como hacia adelante, hasta que no

ocurra ningún cambio de etiquetas.

Es propuesto para sistemas con limitaciones de los recursos de memoria, y para

imágenes de baja resolución, y no se recomienda para imágenes de alta resolución.

Algoritmo de procesamiento paralelo. Requiere muchos recursos para su ejecución y

no son eficiente para el streaming de vídeo, ni las imágenes de alta resolución

Algoritmo por seguimiento de contorno. Usa técnica para detectar contornos de los

objetos y rellenar los pixeles interiores con sus etiquetas correspondientes.

Tiene la ventaja de necesitar solamente una pasada para etiquetar todos los contornos,

utilizando menos recursos y memoria.

Requiere acceso aleatorio a todos los píxeles de la imagen, por ende, no es

implementable en sistemas en tiempo real, o streaming de vídeo, ya que se necesita que la

imagen a analizar esté almacenada en una memoria.

44
Algoritmo de pase simple. Es creado especialmente para etiquetado de componentes

conectados en sistemas de streaming de vídeo y sistemas en tiempo real.

Su ventaja más significativa de este algoritmo es que no se necesita almacenar todas

las etiquetas de un fotograma completo, sino que todo se hace en el contexto de las

vecindades del píxel. Otra ventaja es que al mismo tiempo que se etiquetan los píxeles de la

imagen binaria, se van extrayendo las características de los objetos: su tamaño, su número, su

centro, su posición en la imagen, etc.

Se mantiene una tabla de equivalencias, donde se resuelven las colisiones de etiquetas,

y también una tabla de características, donde se van añadiendo las coordenadas

3. Productos

Las siguientes implementaciones han sido replicadas tomando como referencia el curso

de Procesamiento de Imágenes por Domingo Mery.

3.1. Segmentación de Imagen a Color

Para realizar la segmentación de una imagen o binarización se necesita tomar un umbral,

es decir, un valor a partir del cual podamos decidir qué píxeles de la imagen tomarán los

valores de 1 (o sea, de color blanco), y los valores de 0 (de color negro). Para el caso de

imágenes a color se sigue el mismo proceso, con la característica de que la segmentación

ahora se realizará en cada canal de la imagen por separado, para luego unir los tres canales

segmentados y obtener el resultado deseado.

Para el ejemplo de segmentación a color realizaremos la segmentación de frutos rojos en

una imagen que contiene a una planta y los frutos de dicho color, como se puede observar en

la Figura 49.

Figura 49

45
Imagen de planta con frutos rojos

Nota. Tomado de Domingo Mery. (26 de agosto de 2021). 04 Procesamiento


de Imágenes: Segmentación de Frutos Rojos (Trabajo en Clases 01). [Archivo
de Vídeo]. Youtube. https://youtu.be/7npN3o3DB30

En primer lugar, importamos las librerías necesarias y cargamos la imagen en

cuestión, como se puede apreciar en la Figura 50.

Figura 50

Importación de librerías y carga de imagen

Nota. Elaboración propia.

46
Ahora debemos separar la imagen en sus respectivos canales RGB, una vez hecho esto

mostramos la imagen en sus tres canales como se puede apreciar en la Figura 51.

Figura 51

Despliegue de canales RGB de la imagen

Nota. Elaboración propia.

La imagen en cada canal se muestra en blanco y negro, podemos observar que en

donde hay más predominancia del color en cuestión se ha convertido a un color que tiende

hacia blanco, y en donde no hay presencia de este color tiende a gris o negro.

Ahora podemos pasar a segmentar cada canal de la imagen, usaremos un método manual

para conseguir el umbral para cada canal como se aprecia en la Figura 52. Para ello nos

fijamos en lo que queremos conseguir. Del canal rojo solo queremos obtener los frutos, en

donde hay bastante presencia del color rojo, además, necesitamos eliminar el fondo; del canal

verde podemos resaltar el fondo, ya que es la parte de la imagen donde hay bastante presencia

del color verde; del canal azul también podemos resaltar el fondo y algunos otros detalles

como las ramas.

47
Figura 52

Segmentación de frutos rojos en tres canales

Nota. Elaboración propia.

Ahora, ¿por qué deseamos resaltar los colores que no deseamos en la segmentación?

Porque de esta forma podremos realizar una operación ‘and’ entre estos tres canales y

finalmente borrar el fondo y obtener los frutos deseados como se aprecia en la Figura 53.

Figura 53

Operación lógica AND entre los canales segmentados

48
Nota. Elaboración propia.

El resultado obtenido muestra a los frutos rojos segmentados, pero con agujeros, por

lo cual hay que rellenarlos. La lógica que se utilizó fue rellenar con píxeles blancos los

píxeles negros que se encuentren entre dos píxeles blancos. El resultado se puede observar en

la Figura 54.

Figura 54

Segmentación rellenada

49
Nota. Elaboración propia.

El siguiente paso será colocar bordes a los frutos segmentados, para ello la lógica será

crear una imagen “vacía” y redibujar los píxeles de la imagen original que representen el

umbral entre píxeles blancos y negros. Finalmente, se coloca el borde dibujado sobre la

imagen original, tal como se observa en la Figura 55.

Figura 55

Resultado final de la segmentación a color

Nota. Elaboración propia.

50
3.2. Filtros en el Dominio de la Frecuencia Utilizando Python

Como ya se mencionó en el presente trabajo, dentro del dominio de la frecuencia es

común el diseño y aplicación de filtros en imágenes con diferentes propósitos, para ello se

utilizan filtros específicos, pasando por un proceso en donde interviene la transformada de

Fourier y los niveles de frecuencia tanto de la imagen como del filtro. En la Figura 56

podemos observar el proceso general de la aplicación de un filtro a una imagen.

El proceso va de la siguiente forma: en primer lugar debemos de tener la imagen a

procesar y un filtro en el dominio de la frecuencia, esto es, un filtro al que se le ha eliminado

las frecuencias altas y solo se mantienen las frecuencias bajas; aplicamos la transformada de

Fourier discreta a la imagen original con el fin de obtener la representación de las frecuencias

en cada pixel, la frecuencia media F(0,0) o frecuencia central es el primer píxel de la esquina

superior izquierda de la imagen y representa el valor medio de la escala de grises de la

imagen. Ahora bien, la frecuencia central del filtro está justo al medio, por lo que no se puede

realizar una convolución directa con la imagen transformada ya que las frecuencias no

coinciden, entonces se necesita aplicar la función fftshift para intercambiar la posición de la

frecuencia central hacia la esquina superior izquierda del filtro. De esta forma se consigue

que las frecuencias coincidan y ahora sí podemos aplicar la convolución de la imagen y el

filtro, de este paso obtenemos la imagen filtrada en el dominio de la frecuencia, y ahora

necesitamos aplicar la transformada inversa de Fourier para finalmente obtener la imagen

filtrada en el dominio del espacio.

Figura 56

Proceso de diseño y aplicación de filtro en una imagen dentro del dominio de la frecuencia

51
Nota. Tomado de Domingo Mery. (05 de octubre de 2021). 15 Procesamiento de Imágenes:
Filtros usando Fourier 2D. [Archivo de Vídeo]. Youtube. https://youtu.be/JpHN9D_cF_c

Ahora procedemos a realizar la implementación de este proceso utilizando Python.

Se aplicará un filtro Gaussiano de paso bajo y paso alto a una imagen de Machu Picchu,

para suavizar o difuminar la imagen y realizar el reconocimiento de bordes respectivamente.

El filtro Gaussiano de paso bajo se puede apreciar en la Figura 57. Este filtro es uno de

los más usados ya que realiza el filtrado de una manera bastante suave, debido a la caída que

presenta su función. D representa la distancia de un píxel cualquiera hacia el centro y Do es la

frecuencia de corte a partir de la cual las frecuencias van decayendo desde el centro hasta

llegar a una frecuencia alta.

Figura 57

Filtro Gaussiano de paso alto

52
Nota. Tomado de Domingo Mery. (05 de octubre de 2021). 15 Procesamiento de Imágenes:
Filtros usando Fourier 2D. [Archivo de Vídeo]. Youtube. https://youtu.be/JpHN9D_cF_c

La implementación del filtro Gaussiano en su versión paso bajo y paso alto se puede

observar en la Figura 58.

Figura 58

Implementación de filtro Gaussiano paso bajo y paso alto

Nota. Elaboración propia.

A continuación, transformamos la imagen de Machu Picchu a su espectro de Fourier,

aplicamos la función fftshift al filtro Gaussiano para que la frecuencia central se distribuya

hacia las esquinas, luego realizamos la convolución del espectro de la imagen con el filtro,

para finalmente pasar el espectro filtrado al dominio espacial mediante la transformada

53
inversa de Fourier, este proceso se realizó con un filtro pasa bajo y paso alto, como se

observa en la Figura 59 y Figura 60 correspondientemente.

Figura 59

Filtro Gaussiano paso bajo aplicado a imagen

Nota. Elaboración propia.

Figura 60

Filtro Gaussiano paso alto aplicado a imagen

Nota. Elaboración propia.

Como podemos observar, en la Figura 59 se obtiene una imagen suavizada o también

podría decirse que borrosa, esto último tiene un propósito explicativo, sin embargo, también

54
se le da uso dependiendo de lo que se requiera; por ejemplo, este filtro podría utilizarse de

manera focalizada para eliminar imperfecciones.

En la Figura 60 en cambio, podemos observar que a través del filtro paso alto se obtuvo

una imagen mucho más oscura, pero en donde se resaltan los bordes de los objetos. Este filtro

podría utilizarse para reconocer los bordes y caminos dentro de algún terreno o

reconocimiento topográfico.

4. Conclusiones

El procesamiento de imágenes digitales demuestra ser una herramienta poderosa que tiene

múltiples usos en diferentes ámbitos de estudio, tanto en científicos como en artísticos. Al

tratar los conceptos fundamentales, la complejidad matemática queda en evidencia y se

resalta la importancia de esta, desde la obtención de una imagen digital hasta su tratamiento

como en la aplicación de filtros.

Se consiguió comprender los pasos del procesamiento de imágenes, así como los términos

que intervienen, tal como las imágenes digitales, los dominios en los que se trabaja y sus

aplicaciones.

A través de diversas fuentes se logró visualizar los procesos en donde se interviene a una

imagen digital, así mismo, se replicaron y estudiaron aplicaciones que permitieron una mayor

aproximación a los conceptos teóricos previamente estudiados.

Se realizó una aproximación práctica a los conceptos teóricos por medio de la

implementación de dos aplicaciones en Python, consiguiendo visualizar el proceso de la

segmentación y filtrado en el dominio de la frecuencia de una imagen.

55
5. Bibliografía

Aguirre, N. (2013). Implementación de un sistema de detección de señales de tráfico

mediante visión artificial basado en FPGA [Proyecto Fin de Carrera, Universidad de Sevilla].

https://biblus.us.es/bibing/proyectos/abreproy/12112/direccion/Documento_completo%252F

Domingo Mery. (05 de octubre de 2021). 15 Procesamiento de Imágenes: Filtros usando

Fourier 2D. [Archivo de Vídeo]. Youtube. https://youtu.be/JpHN9D_cF_c

Fluke. (s.f.). ¿Qué es la frecuencia? https://www.fluke.com/es-

pe/informacion/blog/electrica/que-es-la-frecuencia

Gonzales, R., Woods, R. (2008). Digital Image Processing. Editorial Pearson.

http://sdeuoc.ac.in/sites/default/files/sde_videos/Digital%20Image%20Processing%203rd%2

0ed.%20-%20R.%20Gonzalez%2C%20R.%20Woods-ilovepdf-compressed.pdf

Graffigna, J. (2003). Capítulo 1 Procesamiento Digital de Imágenes. Universidad

Nacional de San Juan. http://dea.unsj.edu.ar/imagenes/recursos/Capitulo1.pdf

Jähne, B. (2002). Digital Image Processing. Editorial Springer.

https://library.uoh.edu.iq/admin/ebooks/75289-bernd-jahne---digital-image-processing-5th-

ed.pdf

Kriger, J. (2015). Transformada de Fourier en resonancias magnéticas [Trabajo de

investigación, Universidad Nacional del Sur].

http://lcr.uns.edu.ar/fvc/NotasDeAplicacion/FVC-KrigerJulianaBelen.pdf

La Serna, N. y Román, U. (2009). Técnicas de Segmentación en Procesamiento Digital

de Imágenes. Revista de Ingeniería de Sistemas e Informática, 6 (2), 11-12.

https://revistasinvestigacion.unmsm.edu.pe/index.php/sistem/article/view/3299/2749

56
Mejía, J. (2005). Apuntes de Procesamiento Digital de Imágenes. Facultad de Ingeniería

UASLP.http://laurence.com.ar/artes/comun/Apuntes%20procesamiento%20digital%20de%2

0imagenes.pdf

Miranda, M. (2009). La imagen digital. Gen, 63(2), 134-136. Recuperado en 13 de

diciembre de 2022, de http://ve.scielo.org/scielo.php?script=sci_arttext&pid=S0016-

35032009000200016&lng=es&tlng=es

Moreira, S. y Valencia ,P. (2011) Implementación de un logaritmo para la detección y

conteo de células en imágenes microscópicas (Tesis de Grado).Escuela Superior Politécnica,

Guayaquil. http://www.dspace.espol.edu.ec/handle/123456789/13793

Otarola, L. (2015). Transformada de Fourier para el procesamiento digital de imágenes

[Trabajo de investigación, Universidad Nacional del Sur].

http://lcr.uns.edu.ar/fvc/NotasDeAplicacion/FVC-LucaOtarola.pdf

Pinilla, C., Alcalá, A. y Ariza, F. (1997). Filtrado de imágenes en el dominio de la

frecuencia. Revista de Teledetección, 8(8), 1 – 5.

http://www.aet.org.es/revistas/revista8/AET8_5.pdf

Real Academia Española. (s.f.). Frecuencia. En Diccionario de la lengua española.

Recuperado de https://dle.rae.es/frecuencia

Real Academia Española. (s.f.). Segmentar. En Diccionario de la lengua española.

Recuperado de https://dle.rae.es/segmentar

Real Academia Española. (s.f.). Etiquetar. En Diccionario de la lengua española.

Recuperado de https://dle.rae.es/etiquetar

57
Reuter, F. (2002). Procesamiento digital de imágenes. Carpeta de Trabajos Prácticos:

Teledetección Forestal. Universidad Nacional de Santiago del Estero.

https://fcf.unse.edu.ar/archivos/lpr/pdf/p9.PDF

Ruiz, L. (2016). La transformada de Fourier. Aplicación al filtrado de imágenes [Objeto

de aprendizaje, Universidad Politécnica de Valencia]. http://hdl.handle.net/10251/68301

Sevilla, Universidad (2017). Procesamiento en el dominio Espacial(Parte 1) [Diapositiva

Power Point].http://asignatura.us.es/imagendigital/Tema2-ParteI_transf_intensidad.pdf

UNSJ (2017). Capítulo I Procesamiento Digital de Imágenes. [Archivo PDF].

http://dea.unsj.edu.ar/imagenes/recursos/Capitulo1.pdf

Vela, F. (2013). Transformada de Fourier en procesamiento digital de Imágenes

Funciones de Variable Compleja [Trabajo de investigación, Universidad Nacional del Sur].

http://lcr.uns.edu.ar/fvc/notasdeaplicacion/fvc-vela%20franco.pdf

Veroni, C. (2014). Procesamiento digital de imágenes [Trabajo de investigación,

Universidad Nacional del Sur]. http://lcr.uns.edu.ar/fvc/NotasDeAplicacion/FVC-

Camila%20Veroni%20Alsina.pdf

58

También podría gustarte