Como contenido, primero les explicaré qué es el método del campo autoconsistente, el método de
convergencia del campo autoconsistente, el algoritmo general, el método del campo
autoconsistente de Hartree, el método del campo autoconsistente de Hartree-Fock, así como
también los algoritmos DIIS y SOSCF. A
A modo de introducción 1928 dougkas Hartree introdujo el método de SCF, este fue un método
aproximado para calcular las energías y las configuraciones de los átomos polielectrónicos basado
en ideas previas del modelo atómico de Bohr, en donde la energía del estado atómico para el
átomo de hidrógeno depende del número cuantico principal n.
Él observó del espectro de energía atómico que los niveles de energía de los átomos
polielectrónicos puede ser descritos correctamente si se modifica la formula de Bohr, teniendo en
cuenta que los electrones interiores no apantallan completamente sus cargas asociadas en el
núcleo, demostrando así que el desplazamiento de los niveles de energía depende del defecto
cuantico.
Ahora en 1930 V fock y john Slater indicaron que el método de Hartree no respetaba el principio
de antisimetría de la función de onda dado que él usó el principio de exclusión de Pauli en su
primera formulación ya obsoleta para ese entonces. A
¿por qué se usa el SCF?
Para dar respuesta a eso podemos regresarnos un poco y analizar que para calcular una superficie
de energía potencial se deben resolver las ecuaciones electrónicas de Schrödinger para un sistema
de n electrones y n núcleos, esto sobre un rango de coordenadas nucleares, en donde
generalmente la función de onda real de un sistema es demasiado compleja para ser descrita
analíticamente, sin embargo, puede solucionarse a través de una serie de importantes
aproximaciones buscando funciones mucho más simples que compongan dicha función de onda.
Esto permite dar la solución a la ecuación de Schrödinger.
Teniendo en cuenta esto el método del campo autoconsistente, es un proceso iterativo a través
del cual se busca solución al problema de minimización del modelo de Hartree-Fock.
Él proceso iterativo parte de buscar un hamiltoniano aproximado, resolver la ecuación de
Schrödinger para así obtener un conjunto preciso de orbitales y luego resolver nuevamente la
ecuación de Schrödinger hasta que los resultados converjan.
Para el método de parte del supuesto que cada electrón ve a los demás electrones como una nube
de carga deslocalizada, estas nubes de carga apantallan al núcleo y repelen al electrón, de modo
que el electrón experimenta una energía potencial efectiva media, dicha energía potencial media
depende de la forma del orbital espacial de cada electrón que apantalla las coordenadas del
electrón apantallado y de los efectos del spin sobre la energía.
Ahora bien, para las geometrías cercanas al equilibrio que utilizan conjuntos de base pequeños, el
procedimiento del campo autoconsistente es directo pues suele converger sin problemas.
Las geometrías distorsionadas como estructuras de transición y los grandes conjuntos base que
contienen funciones difusas rara vez convergen.
Los complejos metálicos en los que son posibles varios estados de energías similares son aún más
problemáticos.
Para solucionar esto hay trucos que ayudan a llegar a la convergencia. Entre los cuales están la
extrapolación, el cambio de nivel, el método DIIS y el SOSCF. A
Bueno, para el procedimiento en cuanto al método de convergencia del SCF, este método
comienza con un conjunto de orbitales iniciales de acuerdo con la primera ecuación.
La clave que hizo factible el cálculo de orbitales moleculares propuestos por Roothan en 1951 es la
expansión de los orbitales fi como una combinación lineal de un conjunto de funciones de base Xs
de un electrón. Estos orbitales son utilizados para calcular el operador de foc en la ecuación 2 y
con este operador en la ecuación 3 es posible resolver la ecuación secular 4 y del resultado es
posible obtener un nuevo conjunto de valores Csi por medio de la ecuación 5, este conjunto se
utiliza para conseguir un nuevo conjunto de orbitales.
El proceso termina cuando la diferencia entre las dos iteraciones consecutivas es menor a un
límite establecido del parámetro de convergencia.
Si esto no se da, se debe volver a la ecuación #2. A
Ahora bien, aquí se puede observar el algoritmo computacional que es un resumen de lo que se ha
venido mencionado donde se parte de la selección de la función de onda; luego se da el cálculo de
la densidad, posteriormente se da el cálculo del potencial, se le da solución a la ecuación de Sch y
luego solución al calculo de la densidad de la carga.
Ahora bien, si la densidad de la carga es la misma, el procedimiento se detiene pues se asume que
ya se tuvo la convergencia, pero si no, se regresa al cálculo del potencial y se repite el proceso
hasta llegar a dicha convergencia. A
En el método del SCF-Hartree, la ecuación 6, se ve el operador hamiltoniano para un átomo de n
electrones en el cual, esta ecuación se compone del operador de energía cinética que se
encuentra aquí, el operador de energía potencial con las interacciones núcleo electrón y el
operador energía potencial con las interacciones electrón-electrón. A
Bueno, primeramente, se empieza escogiendo una función de onda en forma de producto como se
ve en la ecuación 7, luego se promedia la interacción de un electrón considerando los demás
electrones, ahora bien, sumando las interacciones con los otros electrones se obtiene la ecuación
9, es decir el valor del potencial se halla sumando la energía potencial entre las interacciones de
un electrón con todos los electrones. Entonces la energía potencial de interacción entre un
electrón y los electrones restantes y el núcleo viene dada por la ecuación 10. A
Luego se obtiene el valor del potencial total el cual es usado en la ecuación de SCH
monoelectrónica, ecuación 11 y la energía del átomo con la aproximación del campo
autoconsistente se hallará entonces con la ecuación 13. A
Posteriormente, fock y Slater introdujeron la determinante de Slater de spin-orbital.
Cabe resaltar que la base del método de Hartree-fock es suponer que la función de onda de
muchos cuerpos es un determinante de slater de orbitales de orbitales de una partícula.
Esto garantiza la antisimetría de la función de onda y considera la energía de intercambio. A
partir de esta suposición se aplica entonces el principio variacional de mecánica cuántica en
donde se encuentra una ecuación de autovalores para los orbitales de una particula y de esta
forma entonces se obtiene la ecuación de Hartree-fock donde F es un operador de fock que se
define en la ecuación 19.A Para luego calcular la energía del sistema utilizando el operador fock y
sustituyendo el operador fock y aplicándolo en las funciones de la ecuación 21. A
Para la energía total de Hartree-Fock se debe considerar la repulsión interelectrónica así como
también los 2 electrones por cada orbital y al fin obtener la ecuación 25 que es la de la energía
total. A
Bueno, finalmente a partir del valor de la energía 1 se comienza con un proceso iterativo en los
que se obtienen funciones de onda que minimizan la energía del sistema donde cuyas iteraciones
finalizan cuando el campo es autoconsistente. A
Como ya hemo visto durante la presentación, el método del campo autoconsistente es
fundamental en la química computacional puesto que muchos problemas de la química
computacional, pueden formularse como la optimización de una función multidimensional,
teniendo en cuenta que la optimización es un término general para encontrar puntos
estacionarios de una función, es decir, puntos en los que la primera derivada es 0.
El punto estacionario deseado es por lo general, un mínimo en el que las segundas derivadas son
positivas. En algunos otros casos el punto deseado es un punto de silla de primer orden, es decir,
la segunda derivada es negativa en una dirección, pero positiva en todas las demás direcciones.
Así como también, en algunos casos especiales, se desea un punto de silla de mayor orden.
Ahora bien, la energía de una función de onda que contiene parámetros variacionales semejante a
un Hartree-fock o un determinante de Slater, o multiconfiguracional, muchos determinantes de
slater, los parámetros suelen ser los coeficientes de orbitales moleculares en los estados
configuracionales.
En la mayoría de los casos, los parámetros están entran en la función de forma no lineal, lo que
requiere los métodos iterativos para localizar los puntos estacionarios.
Bueno hay métodos que se basan en la búsqueda de mínimos en donde el enfoque más sencillo
para minimizar una función consiste en ir pasando una variable cada vez hasta que la función haya
alcanzado un mínimo para luego cambiar a otra variable, pero ¿qué pasa? Esto solo requiere la
capacidad de calcular el valor de la función para un conjunto dado de variables.
Sin embargo, como las variables no son independientes, esto es poco practico para sistemas de 5 o
más variables.
Existen así método de optimización comúnmente utiliziados para encontrar mínimos, entre éstos
métodos se encuentan:
Steepest Descent, el método DIIS, el Newton-Rapson y el método del SOSCF el cual derivaría de
una corrección del método de Newton Rapson. A
Ahora, Durante una secuencia iterativa para resolver un conjunto de ecuaciones sean lineales o no
lineales, se genera información en una serie de puntos del espacio de parámetros.
La idea de los métodos de extrapolación, es usar esta información ya sea para la interpolación o
extrapolación con el fin de llegar a la solución deseada mucho más rápido.
El más conocido de estos métodos es la inversión directa en el subespacio iterativo (DIIS)
propuesto por Peter Pulay. Bueno, supongamos que el proceso iterativo ha generado n puntos en
el espacio de parámetros x sub i y que se dispone de una estimación del error e sub i para medir lo
lejos que está cada punto de la solución deseada.
En lugar de dejar que el algoritmo procesa al punto x n+1 dede el punto x sub n el paso se genera
en cambio desde un punto interpolado formado por una combinación lineal de todos los puntos
anteriores. Esto se puede observar en la ecuación 26.
El error en el punto interpolado viene dado en la ecuación 27
Los coeficientes C sub i se minimizan usando la norma del error interpolado sujeto a una condición
de normalización que se muestra en la ecuación 28. A
Ahora bien la minimización restringida se maneja mediante el método de lagrange y conduce al
siguiente conjunto de ecuaciones lineales donde lambda es el multiplicador asociado a la
normalización que se puede observar en la ecuación 29.
El conjunto de ecuaciones lineales puede escribirse en notación matricial como se ve en la
ecuación 30.
Ahora bien la matriz a en la interacción n tiene dimensión (n+1)(n+1) donde n suele ser menor a
20, por los tanto los coeficientes c pueden obtenerse invirtiendo directamente la matriz a y
multiplicándola sobre el vector b, es decir, en el subespacio de las iteraciones, las ecuaciones
lineales se resuelven por inversión directa de la matriz, de allí viene el nombre DIIS.
El método DIIS se propuso inicialmente para estabilizar y acelerar la convergencia del SCF donde
los parámetros x son las matrices fock y el error se toma como la diferencia f de s menos s de f
donde s y d son las matrices de solapamiento y densidad que se relaciona con el gradiente de
energía en el SCF. DIIS también se ha utilizado para optimizaciones geométricas en relación con
Newton-Rapson. DIIS requiere almacenamiento de la información de cada iteración pasada, esto
puede ser problemático si el número de variables es grande.
Como por ejemplo cuando se utiliza el método para resolver el grupo de ecuaciones no lineales
acopladas, más sin embargo, se ha demostrado que con un pequeño cambio en el algoritmo DIIS
solo se requiere el almacenamiento de 3 conjuntos de información. A esto se le conoce como
método de residuos conjugados con vectores de prueba óptimos.
El enfoque DIIS intenta encontrar un punto de bajo error dentro del subespacio ya buscado para
optimización de las funciones de onda electrónica, que usualmente solo hay 1.
La extrapolación DIIS mejora significativamente tanto la convergencia como la estabilidad del
proceso.
Sin embargo, para la optimización geométrica, la función objetivo suele ser complicada y con
muchos mínimos, así como puntos de silla, por lo que la extrapolación DIIS sea menos útil o incluso
desventajosa, no es raro que una optimización se mueva por una parte plana de la superficie antes
de llegar a la región del mínimo local, esto haría que el gradiente sea pequeño durante varios
pasos y luego aumente a medida que se acerca al mínimo.
El procedimiento DIIS intenta en estos casos llevar la estructura de regreso a la región de energía
plana que es donde el gradiente es pequeño. A
Ahora, el SOSCF fue propuesto como un método cuasiNewton que involucra orbital de
aproximación diagonal con actualizaciones iterativas para la optimización de las funciones de SCF
de capa cerrada, el procedimiento del SCF optimizado para el spin se generaliza para los átomos,
este método es flexive y se puede permitir la correlación angular, y es aplicable al estado más bajo
de cualquier tipo de simetría. En el procedimiento del SCF optimizado para el Spin, con la función
de onda de n electrones, se escribe de la forma de la ecuación 32, donde A es el parámetro
antisimétrico, Xi es un producto de funciones espaciales de un electrón y theta es una
combinación lineal de todas las funciones de Spin Theta sub r que abarcan todo el espacio. A
Ahora, en cuanto al procedimiento del algoritmo para este método.
Leer el algoritmo en la diapositiva.