Hasta hace relativamente poco tiempo la preocupación acerca de la caracterización de los sistemas físicos giraba en torno a averiguar cómo evolucionarían con el tiempo. Para caracterizar estos sistemas de una manera adecuada fueron surgiendo conceptos, magnitudes, para representarlos sin necesidad de referirnos directamente a ellos. Sin embargo, aunque inconscientemente, al hacer esto se fue desarrollando un lenguaje orientado a la información que se puede extraer de los sistemas, sin que ello implicase al sistema propiamente dicho. Una propiedad responsable del extraordinario comportamiento de los sistemas cuánticos es el “entanglement” o entrelazado. El entrelazado es un recurso que se pretende aprovechar en la computación cuántica, por ello, es necesario poder cuantificar y clasificar una propiedad tan importante como esta. En el presente trabajo se introduce un nuevo tipo de entropías informacionales cuánticas definidas en el espacio de Hilbert que hemos clasificado en términos de la marginalidad y la no marginalidad, las cuales siempre pueden detectar el entrelazado que está relacionado a la separabilidad y la no separabilidad de los sistemas. Dichas entropías fueron implementadas, caracterizadas y aplicadas en la descripción de sistemas y procesos químicos. También se muestra que estas entropías son mejores descriptores que las entropías de Shannon, Fisher y que los correspondientes descriptores de complejidad que se derivan de estas medidas clásicas. A lo largo de la Tesis se muestra que existe un lenguaje conceptual químico que resulta más general en el sentido de la Teoría de Información Cuántica. Los resultados de este trabajo se presentan en el siguiente orden: 1. Se introduce el lenguaje de la Teoría de Información Cuántica en la Química. 2. Se definen nuevos tipos de entropías cuánticas marginales y no marginales. 3. Se analiza el comportamiento general de las entropías marginales y no marginales, verificando las cotas a las que se encuentran sujetas, mediante un modelo sencillo de llenado electrónico con información total constante para medir la interacción (entrelazado) entre subsistemas. Estos resultados se muestran en el capítulo 6, pág. 55. 4. Se analizan algunos sistemas químicos, en los cuales se muestra que el entrelazado puede ser empleado para caracterizarlos, asimismo se muestra que algunos de los conceptos de reactividad empleados habitualmente están relacionados con ciertas magnitudes informacionales. Estos resultados se presentan en el capítulo 7, pág. 67. 5. Se estudian algunos procesos de disociación de sistemas diatómicos homo- y heteronucleares mediante medidas de información propuestas en este trabajo con lo que se muestra que los cambios detectados por las entropías marginales y no marginales están vinculados 5 con los cambios de los observables del sistema y con propiedades que no son observables directamente tales como regiones de acumulación o remoción de carga, ruptura de enlace, etc. Asimismo se verifica que es posible detectar el entrelazado en este tipo de procesos. Estos resultados se muestran en la sección 8.1, pág. 77. 6. Se analizan algunos procesos químicos más complejos tales como reacciones químicas (de las cuales sólo se presenta una de ellas) y se verifica que los puntos críticos de la estructura que se encuentran en las tendencias de las entropías están relacionados a los cambios físicos y químicos del sistema. También encontramos que la estructura de cualquiera de las entropías propuestas nos brinda más información que cualquiera de los descriptores comúnmente empleados en la Química Teórica, tales como: La energía total del sistema, energía de correlación, parámetros geométricos, frecuencias, momento dipolar, dureza, blandura, cargas, potencial electrostático molecular y laplaciano de la densidad. Tal situación hace que las entropías marginales y no marginales sean excelentes candidatos para ser empleadas como descriptores de complejidad. Estos resultados se muestran en la sección 8.4, pág. 103. 7. Se comparan las tendencias obtenidas con las entropías de von Neumann propuestas (en espacio de Hilbert) con las entropías clásicas (Shannon y Fisher). De lo cual logramos establecer que la versatilidad de las entropías propuestas, así como su excelente concordancia con los puntos críticos que presentan las tendencias de algunos de los parámetros físicos y químicos aunado a su bajo costo computacional, son superiores a las medidas de información clásicas y pueden emplearse como mejores descriptores de complejidad. Estos resultados se muestran en la sección 8.5, pág. 131.
关联
描述
属性名称 | 属性值 |
Creador |
|
贡献者 |
|
Tema |
|
Editor |
|
Idioma |
|
Identificador |
|
关键词 |
|
Año de publicación |
|
Tipo de Recurso |
|
Derechos |
|
División académica |
|
Línea académica |
|
Licencia |
|