La tabla periódica de los Elementos

La tabla periódica de los Elementos, pero usando Inteligencia Artificial

Relaciones entre los elementos y sus propiedades químicas y desplegadas en un Treemap
Objetivo :
Obtener una clasificación atómica de los elementos químicos ( tabla periódica de los elementos) PERO basada en técnicas de agrupamiento utilizando algoritmos de aprendizaje no supervisados.
Diseño : Así como la muestra de átomos utilizada en los experimentos se define usando un conjunto de elementos atómicos con propiedades conocidas que no son nulas para todos los individuos de la muestra. Se utilizan diferentes algoritmos de agrupamiento para establecer relaciones entre los elementos, obteniendo como resultado un grupo de átomos relacionados entre sí por los valores numéricos de algunas de sus propiedades estructurales.
Resultados: conjuntos de elementos relacionados con el átomo que representa cada grupo.
Palabras clave : Agrupación, átomos, tabla periódica de elementos, algoritmos no supervisados, Bosque aleatorio, K-medias, K-vecino más cercano, Weka, clasificador bayesiano.
Introducción
Porque la tabla periódica de elementos es una organización atómica de los elemetos quimicos basada en dos ejes. El eje horizontal establece un orden creciente basado en el número atómico (número de protones) de cada elemento. La disposición vertical se gestiona mediante la configuración electrónica y presenta una estructura taxonómica diseñada por los electrones de su última capa. Además, cuatro bloques principales organizan los átomos por propiedades similares (gases, metales, no metales, y los metaloides).
Además del número de protones y la configuración electrónica, así los átomos se caracterizan por otros atributos que no son ascendentes ni cíclicos . Los valores de estas propiedades constituyen una muestra de números que representan diferentes magnitudes atómicas que distinguen de alguna manera los elementos químicos. En este «experimento», algunas de estas dimensiones químicas y físicas han estado involucradas en el entrenamiento de un conjunto de algoritmos de aprendizaje automático para obtener grupos representativos de cada elemento.
Problema de investigación
La hipótesis de este experimento considera el uso de algunas variantes de modelos de aprendizaje no supervisados para descubrir relaciones entre elementos atómicos basados en algunos atributos de la materia química y física. Además, estas técnicas calculan grupos de categorías en función de sus atributos numéricos.
El problema de investigación también conduce a una agrupación de elementos que podría ofrecer una nueva distribución atómica basada en las funciones inferidas procesadas por los procesos de aprendizaje automático. El objetivo es presentar una organización de elementos basada en el cálculo de agrupamiento aplicado en un conjunto específico de propiedades atómicas.
Unidades de análisis
Porque las siguientes propiedades atómicas se han utilizado para entrenar y evaluar los algoritmos no supervisados: punto de fusión [K], punto de ebullición [K], radio atómico [pm], covalencia [pm], volumen molar [cm3], calor específico [J / (Kg K)], conductividad térmica [W / (mk)], electronegatividad de Pauling [escala de Pauling], primera energía de ionización [kJ / mol] y constante de red [pm].
Solo se han seleccionado en la muestra átomos con valores no nulos para cada magnitud. Observe que algunas de estas propiedades aún no se han descubierto o calculado para algunos átomos que no aparecen en la muestra. .
La siguiente representación gráfica muestra cómo algunas de estas propiedades se distribuyen a través del espectro de elementos ordenados por el número ascendente de protones:
Gráfico 1 . Distribución del punto de fusión, punto de ebullición, constante de red y el radio atómico frente al número atómico.
Además en este gráfico no hay ninguna correlación aparente entre los valores de magnitud mostrados y el número atómico. A primera vista no hay correlaciones ni ningún patrón entre los atributos mostrados y los elementos ordenados hacia arriba.
Métodos
Porque los algoritmos de aprendizaje automático no supervisados permiten inferir modelos que identificanrelaciones ocultas a partir de datos «sin etiquetar». Por lo tanto, no se incluyen categorías en la observación y los datos utilizados para aprender no se pueden utilizar en la evaluación de precisión de los resultados. Utilizando una biblioteca de aprendizaje automático no supervsado ( K-means) y los valores no nulos para las magnitudes especificadas anteriormente, se realizaron dos ejercicios:
1 – Agrupación de elementos (clusterización )
El alcance de este ejercicio es crear grupos de elementos atómicos utilizando tres técnicas diferentes de aprendizaje automático. El resultado resultó en tres configuraciones atómicas basadas en los siguientes algoritmos:
· Agrupación de K-means con 10 grupos. Este algoritmo divide los elementos atómicos seleccionados en «k grupos» donde cada individuo está asociado a cada grupo a través de un cálculo medio cercano.
· Iterative Multi K-Means implementa una extensión de K-Means. Este algoritmo funciona realizando iteraciones con un valor k diferente, comenzando desde kMin y aumentando hasta kMax, y varias iteraciones para cada k. Cada resultado de agrupamiento se evalúa con una puntuación de evaluación. El resultado es el grupo con la mejor puntuación. La evaluación aplicada en el ejercicio fue la suma de los errores al cuadrado.
· Clúster K-Means envuelto en algoritmos Weka. Se puede acceder a los algoritmos de clasificación de Weka desde la biblioteca Java-ML. Se calculó un experimento con 3 grupos solo para comparar con el primer ejercicio (K-medias con 10 grupos).
Así se presentaron los resultados utilizando el TreeMap proporcionado por la biblioteca gráfica d3 – TreeMap.
Gráfico 2 . Aplicando K-Means Clustering a la muestra.
2 – Clasificaciones de elementos atómicos y relaciones entre ellos.
El siguiente ejercicio tenía la intención de evaluar el grado de relación entre los átomos contenidos en la muestra. Se aplicaron tres algoritmos:
· Bosque aleatorio con 30 árboles para crecer y 10 variables muestreadas al azar como candidatos en cada división (una para cada magnitud atómica). Esta técnica funciona construyendo una multitud de árboles de decisión en el momento del entrenamiento y proporcionando la clase que es el modo de las clases.
· Clasificador bayesiano. El algoritmo de clasificación Naive Bayes se ha utilizado para clasificar el conjunto de elementos en diferentes categorías.
· Algoritmo de clasificación K vecino más cercano (KNN) con soporte KDtree. El número de vecinos se fijó en 8, considerando que este número de elementos potenciales podría establecer los límites para cada elemento colocado en el centro de un cuadrado (los laterales y las esquinas no se manejan en la hipótesis actual).
Gráfico 3 . Esquema de 8 vecinos que rodean el elemento objetivo.
Porque cada algoritmo funcionó como un clasificador que produjo una distribución con la evaluación de grado asociada. No se consideraron las clases con una evaluación de membresía igual a cero. En este experimento, los valores de los atributos físicos y químicos se han agrupado y luego, cada átomo que pertenece a la misma muestra, se ha clasificado en el conjunto de los grupos calculados. Por lo tanto, cada elemento se identifica con un grupo específico donde el único requisito es que el átomo que se clasifica debe ser el representante de la categoría seleccionada.
Los grupos calculados se han distribuido en pares de átomos con su correspondiente evaluación de grado siguiendo esta estructura:
[Xi, Yj, Ej]
Así es donde Xi es cada átomo en la muestra, Yj es cada elemento en la categoría Y y Ej, la evaluación de grado relacionada con el par. Las relaciones entre los individuos y sus categorías se muestran a través de la representación gráfica de acordes basada en el componente Chord Viz proporcionado por d3.
Gráfico 4 . Relaciones de nitrógeno considerando la evaluación de diferentes clasificadores
Resultados.
En otras palabras los tres mapas de árbol (uno por algoritmo de agrupamiento) donde se han organizado los elementos químicos, muestran grupos interesantes de componentes. Por ejemplo, todos ellos incluyen en el mismo grupo la S y la Se. Otros átomos (todos ellos gases) como el Ne, Ar, Kr y Xe también están encerrados en el mismo grupo por todos los algoritmos (recuerde que ni el número atómico ni la configuración electrónica se incluyeron en los modelos). Es interesante mencionar que la configuración generada por los dos algoritmos K-Means presenta el H y el Li en grupos separados y monoelementales.
Con respecto a las relaciones ponderadas entre los elementos, se ha creado un gráfico de acordes para cada algoritmo de aprendizaje automático. Esta representación de datos muestra cómo los elementos atómicos pueden relacionarse entre sí a través de técnicas de aprendizaje automático no supervisadas que toman algunas de sus propiedades químicas y físicas y les asignan un grado relacional.
Porque hay algunos comportamientos interesantes, como el conjunto de relaciones que se encuentran para el nitrógeno. El algoritmo de Random Forest determinó que O, Ne y Ar están altamente relacionados, el Clasificador Bayesiano calculó que solo el oxígeno estaba relacionado y los resultados del método K-NN evaluaron que O, Ne, Cl, Ar, Br, Kr y El I está relacionado cuando el número de vecinos se fijó en 8.
Se pueden encontrar algunas asociaciones familiares en las relaciones calculadas al comparar los componentes en los grupos y su distribución en la tabla periódica de elementos. Sin embargo, se han establecido otras relaciones atómicas no evidentes por estos métodos.
Además, la propiedad no conmutativa es una característica notable. Por ejemplo, el Nitrógeno no está relacionado de manera inversa con el Hidrógeno cuando se seleccionan en los resultados calculados usando el algoritmo Random Forest.
Conclusiones.
Sin embargo la organización atómica calculada a través de los algoritmos de aprendizaje automático no sigue ninguna regla física o química, surgen algunas asociaciones que crean grupos de componentes que siguen configuraciones similares, como las proporcionadas por la tabla periódica de elementos.
En conclusión, más allá de los resultados calculados, la biblioteca aplicada (Java-ML) y los algoritmos utilizados, el ejercicio es interesante por sí mismo. La prueba de que las relaciones químicas o físicas pueden establecerse entre los componentes elementales en función de la similitud de sus propiedades mediante el aprendizaje automático puede conducir a nuevas líneas de investigación.
Referencias
Por ejemplo:
• Bostjan Kaluza. «Machine Learning in Java». Packt Publishing Ltd, Apr 29, 2016
• Eibe Frank, Mark A. Hall, and Ian H. Witten. «The WEKA Workbench». Online Appendix for “Data Mining: Practical Machine Learning Tools and Techniques”. Morgan Kaufmann, Fourth Edition, 2016
• Physical and chemical atomic properties extracted from WebElements and PeriodicTable.
Articulo publicado por Toni Manzano en Data Cience Central el 9 Set del 2017 sobre La tabla Periódica de los Elementos, pero usando Inteligencia Artificial