top of page
Foto del escritorTony Salgado

Aprendizaje automático

Hola, estimado lector,

Hoy te alcanzo este material porque quiero sacarme una duda respecto de ti.

Si te preguntara si sabes de qué se tratan algunos temas como: detección de rostros, reconocimiento de voz, Gmail, marketing personalizado, mapas con itinerarios para el tráfico, coches autónomos o diagnósticos médicos; probablemente tu respuesta será afirmativa, ¿correcto?

Bien, ahora, si te preguntara cuál es el adelanto científico logrado para que todas estas comodidades hayan podido estar nuestro alcance en tan solo unas pocas décadas, no estoy tan seguro de que tu respuesta sea igual a la anterior.

Bueno, por las dudas de que no lo sepas, te lo presento a continuación…

Al final hay una referencia para intentar aclarar varios aspectos técnicos del artículo y, como siempre, te espero para compartir mis reflexiones.



Perspectiva 2022. ML (Aprendizaje Automático) geométrico y gráfico

Michael Bronstein

Hacia la ciencia de los datos - Enero, 2022


“La geometría adquiere cada vez más importancia en el ML

Si tuviéramos que elegir una palabra que impregnara prácticamente todos los ámbitos del aprendizaje de representación gráfica en 2021, no cabe duda de que la geometría sería una de las principales candidatas. Ya escribimos sobre esto el año pasado, y nuestros entrevistados parecen estar definitivamente de acuerdo: más de la mitad de ellos mencionaron esta palabra clave de una forma u otra.

"En el último año, hemos visto el uso de muchas ideas geométricas clásicas en nuevas formas en Graph ML". Melanie Weber, investigadora de Hooke, Instituto de Matemáticas de la Universidad de Oxford

Melanie añade: "Algunos ejemplos notables son la utilización de simetrías para aprender modelos de forma más eficiente, la aplicación de ideas del transporte óptimo o el uso de nociones de curvatura de la geometría diferencial en el aprendizaje de representaciones.

Recientemente, ha surgido un gran interés por comprender la geometría de los datos relacionales y utilizar esos conocimientos para aprender buenas representaciones (euclidianas o no euclidianas).

Esto ha dado lugar a muchas arquitecturas GNN que codifican algunas geometrías específicas. Ejemplos notables son los modelos GNN hiperbólicos, que se introdujeron por primera vez a finales de 2019 como herramientas para aprender representaciones eficientes de datos jerárquicos. En el último año, hemos visto una oleada de nuevos modelos y arquitecturas que aprenden representaciones hiperbólicas de manera más eficiente o son capaces de capturar características geométricas más complejas. Otra línea de trabajo utiliza la información geométrica en forma de equidistancias y simetrías ".

Melanie se refirió de nuevo a la geometría diferencial, indicando sus muchas aplicaciones posibles para 2022: "La geometría diferencial discreta, que estudia la geometría de estructuras discretas como los grafos o los complejos simpliciales, se ha utilizado para conocer las GNN. Las nociones discretas de curvatura son herramientas importantes para caracterizar las propiedades geométricas locales y globales de las estructuras discretas. Una aplicación notable de la curvatura en Graph ML se propuso recientemente, donde se estudia el contexto del recableado de grafos, proponiendo un nuevo enfoque para mitigar efectos no deseados. Parece probable que las curvaturas discretas se vinculen a otras cuestiones estructurales y topológicas en el ML de grafos en el futuro”.

Continúa diciendo: “Espero que estos temas sigan influyendo en el campo en 2022 y que también se abran paso en áreas más aplicadas de Graph ML.

Esto puede impulsar los avances en el aspecto computacional para mitigar los desafíos relacionados con la implementación de algoritmos no euclidianos con herramientas que tradicionalmente se diseñan teniéndolos en cuenta. Además, las herramientas geométricas, como las curvaturas discretas, pueden ser caras, lo que dificulta su integración en aplicaciones a gran escala. Los avances computacionales o el desarrollo de bibliotecas especializadas podrían hacer más accesibles estas ideas geométricas a los profesionales".


El autor de este artículo expresa que:

“Resumir las impresiones de 2021 y prever el año que viene con la ayuda de los principales expertos del sector es un experimento que merece la pena y es gratificante, ya que ofrece un abanico de perspectivas y opiniones diversas de las que aprender.

En palabras de uno de nuestros entrevistados, que mantiene un ojo atento a las principales tendencias emergentes del aprendizaje automático, se aprecia que con los métodos de ML geométrico y basado en gráficos, que han pasado de ser un nicho a uno de los más activos de la investigación en AI (Inteligencia Artificial), es emocionante imaginar lo que nos depararán los próximos doce meses.

En retrospectiva, este esfuerzo no ha resultado tan fácil como pensábamos, ya que el campo ha crecido enormemente en el último año."


Conceptos clave:

  1. La geometría adquiere cada vez más importancia en el ámbito del lenguaje lineal. La geometría diferencial y los campos afines han aportado nuevas ideas, incluyendo nuevas arquitecturas GNN que explotan las simetrías y los análogos gráficos de la curvatura, así como la comprensión y utilización de la incertidumbre en los modelos de aprendizaje profundo.

  2. La transmisión de mensajes sigue siendo el paradigma dominante en las GNN. En 2020, la comunidad aceptó estas limitaciones y buscó nuevas arquitecturas más expresivas más allá de este paradigma.

  3. Las ecuaciones diferenciales dan lugar a nuevas arquitecturas GNN. La tendencia que comenzó con los NeuralODEs se expandió a los grafos. A largo plazo, es probable que comprendamos mejor cómo funcionan las GNN y cómo hacerlas más expresivas y explicables.

  4. Viejas ideas del procesamiento de señales, la neurociencia y la física cobran nueva vida. Muchos consideran que el procesamiento de señales de grafos es la chispa que ha reavivado el interés reciente por el ML de grafos y ha proporcionado el primer conjunto de herramientas, como las transformadas de Fourier generalizadas y las convoluciones de grafos.

  5. Modelar sistemas complejos requiere ir más allá de los grafos. Múltiples trabajos en 2021 abordaron sistemas relacionales dinámicos y mostraron cómo extender las GNN a estructuras de orden superior, que tradicionalmente se tratan en el campo de la topología algebraica. Es probable que veamos otros objetos aún más exóticos de este campo adoptados en el ML.

  6. El razonamiento, la axiomatización y la generalización siguen siendo grandes cuestiones abiertas en el ML de grafos. A lo largo del año, hemos asistido a continuos avances en las arquitecturas de GNN inspiradas en el razonamiento algorítmico, así como a una generalización más robusta fuera de la distribución en tareas estructuradas en grafos.

  7. Los grafos son cada vez más populares en el aprendizaje, pero probablemente todavía tienen un camino que recorrer. No es de extrañar que el aprendizaje, a menudo en estructuras o en las representaciones de entornos. Creemos que 2022 es un año muy prometedor para la RL basada en grafos y geometría.

  8. AlphaFold 2 es un triunfo del ML geométrico y un cambio de paradigma en la biología estructural. La posibilidad de predecir estructuras en 3D de una proteína fue planteada en la década de 1970, pero recién en 2021, AlphaFold logró una precisión que convenció a los expertos en la materia e impulsó su amplia adopción.

  9. El descubrimiento y diseño de fármacos se beneficia de las GNN. Pocos en la comunidad de ML no son conscientes de que los orígenes de las GNNs se remontan a los trabajos en química computacional de los años 90. Por ello, no es de extrañar que el análisis de grafos moleculares se encuentre entre las aplicaciones más populares de las GNN. En 2021, se han producido continuos y significativos avances en este campo, con docenas de nuevas arquitecturas y varios resultados de referencia.

  10. El éxito de AlphaFold 2 y las GNN moleculares acercan el sueño de nuevos fármacos diseñados por la AI. Sin embargo, la modelización de las interacciones de las moléculas es la importante frontera que hay que cruzar para que estas esperanzas se materialicen.

  11. El ML cuántico sigue siendo un nicho exótico, pero se está convirtiendo en una realidad con la disponibilidad de hardware de computación cuántica. Trabajos recientes han demostrado las ventajas estructurales de los grafos en las arquitecturas de ML cuántico. A largo plazo, la geometría podría desempeñar un papel más fundamental, ya que los sistemas físicos cuánticos suelen poseer ricas y esotéricas simetrías de grupo que podrían aprovecharse para el diseño de arquitecturas cuánticas.

Más allá de estas demostraciones, quedan aún varios retos para el QML, siendo un obstáculo importante el diseño de arquitecturas de redes neuronales cuánticas que sean escalables, entrenables y que proporcionen una fuerte generalización.

Las arquitecturas neuronales cuánticas que se inspiran en las GNN clásicas han aparecido recientemente para abordar este problema y se han implementado con éxito en el hardware cuántico este último año.

Una dirección emocionante sería explorar más allá de los grafos y hacia una versión cuántica de la teoría de Aprendizaje Profundo Geométrico, ya que los sistemas físicos cuánticos a menudo poseen simetrías ricas y esotéricas que podrían aprovecharse para el diseño de la arquitectura cuántica, fomentando así nuestra capacidad de modelar generativamente estos sistemas utilizando ordenadores cuánticos”.


Referencia


Graph ML: rama del ML asociado a información de los grafos.

Grafo: conjuntos de nodos, que incluyen vectores y aristas.

Nodo: punto de unión de varios elementos que confluyen en el mismo lugar

Vector: serie de elementos ordenados en filas o columnas.

Arista: relación entre dos vértices de un grafo

GNN: red neural gráfica

Estructura discreta: sistemas de numeración, lógica binaria y grafos dirigidos.

TDA: dato topológico (complejo y de gran dimensión, con una forma subyacente)

Complejo simplicial: espacio topológico con gráficos de dimensiones superiores.

NeuralODE: sistema de ecuaciones diferenciales usado por ML

RL: aprendizaje de refuerzo del ML

AlphaFod: aplicación que predice estructuras de proteínas a partir de sus aminoácidos.

QML: herramienta para aprendizaje de lenguaje cuántico

Aprendizaje profundo geométrico: red neuronal para operar datos no euclidianos.”



Bueno, acá me tienes, aguardándote para compartir mis reflexiones…

Como podemos ver, toda la lógica y el lenguaje utilizados para la implementación de los distintos conceptos en los que se basa el Aprendizaje Automático, son sumamente complejos y de difícil interpretación para los que no nos dedicamos a este campo del saber. Este esta básicamente, el objetivo del artículo.

Este mismo fenómeno está ocurriendo en otros ámbitos de la TI, como la computación cuántica (CC), la inteligencia artificial (IA), el aprendizaje profundo (AP) y la gestión de los macrodatos (GM); lo que demuestra el grado de desarrollo y especialización que deben alcanzar quienes quieran incursionar en ellos.

La expectativa es que esta rama de la ciencia habrá de continuar con el crecimiento exponencial que podemos observar actualmente durante las próximas décadas y los más optimistas señalan aún que no solo continuará, si no que el mismo habrá de acelerarse continuamente.

Según muchos observadores especializados a nivel global en las distintas industrias, la de la TI habrá de ser la que generará la mayor cantidad de puestos de trabajo en lo que resta del siglo; y el grado de conocimientos se incrementará debido a que los ciclos de las tecnologías y las aplicaciones serán cada vez más cortos.

Debido a ello, desde esta tribuna nos proponemos que, a partir de agosto, trataremos cada uno de estos tópicos (CC, IA, AP y GM), semanalmente durante un mes, con el nivel y la profundidad adecuados para que nuestros lectores puedan acceder a ellos; como conocimiento general de nuestra comunidad y como fomento para que los jóvenes puedan acceder al último “estado de arte” de cada tecnología e incentivarlos a desarrollarse en la TI.


Ahora me gustaría conocer tu honesta opinión con respecto a este artículo.

¿Si tuvieras que calificarlo entre 1 y 5, donde 1 es muy malo y 5 es muy bueno, qué número le asignarías?

Si pudieses resumir en una sola palabra el motivo de tu calificación, ¿cuál sería?

Gracias por tu colaboración.

0 comentarios

Comments


bottom of page