Fecha: 28/06/2023 14:10
Lugar: Seminario del IMUVa, edificio LUCIA
Abstract:
Multiplicar matrices es una operación fundamental que interviene en el entrenamiento de modelos de machine learning y en el procesamiento de señales. Esto justifica la necesidad de encontrar algoritmos que nos permitan realizar este cálculo de manera lo más rápida posible. Como es habitual, una solución viene de mano de la computación paralela. Podemos considerar dividir la multiplicación inicial en distintas multiplica\-ciones de matrices más pequeñas que pueden ser evaluadas simultáneamen\-te. Una vez calculadas, el resultado de todas ellas se utiliza para reconstruir la multiplicación original \cite{cadambe}. Sin embargo, al implementar este sistema, puede ocurrir que entre las numerosas multiplicaciones que hay que efectuar, algunas tengan tiempos de ejecución mucho mayores, principalmente por motivos intrísecos a la comunicación entre los nodos que conforman la red de computación paralela. Para atajar este problema, existen algoritmos basados en códigos correctores de pérdidas que permiten recuperar el resultado de la operación original sin necesidad de obtener las respuestas de todos los nodos trabajadores \cite{dutta}. Presentamos estos sistemas de multipli\-cación distribuida de matrices junto con una generalización de los mismos que emplea ``one-point codes''. Además, se mostrará cómo se pueden estudiar los parámetros del código resultante mediante el semigrupo de Weierstrass asociado a la curva sobre la que se define el código.