Se lleva a cabo la creación y evaluación de modelos auto-regresivos utilizando arquitecturas de redes recurrentes y transformers. Durante el taller, se realizarán diversas actividades relacionadas con el Procesamiento del Lenguaje Natural (PLN), tales como la predicción de series temporales, la clasificación de textos, la transcripción y la traducción. El enfoque principal será explorar y aplicar estos modelos en tareas específicas de procesamiento de lenguaje natural, con el objetivo de comprender su desempeño y eficacia en diferentes contextos
La clasificación se realizará mediante la detección de 4 categorías, las cuales detectarán si la persona está cepillando correctamente las caras laterales de sus dientes, la parte superior de los molares, o si por el contrario está cepillando su dentadura de manera errónea, así mismo detectara cuando no esté lavando sus dientes. Por tanto, la clasificación se reduce al movimiento que tiene el cepillo en función de la localización y parte del diente. Para mayor comprensión de la anatomía del diente se presenta una imagen con sus partes exteriores principales
Clasificación de sentimientos en tweets, implementando y comparando dos arquitecturas de modelos de procesamiento de lenguaje natural: Redes Neuronales Recurrentes (RNN) y el modelo Transformer, específicamente BERT (Bidirectional Encoder Representations from Transformers).
La integración fue realizada con Gradio en donde se sube los archivo de audio .wav en español y este a lado derecho se visualizará la transcripción de texto de español y su traduccion al ingles , ademas tambien se visualizará el timeline de la transcripción en español y en inglés, este “timeline” se visualiza el tiempo donde empieza y termina la frase , esto es útil para la creación de subtítulos por lo que esta herramienta ayudará a la creación de subtítulos en español e inglés.