27/09 12:10HS @ Gran SalaTRACK DATA SCIENCE / AI
Deconstruyendo los Transformers: La Matemática detrás de ChatGPT
Speaker: Lautaro Borrovinsky
GPT: La "G" es de "Generativo", ya que genera texto que antes no existía. La "P" es de "Pre-entrenado", porque se entrena en grandes cantidades de texto antes de ser ajustado para tareas específicas. La "T" es de "Transformer"... ¿Y eso? Para entender la revolución que está atravesando todos los aspectos de nuestra vida, es importante conocer los fundamentos detrás de estos modelos. En la charla, exploraremos conceptos matemáticos básicos como matrices y distribuciones de probabilidad y la forma en que se integran en la arquitectura Transformer, que ha transformado tareas de NLP como la traducción automática y la generación de texto. Finalmente, discutiremos la importancia de la interpretabilidad de este tipo de modelos y algunas técnicas utilizadas para comprender mejor sus predicciones.