Kyle and Linhda discuss attention and the transformer - an encoder/decoder architecture that extends the basic ideas of vector embeddings like word2vec into a more contextual use case.

Podden och tillhörande omslagsbild på den här sidan tillhör Kyle Polich. Innehållet i podden är skapat av Kyle Polich och inte av, eller tillsammans med, Poddtoppen.