Fredrik snackar med Vilhelm von Ehrenheim om teknik som kan tänkas påverka det vi kallar AI framöver. Vilka tekniker är intressanta, och vad innebär de?
Vi diskuterar bland annat:
Vad innebär kontext för språkmodeller?
Multimodalitet - kunna resonera om text och bild samtidigt
Kunskapgrafer och RAG - tekniker för att försöka få svar som är “mer rätt” och har mindre risk att verka påhittade inom specifika sammanhang
Blir det fler stora generella modeller framöver, eller fler små och specialiserade?
Kunskapsgrafer och sökmotorer. Det pågår mycket utveckling kring att bättre knyta fakta och information från specifika områden - till exempel ditt företags situation just nu - till mer generellt tränade modeller, för att man inte ska behöva specialträna en modell för varje specifikt område, och inte heller behöva träna om varje gång omvärlden förändras
Agenter - sätt för modeller att interagera med som omgivning och utföra saker
Resonerande - vad menar man med det? Hur mäter man det? Och inte minst: hur tränar man egentligen modeller för att bli bättre på det?
Kommer det stora modellerna bli ännu större? Gör mer träningsdata mer nytta?
Och som avslutning: finns det några andra intressanta approacher som vi inte hör så mycket om för att det stora språkmodellerna just nu får all uppmärksamhet och investeringar?
Ett stort tack till Cloudnet som sponsrar vår VPS!
Podden och tillhörande omslagsbild på den här sidan tillhör Kristoffer, Fredrik, Tobias. Innehållet i podden är skapat av Kristoffer, Fredrik, Tobias och inte av, eller tillsammans med, Poddtoppen.