Bra video för att introducera mutlimodala modeller! Men även ett kul papper/resultat. Man kan särskilt fokusera på “related work” delen i pappret för att snabbt förstå att forskningssamfundet inom AI i stort, iaf. lever jag i den föreställningen, har lämnat tanken om välpresterande stora nollförsöks fundamentalmodeller. Ett annat sätt att uttrycka det är att man redan insett att framtiden inte ligger i att bara skala upp allt (dataset/parametermängd/beräkningskraft). Dessa saker är ju viktiga om man skall finjustera modeller gentemot någon specifik uppgift eller domän men att satsa på att skapa “ett AI” som i “en modell” för att klara allt är det nog svårt att hitta någon som eftersträvar (utanför OpenAI). Det finns även flertalet “AI ofullständighetsbevis” som detta papper sällar sig till, det skall bli kul att se detta papper efter att det blivit accepterat någonstans och fått sin tillbörliga “peer review”.
Denna typ av tankar brukar dyka upp när forskare diskuterar mutlimodala modeller som nyckeln till att skapa “allmänna världsmodeller” som en väg til AGI (vad man nu tänker att just AGI skall vara)… Personligen är jag övertygad om att det är i motsatta ansatser framtiden ligger, tänk på att hjärnan populärt bara kräver 20W för allt fantastiskt den är kapabel till. Andra detaljer som ofta ignoreras är att hjärnan inte lär sig genom bakpropagering samt att den är uppdelad i flertalet dedikerade domänkomponenter, alltså inte bara en stor parametermodell.