Transformer Linearity, Face-Adapter Diffusion Models, Cross-Layer Attention Shrinks LLMs, Image Generation Breakthrough
MP3•Thuis aflevering
Manage episode 419758292 series 3568650
Inhoud geleverd door PocketPod. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door PocketPod of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.
Your Transformer is Secretly Linear Diffusion for World Modeling: Visual Details Matter in Atari Face Adapter for Pre-Trained Diffusion Models with Fine-Grained ID and Attribute Control Reducing Transformer Key-Value Cache Size with Cross-Layer Attention OmniGlue: Generalizable Feature Matching with Foundation Model Guidance Personalized Residuals for Concept-Driven Text-to-Image Generation
…
continue reading
70 afleveringen