Artwork

Inhoud geleverd door Jay Shah. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door Jay Shah of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.
Player FM - Podcast-app
Ga offline met de app Player FM !

Why are Transformer so effective in Large Language Models like ChatGPT

9:43
 
Delen
 

Manage episode 359298739 series 2859018
Inhoud geleverd door Jay Shah. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door Jay Shah of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.

Understanding why and how transformers are so efficient in large language models nowadays such as #chatgpt and more.
Watch the full podcast with Dr. Surbhi Goel here: https://youtu.be/stB0cY_fffo
Find Dr. Goel on social media
Website: https://www.surbhigoel.com/
Linkedin: https://www.linkedin.com/in/surbhi-goel-5455b25a
Twitter: https://twitter.com/surbhigoel_?lang=en
Learning Theory Alliance: https://let-all.com/index.html
About the Host:
Jay is a Ph.D. student at Arizona State University.
Linkedin: https://www.linkedin.com/in/shahjay22/
Twitter: https://twitter.com/jaygshah22
Homepage: https://www.public.asu.edu/~jgshah1/ for any queries.
Stay tuned for upcoming webinars!
***Disclaimer: The information contained in this video represents the views and opinions of the speaker and does not necessarily represent the views or opinions of any institution. It does not constitute an endorsement by any Institution or its affiliates of such video content.***

Checkout these Podcasts on YouTube: https://www.youtube.com/c/JayShahml
About the author: https://www.public.asu.edu/~jgshah1/

  continue reading

92 afleveringen

Artwork
iconDelen
 
Manage episode 359298739 series 2859018
Inhoud geleverd door Jay Shah. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door Jay Shah of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.

Understanding why and how transformers are so efficient in large language models nowadays such as #chatgpt and more.
Watch the full podcast with Dr. Surbhi Goel here: https://youtu.be/stB0cY_fffo
Find Dr. Goel on social media
Website: https://www.surbhigoel.com/
Linkedin: https://www.linkedin.com/in/surbhi-goel-5455b25a
Twitter: https://twitter.com/surbhigoel_?lang=en
Learning Theory Alliance: https://let-all.com/index.html
About the Host:
Jay is a Ph.D. student at Arizona State University.
Linkedin: https://www.linkedin.com/in/shahjay22/
Twitter: https://twitter.com/jaygshah22
Homepage: https://www.public.asu.edu/~jgshah1/ for any queries.
Stay tuned for upcoming webinars!
***Disclaimer: The information contained in this video represents the views and opinions of the speaker and does not necessarily represent the views or opinions of any institution. It does not constitute an endorsement by any Institution or its affiliates of such video content.***

Checkout these Podcasts on YouTube: https://www.youtube.com/c/JayShahml
About the author: https://www.public.asu.edu/~jgshah1/

  continue reading

92 afleveringen

Alle afleveringen

×
 
Loading …

Welkom op Player FM!

Player FM scant het web op podcasts van hoge kwaliteit waarvan u nu kunt genieten. Het is de beste podcast-app en werkt op Android, iPhone en internet. Aanmelden om abonnementen op verschillende apparaten te synchroniseren.

 

Korte handleiding